梶浦敏範【公式】ブログ

デジタル社会の健全な発展を目指す研究者です。AI、DX、データ活用、セキュリティなどの国際事情、今後の見通しや懸念をお伝えします。あくまで個人の見解であり、所属する団体等の意見ではないことをお断りしておきます。

日本政府のAI運用指針案

 生成AIの登場は多くの人達にインパクトを与えたので、各国政府が(AI全体についての)規制を検討し始めた。G7各国は「広島AIプロセス」で信頼できるAIを求めていくことでは同意したものの、日米はソフトロー指向、欧州はハードロー指向が鮮明になっていた。

 

AI規制はまずソフトローから - 梶浦敏範【公式】ブログ (hatenablog.jp)

 

 AIの安全性と透明性を求めるというのだが、先週日本政府の骨子案が出てきた。

 

生成AI学習データ、事業者に開示指針 政府が骨子案 - 日本経済新聞 (nikkei.com)

 

 AIを扱う(利用する)企業は、非常に多岐にわたる。それを一つのルールでカバーするのは無理だから、企業を5分類に分けるとある。

 

    

 

1)生成AI基盤モデルの開発者

2)AIにデータを学習させる事業者

3)システム開発

4)サービス提供者

5)AIサービスの利用者

 

 全てのの事業者に対しては、

 

・誤情報を生む(など)といった生成AIのリスクを把握

・人権に配慮したサービスが原則(との認識)

 

 が求められる。開発者(類型1~3だろう)には、

 

・学習したデータを外部に開示

・第三者による外部監査も検討

 

 すべしとしていて、AIサービスの運営者など(類型1~4だろう)には、

 

・機密データを安全に管理

・サービスの悪用対策

・AIを使っていることを明記

 

 するよう求めている。この記事だけでは判断できず、関係者に聞いてみたいことがいくつかある。まず、記事の見出しにもなっている「学習データ開示」だが、膨大な数の利用者がデータを与えている。開示など出来るのだろうか?多分、利用者が与えたものはこの範疇に入らないのだろうが、そもそも類型2と5の線引きはどうするのだろう?

 

 ある種のAIでは、患者の病歴など個人情報を入力するものもある。これらは「機密データ」にあたるだろうから、安全に管理(開示させない)することになる。開示と保護のバランスはどう取るのだろう?

 

 そしてやはり「AIの定義」がどうなるのかも気になる。今、この記事を書くにあたっても<bing>を利用させてもらい、データも与えている。拡大解釈すれば、私のブログも「AIを使っていること」を明記しなくてはいけないのだろうか?まだ指針案の入り口と考え、民間からも声を挙げてOpenな議論をしていきたい。