生成AIの登場は多くの人達にインパクトを与えたので、各国政府が(AI全体についての)規制を検討し始めた。G7各国は「広島AIプロセス」で信頼できるAIを求めていくことでは同意したものの、日米はソフトロー指向、欧州はハードロー指向が鮮明になっていた。
AI規制はまずソフトローから - 梶浦敏範【公式】ブログ (hatenablog.jp)
AIの安全性と透明性を求めるというのだが、先週日本政府の骨子案が出てきた。
生成AI学習データ、事業者に開示指針 政府が骨子案 - 日本経済新聞 (nikkei.com)
AIを扱う(利用する)企業は、非常に多岐にわたる。それを一つのルールでカバーするのは無理だから、企業を5分類に分けるとある。
1)生成AI基盤モデルの開発者
2)AIにデータを学習させる事業者
3)システム開発者
4)サービス提供者
5)AIサービスの利用者
全てのの事業者に対しては、
・誤情報を生む(など)といった生成AIのリスクを把握
・人権に配慮したサービスが原則(との認識)
が求められる。開発者(類型1~3だろう)には、
・学習したデータを外部に開示
・第三者による外部監査も検討
すべしとしていて、AIサービスの運営者など(類型1~4だろう)には、
・機密データを安全に管理
・サービスの悪用対策
・AIを使っていることを明記
するよう求めている。この記事だけでは判断できず、関係者に聞いてみたいことがいくつかある。まず、記事の見出しにもなっている「学習データ開示」だが、膨大な数の利用者がデータを与えている。開示など出来るのだろうか?多分、利用者が与えたものはこの範疇に入らないのだろうが、そもそも類型2と5の線引きはどうするのだろう?
ある種のAIでは、患者の病歴など個人情報を入力するものもある。これらは「機密データ」にあたるだろうから、安全に管理(開示させない)することになる。開示と保護のバランスはどう取るのだろう?
そしてやはり「AIの定義」がどうなるのかも気になる。今、この記事を書くにあたっても<bing>を利用させてもらい、データも与えている。拡大解釈すれば、私のブログも「AIを使っていること」を明記しなくてはいけないのだろうか?まだ指針案の入り口と考え、民間からも声を挙げてOpenな議論をしていきたい。