先端的なテクノロジー企業は倫理担当役員を置いて、社会的にリスクのあるサービスやソリューションを産み出さないよう、社内監督機能を高めるべきだとの意見がある。当該役員はテック事業における哲学を従業員に説き、節度ある事業展開を徹底することが役割だ。欧州を中心としたこの考え方に、私は10年ほど前には戸惑った。倫理のブレーキを踏みすぎると、技術発展が阻害され事業競争に敗れると考えたからだ。
ただ生成AI登場以降、その猛威と負の部分を知るにつけ、ある程度はブレーキ(Fail Safeというべきか?)も必要と思い直した。ブレーキのないテック事業の典型例が、今問題視されている<Grok>である。
Grokの性的画像生成問題 EUと英が対応検討 写真1枚 国際ニュース:AFPBB News

このAIサービスは、イーロン・マスク氏の「xAI社」が提供しているもので、先月画像編集機能が付け加わったことで、性的なディープフェイク画像が容易に作れるようになったとある。マスク氏は倫理を説く経営者ではなく、<X>もコンテンツモデレーションなど不当投稿対策や情報公開には後ろ向きだった。それでも先月「健全性を確保する第一歩」として投稿場所を明示することになり、改善しつつある(*1)と思った矢先のことだった。
今月ディープフェイク被害が最も多い韓国で「情報通信網法改正案」が国会を通過、ちょっと厳しすぎる罰則への懸念が生じている。また米国国務省ロジャース次官が「米国との技術協力の脅威」と発言し、その真意を測りかねていた(*2)。例えば韓国で<Grok>が問題画像を輩出すると、巨額の賠償が求められるかもしれない。「技術協力の脅威」がそれを指すのであれば(同法に問題はあるとしても)非は米国側にあるように思う。
先週紹介した中国サイバースペース局の「AIサービス管理に関する暫定規制案」では、AIサービス事業者は(国家の)社会的な監督を受ける義務が明記されていた(*3)。国家の厳しすぎる監督を望ましいとは思わないが、ブレーキのない野放し状態の米国もそれに劣らず望ましくないのではなかろうか?
*1:匿名性のベールが少し剥がれて - 梶浦敏範【公式】ブログ