梶浦敏範【公式】ブログ

デジタル社会の健全な発展を目指す研究者です。AI、DX、データ活用、セキュリティなどの国際事情、今後の見通しや懸念をお伝えします。あくまで個人の見解であり、所属する団体等の意見ではないことをお断りしておきます。

「データ・マイノリティ」というリスク

 「ChatGPT」を始めとする生成AIの登場によって、各所で議論が巻き起こっている。興味をもって使いたい人、使って良かったとする人が多い一方、ネガティブな意見も少なくない。クリエーター・芸術家・作家・翻訳者など、知的な専門職に就いている人たちからは懸念の声が大きい。彼らとしては、これ以上浸食されないように生成AIが使えるデジタルデータを制限しようとの意見もあると聞く。

 

 確かにこれまで自分が10時間かけて造り上げたものに近いレベルのものが、ほんの数秒で出来上がると知って受ける衝撃は大きいだろう。生成AIの進歩を少しでも遅らせるために、AIの燃料ともいうべきデータを制限するというのは、現時点で可能に見える唯一の対策かもしれない。「可能に見える」と言ったのは、恐らくそれは不可能だからだ。

 

    

 

 ある人たちがデジタル化を阻んだとしても、どこかに抜け穴はあってデジタル化は進んでしまう。それ以外にも、デジタル化に背を向ける人たちには、もうひとつリスクがある。それは「データ・マイノリティ」になりかねないことだ。

 

 以前米国で、警察が顔認証技術を使わないようにしたことがある。技術の基になったデータサンプルにアフリカ系のものが少なく、この人たちの顔認証精度が高くなかった。それが冤罪を産む温床になったとの懸念から、使用が止められたのだ。

 

 SNS等で個人情報を晒すのは問題だが、全く出さなかった場合その人のサイバー空間上での存在は大きくならない。そんな人たちの集団の意志や存在感を、生成AIは顧みないだろう。生成AIが今後民間企業のマーケティングから行政の政策検討などに使われるようになれば、彼らに不利が生じる可能性は少なくない。

 

 「ChatGPT」のベテランユーザは「日本語の理解はまだ不十分、英語を意識して質問文を考えるのがいい。日本のユーザが増えればそれだけ早く成長して日本語対応できる」と言っていた。生成AIに背を向ける人にも不利益にならないような「マイノリティ対策」が、各国政府には求められる。