「ChatGPT」を始めとする生成AIの登場によって、各所で議論が巻き起こっている。興味をもって使いたい人、使って良かったとする人が多い一方、ネガティブな意見も少なくない。クリエーター・芸術家・作家・翻訳者など、知的な専門職に就いている人たちからは懸念の声が大きい。彼らとしては、これ以上浸食されないように生成AIが使えるデジタルデータを制限しようとの意見もあると聞く。
確かにこれまで自分が10時間かけて造り上げたものに近いレベルのものが、ほんの数秒で出来上がると知って受ける衝撃は大きいだろう。生成AIの進歩を少しでも遅らせるために、AIの燃料ともいうべきデータを制限するというのは、現時点で可能に見える唯一の対策かもしれない。「可能に見える」と言ったのは、恐らくそれは不可能だからだ。
ある人たちがデジタル化を阻んだとしても、どこかに抜け穴はあってデジタル化は進んでしまう。それ以外にも、デジタル化に背を向ける人たちには、もうひとつリスクがある。それは「データ・マイノリティ」になりかねないことだ。
以前米国で、警察が顔認証技術を使わないようにしたことがある。技術の基になったデータサンプルにアフリカ系のものが少なく、この人たちの顔認証精度が高くなかった。それが冤罪を産む温床になったとの懸念から、使用が止められたのだ。
SNS等で個人情報を晒すのは問題だが、全く出さなかった場合その人のサイバー空間上での存在は大きくならない。そんな人たちの集団の意志や存在感を、生成AIは顧みないだろう。生成AIが今後民間企業のマーケティングから行政の政策検討などに使われるようになれば、彼らに不利が生じる可能性は少なくない。
「ChatGPT」のベテランユーザは「日本語の理解はまだ不十分、英語を意識して質問文を考えるのがいい。日本のユーザが増えればそれだけ早く成長して日本語対応できる」と言っていた。生成AIに背を向ける人にも不利益にならないような「マイノリティ対策」が、各国政府には求められる。