AI(人工知能)の能力向上が著しくなり、各界から驚きの声が上がっている。期待が大きいのも確かだが、それを上回るほどの懸念も伝えられてくる。イーロン・マスク氏ら1,000人を越える有識者が連名で「先端AI開発を半年間停止せよ」と提言する一方、ビル・ゲイツ氏は「特定集団の開発停止で課題が解決されるとは思わない」と反論している。私の関与する会合でも「Chat-GPTのベネフィットとリスクをどう見ているか、識者の声を聴きたい」との意見が出た。
対話型AIであるChat-GPTを運営するOpenAI社は、動作監視・利用実態把握・子供の保護・プライバシー保護・誤情報対策などを発表し、今後も対策を重ねると発表した。
OpenAI、対話AI「ChatGPT」の安全策公表 欧米の批判受け - 日本経済新聞 (nikkei.com)
別の報道では、Chat-GPTに自社の製造ノウハウを入力して改善策を求めた従業員がいて企業秘密が漏洩してしまったとの事例も紹介されていた。この例などは、GitHubに開発中のプログラムを入れてしまった件もあったし、翻訳ソフトに入力した文章にも情報漏洩リスクはあると警戒。
テック企業には「技術を高めることに注力し、その陰の部分への対応がおろそかになる」ことが良くある。そこで欧州の識者を中心に、テック企業に倫理担当役員(Chief Ethics Officer)を置くよう勧める動きがある。
原子核工学&核兵器の議論でも同様だが、技術自体は悪くない。悪用するのは人間であり、それをどう防ぐかが先端的な技術を誇るテック企業には、特に求められる。結局はユーザが、その企業を信頼できるかにかかっている。いろいろな施策を並べられても、例えばデータがどのように企業内で使われているかや漏洩対策はどうかなどは、ユーザには分からない。倫理担当役員がいたところで、どんな役割を果たしているのかも細部までは不明だ。
OpenAI社が信頼獲得の第一歩を記したことは評価できるし、その努力を継続してもらうことを期待したい。またメディアには、テック企業についてのフェアな報道を求めたい。