先週米国バイデン政権が、AIの安全性は企業に責任があるとして政府方針(責任あるAIイノベーションを推進する新たな行動)を示した。先端的なAI開発企業の中でも、安全性に関する危惧は高まっている。世間一般に言われるような、
・多くのホワイトカラーが職を失う
・成長したロボットが人類を支配する
というほどのものではないが、AIを悪用する輩が出て来て社会的リスクは増すとの懸念だ。以前からシンギュラリティ(*1)への警戒感はあったのだが、「ChatGPT」を始めとする生成AIの登場が、世界に大きなインパクトを与えている。先週の日経紙はそのリスクについて、
1)間違った情報や偏った意見の拡散
2)本物と誤認する「ディープフェイク」画像や動画の作成
3)入力した情報がAIの学習データなどに使われて流出する可能性
4)生成画像が著作権を侵害する可能性
の4点を挙げていた。
企業のセキュリティ責任者に生成AIをどう使おうとしているか聞くと、主に気にしていたのは3)で、「各種の調査やレポートの下書きなどには有効なので、全面禁止はしない。しかし守るべき情報(顧客情報・個人情報・機密情報等)の入力は禁止している」との回答が多かった。
中には1)もしくは2)によって、自社へのボイコット運動等が起きてしまうことを危惧している人もいた。ただ、これは一企業では防ぎようがない。そんな兆候があるかをウォッチしているだけのようだ。
もうひとつ、コード生成の高度化・効率化が、サイバーリスクを増すという人がいた。その人はサイバーセキュリティの専門家で、高度なマルウェアを素人でも作れるようになったと言う。それは生成AI側で規制しているだろうと聞くと、
・こんなマルウェア作ってと単純に頼めば拒否される
・しかし問いかけ方を工夫して、いくつかのステップを踏むと・・・
目の前でマルウェア作成の直前までを実演してくれた。限定メンバーでの会合だったから見せてくれたのだろうが、私を含めて参加者は皆、背筋が寒くなった。開発企業はこのような「初期不良」を改善してくれるはずだが、悪者の方も脆弱性を探し続けるからいたちごっこ。このようなリスクもあることを認識して、正しく怖れ、警戒するべきである。
*1:AIの能力が人間を越えること