Google合同会社との付き合いは古い。10年以上前から、経団連とACCJ(在日米国商工会)でデジタル政策を議論してきたが、Microsoftらと並んでACCJの中核企業だった。ビッグテックの例にもれず、サイバーセキュリティ対策には熱心だし、ノウハウも人財も持っている。何年か前に、セキュリティ企業Mandiantを傘下に収め、その時に私の友人もGoogleに移った。
Mandiantのメンバーを得て、今年日本にサイバーセキュリティ研究拠点を設けたが、そのお披露目イベントに案内されたので出かけていった。日々変貌が続くJR渋谷駅前の渋谷ストリームが会場。
来日した2人の同社専門家に、日本の政府・シンクタンク・学界の有識者、英国大使館の参事官(*1)も加えた豪華なメンバーで「AI時代のサイバーセキュリティ、人材育成」の議論が進んだ。若手研究者の表彰式もあった。内容は、下記の記事に詳しい。
「AIによるサーバー攻撃をAIで防衛する」、グーグルが産官学共同で進める日本のサイバー防衛とは - ケータイ Watch
最後に講演した同社の研究者は、AIのリスクとして、
・データ自体に毒を入れられる
・通信インフラ上でデータが歪められる
・モデル生成中の分析で、データが誤ったり偏る
・生成されたモデルそのものが盗まれる
ことを挙げていた。Q&Aタイムがあったので、
「AIの出力をAIに学習させるとAIが歪むとの説(*2)があるが、どう思うか」
と聞いた。彼はその説を肯定も否定もせず、おそらくはその危惧があることを前提にしてだろう、こう応えた。
「データに履歴や作成者等を記したシールを貼ることを(Googleでは)進めている。これによって、利用者がそのデータをどう利用すべきかが判断できる」
X'mas前だからだろうか、欧米系の識者が来日することが増えている。相変わらず英語は下手だけれど、精一杯意見交換に努めたい。
*1:先日のRUSI提言の発表会でも会っている。