昨年末、Googleのサイバーセキュリティ専門家と意見交換したことを紹介した。その中で、AIのリスクとして挙げられていたのが、
・データ自体に毒を入れられる
・通信インフラ上でデータが歪められる
・モデル生成中の分析で、データが誤ったり偏る
・生成されたモデルそのものが盗まれる
の4点(*1)。その4番目のリスクについては、ハッキングそれも主として内部犯行だろうと勝手に思い込んでいた。ところが、AIモデルはその動作中に電磁波をセンスすることで盗めるとの記事を読んで仰天した。
AIモデルはけっこう簡単に盗めるらしい。しかもハッキングなしで | ギズモード・ジャパン

現時点で「AIの盗用」は、AI開発者が許可なくデータを「盗用」してAIを成長させるというもの。著作権侵害などがこれにあたる。しかし、ここで議論されている脅威とは、AIが稼働しているチップが発する電磁波をセンスしてどのようなモデルかを再構成できるというもの。
AIの開発機だけが問題なのなら、開発環境だけ厳重に隔離する手もあるのだが、商用化されたAIサービスを使うだけでもリスクになるという。ただスマホくらい稠密にチップが実装されていると、電磁波のセンスが難しいともある。
懸念されるのは、例えばLAWSに用いられるAIモデルの盗用。これは極めて重大な軍事機密なのだが、AIモデルのテストなどで一般のPC環境で動作させたりすると漏れてしまいかねない。
ひとつ浮かんだアイデアだが、今後AIを動作させるチップの開発にあたっては、電磁波シールドが条件になるのではないか。AI用チップとしてはNVIDIAなどが高いシェアをもつGPUが有力だが、これはもともと画像処理用チップで並列計算が得意なために使われているだけ。本当にAI用チップを再開発するなら、電磁波シールドは要件に入るだろう。
半導体開発は「How to Make」だけではだめで、「What to Make」が重要との先人の言(*2)もある。電磁波シールドチップは有望なのでは?