先週、国連安保理で初めてAIに関する議論が行われた。ウクライナ紛争や北朝鮮のICBM問題など、常任理事国ロシアの拒否権があって、実効ある措置が採れない会合である。しかし軍事の世界において、
★戦略級:OSINT、SIGINTなどのデジタル情報なしに戦略策定は不可能
☆作戦級:作戦目標の達成にあたりC4Iの確立は不可欠
★戦術級:諸兵科連合や攻撃の効率化はデジタル手法で実現
☆戦闘級:兵器の能力向上にデジタル技術は貢献
の状況にあるから、私としても安保理でデジタル技術などがどう扱われるかには興味がある。
AIテーマに国連安保理が初会合…軍事利用による「想像を絶する規模の死と破壊」を危惧 : 読売新聞 (yomiuri.co.jp)
の記事にあるように、会合の背景にあるのはAI技術を活用した「AI兵器」の脅威。欧州委員会のハイリスクAI規制でも、治安維持や軍事に関するAIについては規制の対象外になっていて、現時点では何でもできる状態。
グテーレス事務総長としては、
1)AIを規制する新たな国連機関の創設
2)AIに関する国際ルール作りの専門家会合を年内にスタート
3)2026年までに法的拘束力のあるAI兵器禁止規制を制定
したいようだ。1)と2)については、欧州委員会やOECDが議論していることにも関連してくるが、そこで例外とされている3)については新しい話。ここでも「AI兵器の定義」が明確でないと、禁止規定ができたところで抜け穴が広くなってしまう。
この記事では「人間の判断なしに攻撃する」というのが、AI兵器の定義に近いかもしれない。AIを技術や手法、使っているコンポーネントなどで定義するのは正直難しい。だから「自動攻撃」というアプリケーション(や行動様式)で定義すればマギレは少ない。しかし、それでも悩ましいことは沢山ある。
・攻撃をしない軍事用途のAIならいいの?
・自動兵器はすでにある。例えば地雷は人間の判断なしに攻撃するだろ
などと言われそうだ。さて、2026年と事務総長の希望の期限も示されているこの議論、どう進んでいくのか注視していたい。