拒否権を持つ常任理事国であるロシアが、自ら紛争当事国になったことで、より一層無力感が深まっているのが国連の安全保障理事会。しかし国際紛争の解決に向けた、全世界的な活動機関としてはここしかなく、無駄とは分かっても議論を続けなくてはいけないのがつらいところだ。
しかし、今回ひょっとすると核兵器を上回る破壊力を持つかもしれない脅威が出てきた。それが「AI兵器」。グテーレス事務総長は、AI(兵器)の議論をする専門機関を創設し、できれば2026年ころには法的拘束力のある「AI兵器禁止規定」をとりまとめたい意向だ。
国連安保理でのAI規制論 - 梶浦敏範【公式】ブログ (hatenablog.jp)
核兵器の拡散すら止められないのに、正体が全く分からないAI兵器の規制など可能なのかと思っていたら、米国政府が国連に対し(いちはやく)規制案を示したという。
「核兵器、AIに任せず」米、国連に規則案提出へ - 日本経済新聞 (nikkei.com)
主なスタンスとしては、
1)国際人権法を順守して運用
2)核兵器使用は人間の関与を維持
3)各国がAI開発や使用の原則を公表
4)AI兵器(利用)について十分な訓練を実施
5)意図しない行動に出た場合に運用を停止(可能に)
ということで、AI兵器の開発や運用そのものは規制(&禁止)せず、おおまかな行動規範を策定して、各国の政府や軍隊がAI兵器を使うことに対する透明性を、ある程度担保しようというものだ。
識者によっては「これでは甘すぎる。隠れてなんでもできてしまうではないか。だからハイリスクなものは全面禁止だ」と仰るかもしれない。しかしある線引きをして、これ以上は脅威が大きいので禁止、未満は制限・・・ということが難しいのが、AI兵器の特徴である。つまり勝手に進化してしまうので、いつその「線引き」を越えたのか、外目には分からないのだ。ひょっとすると開発・運用している当該政府や軍隊からも見えないかもしれない。
これが5)の「意図しない・・・」に繋がってきていると思う。3)の原則を越えてしまった場合に、気付いた時点で当局が運用を停止できる仕掛けが求められる次第である。