ヒトと会話できるAIの登場から2年ほど、一時期の熱狂的ブームこそ沈静化したが、その分実のある適用分野がいろいろ試されてきたのが、昨年の業界傾向だったと思う。一方で欧州の「AI Act」など規制の方も実際に機能し始め、利用と(人類)保護のバランスが利用者(&企業)に厳しく求められるようになっている。
3年ほど前になるが、AIの議論をしていて、2つのことを要求されて困った。
・Ethics of AI
・Accountability of AI
である。AIはしょせん技術である。技術には是非も倫理も存在しない。問われるのはその技術を利用するヒトの倫理だと反論した。相手(頭の固い欧州人)は「AIはヒトに準じるものだから、倫理を求める。今まだ未熟な少年期に倫理を根付かせておかないと、青年になってからでは遅い」と主張して、議論は平行線になった。

もうひとつの説明責任は、もっと分かりにくい。そもそもAIはヒトが立ち入らなくていいようなブラックボックス。判断の経緯ではなく、その迅速性が特徴である(*1)。むろん間違うこともあり、育成過程において「なぜ間違えたのか」の検証として判断に至る経緯を分析する必要はある。しかしそれは開発側のことで、利用者はそんなことは意識する必要はないはずだった。
それでも欧州人は「ヒトが納得できなければダメだ」と言い放ち、こちらは「お前らは神にも説明責任を求めるのか?」と言いそうになり、慌てて言葉を呑み込んだ。無神論者の私が冒涜発言をすれば、事件になっていたかもしれない。
しかし年末に見つけた記事(*2)によると「Accountability of AI」の端緒が見えたという。この企業は「AI企業が自社のAIを盲目的に信じるよう利用企業に求めるのでは、普及しない」として、その結果「試行すれども本格運用に至らない」企業が多いという。そこで「AIではなく、AIを使って回答を得るためのプロセスを提供」している。AIのサイドチェッカーのようなものらしい。
この機能が磨かれれば、上記欧州人が納得してくれるかどうかは別にして、AIへの信頼が増すことは間違いなかろう。AIそのものではなく、その周辺に未開拓のマーケットやジャンルが残っていることを示した形だ。
*1:「AIの判断です、以上」は困る(前編) - Cyber NINJA、只今参上
*2:AIの回答生成プロセスを説明し「信頼して使える」ようにするMaisaの技術 | Forbes JAPAN 公式サイト(フォーブス ジャパン)