梶浦敏範【公式】ブログ

デジタル社会の健全な発展を目指す研究者です。AI、DX、データ活用、セキュリティなどの国際事情、今後の見通しや懸念をお伝えします。あくまで個人の見解であり、所属する団体等の意見ではないことをお断りしておきます。

「Accountability of AI」の試み

 ヒトと会話できるAIの登場から2年ほど、一時期の熱狂的ブームこそ沈静化したが、その分実のある適用分野がいろいろ試されてきたのが、昨年の業界傾向だったと思う。一方で欧州の「AI Act」など規制の方も実際に機能し始め、利用と(人類)保護のバランスが利用者(&企業)に厳しく求められるようになっている。

 

 3年ほど前になるが、AIの議論をしていて、2つのことを要求されて困った。

 

・Ethics of AI

・Accountability of AI

 

 である。AIはしょせん技術である。技術には是非も倫理も存在しない。問われるのはその技術を利用するヒトの倫理だと反論した。相手(頭の固い欧州人)は「AIはヒトに準じるものだから、倫理を求める。今まだ未熟な少年期に倫理を根付かせておかないと、青年になってからでは遅い」と主張して、議論は平行線になった。

 

ヴァチカンのサンタンジェロ城

 もうひとつの説明責任は、もっと分かりにくい。そもそもAIはヒトが立ち入らなくていいようなブラックボックス。判断の経緯ではなく、その迅速性が特徴である(*1)。むろん間違うこともあり、育成過程において「なぜ間違えたのか」の検証として判断に至る経緯を分析する必要はある。しかしそれは開発側のことで、利用者はそんなことは意識する必要はないはずだった。

 

 それでも欧州人は「ヒトが納得できなければダメだ」と言い放ち、こちらは「お前らは神にも説明責任を求めるのか?」と言いそうになり、慌てて言葉を呑み込んだ。無神論者の私が冒涜発言をすれば、事件になっていたかもしれない。

 

 しかし年末に見つけた記事(*2)によると「Accountability of AI」の端緒が見えたという。この企業は「AI企業が自社のAIを盲目的に信じるよう利用企業に求めるのでは、普及しない」として、その結果「試行すれども本格運用に至らない」企業が多いという。そこで「AIではなく、AIを使って回答を得るためのプロセスを提供」している。AIのサイドチェッカーのようなものらしい。

 

 この機能が磨かれれば、上記欧州人が納得してくれるかどうかは別にして、AIへの信頼が増すことは間違いなかろう。AIそのものではなく、その周辺に未開拓のマーケットやジャンルが残っていることを示した形だ。

 

*1:「AIの判断です、以上」は困る(前編) - Cyber NINJA、只今参上

*2:AIの回答生成プロセスを説明し「信頼して使える」ようにするMaisaの技術 | Forbes JAPAN 公式サイト(フォーブス ジャパン)