AIが種々の作業を合理化することは間違いがなく、様々な分野で利用(もしくは試行)が始まっている。ただその用途については、いかがなものかとの反対が出てくることもある。例えば教育分野でレポートを生徒に課したところ、AI丸写しの回答が出てきたような例だ。また過度な人員削減につながると、労働組合が反対を示すこともある。
ではどのような用途だと反対が多いのか?上記のような例に加えて、
・AIツールを利用しようとしている機関への信頼が薄い
・AIツールを供給している事業者への信頼が薄い
ケースがありそうだ。それを気付かせてくれたのが、この例。
米警察の「調書の作成を自動化するAIツール」が批判される理由 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
警官が容疑者や警官自身の権利を守るために装着するボディカメラは、違法捜査を抑制し、合法的に操作していることの証明をするツール。
この分野で独占的な地位を持つ企業アクソン(*1)が警官の調書作成にAIを適用し、当該作業の8割を軽減することができたという。これによって、警官が現場でワークする時間を25%増やせるという。
ところが、AI作成調書の信頼性に対する疑義が高まっている。AIは「幻覚」を見るし、人種バイアスもあるとの批判だ。確かにAIも間違えることはあるし、かつて顔認証で非白人でのエラー率が高かったことはある。このような批判を聞いて、技術の未熟もあるが、警察そのものへの信頼とツール提供企業アクソンへの信頼がいずれも揺らいでいるからだと思った。
だから一般論として、AI利用者と供給者の信頼が大事だと改めて感じたのだ。ただ本件に関して言うと、
・AIが裁判の証拠を作ることに対する法曹界の不安
・ひいては裁判そのものがAI化されて職を失いかねない法曹従事者の危惧
が背景にあって、より激しく反対意見が展開されているのかもしれないが。
*1:警察向けボディカメラで圧倒的シェア、米アクソンの独禁法訴訟の行方 | Forbes JAPAN 公式サイト(フォーブス ジャパン)