2年前から「AIの定義」を求めていたのに、なぜ今取り上げるのかというと、AIの利用分野が当時よりずっと広くなってきているから。例えば医療業界では、
医療現場でAIが「やっていいこと」と「やってはいけないこと」…AIによる医療事故の責任の所在(奥 真也) | 現代新書 | 講談社(1/2) (gendai.media)
にあるように、独自のルールを決めるべしとの議論が始まりそうだ。もちろん人の命を直接預かる業界での、コンピュータ導入による医療機器の発展は著しい。加えてAIがもたらす迅速で詳細な分析、微細な施術などは、医療の革新をもたらす可能性も十分にある。一方で、この記事にあるように医療過誤の場合の責任論はどうなるのか?
・使った医師
・AIが学習に使ったデータの提供者
・AIシステムそのものの開発企業
などの責任論は、従来のものより数段難しい判断を要求することになる。
医療業界が、一足早くこのような危機感をもってくれたのは、大変ありがたい。しかし各業界が個別にリスクに対する判断基準や責任分界点を議論して、別々のスタンダードができてしまうのも悩ましい。
出来るなら、国際的な標準としてほぼ全ての業種にまたがる基本的な考え方を決め、その上で各業界が個別事情を含めたスタンダードを決めていってほしい。その時に明確なAIの定義がないと、せっかくのスタンダードが抜け穴だらけになってしまうのではないかと、私は危惧する。
2年前「AIの定義論」を欧州委員会にふっかけたのは、正直AI規制を厳しくさせないための方便の部分があった。どうしても「ハイリスクAI規制」を振りかざすなら、企業はAIじゃないと言い張るかもしれないと・・・。しかし今回は、本当にデジタル社会の健全な発展のため、ちゃんとした「AIの定義論」が必要だと思っている。