梶浦敏範【公式】ブログ

デジタル社会の健全な発展を目指す研究者です。AI、DX、データ活用、セキュリティなどの国際事情、今後の見通しや懸念をお伝えします。あくまで個人の見解であり、所属する団体等の意見ではないことをお断りしておきます。

生成AI活用現場のリスク

 昨年<Open AI社>の生成AI「Chat-GPT4.0」が登場して、一気にAIブームが巻き起こった。あれから1年近く経ち、そろそろ実際に業務に使われるようになって、いくつかの冷静な知見がたまってきたころだと思う。今回、AIのリスク管理を看板にしているベンチャー企業の創業者に、種々教えてもらう機会があった。

 

 一緒に話を聞いたのは、製薬業・小売業・金融業・製造業・通信事業者・商社などのリスク管理責任者たち。彼らも「まずは試してみよう」と社内のいろいろな部署でトライアルをしていて、本格導入にあたりどうマネジメントすべきかを悩んでいるという。

 

 挙げられた事例は、

 

・金融機関の投資相談

・旅行会社のツアー紹介や相談

・保険事業者の保険の個別設計

・人材紹介のキャリア形成支援

 

    

 

 で、すでにWebサイトでサービス提供している企業であれば、比較的容易にAI導入が可能だという。その結果、有人で対応する際からの人件費削減だけでなく、多様なニーズへのきめ細かな対応が可能で、実績を積めば積むほどニーズを満たす精度(顧客満足度)も上るといいことずくめである。

 

 しかしそこにはリスクもあって、

 

・AIが応答を間違える

・問いかけによっては、公平性を欠く回答をすることもある

・やはり問いかけ方により、判断材料となったデータを漏らしてしまう

・そもそも意図的にAIを悪用しようとする者も現れる

 

 という。最後のものについては、代表的な手法として「プロンプト・インジェクション」が知られている(*1)。もちろん生成AI側も対策はとるのだが、問いかけ方のバリエーションは無限にあるので、いたちごっこになっている。

 

 単なる相談ではなく、卸・小売り業者の間で価格等の交渉をAIがしている例もあるようだ。方々で試用から実用化が図られ、その業務に特化して成長するAIが数多くある実態が明らかになった。利便性は向上するのだが「AI with Security」もまた必須の経営課題になってきている。

 

*1:プロンプトインジェクションとは?分かりやすく解説【悪用厳禁】 | Reinforz Insight