昨年<Open AI社>の生成AI「Chat-GPT4.0」が登場して、一気にAIブームが巻き起こった。あれから1年近く経ち、そろそろ実際に業務に使われるようになって、いくつかの冷静な知見がたまってきたころだと思う。今回、AIのリスク管理を看板にしているベンチャー企業の創業者に、種々教えてもらう機会があった。
一緒に話を聞いたのは、製薬業・小売業・金融業・製造業・通信事業者・商社などのリスク管理責任者たち。彼らも「まずは試してみよう」と社内のいろいろな部署でトライアルをしていて、本格導入にあたりどうマネジメントすべきかを悩んでいるという。
挙げられた事例は、
・金融機関の投資相談
・旅行会社のツアー紹介や相談
・保険事業者の保険の個別設計
・人材紹介のキャリア形成支援
で、すでにWebサイトでサービス提供している企業であれば、比較的容易にAI導入が可能だという。その結果、有人で対応する際からの人件費削減だけでなく、多様なニーズへのきめ細かな対応が可能で、実績を積めば積むほどニーズを満たす精度(顧客満足度)も上るといいことずくめである。
しかしそこにはリスクもあって、
・AIが応答を間違える
・問いかけによっては、公平性を欠く回答をすることもある
・やはり問いかけ方により、判断材料となったデータを漏らしてしまう
・そもそも意図的にAIを悪用しようとする者も現れる
という。最後のものについては、代表的な手法として「プロンプト・インジェクション」が知られている(*1)。もちろん生成AI側も対策はとるのだが、問いかけ方のバリエーションは無限にあるので、いたちごっこになっている。
単なる相談ではなく、卸・小売り業者の間で価格等の交渉をAIがしている例もあるようだ。方々で試用から実用化が図られ、その業務に特化して成長するAIが数多くある実態が明らかになった。利便性は向上するのだが「AI with Security」もまた必須の経営課題になってきている。