生成AI登場以降、多くの企業でAI活用の議論が成されてきた。比較的コンサバティブとされる日本企業でも、実践し効果を上げているとのニュースが多い。ただし、生成AI(LLMモデルというべきかもしれない)は発展途上の技術で、利用側も十分な知識を持っているわけではない。AIが人類を駆逐するという大げさな話でなくても、思わぬことが起きてしまう可能性は高い。
以前、ある先端的な大手企業の利用例を紹介した(*1)。自社のアプリケーションに対し、LLMモデルの選定、情報共有の範囲、AIエージェントの使い方等、現場任せにせず実質的なCAIO(AI最高責任者)の指揮のもとで、やや厳しめなガバナンスを掛けた実践例である。

暴走とまでは行かないが、AIが思わぬ動きをしてしまった場合の対処など、事前の準備、インシデント対応、外部協力者の選定等、自然災害に似た対応が用意されていなくてはならない。
生成AIを使えば、事務作業の効率化など目前のメリットは見えやすい。しかし上記のようなデメリットが忘れられてはいけないと、総務省では自治体での生成AI活用について、
・年内に具体的な使い方の指針を示すのでこれに従う
・機密性の高い情報はAIに学習させない
・リスクに対応するため管理責任者を置く
ことを求めている(*2)。正直ITガバナンスが不十分な自治体も多いので、上記の大手企業のようなガバナンスができるかは不安である。そして先週、新しいニュースが。
かんぽ生命、保険金査定事務にAI導入へ 書類確認など作業半減 - 日本経済新聞
日本郵政グループの問題については再三述べてきたので、ここでは繰り返さない。一言で言えば、IT以前の業務ガバナンスもできていない組織である。この記事では保険金査定業務に限ったAI活用のように見えるが、人手不足の業態であり、よく検討もせず合理化に走る(AIの濫用?)可能性がないとは言えない。総務省には、自治体以上に危険なこの企業に、AIガバナンスを徹底して欲しいと思う。
金融業界は情報の宝庫だが、このところ違法な情報共有や活用の案件がいくつも出ている。かんぽ生命のAI活用にあたっても、リスクを感じた次第である。
*1:AIガバナンスはこうなる?(前編) - 梶浦敏範【公式】ブログ