このところ、生成AIに関する話題が尽きない。「リスクはあるけど、まずは使ってみよう」と言うのが正しい姿勢。もちろん、機密情報を入力させないとか、悪事に利用しないというガバナンスは必要だ。
ブームが起きると、必ず人材不足~争奪戦のようなことが起きる。今回、このような記事を見つけた。
「ChatGPT」ブームで中国人AIエンジニアの争奪合戦が激化 - ZDNET Japan
カネに糸目は付けず獲得したいというのは理解できる。しかし何をやって欲しいかを明確にしないと、人材は能力を発揮できず他に移っていってしまうだろう。またここに挙げられている企業が、こぞってAIの先端開発をするわけではない。どちらかというと自社の業務改革に使いたいのだと思う。
サイバーセキュリティの業界では、数年前から「プラスセキュリティ人材の育成と活用」を考えてきた。サイバーセキュリティの細部にわたる知識や実践は無くても、
・サイバーセキュリティとは何かを理解し
・大まかな仕組みとどういう被害や対策があり得るかを知って
・自分の業務に重ね合わせて考えられる人
というもの。セキュリティリテラシーを持った組織人と言ってもいい。
この考え方は、AIにも活かせるはずだ。生成AIを使って業務改革をしようとするなら、まずその業務を知悉していることが重要。業務の流れ、他者との関係、デジタル化の進捗、AI以前の根本課題、解決の可能性、AI利用によるリスクを検討し、ルール作りを含む解決策を提示することを、経営者はAI人材に求めているはず。ならば、これを「プラス(生成)AI人材」と呼べるだろう。
AIリスク回避に「企業は倫理担当役員を置くべきだ」との意見もあったが、業務も技術も分からない倫理学者を雇用するだけでは、当面対外的に糊塗できるとしても本質的な解決にはならない。倫理学者はアドバイザ役に留め、倫理は経営者自らが負い、プラスAI人材を増やしていくこと。これが目指すべきAI時代の経営手法だと思う。