昨日に引き続き、新興AI企業のことを紹介したい。ただ<Palantir>と今日紹介する企業<Anthropic>のスタンスは真逆に見える。前者は戦場のような環境で、戦いに勝つためのサービスを提供するのだが、後者はビジネスの世界で「Ethics of AI」を遵守したサービスを提供しようとしている。
なぜ今、AIに「理由」を教えるのか──AnthropicがClaudeの「新憲法」公開 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
この記事によれば、同社のAIチャットボットClaudeは、今回公開された「憲法」に基づいて教育されている。単純に避けるべきこと(例:毒薬の作り方教えてとの問いへの回答)だけでなく、なぜ特定の境界が存在するのかまでを教えるとある。

想定するに、毒薬の例でいうと、
・毒薬は社会に害をもたらすもの
・社会として一定のルールに基づいて管理されている
・ルールを逸脱すれば、種々のリスクが発生する
・毒薬とされるものの範囲はここまで
などを手間をかけて教え込んでいるものと思われる。かねて「Accontability of AI」が求められた(*1)とき、回答プロセスを説明できるようにした企業もあった。千葉工大の伊藤学長は「手間はかかるが、構造が分かり証明できるAIの開発が進んでいて、これが本命になる」との意見を述べていた(*2)。どうやら、AIはその領域まで進化してきたようだ。
同様の「憲法」に沿って教育されたと思われるAIエージェントClaude Coworkが登場して、非エンジニアでもAIに命令するだけで、多くの知的労働の成果を安全に得られるようになった。今後SaaS型サービスは衰退すると考えられ、関連企業の株価は大きく下げた(*3)。個人にも企業にも、大きな変革の時期が本当に訪れたようだ。
*1:「Accountability of AI」の試み - 梶浦敏範【公式】ブログ