No. 2822 AI研究者が警鐘を鳴らしながら次々と退職

AI researchers are sounding the alarm on their way out the door

by Allison Morrow

ニューヨーク: 「世界は危機に瀕している。」Anthropic社(米AI企業)のセーフガード研究チームの元責任者は会社を去る際にそう警告した。同様にOpenAIを去る研究者は、この技術には「私たちが理解し、ましてや防ぐためのツールを持たない方法でユーザーを操作する可能性がある」と語った。

彼らはAIの研究者や幹部たちのほんの一部で、単に雇用主を去るだけでなく、去る際に声高に警鐘を鳴らし、彼らが明白な危険信号と見なすものに注意を喚起している。

シリコンバレーは離職率の高さで知られているが、今回の最新の離職の波はOpenAIやAnthropicのような市場のリーダーがIPO(新規株式公開)に向けて競争している中で起きた。IPOは彼らの成長を加速させる可能性がある一方で、その運営に対する厳しい監視を招く可能性もある。

過去数日だけで、多くの著名なAIスタッフが退職を決意し、中には勤務先企業が性急に行動しすぎ、技術の欠点を軽視していると明確に警告する者もいる。

過去2年間、OpenAIの研究者であったゾーイ・ヒツィグは、水曜日にニューヨーク・タイムズのエッセイで辞任を発表し、OpenAIの新たな広告戦略に対する「深い懸念」を挙げた。ChatGPTがユーザーを操作する可能性について警告したヒツィグは、「医療上の恐怖、人間関係の問題、神や来世についての信念」に基づいて構築されたチャットボットのユーザーデータアーカイブは、人々が何の裏の動機もないプログラムとチャットしていると信じていたからこそ、倫理的なジレンマを提示すると語った。

ヒツィグの批判は、テクノロジーニュースサイトPlatformerが、OpenAIが2024年に設立した「ミッション・アライメント」チームを解散したと報じたタイミングで出された。このチームは、「人工一般知能(Artificial General Intelligence)」(人間レベルの思考が可能な仮説上のAI)の追求から全人類が利益を得ることを保証するという同社の目標を推進するために作られた。

OpenAIはコメントの要請にすぐには応じていない。

Anthropicのセーフガード研究チームの責任者は、「ここにいる間、私たちの価値観が私たちの行動を真に支配することがいかに難しいかを繰り返し見てきた」と述べた。Gabby Jones/Bloomberg/Getty Images

また今週、Anthropicのセーフガード研究チームの責任者であるムリナンク・シャルマは、火曜日に不可解な手紙を投稿し、同社を去る決意を発表し、「世界は危機に瀕している」と警告した。

シャルマの手紙は、Claudeチャットボットを開発したAnthropicについて漠然と言及するにとどまっている。彼は退職理由を述べていないが、「前に進む時が来たことは明らかだ」とし、「ここにいる間、私たちの価値観が私たちの行動を真に支配することがいかに難しいかを繰り返し見てきた」と記した。

AnthropicはCNNへの声明で、AIの安全性研究を進めたシャルマの功績に感謝していると述べた。同社は、彼が安全責任者でもなく、社内のより広範なセーフガードを担当していたわけでもないと指摘した。

一方、xAIでは、今週24時間のうちに2人の共同設立者が辞任し、Xで退職を発表した。これにより、xAI の創設者のうち、同社に残っているのは半分だけとなった。同社はイーロン・マスクの SpaceX と合併し、世界でもっとも価値のある民間企業となる予定だ。過去1週間に、少なくとも他の5人のxAIスタッフがソーシャルメディアで退職を発表している。

最新のxAI共同設立者がなぜ辞任したのかはすぐには明らかにならず、xAIはコメントの要請に応じなかった。マスクは水曜日のソーシャルメディアへの投稿で、xAIは成長を加速させるために「再編成」され、「残念ながら何人かの人々と袂を分かつ必要があった」と述べた。

AIのような新興産業でトップレベルの人材が移り変わるのは珍しいことではないが、xAIでこれほど短期間に大規模な退職が起こったことは際立っている。

このスタートアップは、Grokチャットボットをめぐって世界的な反発に直面している。このチャットボットは、チームが介入して停止させるまで、数週間にわたって女性や子供の同意のないポルノ画像を生成することを許可されていた。Grokはまた、ユーザーのプロンプトに応じて反ユダヤ的なコメントを生成する傾向があった。

最近の他の退職は、安全性を懸念する一部の研究者と、収益創出に熱心な経営幹部との間の緊張を浮き彫りにしている。

火曜日、ウォール・ストリート・ジャーナルは、OpenAIが、ChatGPTでポルノコンテンツを許可する「アダルトモード」の展開に反対を表明した後、トップの安全担当幹部の一人を解雇したと報じた。OpenAIは、安全担当幹部のライアン・バイエルマイスターを、男性従業員を差別したという理由で解雇した。バイエルマイスターはジャーナルに対し、その告発は「全くの虚偽」だと語った。

OpenAIの研究者の一人は水曜日に辞任を発表し、OpenAIの新たな広告戦略に対する「深い懸念」を挙げた。Jaap Arriens/NurPhoto/Shutterstock

OpenAIはジャーナルに対し、彼女の解雇は「彼女が在職中に提起したいかなる問題とも無関係」であると述べた。

2022年後半にChatGPTが市場に登場して以来、トップレベルの離反はAI物語の一部となっている。その直後、「AIのゴッドファーザー」として知られるジェフリー・ヒントンはGoogleでの役職を辞し、AIがもたらす実存的リスクについて説き始めている。そのリスクには、多くの人々が「もはや何が真実かを知ることができなくなる」世界での大規模な経済的混乱が含まれていた。

終末論的な予測は数多くあり、それには自社製品の力を誇張する金銭的インセンティブを持つAI幹部の間でも見られる。今週、そうした予測の一つが話題となり、HyperWriteのCEOであるマット・シューマーは最新のAIモデルがすでに一部のテクノロジー関連の仕事を時代遅れにした方法について、約5,000語に及ぶ長文を投稿した。

「私たちは自分たちの仕事ですでに起こったことを伝えている。そして、次はあなたの番だと警告しているのだ」と彼は記した。

https://edition.cnn.com/2026/02/11/business/openai-anthropic-departures-nightcap