《ニューヨーカー》深掘調査記事解読:OpenAIの内部者はなぜAltmanを信用できないと考えるのか?

寄稿:小餅、深い潮 TechFlow

2023年秋、OpenAIのチーフサイエンティストであるIlya Sutskeverがコンピューターの前に座り、70ページの文書を完成させた。

この文書は、Slackのメッセージ記録、HRとのやり取りの書類、社内会議の議事録を整理したもので、ただ一つの問いに答えるためのものだ。Sam Altman、この人類史上おそらく最も危険な技術を取り仕切っている人物は、果たして信用できるのか?

Sutskeverが出した答えは、文書1ページ目の1行目に書かれており、箇条書きのタイトルは「Samは一貫して行動パターンを示している……」だ。

1つ目:うそをつく。

そして2年半後の今日、調査記者のRonan FarrowとAndrew Marantzが『ニューヨーク・マガジン』に、超長編の調査記事を掲載した。100人超の当事者にインタビューし、これまで一度も公開されたことのない社内メモを入手した。さらに、Anthropic創業者のDario AmodeiがOpenAI時代に残した200ページ超の個人的なメモも得た。これらの資料が組み上げる物語は、2023年のあの「権力闘争」よりずっと見苦しい。OpenAIは、人類の安全のために生まれた非営利団体から、いかにして一歩ずつ商業マシンへと変わっていったのか。そして、ほぼすべての安全の防波堤が、同じ一人によって手ずから取り外されたのだ。

Amodeiのメモにある結論は、さらに率直だ。「OpenAIの問題はSam本人だ」。

OpenAIの「原罪」設定

この報道の重みを理解するには、まずOpenAIという会社がどれほど特殊かを説明しなければならない。

2015年、Altmanとシリコンバレーのエリートたちが、商業史上ほとんど前例のないことをやった。非営利団体を使って、人類史上最強クラスの可能性がある技術を開発したのだ。取締役会の役割は非常にはっきり書かれている。安全は会社の成功より優先され、さらには会社の存続より優先される。つまり、もし将来OpenAIのAIが危険になったら、取締役会には義務として、この会社を自分たちの手で閉じる責任がある。

この全体の仕組みは、次の前提に賭けている。AGIを掌握する人物は、極めて正直でなければならない。

もし賭けに外れたら?

報道の核心となる爆弾は、その70ページの文書だ。Sutskeverは社内政治をやらない。彼は世界でもトップクラスのAI科学者の一人だ。しかし2023年になって、彼はますます確信するようになった。Altmanが、幹部や取締役会に対して、継続的に嘘をついているということだ。

具体例がある。2022年12月、Altmanは取締役会の会議で、公開予定のGPT-4の複数の機能はすでに安全審査を通過していると保証した。取締役会のメンバーであるTonerは承認書類を見ようとしたところ、議論が最も大きい2つの機能(ユーザーによるカスタム・ファインチューニングと個人アシスタントのデプロイ)が、そもそも安全パネルの承認を受けていなかったことが分かった。

さらに奇妙なことがインドで起きた。ある従業員が、別の取締役会メンバーに「例の違反」を告げた。Microsoftは必要な安全審査を完了していないのに、インドでChatGPTの初期バージョンを先行リリースしていたのだ。

Sutskeverはメモの中で、もう一つの出来事も記録している。Altmanが、前CTOのMira Muratiに「安全承認の手順はそれほど重要ではない。会社の法律顧問が承認している」と言ったことがあった。Muratiは法律顧問に確認しに行ったが、相手はこう返した。「Samがその印象をどこから得たのか分かりません。」

Amodeiの200ページ超の個人的メモ

Sutskeverの文書は、検察官の起訴状のようだ。Amodeiが残した200ページ超のメモは、むしろ、目撃者が事件現場で書いた日記のようでもある。

AmodeiがOpenAIで安全責任者として働いていた数年間、彼は企業が商業的な圧力の下で一歩ずつ後退していくのを、目の当たりにしていた。彼のメモには、2019年のMicrosoft投資案件に関する重要な詳細が記されている。彼はOpenAIの定款に「合併と支援(merger and assistance)」条項をねじ込んだことがあった。要旨はこうだ。ほかの会社が、より安全なAGIの道を見つけたなら、OpenAIは競争をやめ、その会社を手助けすべきだ。これが、彼が取引全体の中で最も重視した安全面の担保だった。

契約がまもなく締結される段階で、Amodeiはあることに気づいた。Microsoftが、この条項に対する拒否権を得ていたのだ。つまりどういうことか。たとえ将来、ある競合他社がより良い道を見つけたとしても、Microsoftが一言でOpenAIの支援義務を封じられる。条項は紙の上にあるだけだが、署名をした日からそれは紙切れ同然だった。

Amodeiはその後OpenAIを離れ、Anthropicを創業した。両社の競争の根底には、「AIはどう開発されるべきか」という根本的な意見の相違がある。

消えた20%の計算資源コミットメント

報道には、ぞっとさせられる細部がある。OpenAIの「スーパー・アラインメント・チーム」についてだ。

2023年半ば、Altmanはメールで、バークレーで「欺瞞的アラインメント」(テスト中は従順に見せ、実運用では自分のやり方を押し通すAI)を研究している博士課程の学生に連絡し、これが非常に深刻な問題だと強く懸念しているので、10億ドルのグローバル研究賞を設立することも考えていると伝えた。博士課程の学生は大いに勇気づけられ、休学してOpenAIに加わった。

ところがAltmanは考えを変えた。外部の賞はやめ、社内に「スーパー・アラインメント・チーム」を設立することにした。会社は大々的に発表し、「すでに保有している計算資源の20%」をこのチームに振り向けるとした。潜在価値は10億ドルを超える見込みだ。発表文の文言は極めて厳粛で、アラインメントの問題が解決されない場合、AGIによって「人類から権力が奪われ、さらには人類が絶滅する」可能性があると述べていた。

このチームを率いるよう任命されたJan Leikeは、のちに記者に対して、このコミットメント自体が、非常に効果的な「人材確保の道具」だと語ったという。

実際はどうだったのか? このチームで働く、あるいは密接に関わった4人の人物は、実際に割り当てられた計算資源は、会社全体の計算資源の1%から2%にすぎず、しかも最も古いハードウェアだったと述べている。このチームはその後解散され、使命は未達のままだった。

記者が、OpenAIの「存在論的安全(existential safety)」の研究担当者にインタビューを求めると、会社の広報の反応は、泣いて笑うしかないようなものだった。「それは……実在するものではありません。」

Altman本人はさすがに落ち着いていた。記者に対し、彼は「自分の直感は、多くの従来型のAI安全の考え方とはあまり噛み合わない」と述べ、OpenAIは「安全プロジェクトを行うし、少なくとも安全に関係するプロジェクトはやる」だろうと言った。

権限を奪われたCFOと、やって来るIPO

『ニューヨーカー』の記事は、この日の悪い知らせの半分にすぎない。同じ日にThe Informationが、別の重大ニュースを報じた。OpenAIのCFO Sarah FriarとAltmanの間で深刻な意見の食い違いが生じたのだ。

Friarは内々に同僚へ、「OpenAIは今年、上場の準備ができていないと思う」と語った。理由は2つ。完了させるべき手続き面・組織面の作業量があまりに多いこと、そしてAltmanが約束している5年で6000億ドルの計算資源支出がもたらす財務リスクが高すぎることだ。彼女は、OpenAIの売上成長が、これらの約束を支えられるかどうかすら確信が持てていないという。

一方でAltmanは、今年第4四半期にIPOを突き進みたいと考えている。

さらに奇妙なのは、Friarがもう直接Altmanに報告していないことだ。2025年8月以降、彼女はFidji Simo(OpenAIのアプリケーション事業CEO)に報告するようになった。そしてSimoは先週、健康上の理由で病欠を取ったばかりだ。この状況を考えてみてほしい。IPOを突き進む会社で、CEOとCFOの間に根本的な意見の相違がある。CFOはCEOに報告しない。CFOの上司は休暇まで取っている。

マイクロソフト内部の幹部でさえ見ていられず、「Altmanは事実をねじ曲げ、約束を反故にし、合意済みの協定を次々と覆している」と述べた。あるマイクロソフトの幹部は、さらに次のように言った。「最終的に彼は、バーナード・マドフ級、SBF級の詐欺師として人々に記憶される可能性があると思う。」

Altmanの「二面性」描写

元OpenAI取締役会メンバーの一人が、記者に対し、Altmanが持つ2つの資質を説明した。この一節は、記事全体の中で最も容赦ない人物スケッチかもしれない。

その取締役によれば、Altmanには非常にまれな資質の組み合わせがある。彼は対面のやり取りのたびに、相手を喜ばせたい、相手に好かれたいという強い欲求を抱いている。一方で、他人を欺くことがもたらし得る結果については、社会病質的とも言えるほどの無頓着さがある。

この2つの資質が同じ人物に同時に現れることは、極めて稀だ。しかし営業担当者にとっては、これが最も完璧な才能だ。

記事には、うまい比喩がある。ジョブズは「現実をねじ曲げる力場」で知られ、彼は世界中に自分のビジョンを信じさせることができた。だが、たとえジョブズでさえ、顧客に対して「私のMP3プレーヤーを買わないなら、あなたの大切な人は死ぬ」とは決して言ったことがない。

AltmanはAIについて、これに似たことを言った。

CEOの人物性の問題が、なぜ全員のリスクになるのか

Altmanがただの普通のテクノロジー企業のCEOにすぎないなら、これらの告発はせいぜい、見応えのあるビジネスゴシップにとどまるだろう。だがOpenAIは普通ではない。

自社の説明によれば、同社は人類史上で最も強力になり得る技術を開発している。世界の経済や労働市場を再形成できる(OpenAI自身が、AIによる失業問題についての政策ホワイトペーパーを直近で出したばかりだ)。同時に、大規模な生物化学兵器の製造や、サイバー攻撃を行うのにも使われ得る。

すべての安全の防波堤は名ばかりになっている。創業者の非営利としての使命は、IPOへの突進に取って代わられた。前チーフサイエンティストと前の安全責任者は、CEOを「信用できない」とみなしている。パートナーはCEOをSBFにたとえている。こうした状況で、このCEOは、いつ人類の運命を変え得るAIモデルをリリースするかを、単独で決める根拠は何なのか?

Gary Marcus(ニューヨーク大学のAI教授、長年にわたりAI安全を訴える活動家)は、記事を読んだ後、次の一言を書いた。もし将来のOpenAIモデルが大規模な生物化学兵器を作ったり、壊滅的なサイバー攻撃を仕掛けたりできるのなら、あなたは本当にAltman個人に、公開するかどうかを決めさせて安心だと思うのか?

OpenAIによる『ニューヨーカー』への返答は、しかし簡潔だった。「この記事の大部分は、既に報じられている出来事を蒸し返したものであり、匿名の表現や選択的な逸話を通じて伝えられている情報源には、明らかに個人的な目的がある。」

実にAltmanらしい返しだ。具体的な告発には反応せず、メモの信憑性は否定せず、動機だけを疑う。

非営利の死体の上に、金を生む木が育つ

OpenAIの10年を、物語のアウトラインにするとこうなる:

AIリスクを案じる理想主義者たちが、使命に駆動される非営利団体を創設する。組織は驚くべき技術的ブレークスルーを果たす。そのブレークスルーは巨額の資本を引き寄せる。資本はリターンを求める。使命が道を譲り始める。安全チームが解散される。疑義を呈する人々は粛清される。非営利の仕組みが、営利の実体へと作り替えられる。かつて会社を止められる権限を持っていた取締役会は、今ではCEOの盟友で埋め尽くされている。かつて人類の安全を守るために計算資源の20%を拠出すると約束していた会社の広報は、今や「それは実在するものではありません」と言う。

物語の主役は、100人超の当事者の体験が、同じラベルを彼に貼った。「真実に縛られない。」

彼は、この会社をIPOに持ち込もうとしている。評価額は8500億ドルを超える。

この記事の情報は、『ニューヨーカー』、Semafor、Tech Brew、Gizmodo、Business Insider、The Informationなど複数の媒体による公開報道を総合したものだ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • 人気の Gate Fun

    もっと見る
  • 時価総額:$2.23K保有者数:1
    0.00%
  • 時価総額:$2.28K保有者数:2
    0.00%
  • 時価総額:$2.65K保有者数:2
    2.96%
  • 時価総額:$2.24K保有者数:1
    0.00%
  • 時価総額:$2.24K保有者数:0
    0.00%
  • ピン