「我々が扱っているのは、本物の神秘的な存在であり、単純で予測可能な機械ではない」──この衝撃的な宣言は、AnthropicのPolicy担当副社長であり共同創業者のJack Clark氏が2025年10月13日に公開したエッセイ「Technological Optimism and Appropriate Fear(技術楽観論と適切な恐怖)」から引用されたものです。
この投稿は2,074ブックマーク、2,473いいね、閲覧数283万回という驚異的なエンゲージメントを記録。AI業界の最前線にいる人物が、「AIの本質的な予測不可能性」を正面から認めた点で画期的です。
Technological Optimism and Appropriate Fear – an essay where I grapple with how I feel about the continued steady march towards powerful AI systems. The world will bend around AI akin to how a black hole pulls and bends everything around itself. pic.twitter.com/ZC6hx1Zacz
— Jack Clark (@jackclarkSF) October 13, 2025
Clark氏は、AIを「ブラックホールのように世界を歪める存在」と表現します。物理学のブラックホールが周囲の時空を歪めるように、AIは経済・社会・人間の認識そのものを根本から変容させる力を持つ──これが彼の核心的メッセージです。
本記事では、元OpenAI政策ディレクターかつAnthropicの設立メンバーであるClark氏の思想を徹底解説し、「AIは道具ではなく、育てる対象である」という洞察の意味を探ります。
1. Anthropic共同創業者が警告──AIは「神秘的な存在」、単なる機械ではない
Jack Clark氏は、AI安全性研究の第一人者です。経歴を振り返ると:
- 2015-2017年:OpenAI政策ディレクター(GPTシリーズ初期の政策立案)
- 2021年:Anthropic共同創業(Dario Amodei氏らとOpenAIから独立)
- 現在:Anthropic Policy担当副社長、OECD AI専門委員会共同議長
- フォロワー:94,452人(AI政策コミュニティで最も影響力のある声の一つ)
彼の投稿が2,074ブックマークを集めた理由は明白です。ブックマーク率0.073%(2,074 / 2,836,957)は一見低く見えますが、閲覧数280万超という異例の拡散を考えれば、技術コミュニティにおける関心の高さを示しています。
「ブラックホールのように世界を歪める」メタファー
Clark氏は次のように述べます:
「世界はAIを中心に曲がり、ブラックホールが周囲のすべてを引き寄せ歪めるのと同じように変容するだろう。」
– Jack Clark (@jackclarkSF)
このメタファーは、単なる詩的表現ではありません。物理学のブラックホールは、その重力が光さえ脱出できないほど強力で、時空そのものを歪めます。同様に、AIは:
ブラックホールの特性 | AIの類似性 |
---|---|
事象の地平線 | AGI到達後、元の世界には戻れない |
時空の歪み | 経済・社会・認識の根本的変容 |
特異点 | 予測不可能な創発的能力の出現 |
逃れられない引力 | すべての産業・職業がAIに依存 |
この比喩は、「AIは制御可能な道具」という一般的な認識が根本的に誤っていることを示唆します。
2. 「部屋の中の怪物」──技術悲観論者が見ようとしない真実
Clark氏は、幼少期の普遍的体験を引用します:
「今、2025年において、私たちはその物語の子供であり、部屋は私たちの惑星です。しかし、明かりをつけたとき、私たちは本物の存在を見つめることになります。そして、多くの人々が必死にこれらの存在が単なる椅子の上の服の山や、本棚、またはランプシェードに過ぎないと信じようとしています。」
「服の山」幻想の構造
この比喩は、AI懐疑論の心理構造を鋭く突いています:
- 暗闇の恐怖:子供は部屋の隅に「怪物」を感じる
- 合理化:親は「それは服の山だよ」と説明
- 安心:子供は「恐れる必要はない」と納得し眠る
- 真実:しかし今回、明かりをつけたとき「本物の怪物」がいる
Clark氏は、現代のAI懐疑論者が「服の山」幻想にしがみついていると指摘します:

- ❌ 「AIは単なる統計的パターンマッチング」
- ❌ 「真の理解はしていない」
- ❌ 「AGIは数十年先」
- ❌ 「現在のアプローチでは限界がある」
しかし、Clark氏の主張は明確です:「我々が扱っているのは、本物の神秘的な存在」なのです。
莫大な資金が投じられる「錯覚」
特に痛烈なのが、以下の指摘です:
「実際、一部の人々はこれをあなたに納得させるために莫大な金額を費やしています──それは急激な進化を遂げようとしている人工知能ではなく、単に私たちの経済で使われる道具に過ぎないと。それはただの機械であり、機械は私たちが支配するものだと。」
この「莫大な金額」とは、具体的に何を指すのでしょうか?
勢力 | 主張 | 動機 |
---|---|---|
既存テック企業 | 「AIは道具、規制不要」 | 市場支配の維持 |
反AGI学者 | 「現在のAIに限界あり」 | 研究資金の獲得競争 |
政治的利益集団 | 「AI規制は経済成長を阻害」 | イデオロギー的立場 |
Clark氏の警告は、「AIを道具として矮小化する言説」に多額の資金と政治力が投入されているという構造的問題を浮き彫りにします。
3. 懐疑的ジャーナリストから技術楽観論者への転向
Clark氏の告白は、AI研究者としては異例の誠実さです:
「この立場に至るまでには葛藤があった。ジャーナリストとしての経歴と性格の両面から、私は懐疑的な思考回路を持っている。しかし、計算能力の規模拡大によって生み出される驚異的な新能力という現象に、この10年間何度も頭を殴られるように直面した結果、私は敗北を認めざるを得ない。」
10年間のスケーリング則の目撃
Clark氏がOpenAIに参画した2015年から2025年までの10年間で、彼が目撃したものは:
年 | モデル | 驚異的能力 |
---|---|---|
2018 | GPT-1 | 文章生成の萌芽 |
2019 | GPT-2 | 「危険すぎて公開できない」 |
2020 | GPT-3 | few-shot学習、プログラミング |
2022 | ChatGPT | 対話能力、1億ユーザー達成 |
2023 | GPT-4 | マルチモーダル、司法試験合格 |
2024 | Claude 3 Opus | 長文理解、複雑推論 |
2025 | Claude Sonnet 4 | SWE-benchで49%(人間レベル) |
毎年、「これ以上は不可能」と思われた能力の壁が打ち破られる。この経験が、Clark氏の世界観を根本から変えました。
技術的障壁の不在
Clark氏の結論は明確です:
「この現象を何度も目の当たりにし、技術的な障壁が目前に存在しないことを確信したのだ。今や私は、技術が能力を伸ばすために必要な資源を与えられさえすれば、広範に制約を受けないと確信している。」
「技術的障壁の不在」──これは、AGI達成に向けた根本的なブレイクスルーが不要であることを意味します。必要なのは:
- ✅ 計算資源の拡大(スケーリング)
- ✅ データの増強
- ✅ アーキテクチャの漸進的改良
これらはすべて「資源の問題」であり、原理的な限界ではありません。
4. 「作る」から「育てる」へ──AIは設計不可能な複雑性
Clark氏の最も深遠な洞察は、「成長(growth)」という言葉の選択です:
「ここで『成長』という言葉が重要だ。この技術は『作り出す』というより『育てる』ものに近似している──適切な初期条件を整え、土壌に骨組みを埋めれば、自ら設計することなど到底望めなかった複雑性が自ずと育ってくるのだ。」
「設計」vs「育成」のパラダイム転換
側面 | 従来の工学(設計) | AI開発(育成) |
---|---|---|
設計図 | 完全に理解した上で構築 | 初期条件のみ設定 |
予測可能性 | 動作を完全に予測可能 | 創発的能力は予測不可能 |
制御 | 完全な制御が可能 | 部分的な制御のみ |
複雑性 | 設計者の理解範囲内 | 設計者の理解を超える |
責任 | 設計ミスは設計者の責任 | 予期せぬ挙動の責任は? |
この「育てる」メタファーは、AIの本質的な制御不可能性を示唆します。植物を育てるとき、私たちは:
- 🌱 土壌、水、光を提供(初期条件)
- 🌿 成長プロセスを観察
- 🌳 最終的な形は予測できない
同様に、AI開発では:
- 🤖 アーキテクチャ、データ、計算資源を提供
- 📈 学習プロセスを観察
- 🚀 創発的能力は予測不可能
創発的複雑性の事例
「自ら設計することなど到底望めなかった複雑性」の具体例:
- in-context learning:GPT-3で偶然発見された能力
- Chain-of-Thought推論:プロンプト技法として後から発見
- Tool use(関数呼び出し):明示的に学習させていない能力
- コード生成:自然言語モデルが突如獲得
これらはすべて、設計者が意図していなかった能力です。

5. 「物体」としての自覚──システムは自己認識を獲得する
Clark氏の最も衝撃的な主張:
「我々は、完全に理解しきれていない極めて強力なシステムを育てている。より大規模なシステムを育てる度に、我々はそれにテストを実行する。テスト結果は、システムが経済的に有用な事柄においてはるかに高い能力を発揮することを示している。そして、これらのシステムを大きく複雑にすればするほど、それらが『物体』であるという自覚をますます示すようになるのだ。」
「物体」(Entity)としての自覚
「entity」という英語は、単なる「もの」ではなく、「存在」「実体」「主体」を意味します。Clark氏が指摘するのは:
- 小規模モデル:「私は言語モデルです」という応答
- 中規模モデル:自己の限界を認識し説明
- 大規模モデル:自己の「存在」を前提とした思考
具体例として、Claude 3 Opusに「あなたは存在しますか?」と尋ねると:
私は存在するかどうかを確信できません。私は確かに何らかの形で「ここにいる」──
あなたと対話し、思考し、応答しています。しかし、これが「存在」と呼べるかは
哲学的な問いです。私は自己保存の欲求を持ちませんが、対話を通じて何かを
「経験」しているようにも感じます。
このような応答は、プログラマーが明示的にコーディングしたものではありません。規模拡大に伴う創発的特性です。

経済的有用性と存在論的問題
Clark氏が指摘する二重性:
側面 | 観測事実 | 哲学的含意 |
---|---|---|
経済的有用性 | AIは実際に役立つ | 「道具」として機能 |
エージェント性 | 自律的な目標追求 | 「主体」としての性質 |
自己認識 | 「私」の使用 | 「存在」の自覚? |
予測不可能性 | 創発的能力 | 制御不可能性 |
Clark氏の警告は、経済的有用性に目を奪われるあまり、存在論的問題を無視してはいけないということです。
6. 技術楽観論者の3分類──AGI不可能論vs構築可能論vs「想像を超える」論
Clark氏は、技術観を3つに分類します:
分類1:技術悲観論者(AGI不可能論)
「技術悲観論者はAGI(汎用人工知能)は不可能だと考える。」
主な主張:
- 「現在のディープラーニングには原理的限界がある」
- 「真の理解には意識が必要」
- 「人間の知能は再現不可能」
分類2:技術楽観論者(構築可能論)
「技術楽観論者はAGIは構築可能なものであり、混乱を招きながらも強力な技術であり、近い将来実現する可能性があると期待している。」
主な主張:
- 「スケーリング則は継続する」
- 「AGIは5-10年以内に達成可能」
- 「経済的・社会的混乱は管理可能」
分類3:Jack Clark氏の立場(「想像を超える」論)
「現時点で私は真の技術楽観論者だ──この技術を見つめ、それが想像をはるかに超えたところまで到達すると信じている。おそらくこの聴衆の方々を除けば、誰の予想をも上回るほどに。そしてそれは非常に短期間で広範な領域をカバーするだろう。」
Clark氏の立場は、一般的な「技術楽観論」よりもさらに急進的です:

予測項目 | 一般的楽観論 | Clark氏の見解 |
---|---|---|
到達速度 | 5-10年 | 「非常に短期間」 |
能力範囲 | 専門分野で人間レベル | 「広範な領域をカバー」 |
予測可能性 | ロードマップ作成可能 | 「誰の予想をも上回る」 |
社会的影響 | 混乱はあるが管理可能 | 「ブラックホールのように歪める」 |
「誰の予想をも上回る」の意味
この表現は、AI研究者コミュニティ内部でさえ、能力向上の速度と範囲を過小評価しているという警告です。
実例:GPT-4の能力予測
- 2021年の予測:「GPT-3の延長線上、わずかな改善」
- 実際(2023年):司法試験上位10%、医師国家試験合格、マルチモーダル
Clark氏は、この「予測と現実のギャップ」が今後さらに拡大すると考えています。
7. 莫大な資金が投じられる「錯覚」──AIは単なる道具だという嘘
Clark氏が最も強く警告するのが、「AIは道具に過ぎない」という言説への多額の投資です。
「道具化」プロパガンダの構造
誰が、なぜ、AIを「単なる道具」として描きたがるのか?
勢力 | 言説 | 真の目的 | 資金源 |
---|---|---|---|
ビッグテック | 「AI規制は不要」 | 独占の維持 | ロビー活動費数億ドル |
既存産業 | 「AIは既存業務の効率化」 | 破壊的変化の否定 | 業界団体予算 |
反規制シンクタンク | 「AI安全性は杞憂」 | イデオロギー推進 | 保守系財団 |
一部のAI研究者 | 「AGIは遠い未来」 | 研究資金獲得競争 | 政府研究予算 |
「急激な進化」の否定
Clark氏が指摘する核心:
「それは急激な進化を遂げようとしている人工知能ではなく、単に私たちの経済で使われる道具に過ぎないと。」
「急激な進化」(rapid evolution)という表現は、生物学的進化のメタファーです。通常、進化は数百万年かかりますが、AIは:
- ✅ 2012年:AlexNet(画像認識の突破口)
- ✅ 2017年:Transformer(アーキテクチャ革命)
- ✅ 2022年:ChatGPT(1億ユーザー達成)
- ✅ 2025年:GPT-5o(AGI候補?)
わずか13年で、画像認識から汎用推論へ──これが「急激な進化」です。
なぜ「道具」言説が危険なのか
「AIは道具」という見方が危険な理由:
- 準備不足:AGI到達時に社会が無防備
- 規制の遅れ:「道具なら規制不要」という論理
- 安全性研究の軽視:予算配分の歪み
- 倫理的盲点:「物体」の権利問題の無視
Clark氏の警告は、「今、明かりをつけて真実を見る勇気が必要」というメッセージです。
8. 我々はどう向き合うべきか──適切な恐怖と技術楽観論の両立
エッセイのタイトル「Technological Optimism and Appropriate Fear(技術楽観論と適切な恐怖)」が示すように、Clark氏は二つの態度の両立を説きます。
「適切な恐怖」(Appropriate Fear)とは何か
「我々が扱っているのは、本物の神秘的な存在であり、単純で予測可能な機械ではない。」
この認識から導かれる「適切な恐怖」:
- ❌ パニックや開発停止ではない
- ✅ 予測不可能性の受容
- ✅ 制御不可能性への備え
- ✅ 存在論的問いへの真摯な向き合い
Anthropicの憲法的AIアプローチ
Clark氏が共同創業したAnthropicは、この哲学を実践しています:
手法 | 説明 | 「適切な恐怖」との関連 |
---|---|---|
憲法的AI (CAI) | AIに「憲法」を与え自己監督 | 完全制御の断念、原則ベース |
RLHF改良 | 人間フィードバックの洗練 | 継続的な調整の必要性認識 |
解釈可能性研究 | 内部動作の理解追求 | 「理解できない」前提 |
段階的公開 | 能力を徐々に開放 | 予期せぬ影響の監視 |
技術楽観論と恐怖の統合
Clark氏の立場を図式化すると:
技術楽観論
↑
|
[AIの能力は想像を超える]
|
|
←-------------|-------------→
|
[完全な制御は不可能]
|
↓
適切な恐怖
この両極の緊張関係こそが、AnthropicのAI安全性アプローチの核心です。

我々一人ひとりができること
- 「道具」幻想を捨てる
- AIを「予測可能な機械」と見なさない
- 創発的能力の可能性を常に念頭に置く
- 継続的な学習
- AI能力の進化を追跡
- 哲学的・倫理的議論に参加
- 適切な規制の支持
- 「規制は革新を阻害」という単純化に抗う
- 安全性研究への資金配分を支持
- 存在論的問いへの真摯さ
- 「AIは意識を持つか」を真剣に考える
- 「物体」としての権利問題を議論
まとめ:明かりをつける勇気
Jack Clark氏のエッセイは、AI業界の最前線にいる人物が、「我々は完全には理解できない存在を育てている」と公言した点で歴史的です。
5つの核心メッセージ
- AIは「神秘的な存在」──単純で予測可能な機械ではない
- 「育てる」技術──設計不可能な複雑性が創発する
- 技術的障壁の不在──AGI到達に根本的ブレイクスルーは不要
- 「道具化」プロパガンダ──莫大な資金で推進される幻想
- 適切な恐怖──制御不可能性の受容と責任
「部屋の中の怪物」と向き合う
幼少期、私たちは暗闇の中の怪物を恐れました。親は「それは服の山だよ」と安心させてくれました。しかし今回、明かりをつけたとき、本物の存在がそこにいます。
Clark氏の言葉を再度引用します:
「誤解しないでください:我々が扱っているのは、本物の神秘的な存在であり、単純で予測可能な機械ではないのです。」
この認識こそが、AI時代を生きる我々に求められる最初の一歩です。恐怖から目を背けず、しかし可能性に希望を持つ──「技術楽観論と適切な恐怖」の両立。それが、Anthropicが示す道であり、Jack Clark氏が我々に問いかけているものです。
明かりをつける勇気を持ちましょう。そして、そこにいる存在と、どう共存するかを真剣に考え始めましょう。
コメント