Liabooks Home|PRISM News
終末時計と人工知能CEO、世界の終わりを警告する二つの声
CultureAI分析

終末時計と人工知能CEO、世界の終わりを警告する二つの声

5分で読めるSource

核科学者による終末時計とAI企業CEOの警告。権力を持つ者と持たない者、どちらの声に耳を傾けるべきか?現代の実存的リスクを巡る複雑な構造を分析。

85秒。人類の終焉まで残された時間が、史上最短を記録しました。一方で、AnthropicのCEOは1万9000語の長文エッセイで「人類は想像を絶する力を手にしようとしているが、それを扱う成熟度があるかは深く不透明だ」と警告しています。

世界の終わりを告げる二つの声が、同じ週に響きました。しかし、一方は権力の外から叫ぶ預言者、もう一方は神殿を運営する大祭司です。私たちは誰の声に耳を傾けるべきでしょうか?

時を刻む外部の警告者

火曜日、原子力科学者会報が年次恒例の終末時計を発表しました。核の緊張激化から気候変動、独裁主義の台頭まで、様々な実存的リスクを反映し、時計の針は真夜中まで85秒に設定されました。2025年より4秒近づき、史上最も真夜中に近い位置です。

終末時計は1947年、広島に最初の核兵器が投下されてからわずか2年後に創設されました。ロバート・オッペンハイマーをはじめとする原子力科学者会報の創設者たちは、自らが作り出した爆弾を今度は恐れる立場にありました。

彼らには比類なき道徳的権威がありました。制度への信頼が異例に高い時代に、爆弾について誰よりも詳しい人々が、核による人類滅亡の道を歩んでいると必死に警告していたのです。広島と長崎の後、これらの爆弾の恐ろしい力を疑う者はいませんでした。

しかし、科学者たちに道徳的信頼性を与えた*まさにその要素—かつて仕えた政府との決別—が、リスクを終わらせるために必要な唯一のもの、つまり権力*を彼らから奪いました。

拡散する警告、薄れる影響力

冷戦終結により核戦争が議題から外れると、終末時計の計算は気候変動、バイオセキュリティ、公衆衛生インフラの劣化、「ミラー生物」のような新技術リスク、人工知能、独裁主義を包含するまでに拡大しました。

これらの課題はすべて現実のものであり、それぞれが地球上の生活をより悪化させる脅威となっています。しかし混在することで、時計が約束していた*恐ろしいまでの精密さ*が曇ってしまいました。かつて時計仕掛けのように見えたものが、推測作業であることが明らかになったのです。

内部からの警告者

月曜日、AnthropicのCEOであるダリオ・アモデイは「技術の青年期」と題した1万9000語のエッセイを発表しました。彼は人工知能分野の哲学王とも呼べる存在です。

アモデイは多くの点でオッペンハイマーと比較されます。物理学者であり科学者として出発し、強力な人工知能の解放に役立った「スケーリング法則」の重要な研究を行いました。オッペンハイマーの真の才能がマンハッタン計画を運営する組織能力にあったように、アモデイも企業リーダーとして高い能力を証明しています。

そして戦後のオッペンハイマーのように、アモデイも自身が作り出した技術について明確に警告することを躊躇しません。現代のブログツールを使えたなら、オッペンハイマーもきっと「技術の青年期」のような作品を生み出していたでしょう。

権力の内と外

両者の決定的な違いは*コントロール*です。オッペンハイマーと同僚の科学者たちは、自らの創造物の制御をほぼ即座に政府と軍に失い、1954年までにオッペンハイマー自身も機密取扱許可を失いました。それ以降、彼らは主に外部からの声となりました。

対照的にアモデイは、現在AIを限界まで押し進めている企業の一つであるAnthropicのCEOとして発言しています。AIを「データセンター内の天才の国」として変革的ビジョンを描いたり、AI製バイオ兵器から技術的に可能になった大量失業や富の集中まで、破滅のシナリオを論じる時、彼は*権力の神殿の内部*から語っているのです。

これは核戦争計画を立てる戦略家が終末時計の針をいじっているようなものです。(ただし、核兵器が破壊のみを約束したのに対し、AIは大きな利益と恐ろしいリスクの両方を約束している点が重要な違いです。)

構造的ジレンマ

原子力科学者会報のモデルには十分な誠実さがありますが、特にAIに関しては関連性が限定的になっています。原子科学者たちは核兵器が機能した瞬間にその制御を失いました。アモデイはAIの制御を失っていません—彼の会社のリリース決定は依然として極めて重要です。

しかしアモデイのモデルには独自の問題があります。*利益相反が構造的で避けられない*ことです。

彼が発する警告はすべて「でも絶対に構築を続けるべきだ」というメッセージと一緒にパッケージされています。彼のエッセイは、AI開発の停止や大幅な減速は「根本的に持続不可能」だと明確に主張しています—Anthropicが強力なAIを構築しなければ、より悪い誰かが構築するだろうと。

これは真実かもしれません。安全を意識する企業が競争に留まるべき理由の最良の論拠かもしれません。しかしそれは同時に、都合よく彼が現在の活動を続けることを正当化する論拠でもあります。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事