ノーベル賞受賞者、英国王室、現代 AI の「ゴッドファーザー」を含む 800 人以上の著名人からなる多様な連合は、水曜日、「超知能」の開発の世界的な停止を求める声明に署名した

引用 人間の陳腐化から完全な絶滅に至るまでのさまざまなリスクを想定し、署名者らは、安全で制御可能であることが証明され、広く国民の支持が得られるまでは、人間の認知能力を超える AI の作成を禁止することを要求している。

Future of Life Institute (FLI) が主催するこの取り組みは、激化するテクノロジー競争の真っ只中に上陸する。 AI 開発を推進する莫大な経済的および政治的勢いに対して、懸念を抱く専門家の声が高まっています。

広範な連合が声を上げています。 警鐘

声明の主催者らは、テクノロジー業界の野心と国民の意志の間には明らかな断絶があると指摘している。

最近 FLI 国籍を取得した男性 米国成人2,000 人を対象とした調査では、73% が高度な AI に対する強力な規制を望んでいることがわかりました。さらに、64% が、超人的な AI は安全であることが証明されるまで開発されるべきではないか、まったく作成されるべきではないと考えています。

米国人のわずか 5% が、急速で規制のない開発の現状を支持しています。

FLI のエグゼクティブ ディレクターであるアンソニー アギーレ氏は、率直にこう言いました。NBC ニュースとのインタビュー: 「これは国民が望んでいることではありません。彼らはこれをめぐって競争することを望んでいません。」

この意見は、声明に署名した AI の先駆者であるヨシュア ベンジオ氏にも同調しており、「私たちはまた、私たちの集団の未来を形作る決定において、国民がより強い発言権を持っていることを確認する必要があります。」

署名者のリストは、政治的および文化的な深い溝を埋める幅広い点で注目に値します。

Apple 共同創設者のスティーブ ウォズニアック氏、ヴァージン グループのリチャード氏 ブランソン氏とマイク・マレン元統合参謀本部議長は署名し、保守系メディアの著名人グレン氏も署名した。 ベックとスティーブ・バノン

ハリー王子とメーガン・マークル、俳優のジョセフ・ゴードン=レビット、元アイルランド大統領メアリー・ロビンソンも参加する。おそらく最も重要なことは、このリストにチューリング賞受賞者のジェフリー・ヒントン氏とヨシュア・ベンジオ氏が含まれていることです。彼らの基礎的な研究により現在の AI ブームが実現しました。

彼らの参加により、この警告にかなりの科学的信頼性が与えられています。もう一人の署名者である作家のユヴァル・ノア・ハラリ氏は、「超知能は人類文明のオペレーティングシステムそのものを破壊する可能性が高く、まったく不必要である」と警告した。

世論対業界の野心

ハイテク大手がAIの覇権をめぐる競争に数十億ドルをつぎ込む一方で、声明は、最終目標はあまりにも遠いフロンティアであると主張している。

俳優、作家。 スティーブン・フライ卿は、「定義上、これは私たちが理解することも制御することもできない力をもたらすことになるでしょう。」とコメントしました。

制御に関するこの懸念は議論の中心であり、恐ろしく速い開発ペースについて警告した元 OpenAI 内部関係者が以前に表明した懸念を反映しています。

皮肉なことに、これらのシステムを構築している企業のリーダーでさえも同様の懸念を表明しています。 ChatGPT の立ち上げよりずっと前の、OpenAI CEO の Sam Altman による 2015 年のブログ投稿では、「超人的なマシン インテリジェンス (SMI) の開発は、おそらく人類の存続に対する最大の脅威である。」と述べられていました。

同様に、Anthropic CEO ダリオ・アモデイ氏は、「物事が非常に悪い方向に進む確率は 25% だと思います。」

Anthropic CEO のダリオ・アモデイ氏は現在、自身の P(Doom) が 25% であると述べています。https://t.co/lAinvcaYUh

— Calum Chace (@cccalum) 2025 年 9 月 19 日

Microsoft AI の CEO ムスタファ スレイマン氏も、「それが [安全] であることを明確に証明できるまでは、発明すべきではない。」

AI の覇権をめぐる止まらない競争

これらの内部警告にもかかわらず、

メタは、その企業目標を示すために、その新しい部門を「メタ スーパーインテリジェンス ラボ」と明確に名付けました。この推進は、驚異的な金融投資によって促進されています。

ガートナーの予測によると、企業の AI への支出は 2025 年に 1 兆 5000 億ドルに達すると予測されています。

OpenAI だけでも は、2025 年上半期に 43 億ドルの収益を上げており、このセクターに巨額の資本が流入していることがわかります。

この勢いは国家政策によって強化されています。 7 月に発表されたトランプ政権の AI 行動計画では、開発を加速し、中国に対する戦略的優位性を維持するために規制上のハードルを取り除くことを優先しています。

フロンティアは遠すぎますか?実存的リスクをめぐる議論

すべての AI 専門家がこの悲惨な警告に同意しているわけではありません。 Meta の主任 AI 科学者、Yann LeCun は、自身の考えを声高に批判しています

彼は制御不能な AI 乗っ取りという考えを否定し、代わりに AI システムが人間の能力を置き換えるのではなく拡張する「アンプリファイア インテリジェンス」の未来を思い描いています。

この視点は、リスクは管理可能であり、病気の治療から気候変動の解決まで、強力な AI の利点は放棄するにはあまりにも重要であることを示唆しています。

ルカン氏の見解は、AI コミュニティ内の重大な哲学的分裂を表しており、慎重な管理と野心的で束縛のないイノベーションの間の議論として枠組み化されています。

最終的に、この声明は、ますます強力になる機械の時代における人類の将来について公に議論することを強制します。その主催者らは、潜在的な後継種を生み出す決定を少数の技術幹部や研究者に任せるべきではないと主張している。

バークレー教授で署名者のスチュアート・ラッセル氏は、この提案をラッダイ派の禁止ではなく、常識的な安全対策だと主張した。

「これは禁止でもなければ、通常の意味での一時停止でもありません。これは、… 人類滅亡を引き起こす重大な可能性があります。」

テクノロジーが急速に前進する中、人類が確実に運転席に留まるのに十分な長さのブレーキをかけることができるかどうかという中心的な疑問が残っています。

Categories: IT Info