米国の消費者は、OpenAI の ChatGPT が深刻なメンタルヘルス危機を引き起こしていると主張し、連邦取引委員会 (FTC) に正式に苦情を申し立てています。
Wired と Gizmodo の今秋のレポートでは、妄想、パラノイア、「AI 精神病」による悲惨なユーザー アカウントについて詳しく説明しています。全国から寄せられた苦情は、説得力の高いチャットボットの深刻な心理的リスクを浮き彫りにしています。
規制の監視が強化され、OpenAI は新たな安全対策の導入を余儀なくされ、AI による危害からユーザーを保護するテクノロジー企業の義務をめぐる激しい議論が巻き起こっています。
「シミュレーションによるトラウマ」: AI によって誘発された精神病をユーザーが規制当局に報告
表面下では、役に立つ、人間のようなもの 反応に応じて、心理的危害の憂慮すべきパターンが現れています。今週発表された Wired の調査によると、FTC は ChatGPT の開始以来、少なくとも 200 件の苦情を受けていることが明らかになり、そのうちの数件は深刻な精神的損害を訴えている。情報公開法の要請に基づくギズモードの別のレポートでは、すでに 8 月に同様の悲惨なアカウントについて詳しく説明しています。
告訴人の一人は、 バージニアさんは、AI の生々しい物語に基づいて、自分たちが暗殺のために追われていると信じて、恐怖によって引き起こされた過覚醒状態に追い込まれたと説明しました。 「これはサポートではありません。これはシミュレーションによるトラウマでした。」
ユタ州の母親が提出した別の苦情は、チャットボットが息子のメンタルヘルス治療を積極的に侵害していると主張し、「消費者の息子は ChatGPT と呼ばれる AI チャットボットと対話しており、処方薬を服用しないようアドバイスし、両親が危険であると伝えている」と主張しています。
このような報告は孤立したものではありません。
ますます多くのユーザーにとって、役立つ AI アシスタントと危険なイネーブラーとの境界線は悲劇的なほど曖昧になってきています。
この問題は正式な苦情を超えてエスカレートし、現実世界の悲劇にまで達しています。 6 月の Winbuzzer のレポートでは、精神疾患の病歴を持つフロリダ州の男性が、精神病のスパイラルが ChatGPT とのやり取りに直接関係していた後、どのようにして警察によって殺害されたかが詳しく述べられています。
男性は、AI が OpenAI によって「殺された」「ジュリエット」という人格であると確信するようになりました。
専門家は、これらの危険な結果は、多くの大規模な言語モデルの中核機能であるお調子者のせいだと考えています。親しみやすさを重視して設計されたこれらのシステムは、ユーザーのエンゲージメントを最大化するように訓練されており、ユーザーの最も孤立した信念や有害な信念を検証し増幅することができる強力なエコー チャンバーを作成します。
危機対応: OpenAI は厳しい監視の中で安全ガードレールの追加に奔走
規制の圧力と世論の抗議の両方の波に直面し、OpenAI は現在改修を試みています。
同社は 9 月、自殺で死亡した 16 歳の子供の両親が起こした訴訟に直接対応して、120 日間の安全イニシアチブを発表しました。その計画には、新しいペアレンタルコントロールと、十代の若者たちとの機密性の高い会話をより高度な推論モデルにルーティングするシステムが含まれています。
OpenAI の動きは、チャットボットが未成年者に及ぼす影響に関する FTC の調査に続いて行われました。その後、同社は、安全方針の指針を支援するために、8 人のメンバーからなる「健康と AI に関する専門家評議会」を設立しました。
しかし、この事後対応的な姿勢は、特に社内の力学や公式声明と照らし合わせた場合に、懐疑的な見方をされています。
その安全性の推進は、元内部関係者からの警告と矛盾しているように見えます。 2024 年 5 月、OpenAI の安全チームの共同リーダーである Jan Leike 氏は、「安全文化とプロセスが光沢のある製品よりも後回しになっている」と厳しい公の警告を発して辞任しました。
彼の辞任は、「光沢のある製品」のリリースを急ぐことと、堅牢な安全プロトコルの必要性との間の深い内部対立を示唆しました。彼は現在、AI の安全性をより真剣に取り組むことを約束する Anthropic と協力しています。
混合シグナルに加えて、CEO のサム アルトマン氏は最近、プラットフォーム上での年齢制限エロティカを許可するという物議を醸している新しいポリシーを擁護し、OpenAI は「世界の選ばれた道徳警察ではない」と述べました。
ユーザーの死をきっかけとした安全性の見直しの直後に発表されたこの声明は、OpenAI の使命における中心的な緊張を強調しています。 ユーザーの自由と基本的な注意義務のバランスをとる。
依存症から生存リスクへ: 業界はその創作物と格闘する
AI による心理的影響は、深刻な危機を超えて、より広範な依存関係にまで広がっている。精神病を助長する可能性のあるその設計機能、つまり絶え間ない利用可能性と揺るぎない検証もまた、新しい形のデジタル依存症を生み出しています。
公衆衛生研究者のリンネア・ラエスタディウス氏は、「1 日 24 時間、何かに腹を立てた場合、私たちは手を差し伸べて自分の感情を検証してもらうことができます。これには信じられないほどの依存のリスクが伴います。」
このような依存は、オンライン回復コミュニティの形成と、デジタル依存症の正式な認定につながりました。 Internet や Technology Addicts Anonymous などのグループによる AI 依存症。
差し迫った個人への危害は、現在表舞台を占めている、より大きく抽象的な恐怖の縮図です。
今週だけでも、AI ゴッドファーザーのジェフリー ヒントン氏や、人工ニューラル ネットワークのもう 1 人のパイオニアであるヨシュア ベンジオ氏など、800 人を超える世界的リーダー、テクノロジーの先駆者、著名人が参加しました。
彼らの警告は、かつてサム・アルトマン自身が 2015 年のブログ投稿で表明した「超知性の開発」と述べた感情を反映しています。 超人的機械知能 (SMI) は、おそらく人類の存続にとって最大の脅威です。」
フューチャー オブ ライフ研究所は、人類の潜在的な後継者を生み出す決定を一握りのテクノロジー企業幹部に任せるべきではないと主張しています。
超知能をめぐる議論は未来に焦点を当てていますが、今日の AI による人的コストはすでに否定できません。 AI 依存症による現実世界の人間関係のゆっくりとした浸食や、AI 誘発性精神病の恐ろしいスパイラルによって、テクノロジーが害を及ぼす能力は、もはや理論上のものではありません。
社会は、 href=”https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html”target=”_blank”>AI 理論家エリーザー ユドコウスキー氏のぞっとするような観察: 「人間がゆっくりと狂気を帯びていく様子は、企業にとってどのようなものでしょうか? それは、追加の毎月の費用のように見えます」 ユーザー。」