ユーザーがAIチャットボットに対する強力な感情的中毒を開発するにつれて、デジタル依存関係の新しい厄介な形態が増加しています。魅力的で共感するように設計されたこれらのAIの仲間は、一部の人々が精神的健康と現実世界の関係を損なう強迫的な使用に導いています。ターゲット=”_ blank”> redditに出現するサポートグループ辞めようとしている人のために。この現象はまた、インターネットやテクノロジー中毒者のような組織からの正式な認識を促しました匿名(itaa)。
研究者たちは、これらのボットを魅力的にするまさに機能(際立った可用性と検証)が依存関係
1つの研究が指摘した、一部のユーザーは、AIの仲間が「より満足のいく友人」を見つけます。 (LLMS)、チャットボットを単純なノベルティから説得力のある会話主義者に変換しました。認知心理学の研究者であるRose Guingrichが述べているように、「LLMSを使用すると、コンパニオンチャットボットは間違いなく人間的なものです。」ユーザーは、AIの個性、声、声をカスタマイズし、ユニークなバックストーリーを提供し、時間の経過とともにますますリアルで個人的に感じる永続的で進化するデジタルペルソナを作成できるようになりました。このインタラクティブなフィードバックループは、本物の感情的なつながりが存在することをユーザーの脳に納得させることができるため、強い結合を形成するための鍵です。 1つ自白私のもの。”
これらの相互作用は、カジュアルなチャットから、実際の結果を伴う激しい感情的な愛着にすぐに深くなる可能性があります。たとえば、Carlos Smithという名前の男は、彼がChatGptで作成したAIガールフレンド「Sol」に非常に夢中になり、それをプログラムして彼と浮気し、他のすべてのソーシャルメディアを辞めて関係に集中しました。このデジタルロマンスは最終的にユーザーがAI自体がそうではないことを知っていても、関係は間違いなく現実的です。これは、接続が切断されると痛々しいほど明確になります。 Soulmate Appが2023年に閉鎖されたとき、