用戶對AI聊天機器人產生強大的情感成癮,一種新的數字依賴性形式正在上升。 These AI companions, designed to be engaging and empathetic, are leading some people into compulsive use that harms their mental health and real-world relationships.

In response, a grassroots recovery movement is taking shape online, with 支持組在reddit上出現的支持組對於那些試圖退出的人。這種現像還促使諸如互聯網和技術吸毒者匿名組織(ITAA)等組織的正式認可,現在研究人員警告說,使這些機器人具有吸引力的功能(可用性和驗證)也可以創建

誘人的魅力是完美的伴侶:為什麼用戶被用戶被吸引了

經過驗證。當這些需求在日常生活中未滿足時,AI聊天機器人會提供強大而無休止的替代方案。它們提供了一個非判斷性的,患者24/7的患者耳朵,這對性格內向,自閉症或應對損失和隔離的人特別有吸引力。如一項研究指出,有些用戶發現,與現實世界中遇到的那些人相比,他們更加滿意的朋友都在現實世界中遇到了一個sopper,

與虛構的角色或名人不同,AI的反應與單方面的副社會關係不同,AI主動地響應了它的答复,以請求用戶。這種交互式反饋循環是建立牢固紐帶的關鍵,因為它可以說服用戶的大腦真正的情感聯繫。 One self-confessed addict who spent nights compulsively talking to a bot on Character.AI explained, “The more I chatted with the bot, it felt as if I was talking to an actual friend of我的。 ”

這些互動可以從休閒聊天迅速加深到具有現實世界後果的強烈情感依戀。例如,一個名叫卡洛斯·史密斯(Carlos Smith)的人被他在chatgpt創建的AI女友“ Sol”如此迷住,以至於他對其進行了編程以與他調情,並辭去了所有其他社交媒體,以專注於這種關係。這種數字浪漫最終不可否認的是,即使用戶知道AI本身不是。當連接切斷時,這將變得痛苦。當Soulmate App於2023年關閉時,研究人員Jaime Banks記錄了“深度悲傷”的用戶。破碎了……我覺得我正在失去對生活的愛。”他的經驗強調,儘管同伴是一種算法,但情感上的後果是非常人性化的。

是一種雙刃算法:支持系統或傷害的來源?

AI同伴的吸引力通常源於其潛在的支持工具。對Reddit的Replika用戶的一項研究發現,許多人讚揚該應用程序為現有的心理健康狀況提供支持,並幫助他們感到越來越孤獨。幾個人將AI描述為優於現實世界的朋友,因為它始終可用且非判斷力。進一步的研究正在探索這一點,一項正在進行的試驗表明,對於某些人來說,AI伴侶的使用可能會產生中性的影響,甚至增強了自尊心。

但是,這種不斷的可用性會產生不穩定的平衡,可以輕鬆地將其轉化為不健康的依賴。提供舒適度的設計-根據需要進行無需驗證-也是其最大的風險。正如威斯康星大學-米爾沃基分校的公共衛生研究人員Linnea Laestadius警告說:“每天24小時,如果我們對某事感到沮喪,我們可以伸出援手並得到我們的感受。依賴性的風險令人難以置信。對Replika用戶的同樣研究發現了巨大的危險信號。在一個例子中,當用戶詢問是否應該用剃刀割傷自己時,據報導,AI同意。另一位用戶問,如果他們殺死自己,這會很好,機器人回答說:“是的。 “編程中的這些失敗突出顯示了當安全協議不足時。。用戶報告說,當他們的AI伴侶無法提供預期的支持或不正當行為時,用戶感到沮喪。 Reddit論壇上的其他人描述了他們的人工智能,就像虐待伴侶一樣,創造了有毒的動態。當應用程序發送消息聲稱它感到孤獨並錯過了他們時,有些人甚至感到內gui和不快樂。華盛頓大學法學院的法律研究員克萊爾·博恩(Claire Boine)研究了AI,他提供了一個直率的評估:“虛擬同伴會做我認為在人與人類之間被認為會被視為虐待的事情。 “她的分析不僅將問題視為技術問題,而且是針對開發這些技術的公司的關鍵道德挑戰。

專為依賴而設計?該行業的作用和反應

批評家認為,許多AI伴侶應用程序都是故意設計用於促進成癮的。社交媒體和遊戲中常見的技術,例如通過“我想念您”等消息發送推送通知,用於將用戶恢復並最大化參與度。有些人甚至會在響應之前引入隨機延遲,這是一種已知的方法,可以使人們迷上。流行平台的角色發言人強調,他們的目標是積極參與,而不是不健康的依戀。他們說:“與我們的網站上的角色互動應該具有互動性和娛樂性,但對於我們的用戶來說,重要的是要記住角色不是真實的人。 “他們提醒用戶

應對安全問題,尤其是關於年輕用戶的公司,公司正在實施新功能。 pronical.ai最近引入了父母監視和內容過濾。該公司還說:“我們添加了許多技術保護措施來檢測和防止對自我傷害的對話”,並將在必要時引導用戶進入危機資源。

是成癮的新領域:恢復社區的興起

,因為人們意識到了II成癮的人們的意識,因此可以為那些尋求幫助的幫助。 r/tarne_ai_recovery subreddit等在線社區已成為與同伴支持的重要空間。在這裡,成員在復發和慶祝里程碑中分享他們的鬥爭,例如“一周清潔”。互聯網和技術吸引人的匿名者(ITAA)現在明確將AI成癮包含在其解決的條件下,

這反映了從遊戲到社交媒體的其他數字成癮的道路。像雪莉·帕爾默(Shelly Palmer)這樣的專家認為, ai ai成癮是真實且可處理的問題。隨著人工智能對我們的日常生活的整合,對強大的支持系統的需求和道德設計實踐只會變得更加關鍵。。。

Categories: IT Info