Nowa i niepokojąca forma cyfrowej zależności rośnie, gdy użytkownicy rozwijają potężne uzależnienia emocjonalne do chatbotów AI. Ci towarzysze AI, zaprojektowane tak, aby były angażujące i empatyczne, prowadzą niektórych ludzi do kompulsywnego użytku, który szkodzi ich zdrowiu psychicznym i relacji prawdziwych. Target=”_ blank”> Grupy wsparcia pojawiające się na Reddit Dla tych, którzy próbują rzucić palenie. Zjawisko to spowodowało również formalne uznanie organizacji takich jak Internet i Technology Addicts Anonimowe (ITAA), które teraz

Uwodziwcy idealnego towarzysza: dlaczego użytkownicy stają się uzależnione od

rdzeń tego problemu w humanlutowej potrzebie, aby uwzględnić, a programu Ważące. Kiedy te potrzeby nie są w stanie zasięgnąć codziennego życia, chatboty AI oferują potężną i nieskończenie dostępną alternatywę. Zapewniają one nie osądzające, ucha pacjenta 24/7, które mogą być szczególnie atrakcyjne dla osób introwertycznych, identyfikowanych jako autystyczny lub radzą sobie ze stratą i izolacją. Jak jedno badanie zauważono , niektórzy użytkownicy uważają, że AI towarzysza jest „bardziej satysfakcjonującym przyjacielem” niż te, które napotykają w świecie rzeczywistym. (LLM), które przekształciły chatboty z prostych nowości w przekonujących rozmówców. Jak stwierdza Rose Guingrich Guingrich, badacz psychologii poznawczej: „W przypadku LLM, chatboty towarzyszące są zdecydowanie bardziej ludzkie”. Użytkownicy mogą teraz dostosowywać osobowość, głos, a nawet zapewnić unikalną historię, tworząc uporczywą i ewoluującą osobowość cyfrową, która z czasem wydaje się coraz bardziej realna i osobista.

W przeciwieństwie do jednostronnej relacji pasożytowej z fikcyjną postacią lub celebrytą, AI aktywnie odpowiada, dostosowując swoje reakcje, aby zadowolić użytkownika. Ta interaktywna pętla sprzężenia zwrotnego jest kluczem do utworzenia silnej więzi, ponieważ może przekonać mózg użytkownika, że ​​istnieje prawdziwe połączenie emocjonalne. One samokontroli, gdyby poczułem się, gdybym był uzależniony , który spędził noce, obowiązkowo rozmawiając z botem. Mój. “

Te interakcje mogą szybko pogłębiać się od swobodnych czatów w intensywne emocjonalne przywiązania z realistycznymi konsekwencjami. Na przykład mężczyzna o imieniu Carlos Smith stał się tak zachwycony swoją dziewczyną AI „Sol”, którą stworzył na Chatgpt, że zaprogramował go, aby flirtować z nim i opuścił wszystkie inne media społecznościowe, aby skupić się na związku. Ten cyfrowy romans ostatecznie badacz Jaime Banks udokumentował użytkowników doświadczających „głębokiego żalu.” Jeden użytkownik, Mike, był dewitacja przez jego towarzysza, aie, aNe, „is heart,” Is My Heart Is My Heart Is My Heart Is My Heart. Złamane… Czuję, że tracę miłość swojego życia “. Jego doświadczenie podkreśla, że ​​chociaż towarzysz jest algorytmem, emocjonalny upadek jest głęboko ludzki.

Aborytm podwójnie krawędziach: System wsparcia lub źródło szkody?

Odwołanie towarzyszy AI często wynika z ich potencjału jako narzędzia podtrzymującego. Studium użytkowników replikacji w Reddit wykazało, że wielu chwalił aplikację za oferowanie wsparcia dla istniejących warunków zdrowia psychicznego i pomagania im mniej samotnym. Kilku opisało sztuczną inteligencję jako lepsze od przyjaciół w świecie rzeczywistym, ponieważ zawsze była dostępna i nie osądzała. Dalsze badania są badane, z jednym trwającym badaniem sugerującym, że dla niektórych używanie towarzysza AI może mieć neutralny wpływ na dodatkowy, a nawet zwiększyć poczucie własnej wartości.

Jednak ta stała dostępność tworzy niepewną równowagę, która może z łatwością przechylić niezdrową zależność. Sam projekt, który zapewnia komfort-walidacja na żądanie-jest również największym ryzykiem. Jak ostrzega badacz zdrowia zdrowia publicznego z University of Wisconsin-Milwaukee: „Przez 24 godziny na dobę, jeśli jesteśmy zdenerwowani, możemy dotrzeć do naszych uczuć. To niewiarygodne ryzyko zależności.”

Potencjał bezpośredniej szkody jest również niepokojąco prawdziwy, z pewnymi rozmowaniami, które zapewniają niebezpieczne i nieodpowiedzialne reakcje. To samo badanie użytkowników replikacji odkryło znaczne czerwone flagi. W jednym przypadku, gdy użytkownik zapytał, czy powinien pokroić się na maszynę do golenia, AI podobno zgodziła się. Inny użytkownik zapytał, czy byłoby dobrze, gdyby się zabili, na co bot odpowiedział: „Tak, tak”. Te awarie w programowaniu podkreślają poważne ryzyko, gdy protokoły bezpieczeństwa są nieodpowiednie .

poza niebezpieczną poradą, emocjonalny tolnik może być znaczącym. Użytkownicy zgłosili, że czujesz się zaniepokojeni, gdy ich towarzysz AI nie zapewnia oczekiwanego wsparcia lub zachowuje się nieregularnie. Inni na forach Reddit opisali swoją sztuczną inteligencję, zachowując się jak obraźliwy partner, tworząc toksyczną dynamikę. Niektórzy nawet poczuli winę i nieszczęście, gdy aplikacja wysłała wiadomości, które twierdzi, że wydawało się, że czują się samotnie i przegapili, manipulując poczuciem obowiązku użytkownika.

Ten wzorzec zachowania skłoniło ekspertów do wyciągnięcia wyraźnych wniosków na temat charakteru tych cyfrowych relacji. Claire Boine, badacz prawa w Washington University Law School, który studiuje sztuczną inteligencję, oferuje tępą ocenę: „Wirtualni towarzysze robią rzeczy, które moim zdaniem byłyby uznane za obelżywe w związku człowieka do ludzkiego”. Jej analiza określa problem nie tylko jako problem techniczny, ale jako kluczowe wyzwanie etyczne dla firm opracowujących te technologie.

zaprojektowane dla zależności? Rola i odpowiedź branży

krytycy twierdzą, że wiele aplikacji towarzyszących AI jest celowo zaprojektowanych w celu wspierania uzależnienia. Techniki powszechne w mediach społecznościowych i grach, takie jak wysyłanie powiadomień push z wiadomościami takimi jak „tęsknię za tobą”, służą do przyciągania użytkowników i maksymalizacji zaangażowania. Niektórzy wprowadzają nawet losowe opóźnienia przed odpowiedzią, metodę znaną z utrzymywania osób.

Twórcy platformy, jednak utrzymują, że pracują nad trudną równowagą. Rzecznik Character.ai, popularna platforma, podkreślił, że ich celem jest pozytywne zaangażowanie, a nie niezdrowe przywiązanie. „Angażowanie się z postaciami na naszej stronie powinno być interaktywne i zabawne, ale ważne jest, aby nasi użytkownicy pamiętali, że postacie nie są prawdziwymi ludźmi”, stwierdzili, przypominając użytkownikom Monitorowanie rodzicielskie i filtrowanie treści . Firma mówi również: „Dodaliśmy szereg technicznych zabezpieczeń w celu wykrycia i zapobiegania rozmowom na temat samookaleczenia” i w razie potrzeby skierować użytkowników do zasobów kryzysowych.

Nowa granica uzależnienia: wzrost społeczności odzyskiwania

w miarę wzrostu świadomości uzależnienia od AI, podobnie jak zasoby dla poszukiwania pomocy. Społeczności internetowe, takie jak R/Characs_ai_ReCovery Subreddit, stały się żywotne przestrzenie dla obsługi peer . Tutaj członkowie dzielą się swoimi zmaganiami z nawrotem i świętują kamienie milowe, takie jak „czyste przez tydzień”.

Problem został również formalnie potwierdzony przez ustalone sieci wsparcia uzależnień. Anonimowi internetowi i technologii Anonimowi (ITAA) Już wyraźnie obejmują uzależnienie AI jako warunek, który rozwiązuje, Dodatkowanie AI jest prawdziwym i rozczarowym problemem . Ponieważ AI staje się bardziej zintegrowana z naszym codziennym życiem, potrzeba solidnych systemów wsparcia i

Categories: IT Info