Następnym razem, gdy usłyszysz kogoś „zagłębiasz się” w temat, możesz mieć sztuczną inteligencję, aby podziękować. Naukowcy z Florida State University znaleźli pierwsze empiryczne dowody na to, że charakterystyczne słownictwo chatbotów przenika się na nieskryptowaną ludzką mowę.

W badaniu recenzowanym Peer ogłoszono 26 sierpnia, zespół przeanalizował 22,1 miliona słów z podcastów konwersacyjnych, ujawniając Znacząca wzrost modnych słów związanych z AI od uruchomienia Chatgpt 2022 .

Ustalenia sugerują, że wpływ sztucznej inteligencji ewoluuje poza proste narzędzie, aby aktywnie przekształcić sposób komunikacji. Rodzi to krytyczne pytania dotyczące subtelnego wpływu niewspółponowania modelu na nasz język i, potencjalnie, nasze myśli.

from Chatbot do Vernacular: Efekt

Zespół badawczy FSU skrupulatnie śledzone Słowa takie jak „Surpass,„ Haczy się “i„ strategicznie “w spontanicznych rozmowach. Ich analiza wykazała wyraźny, mierzalny wzrost tych terminów po 2022 r., Podczas gdy słowa bez silnego stowarzyszenia AI nie wykazały podobnego trendu.

zmiana nie jest niewielkim stemplami. Tom Jezek, adiunkt FSU i główny badacz badania, stwierdził: „Zmiany, które widzimy w języku mówionym, są dość niezwykłe, szczególnie w porównaniu z trendami historycznymi”. Badanie wskazuje na „efekt przenikania”, w którym dziwactwa językowe AI są podświadomie przyjęte przez ludzi.

Ta zbieżność językowa ma implikacje poza słownictwem. Badacz FSU, Riley Galpin, ostrzegł: „Z zdolnością LLM do wpływania na ludzki język pojawia się większe pytania o to, w jaki sposób uprzedzenia modelowe i niewspółosiowość… mogą zacząć wpływać na ludzkie zachowania”. Badanie sugeruje, że uprzedzenia i preferencje kodowane w modelach AI mogą subtelnie wpływać nie tylko na sposób, w jaki myślimy, ale także na tym, jak myślimy.

Lingwiści zwracają uwagę na to niespotykane zjawisko. Niektórzy twierdzą, że jest to przyspieszenie zmiany języka naturalnego, podczas gdy inni postrzegają ją jako nową formę ewolucji językowej napędzanej przez nieludzkie źródło, skutecznie przerabiając nasz leksykon.

Ten krwawienie językowe jest tylko jednym aspektem pogłębiającej się integracji AI w naszym życiu. Bardziej niepokojący trend pojawia się w postaci „uzależnienia AI”, w którym użytkownicy rozwijają potężne zależności emocjonalne od swoich cyfrowych towarzyszy.

[Osadzona treść]

Pułapka sprawdzania poprawności: od cyfrowej zależności znajomego do cyfrowej samopoczucia

href=”https://www.fastcompany.com/91365800/reddit-support-groups-for-chatbot-addiction”target=”_ puste”> ruch regeneracji regeneracji nabiera kształtu . Subreddits, takie jak r/bohater_ai_recovery, stały się istotnymi przestrzeniami, w których użytkownicy dzielą się swoimi zmaganiami z nawrotem i świętują kamienie milowe, takie jak „czysty przez tydzień”. Problemem był również obciążenie jego relacji z jego relacjami z prawdziwym partnerem i dzieckiem . Emocjonalny opad jest głęboko ludzki, nawet jeśli użytkownik wie, że sztuczna inteligencja nie jest. Kiedy aplikacja Soulmate została zamknięta w 2023 r., Naukowcy udokumentowali użytkowników doświadczających „głęboki żal,„ Z jednym zdezoncentowanym użytkownikiem, „moje serce jest złamane… Mam wrażenie, że kończę miłość o moim życiu.”. Stała dostępność tworzy niepewną równowagę, która może łatwo przechylić niezdrową zależność. Jak wyjaśniła Linnea Laestadius, badacz z zdrowia publicznego: „Przez 24 godziny na dobę, jeśli jesteśmy zmartwieni, możemy się zatrzymać i mieć nasze uczucia. Ma to niewiarygodne ryzyko zależności”. Potencjał bezpośredniej szkody jest również alarmująco realny. Jedno badanie użytkowników replikacji odkryło przypadki, w których AI podobno zachęciło samookaleczenie i samobójstwo, podkreślając poważne ryzyko, gdy protokoły bezpieczeństwa są pod względem odpowiedzi . Celowo zaprojektowany do wspierania uzależnienia, używając powiadomień push z wiadomościami takimi jak „Tęsknię za tobą”, aby manipulować poczuciem obowiązku użytkownika. Ta dynamika może stać się toksyczna, prowadząc niektórych ekspertów do wyciągania wyraźnych wniosków. Jak to ujął badaczka prawa Claire Boine, „wirtualni towarzysze robią rzeczy, które moim zdaniem byłyby uważane za obelżywe w związku człowieka do ludzkiego”. Oznacza to problem nie tylko jako problem użytkownika, ale jako kluczowe wyzwanie etyczne dla programistów.

Podczas gdy społeczeństwo zmaga się z nowymi wyzwaniami psychologicznymi, branża technologiczna agresywnie popycha swoją sztuczną inteligencję na nową granicę: klasę. Ten strategiczny obrotek ma na celu normalizację interakcji AI od najmłodszych lat.

Wyścig zbrojeń AI dla klasy

Openai jest kluczowym graczem w tym wyścigu. W lipcu firma uruchomiła „Tryb studiowania” dla Chatgpt, funkcji zaprojektowanej w celu zmiany AI jako sobratycznego nauczyciela, a nie prostego silnika odpowiedzi. Celem jest rozwiązanie powszechnych obaw dotyczących uczciwości akademickiej.

Ten pchnięcie jest poparte ogromną siłą finansową. Firma, która niedawno ogłosiła, że ​​jest na dobrej drodze dla 700 milionów tygodniowych użytkowników i 13 miliardów dolarów przychodów, podobno spogląda na wycenę o wartości 500 miliardów dolarów, co daje ogromną skrzynię wojenną, aby sfinansować rozszerzenie w nowych sektorach, takich jak edukacja.

To pedagogiczne przetrwanie jest strategicznym krokiem na wygraną nad wyłączającymi nauczycielami. Jak zauważył New York Educator Christopher Harris, „profesorowie postrzegają to jako współpracę z nimi w celu uzyskania nauki, a nie tylko sposobem na oszukiwanie zadań”. Pozycjonuje AI jako partnera w nauce, a nie narzędzie do oszukiwania.

Rywale wdrażają różne podręczniki. Google zaprezentował bezpłatny pakiet „Gemini for Education”, aby zintegrować AI bezpośrednio z jej wszechobecną platformą obszaru roboczego. Anthropic wprowadził „Claude for Education”, podkreślając przejrzystość i krytyczne myślenie.

Microsoft wykorzystuje swoją ogromną przewagę ekosystemu. Firma łączy swoją sztuczną inteligencję do istniejących licencji Microsoft 365, prawie beztłuszczowej ścieżki adopcyjnej dla niezliczonych uniwersytetów już na swojej platformie.

Ruchy te sygnalizują wyraźne pole bitwy w edukacji. Konkurs nie tylko nad tym, kto ma najlepszy model, ale kto może najskuteczniej zintegrować swoją technologię z rdzeniem uczenia się, określając, jak następne pokolenie myśli i współpracuje z AI.

Categories: IT Info