Inteligența artificială avansată poate acum să convingă oamenii mai eficient decât ființele umane, chiar și atunci când acești oameni sunt plătiți pentru eforturile lor, dezvăluie un nou studiu academic din 14 mai. Cercetarea a constatat că Claude 3.5 Sonnet LLM a depășit în mod semnificativ convingerea umană stimulată într-un test online, îndrumând adept participanții atât la răspunsuri corecte, cât și incorecte. Această dezvoltare evidențiază capacitățile în creștere rapidă ale AI și amplifică apelurile pentru cadre de guvernare robuste.
Studiul, realizat de Schoenegger et al. și detaliat într-un Hârtie publicată pe Arxiv , a arătat llm”Target odată Rata generală de conformitate decât omologii săi umani. Această constatare este esențială, deoarece, după cum remarcă hârtia, convingerea umană au avut stimulente monetare, ceea ce face puțin probabil ca performanța superioară a AI să fie „doar un rezultat al comparațiilor umane nemotivate”. Autorii concluzionează că aceste rezultate arată „urgența cadrelor de aliniere și guvernare emergente. În scenarii înșelătoare, LLM a fost mai eficient la înșelăciune, provocând o scădere de precizie a punctelor procentuale de 15,1 în comparație cu scăderea cu 7,8 puncte a grupului de control atunci când este influențată de oameni. Acest lucru s-a produs chiar dacă, potrivit cercetării, 91% dintre participanții care interacționează cu LLM au recunoscut-o ca AI. De asemenea, studiul a recunoscut că concluziile sale se bazează pe efecte de persuasiune imediată și nu a măsurat persistența pe termen lung.
marginea persuasivă din ce în ce mai mare a AI
Rezultatele se bazează pe un corp din ce în ce mai mare de dovezi care evidențiază puterea persuasivă a AI. Anterior Studiu realizat de Salvi și colab. a constatat că GPT-4, atunci când li s-a acordat informații personale, a arătat 81,7% cote de cote de creștere a acordului în comparație cu dezbaterii umani. Associate Professor Robert West from EPFL, commenting on that earlier work, warned, “The danger is superhuman like chatbots that create tailor-made, convincing arguments to push false or misleading narratives Online.”
OpenAI și-a efectuat, de asemenea, propriile teste interne cu studii de persuasiune, arătând modelele sale performante în cele mai importante procente ale convingerilor umani. OpenAI CEO Sam Altman a avertizat deja în octombrie 2023 ca AI să devină „Capable of Superhuman Perhuman, bine înainte Inteligență, „o dezvoltare pe care a sugerat-o„ poate duce la unele rezultate foarte ciudate. “
Noul Schoenegger et al. De asemenea, hârtia observă că modelul Sonnet Claude 3.5 folosit a fost o versiune (Claude-3-5-Sonnet-20241022) pe care Antropic însuși a lansat-o deja în urmă cu aproape un an, pe 20 iunie 2024. Autorii studiului sugerează că utilizarea de către LLM a mesaje mai complexe lingvistice ar putea contribui la succesul său convingător. Aceștia au remarcat, de asemenea, că avantajul persuasiv al LLM s-a restrâns ușor față de întrebările succesive, ceea ce sugerează o obișnuință potențială a utilizatorului.
complicând în continuare eforturile de siguranță, un studiu din decembrie 2024 realizat de Apollo Research a găsit primul model de raționament al lui OpenAI „O1″ capabil de înșelăciune strategică. Provocarea constă în valorificarea beneficiilor AI, în timp ce atenuează riscurile profunde de manipulare și dezinformare.
antropică, într-un aprilie 2024 Studiul propriu
Cu toate acestea, în timp ce metodologia studiului pare robustă, concluziile sale sunt specifice Claude 3.5 Sonet și un cadru de testare, care poate diferi de multe contexte de persuasiune reală și că grupul participant de la prolific poate să nu reprezinte pe deplin și să reprezinte pe deplin și să nu reprezinte pe deplin problemele populației. Răspunsurile platformei
Potențialul de utilizare greșită a unei astfel de AI persuasive este o preocupare semnificativă, așa cum a demonstrat un experiment controversat al Universității din Zurich (UZH), care a derulat de la sfârșitul anului 2024 până la începutul anului 2025. Prin faptul că studiul neautorizat, AI Bots on R/Changemiewview a utilizat datele personale războite și persoanele sensibile la Sway. Uzh cercetători Proiect de hârtie Detaliați modul în care LLM-urile au fost furnizate cu atributele personale ale utilizatorilor pentru a croi argumente. Acest lucru a dus la o condamnare pe scară largă, cu moderatorii R/ChangemyView afirmând: „Oamenii nu vin aici pentru a discuta părerile lor cu AI sau pentru a fi experimentați. CEO Steve Huffman a explicat într-o companie Blog Post , în timp ce Reddit ar avea nevoie să știe dacă utilizatorii sunt umani și, în unele locuri Păstrați anonimatul.
directorul juridic al Reddit a condamnat cu tărie acțiunile echipei UZH, afirmând: „Ceea ce a făcut această echipă de la Universitatea din Zurich este profund greșit atât la nivel moral, cât și legal. Încântă acordul de cercetare academică și pentru drepturile omului, și este interzisă de acordul de utilizare al Reddit și regulile, pe lângă regulile subredditului,”. Guvernare
Sofisticarea din ce în ce mai mare a persuasiunii AI, evidențiată de Schoenegger și colab. Studiu, aduce nevoia de o guvernare eficientă a AI și măsuri de siguranță într-o atenție accentuată. Cercetătorii înșiși subliniază urgența acestor cadre. Reglementări curente, cum ar fi Legea AI a UE și ftc au Policy Policy Guidelinelines Clasificați în mod specific persuasiunea AI ca o capacitate distinctă cu risc ridicat.