Zaawansowana sztuczna inteligencja może teraz przekonać ludzi bardziej skutecznie niż ludzie, nawet jeśli ci ludzie otrzymują wynagrodzenie za swoje wysiłki, ujawnia nowe badanie akademickie z 14 maja. W badaniach wykazało, że Claude 3.5 Sonnet LLM znacząco przewyższyło zachęconych ludzi w quizie internetowym, prowadząc uczestników zarówno do poprawnych, jak i nieprawidłowych odpowiedzi. Rozwój ten podkreśla szybko rosnące możliwości sztucznej inteligencji i wzmacnia wezwania do solidnych ram zarządzania.
Badanie, przeprowadzone przez Schoenegger i in. i szczegółowo opisane w Papier opublikowany na
W szczególności, według prawdą perswazji, LLM zwiększył dokładność quizów o 12,2 punktu procentowego w grupie kontrolnej, podczas gdy ludzie zarządzali wzrostem o 7,8 punktu. W zwodniczych scenariuszach LLM był bardziej skuteczny w wprowadzaniu w błąd, powodując spadek dokładności punktów o 15,1 punktu procentowego w porównaniu ze spadkiem grupy kontrolnej o 7,8 punktu, gdy ludzie pod wpływem ludzi. Stało się tak, chociaż według badań 91% uczestników wchodzi w interakcję z LLM uznało to za AI. Badanie uznało również, że jego wyniki są oparte na natychmiastowych skutkach perswazji i nie mierzyło długoterminowej trwałości. Odkrycia opierają się na rosnącym ciele dowodów podkreślających siłę AI. Wcześniejsze badanie Salvi i in. stwierdzono, że GPT-4, gdy podano dane osobowe, wykazało 81,7% wyższe szanse na zwiększenie zgodności w porównaniu z ludzkimi debatami. ZWIĄZKA ROBERT WEST z EPFL, komentując tę wcześniejszą pracę,
Openai przeprowadził również własne testy wewnętrzne z badaniami perswazji, pokazując swoje modele działające w najwyższych percentach ludzkich przekonujących. Prezes Openai Sam Altman
Nowy Schoenegger i in. Papier zauważa również, że zastosowanym modelem sonetowym Claude 3.5 była wersją (Claude-3-5-Sonnet-20241022), że sam antropiczny uruchomił już prawie rok temu 20 czerwca 2024 r. Autorzy badania sugerują zastosowanie LLM bardziej złożonych komunikatów językowych. Zauważyli również, że przekonująca przewaga LLM nieco zawęzała się nad kolejnymi pytaniami, sugerując potencjalne przyzwyczajenie użytkownika. Dalsze komplikujące działania bezpieczeństwa, badanie grudnia 2024 r. Przez Apollo Research wykazało, że pierwszy model rozumowania „O1″ Openai był w stanie strategicznego deklaracji. Wyzwanie polega na wykorzystaniu korzyści AI podczas ograniczenia głębokiego ryzyka manipulacji i dezinformacji. antropika, w kwietniu 2024 r. Papier papieru Szczegółowe informacje o osobistych cechach użytkowników. Doprowadziło to do powszechnego potępienia, przy czym moderatorzy R/ChangemyView stwierdzili: „Ludzie nie przychodzą tutaj, aby omówić swoje poglądy z AI lub eksperymentować.”, A ekspert ds. Etyki dr Casey Fiesler nazywa eksperyment „Jedno z najgorszych naruszeń etyki badań, jakie widziałem”. częściowo w odpowiedzi na takie istoty, ponownie ogłosił w maju 2025 r. Przetwarzanie etyki badań, jakie kiedykolwiek widziałem. Dyrektor generalny Steve Huffman wyjaśnił w firmie że rendit będą musieli wiedzieć, czy użytkownicy są ludzkimi, w niektórych miejscach, w miejscu, w miejscu, w tym celu, w tym celu, a cele. Zachowaj anonimowość. Główny oficer prawny Reddit zdecydowanie potępił działania zespołu UZH, stwierdzając: „To, co zrobił ten zespół Uniwersytetu w Zurychu, jest głęboko błędne zarówno na poziomie moralnym, jak i prawnym”. To narusza badania akademickie i prawa człowieka, a także nie jest zabronione przez Reddita Umowy i zasady użytkownika Reddita, oprócz zasad podudzania “. Zarządzanie
Rosnące wyrafinowanie perswazji AI, podkreślone przez Schoeneggera i in. Studium, zapewnia skuteczne środki zarządzania i bezpieczeństwa AI w ostrym skupieniu. Sami badacze podkreślają pilność tych ram. Obecne przepisy, takie jak UE AC ACT i
rosnąca przekonująca krawędź AI