A inteligência artificial avançada agora pode convencer as pessoas com mais eficácia do que os seres humanos, mesmo quando esses humanos são pagos por seus esforços, revela um novo estudo acadêmico a partir de 14 de maio. A pesquisa constatou que o Claude 3,5 Sonnet LLM da Anthropic superou significativamente os persuasores humanos incentivados em um questionário on-line, orientando os participantes adequadamente as respostas corretas e incorretas. Esse desenvolvimento destaca as capacidades de IA em rápido crescimento e amplifica os pedidos de estruturas de governança robustas.

O estudo, conduzido por Schoenegger et al. e detalhado em um artigo publicado em papel publicado em estudo de Salvi et al. Professor Associado Robert West, da EPFL, comentando sobre esse trabalho anterior, avisado :”O Danger é super-humano como chatbots=”_”Online.”

OpenAI também conduziu seus próprios testes internos com estudos de persuasão, mostrando seus modelos que se apresentam nos principais percentis de persuasores humanos. CEO OpenAI Sam Altman alertou em 2023 de outubro Inteligência:”Um desenvolvimento que ele sugeriu“ pode levar a alguns resultados muito estranhos.”

O novo Schoenegger et al. Artigo também observa que o modelo de Claude 3,5 sonetos utilizado foi uma versão (Claude-3-5-Sonnet-20241022) que o próprio Antrópico lançou já há quase um ano em 20 de junho de 2024. Os autores do estudo sugerem que o uso do LLM de mensagens lingüisticamente mais complexas pode ser contribuído para o seu sucesso perseguido. Eles também observaram que a vantagem persuasiva do LLM se restringiu um pouco sobre questões sucessivas, sugerindo uma potencial habituação do usuário. O desafio está em aproveitar os benefícios da IA, mitigando riscos profundos de manipulação e desinformação. Não diferiu estatisticamente na persuasividade das técnicas de persuasão enganosa e também exploradas. Preocupações e respostas da plataforma

O potencial de uso indevido de uma IA persuasiva é uma preocupação significativa, como demonstrado por um controverso da Universidade de Zurique (UZH) que ocorreu do final de 2024 para o Slow).

Os pesquisadores da UZH’ Draft Paper Detalhou como os LLMs foram fornecidos com atribuídos pessoais para realizar os usuários para realizar os usuários. Isso levou à condenação generalizada, com os moderadores de R/Changemyview afirmando:”As pessoas não vêm aqui para discutir suas opiniões com a IA ou a serem experimentadas”. E o especialista em ética Dr. Casey Fiesler chamando o experimento de”um dos piores violações de pesquisa que já vi”. O CEO Steve Huffman explicou em uma empresa blog preservar o anonimato.

O diretor jurídico da Reddit condenou fortemente as ações da equipe da UZH, afirmando: “O que essa equipe da Universidade de Zurique fez é profundamente errada tanto em um nível moral quanto legal. Ele viola a pesquisa acadêmica e as normas subdérricas, e é proibido por Reddit/Patreng. Governança

A crescente sofisticação da persuasão da IA, destacada pelo Schoenegger et al. O estudo traz a necessidade de medidas eficazes de governança e segurança de IA em foco nítido. Os próprios pesquisadores enfatizam a urgência dessas estruturas. Regulamentos atuais, como a AI da AI da UE e