Fortgeschrittene künstliche Intelligenz können die Menschen nun effektiver überzeugen als Menschen, selbst wenn diese Menschen für ihre Bemühungen bezahlt werden, zeigt eine neue akademische Studie vom 14. Mai. Die Forschung ergab, dass das Claude 3.5 Sonnet LLM von Anthropic in einem Online-Quiz, der die Teilnehmer geschickt dazu führte, sowohl die korrekten als auch die falschen Antworten zu korrigieren, erheblich übertraf. Diese Entwicklung unterstreicht die schnell wachsenden Fähigkeiten von KI und verstärkt die Forderungen nach robusten Governance-Frameworks.

Die von Schoenegger et al. und detailliert in einem veröffentlicht auf Studie von Salvi et al. Associate Professor Robert West aus der EPFL, der diese frühere Arbeit kommentiert, gewarnt warnend “Das Gefahren ist, was mit dem Gefahren gedrückt wird, um zu schäbigen, wie Chatbots, die zu passorgemacht werden. online. OpenAI-CEO Sam Altman

Der neue Schoenegger et al. Papier stellt außerdem fest, dass das verwendete Claude 3.5-Sonnet-Modell eine Version (Claude-3-5-SONNET-20241022) war, die vor fast einem Jahr am 20. Juni 2024 selbst Anthropic selbst gestartet wurde. Sie stellten auch fest, dass der überzeugende Vorteil der LLM sich auf aufeinanderfolgende Fragen leicht einigte, was auf eine potenzielle Gewöhnung der Benutzer hinwies. Die Herausforderung besteht darin, die Vorteile von KI zu nutzen und tiefgreifende Risiken von Manipulation und Fehlinformationen zu mildern. Das OPUS-Modell unterschieden sich immer noch nicht statistisch in der Überzeugungskraft von menschlich geschriebenen und untersuchte auch täuschende Überzeugungs-Techniken.

Während die Methodik der Studie robust erscheint, sind ihre Ergebnisse spezifisch für Claude 3.5-Sonett und ein Quiz-Setting, das sich von vielen realen Überwachungskontexen darstellt. > ethische Bedenken und Plattformantworten

Das Potenzial für den Missbrauch einer solchen überzeugenden KI ist ein wesentliches Anliegen, wie ein kontroverses Universität Zürich (UZH) zeigt, das von Ende 2024 bis zu Beginn 2025 rannte. Meinungen. Dies führte zu einer weit verbreiteten Verurteilung, wobei die Moderatoren von R/Changemyview feststellten: „Die Menschen kommen nicht hierher, um ihre Ansichten mit KI zu besprechen oder zu experimentieren.“, Und Ethikexperte Dr. Casey Fiesler, die das Experiment „eines der schlimmsten Verstöße gegen die Forschungsethik, die ich je gesehen habe“. Prozesse. CEO Steve Huffman erklärte in einem Unternehmen FTC AI policy guidelines, are still evolving and do not Doch speziell die AI-Überzeugung als eine ausgeprägte Fähigkeit mit hohem Risiko klassifizieren.

Categories: IT Info