Die soziale Plattform X von Elon Musk X bewegt sich, künstliche Intelligenz in seine Signature-Fakten-Überprüfungsfunktion zu integrieren. Das Unternehmen kündigte am Dienstag an, ein Programm zu steuern, mit dem KI-Chatbots die ersten Notenentwürfe schreiben können, die einen Kontext für potenziell irreführende Beiträge bieten. Dieses neue System wird durch eine”AI Note Writer API”funktionieren, mit der Entwickler verschiedene KI-Modelle, einschließlich X’s eigener Grok, mit der Plattform verbinden können. Menschen, die noch verantwortlich sind. Ihre Notizen werden auf x angezeigt, wenn sie von Personen aus verschiedenen Perspektiven hilfreich empfunden werden-genau wie… pic.twitter.com/h4qny6vtkw

-Community Notes (@CommunityNoTes) Juli, 2025

kürzlich durchgeführte Forschungspapier Co-Authored von X-Stab und Akademics aus den Institutionen aus den Institutionen für die MIT und Stanford University. Ökosystem, bei dem KI die Bereitstellung von Kontext beschleunigt, während eine vielfältige Gemeinschaft menschlicher Bewerter als „ultimativer Bewerter und Schiedsrichter des hilfreichen Schiedsrichters“ dient. Wichtige Plattformen nehmen zunehmend Crowdsourced-Moderationssysteme an, die den Community-Notizen ähneln, die zuerst als Birdwatch im Jahr 2021 gestartet wurden. Meta zum Beispiel hat seit März eine eigene Version für Facebook, Instagram und Threads in den USA herausgebracht. Fehler.”Das Ziel des Unternehmens sei es, die Mäßigung mit freiem Ausdruck besser auszugleichen. Nicola Mendelsohn, META-Leiter des globalen Unternehmens, stellte klar, dass im Moment „nichts im Rest der Welt sich ändert. Wir arbeiten immer noch weltweit mit Faktenprüfern zusammen.“, Um den strengeren regionalen Vorschriften wie dem Digital Services Act der EU einzuhalten. Der Erfolg dieser Community-basierten Systeme hat auch ähnliche Merkmale aus Tiktok und Angriff auf die”lange Schwanz”der Nischenmissinformation . Das Ziel ist es, eine „tugendhafte Schleife“ zu erstellen, bei der KI Notizen erzeugt und menschliches Feedback nicht nur profitiert, sondern auch die zukünftige Leistung der KI verbessert. Risiken und laufende Debatten

Die Einsatz von AI als Faktenprüfung ist jedoch mit dem Risiko behaftet. Ein Hauptanliegen ist die gut dokumentierte Tendenz von Großsprachmodellen (LLMs), „halluzinieren“ und zuversichtlich erfundene Informationen als Tatsache zu präsentieren. Dies könnte zur Schaffung von Notizen führen, die überzeugend und gut geschrieben, aber gefährlich ungenau sind. Das Forschungspapier erkennt diese und andere Herausforderungen an, wie das Risiko von „Hilfsbereitschaft“, wobei eine KI lernen könnte, Notizen zu schreiben, die die Vorurteile der Bewerter ansprechen, anstatt sich an Fakten zu halten. Ein massiver Zustrom von AI-generierten Notizen könnte die Aufmerksamkeit der Bewerter verwässern, was es schwieriger macht, sowohl schlechte Noten als auch kritische Fehlinformationen zu erkennen. Diese Bedenken werden von ehemaligen technischen Führungskräften wiedergegeben, die diese Plattformen entwickelt haben. Ein ehemaliger Meta-Manager, der mit NPR über die zunehmende Abhängigkeit des Unternehmens auf KI zur Risikobewertung sprach, Yet, just a few months later, after his own posts about Ukrainian politics were corrected, he claimed the system was being manipulated, Angabe ,”Community-Notizen werden zunehmend von Regierungen und Legacy-Medien veranstaltet.”Diese Inkonsistenz hebt die inhärente Spannung in einem System hervor, das für Objektivität ausgelegt ist, das jedoch einer einzigen, ausgesprochenen Person gehört. Studien haben gezeigt, dass viele Beiträge, die Fehlinformationen enthalten, niemals eine Notiz erhalten, und wenn dies der Fall ist, wird die Notiz oft nur von einem Bruchteil der Personen gesehen, die den ursprünglichen Beitrag angesehen haben. Die Einführung von KI zielt darauf ab, die Geschwindigkeits-und Skalenprobleme anzugehen. Es bleibt jedoch abzuwarten, ob dies ohne Kompromisse der Qualität beeinträchtigt werden kann.

Trotz dieser Probleme treibt X sein KI-Experiment voran. Das Unternehmen plant, die AI-generierten Notizen für mehrere Wochen mit einer kleinen Gruppe von Mitwirkenden zu testen. Basierend auf den Ergebnissen dieses Piloten wird X entscheiden, ob die Funktion im weiteren Sinne ausgelöst werden soll. Der Erfolg dieses Hybridmodells könnte einen neuen Standard dafür festlegen, wie Online-Inhalte moderiert werden, aber sein Fehler könnte die Fehlinformation, die es für die Bekämpfung entwickelt hat, verstärken.

Categories: IT Info