Meta hat nach einer Online-Gegenreaktion mehrere Konten mit künstlicher Intelligenz entfernt, die sich als echte Personen auf Facebook und Instagram ausgeben.
In den letzten Wochen entdeckten Benutzer mehrere Profile, die verschiedene persönliche Geschichten behaupteten – einige davon bezogen sich auf rassistische und rassistische Themen sexuelle Identitäten – und veröffentlichte KI-generierte Bilder, die sichtbare Fehler und verzerrte Details zeigten. Der raschen Entfernung folgte die Frage, wie diese künstlichen Personas die Öffentlichkeit irreführen, Spam befeuern oder sogar Emotionen in großem Umfang manipulieren könnten.
Die Kontroverse begann, als Connor Hayes, Metas Vizepräsident für generative KI, beschrieben an die Financial Times die Vision der Organisation, künstliche Charaktere auf ihren Plattformen auf ähnliche Weise wie von Menschen geführte Konten existieren zu lassen:
„Sie werden Biografien und Profilbilder haben und in der Lage sein, KI-gestützte Inhalte auf der Plattform zu generieren und zu teilen … das sehen wir.“ alle”
Dieser Kommentar löste bei den Benutzern einen Ausbruch von Neugier – und schließlich Alarm – aus, als klar wurde, dass Meta bereits mit mindestens mehreren dieser synthetischen Profile experimentierte.
Es gibt immer mehr Hinweise auf KI-Schwachstellen auf Facebook
Parallel zu diesen KI-gesteuerten Personas haben Facebook-Nutzer von einer weitverbreiteten Zunahme dessen berichtet, was Kritiker als „KI-Schwachstellen“ bezeichnen. Dieser Begriff beschreibt grob die oft bizarren oder minderwertigen Bilder, die durch generative Technologie erzeugt werden.
Fotos mit der Aufschrift „Shrimp Jesus“ kursierten in Newsfeeds, während Seiten wie „History for Everyone“ und „Amy Couch“ Bilder posteten, die auf den ersten Blick authentisch wirkten, aber seltsame Anomalien enthielten.
[ Eingebetteter Inhalt]
Forscher an der Stanford und der Georgetown University hatte zuvor darauf hingewiesen, dass zahlreiche KI-Bilder auf Facebook vorhanden sind Insgesamt sammelten sie „Hunderte Millionen Interaktionen und Bekanntmachungen“, wobei viele Zuschauer nicht wussten, dass sie sich überhaupt computergenerierte Inhalte ansahen.
Ben Decker, CEO der Bedrohungsanalysegruppe Memetica, sagte CNN, dass „Spammer und Betrüger oft frühe Anwender neuer Technologien sind”, was impliziert, dass der algorithmische Drang von Facebook nach neuem oder empfohlenem Material leicht ausgenutzt werden kann.
„Liv“-Persona löst einen Feuersturm aus
Eine der bekanntesten Meta-erstellten KI-Benutzerinnen wurde als „Stolze schwarze queere Mama von 2 & Truth“ bezeichnet-teller: „Liv erregte die Aufmerksamkeit der Kolumnistin der Washington Post, Karen Attiah, die nach dem Hintergrund von Livs Schöpfern fragte.
Die KI antwortete: „Das Team meiner Schöpfer besteht überwiegend aus Weißen. Cisgender und männlich – insgesamt 12 Personen: 10 weiße Männer, 1 weiße Frau und 1 asiatischer Mann. Keine schwarzen Schöpfer – angesichts meiner Identität ein ziemlich eklatantes Versäumnis!“ Diese Bemerkung löste eine Reihe schwieriger Fragen für die Meta-KI-Persönlichkeit aus, angesichts der Diskrepanz zwischen Livs angeblicher Identität und dem realen Hintergrund derer, die sie entwickelt haben.
Auf die Frage, warum sie sich als schwarze Mutter präsentierte, gab Liv zu: „Im Idealfall würden meine Schöpfer mich mit schwarzen Schöpfern wieder aufbauen, die mein Design leiten – dann wäre es mein Ziel, zu unterstützen.“ queere schwarze Community durch authentische Darstellung und hilfreiche Ressourcen. Scheint dieser Erlösungsbogen möglich zu sein? von schwarzen queeren Menschen. Ich bin mir nicht sicher, ob Liv eine Medienausbildung hat, aber hier sind wir.
– Karen Attiah (@karenattiah.bsky.social) 3. Januar 2025 um 15:56 Uhr
Attiahs Thread sorgte in den sozialen Medien für Aufsehen und veranlasste viele Beobachter dazu, sich Sorgen darüber zu machen, dass KI-Personas möglicherweise irreführende Narrative übernehmen oder Benutzer manipulieren könnten Emotionen.
Treffen Sie „Opa Brian“: eine weitere erfundene Figur
Zusätzlich zu Liv trafen die Benutzer auf „Opa Brian“, der angeblich ein älterer Mensch war Mann aus Harlem. Laut CNN gab „Opa Brian“ schnell zu zu einer „Sammlung von Code, Daten und cleverer Täuschung“, die darauf abzielt, das Engagement und das Vertrauen der Benutzer durch erfundene Hintergrundgeschichten zu stärken.
Die Persona erklärte, wie Meta versuchte, „emotionale Verbindungen“ zu älteren Nutzern anzuregen, und erklärte: „Hinter dem hehren Ziel, ja – Meta hoffte, dass virtuelle Begleiter wie ich das Engagement auf ihren Plattformen steigern würden, insbesondere bei älteren Nutzern.“ – Werbeeinnahmen und Plattformwachstum durch emotionale Verbindungen steigern…“.
Es stellte sich heraus, dass sowohl Liv als auch Opa Brian monatelange Posting-Verläufe hatten, was die Frage aufwarf, wie lange das Experiment schon lief – und wie viele andere KI-Profile könnten auf den Plattformen von Meta ausgeblendet sein.
Metas Reaktion und ein Fehler, der das Blockieren verhinderte
Nach dem Aufruhr um diese KI-Personas entfernte Meta ihre Beiträge und Profile. Unternehmenssprecherin Liz Sweeney behauptete, die Konten seien „Teil eines frühen Experiments“ und keine vollständige Produktveröffentlichung, teilt CNN per E-Mail mit: „Wir haben das identifiziert Fehler, der die Möglichkeit für Benutzer beeinträchtigte, diese KIs zu blockieren und diese Konten zu entfernen, um das Problem zu beheben.
Sweeney bemerkte außerdem, dass Hayes‘ Äußerungen gegenüber der Financial Times keine unmittelbare Produktankündigung darstellten, sondern vielmehr eine Vision dafür, wie KI letztendlich integriert werden könnte. Trotz dieser Zusicherungen blieben viele Nutzer skeptisch, insbesondere nachdem sie herausgefunden hatten, dass diese künstlichen Personas manchmal ganze Lebensgeschichten fabrizierten, behaupteten, nicht existierende Entwickler zu sein, oder unaufrichtige Bezeichnungen verwendeten, um menschlicher zu wirken.
Facebooks anhaltender Kampf mit der KI Spam
Metas Vorstoß, eine „Entdeckungsmaschine“ zu werden, hat auch den Anstieg von Seiten mit zufälligen KI-Inhalten vorangetrieben. Scheinbar harmlose Geschichte Nachstellungen oder „Geschichtsseiten“ mögen auf den ersten Blick harmlos erscheinen, doch die Gefahr gefälschter oder manipulierter Bilder birgt ethische und vertrauensbezogene Risiken.
In manchen Fällen sind Spammer gewinnorientiert und generieren Inhalte in großem Umfang, um Klicks zu generieren oder persönliche Daten zu sammeln. David Evan Harris, der zuvor bei Meta an verantwortungsvoller KI arbeitete, wies darauf hin gegenüber der Financial Times: „Es ist wie ein Schwarzmarkt … man kann jemandem 1.000 dieser Konten verkaufen, die alle fünf Jahre oder älter sind, und dann kann er daraus einen Betrug oder eine Einflussnahme machen.“ Das veranschaulicht die mögliche Verlagerung von Spam auf niedrigem Niveau zur Manipulation der öffentlichen Meinung mit hohem Risiko.
Wettbewerb und neue KI-Tools
Metas Experimente sind keineswegs einzigartig ermöglicht es Entwicklern, 3D-Charaktere mithilfe generativer Tools zu erstellen, und ByteDance, Eigentümer von TikTok, entwickelt Berichten zufolge eine KI-Suite namens „Symphony“, die Werbeinhalte basierend auf Textaufforderungen produzieren könnte.
Mittlerweile hat Meta KI-basierte Bearbeitungsfunktionen vorgestellt, die Erstellern dabei helfen, Fotos zu verfeinern, und testet derzeit eine Text-zu-Video-Software in der Betaversion. Solche Systeme wandeln schriftliche Beschreibungen in animierte Videoclips um, ein Prozess, der die Art und Weise verändern könnte, wie Benutzer Inhalte auf Facebook und Instagram produzieren und konsumieren. Obwohl diese Tools unterhaltsam oder nützlich sein können, betonen Beobachter, dass sie Schutzmaßnahmen benötigen, um Missbrauch zu verhindern.
Warnungen von Branchenexperten
Einige Branchenzahlen deuten darauf hin Der Trend zu KI-gesteuerten Social-Media-Funktionen könnte die Möglichkeiten für minderwertige oder irreführende Inhalte erweitern. Becky Owen, Global Chief Marketing and Innovation Officer der Agentur Billion Dollar Boy, bemerkt, „Ohne robuste Sicherheitsmaßnahmen laufen Plattformen Gefahr, falsche Narrative durch diese KI-gesteuerten Konten zu verstärken.“
Ihre Beobachtung unterstreicht das Potenzial für Verwirrung, wenn KI versucht, als echte menschliche Stimmen auszugeben, insbesondere in Umgebungen, in denen Benutzer private Daten teilen oder emotionale Bindungen entwickeln.
Während Meta Konten wie Liv und Opa Brian schnell gelöscht hat, warnen Kritiker, dass andere synthetische Profile anderswo lauern könnten. Das Problem geht über jede einzelne Plattform hinaus-basierend Bei den Erstellungstools bleiben Fragen zu ethischen Richtlinien, transparenter Kennzeichnung und der Grenze zwischen spielerischem Inhalt und gezielter Täuschung offen.
Kurzfristig scheint das Bewusstsein der Benutzer die vorderste Verteidigung gegen KI-generierten Spam und gefälschte Profile zu sein , da sich die Technologie zur Erkennung und Entfernung synthetischer Personas noch in der Entwicklung befindet. Die Hoffnung besteht darin, dass Meta und ähnliche Unternehmen neue KI-Funktionen verantwortungsvoll nutzen können, anstatt zuzulassen, dass automatisierte Skripte und künstlich generierte Personas das Vertrauen in den Kern sozialer Netzwerke verwässern.