Der Algorithmus von Meta zur Identifizierung schädlicher Inhalte markierte fälschlicherweise sein Leitbild, „die Welt näher zusammenzubringen“, und zeigte eine extrem hohe Korrelation zwischen „Meta“ und dem Konzept einer „terroristischen Organisation“.
Die Der Vorfall führte zur raschen Entlassung von Sebastian Carlos, einem neu eingestellten Mitarbeiter, der mit der Überarbeitung des Algorithmus beauftragt wurde, was ethische und technische Fragen zur Rolle der KI bei der Inhaltsmoderation aufwirft, wie er erzählt in einem Blogbeitrag.
Eine mutige Überarbeitung der Inhaltsmoderation
Die Kontroverse begann, als sich Entwickler Sebastian Carlos dem „Harmful Content Detection“-Team von Meta anschloss erste Woche als neuer Mitarbeiter. Mit der Aufgabe, die Effizienz und Genauigkeit der Content-Moderationssysteme von Meta zu verbessern, stellten sie erhebliche Mängel im bestehenden Algorithmus fest.
Carlos schlug eine radikale Neufassung mit
Um das Kontextverständnis des Algorithmus zu stärken, wurden bei der Überarbeitung verschiedene Datensätze einbezogen, darunter Wikipedia, religiöse Texte und Enzyklopädien. Mit diesem vielschichtigen Ansatz wollte Carlos kulturelle und kontextuelle Inklusivität gewährleisten. Allerdings erforderte dieser Ansatz auch umfangreiche Rechenressourcen.
Verwandt: Trump und Musk lobten Zuckerbergs Schritt, die Faktenprüfung zu stoppen, Kritiker waren schockiert
Carlos erklärt, wie Metas interne Kostenmetrik, humorvoll genannt, funktioniert „Guatemala-Jahre“ (entspricht dem BIP von Guatemala) wurden zur Rechtfertigung des Rechenaufwands angeführt.
Der überarbeitete Algorithmus wurde entwickelt, um täglich Millionen von Beiträgen zu verarbeiten und deren Inhalt zu analysieren Laut Carlos bestand das Ziel darin, ein unvoreingenommenes System zu schaffen, das in der Lage ist, schädliches Material genau zu kategorisieren. „Es folgte einfach den Regeln, die wir ihm gaben.“ >
Wenn sich die KI nach innen wendet
Während seines ersten großen Testlaufs hat der aktualisierte Algorithmus das Leitbild von Meta als schädlichen Inhalt gekennzeichnet.
Beim Debuggen wurden keine Fehler in der Logik festgestellt. Stattdessen ergab die erweiterte Analyse des Systems eine hohe Korrelation zwischen dem Begriff „Meta“ und Phrasen, die mit „Terrorismus“ und „Unternehmensüberschreitung“ in Verbindung gebracht werden. Dieses unerwartete Ergebnis verdeutlichte die Herausforderungen beim Training von KI-Systemen für den Umgang mit mehrdeutigen Konzepten wie Moral und Schaden.
Die gemeldete Aussage löste sofortige interne Diskussionen aus, während andere sich über die möglichen Auswirkungen auf die Öffentlichkeitsarbeit Sorgen machten: „Wir können unsere Erwartungen nicht erfüllen.“ OKRs wie diese“ unterstreichen die Spannung und die wachsende Kluft zwischen technischer Genauigkeit und organisatorischen Prioritäten.
Der Fallout: Ethik und Geheimhaltungsvereinbarungen
Der Vorfall eskalierte, als Carlos stellte seine Erkenntnisse im Rahmen einer Teambesprechung vor. Obwohl die Arbeit des Mitarbeiters die Logik hinter den Entscheidungen des Algorithmus demonstrierte, stieß er auf Widerstand von Vorgesetzten. Kurz darauf wurde er entlassen und aufgefordert, eine „doppelte NDA“ zu unterzeichnen, einen obskuren rechtlichen Mechanismus zur Durchsetzung strikter Vertraulichkeit.
A doppelte NDA, auch bekannt als bilaterale oder gegenseitige NDA, ist eine rechtsverbindliche Vereinbarung, bei der beide beteiligten Parteien einander vertrauliche Informationen offenlegen und dem zustimmen Schützen Sie diese Informationen vor einer weiteren Offenlegung.
Carlos schreibt, dass sein Anwalt vorschlägt, dass sich solche Vereinbarungen gegenseitig aufheben könnten, sodass der Mitarbeiter seine Erfahrungen öffentlich diskutieren kann und zu dem Schluss kommt, dass „die Wahrheit nicht der Fall ist.“ „Es stimmt nicht immer mit den Unternehmenszielen überein.“
Die Rolle der KI bei der Moderation
Die Content-Moderationstools von Meta sind ein wesentlicher Bestandteil bei der Verwaltung der riesigen Menge an benutzergenerierten Inhalten auf seinen Plattformen. Die Abhängigkeit des Unternehmens von KI war sowohl eine Notwendigkeit als auch eine Quelle von Kontroversen. Kritiker verwiesen auf Fälle übermäßiger Reichweite oder unzureichender Maßnahmen gegen schädliches Material.
Der Vorfall verschärft die Prüfung und wirft Fragen zu Transparenz und Rechenschaftspflicht auf in der KI-Entscheidungsfindung. Kritiker von Meta hingegen könnten es als Zeichen der Effizienz von Algorithmen interpretieren.
Vielleicht ähneln Metas Praktiken und ideologischen Vorurteile tatsächlich denen einer Terrororganisation und der Algorithmus war genau richtig? Ohne technische Details können wir nur raten. Aber für Carlos bedeutete dieses Ergebnis das Ende eines ohnehin schon holprigen Starts im Unternehmen.
Wie Carlos auch schreibt, wurde Metas Augmented-Reality-Brille während seines Vorstellungsgesprächs verwendet, als ein beteiligter Entwickler sich darauf verließ, ein Problem zu lösen Codierungsherausforderung, Korrektur und Verbesserung einer vorgeschlagenen Lösung von Carlos. Dann konfrontierte er den Interviewer mit seinen Erkenntnissen und nutzte diesen Vorfall sogar, um ein höheres Gehalt auszuhandeln, als er bei Meta anfing, und erpresste ihn damit tatsächlich.
Abgesehen von dieser Nebengeschichte wirft Carlos‘ Erfahrung ein Schlaglicht auf die unbeabsichtigten Konsequenzen von KI-Systemen und beleuchtet die Schwierigkeiten bei der Programmierung von Algorithmen, um differenzierte menschliche Konzepte wie Schaden, Moral und Sicherheit zu verstehen und anzuwenden.
Das gemeldete Leitbild könnte eine Anomalie oder eine genaue Übereinstimmung gewesen sein. Was auch immer der Fall sein mag, Meta wird sich sicherlich nicht darauf einlassen.