Meta bestätigte am Donnerstag, dass es eine nicht genannte Anzahl von Mitarbeitern in seiner Risiko-und Compliance-Abteilung entlässt und sie durch ein KI-gesteuertes System zur Durchführung von Datenschutzprüfungen ersetzt, die durch eine bahnbrechende Einigung der Federal Trade Commission (FTC) vorgeschrieben wurden.

Vom Unternehmen als Effizienzschub dargestellt, wirft der Schritt ernsthafte Fragen auf, ob die Automatisierung die menschliche Aufsicht beim Schutz von Benutzerdaten angemessen ersetzen kann, was Meta möglicherweise auf Kollisionskurs bringt Aufsichtsbehörden.

Von einer 5-Milliarden-Dollar-Strafe zur KI-Aufsicht

Das Team, das aus einer bahnbrechenden Regulierungsvereinbarung hervorgegangen ist, wurde zusammengestellt, um die Forderungen der FTC nach einem kolossalen Vertrauensbruch der Öffentlichkeit zu erfüllen.

Im Jahr 2019 wurde Meta wegen seiner Rolle im Datenschutzskandal von Cambridge Analytica, bei dem die Daten von bis zu 87 Millionen Nutzern missbräuchlich für politische Werbung gesammelt wurden, mit einer historischen Geldstrafe von 5 Milliarden US-Dollar belegt.

Eine Kernbedingung dieser Einigung war die Einrichtung einer robusten, von Menschen geführten Risikoorganisation, deren Aufgabe es ist, Datenschutzrisiken für jedes neue Produkt und jede neue Funktion vor der Markteinführung zu bewerten und zu dokumentieren.

Jahrelang fungierte diese Gruppe als interner Wachhund, eine Ebene menschlicher Verantwortung, die eine Wiederholung vergangener Fehler verhindern sollte. Jetzt wird dieser menschenzentrierte Prozess automatisiert.

Michel Protti, Chief Privacy and Compliance Officer von Meta, gab die Entlassungen am Mittwoch intern bekannt und signalisierte damit einen grundlegenden Wandel in der Art und Weise, wie das Unternehmen seine wichtigsten regulatorischen Verpflichtungen angeht.

Dieser Wandel lagert das gesetzlich vorgeschriebene menschliche Urteilsvermögen effektiv auf eine Maschine aus.

Effizienzantrieb oder ein Risikofaktor Glücksspiel?

Innerhalb von Meta konzentriert sich die offizielle Begründung auf Geschwindigkeit und Reife. Meta argumentiert, dass sein Compliance-Programm mittlerweile ausgereift genug ist, um Routineprüfungen zu automatisieren, wodurch menschliche Experten frei werden, die sich auf komplexere und neuartige Herausforderungen konzentrieren können.

Ein Unternehmenssprecher erklärte: „Wir nehmen routinemäßig organisatorische Änderungen vor und strukturieren unser Team um, um die Reife unseres Programms widerzuspiegeln und schneller Innovationen zu entwickeln und gleichzeitig hohe Compliance-Standards aufrechtzuerhalten.“

Metas VP of Policy, Rob Sherman, wiederholte diese Position in einem LinkedIn-Beitrag vom Juni und versuchte, eine klare Grenze zwischen einfacher Automatisierung und komplexer KI-Entscheidungsfindung zu ziehen: „Wir nutzen KI nicht, um Entscheidungen über Risiken zu treffen. Stattdessen werden die Regeln automatisiert angewendet, wodurch Experten weniger Zeit für die ratifizierten Entscheidungen aufwenden müssen …“

Er argumentierte, dass die Anwendung vorab festgelegter Regeln mittels Automatisierung die Zuverlässigkeit erhöht und die Wahrscheinlichkeit menschlicher Fehler bei ratifizierten Entscheidungen verringert.

Eine solch sorgfältige Formulierung steht jedoch im Widerspruch zu früheren Berichten und der wachsenden Skepsis von außen. Im Mai 2025 enthüllte eine Untersuchung erstmals den Plan von Meta, bis zu 90 % der Produktrisikobewertungen durch KI zu übernehmen, was bei Datenschutzbefürwortern unmittelbare Besorgnis auslöste.

Kritiker argumentieren, dass die Automatisierung einer solch kritischen Funktion ein gefährliches Wagnis sei, insbesondere wenn es um die nuancierten und oft unvorhersehbaren Risiken geht, die mit neuen Technologien verbunden sind.

Ein ungenannter ehemaliger Meta-Manager warnte, dass die Änderung dies bewirken würde führen unweigerlich zu einer schwächeren Kontrolle und gefährlicheren Ergebnissen. „Insofern dieser Prozess funktional dazu führt, dass mehr Dinge schneller auf den Markt kommen, mit weniger strenger Prüfung und weniger Widerstand, bedeutet das, dass Sie höhere Risiken schaffen.“

Diese Meinung teilte Zvika Krieger, eine weitere ehemalige Direktorin des Unternehmens, die warnte: „Wenn man das zu weit treibt, werden unweigerlich die Qualität der Überprüfung und die Ergebnisse leiden.“

Im Kern dieser Sorge liegt die Angst dass ein automatisiertes System, das auf Geschwindigkeit optimiert ist, möglicherweise die kontextbezogenen Risiken übersieht – wie solche, die gefährdete Jugendliche betreffen oder Fehlinformationen beinhalten –, auf deren Erkennung menschliche Gutachter geschult sind, was den eigentlichen Zweck des Mandats der FTC untergräbt.

Teil einer umfassenderen KI-Umstellung im gesamten Technologiebereich

Der Stellenabbau bei MEta erfolgt nicht im luftleeren Raum; Sie sind der jüngste Schritt in einer chaotischen, unternehmensweiten KI-Umstrukturierung, die offenbart, dass ein Führungsteam Schwierigkeiten hat, eine stabile Basis zu finden.

Die Nachricht von den Kürzungen kam nur einen Tag, nachdem das Unternehmen etwa 600 Mitarbeiter aus seiner KI-Abteilung entlassen hatte, eine Entscheidung, die einen sich zusammenbrauenden „internen Bürgerkrieg“ um die Strategie des Unternehmens und sein geheimes, elitäres „TBD-Labor“ verschärfte.

Dieses Labor, das geschaffen wurde, um ein „Traumteam“ von zu beherbergen hat Talente abgeworben, ein spaltendes Zweiklassensystem gefördert und bereits hochkarätige Rücktritte erlebt.

Ein Muster aus peitschender Reorganisation und internen Unruhen deutet darauf hin, dass Meta eine Reihe von Problemen gegen eine andere eintauscht und damit genau die Stabilität untergräbt, die es durch verschwenderische Ausgaben für Talente und Hardware erreichen wollte.

Die jüngsten Entlassungen wirken sich auf ein Team aus, das aus regulatorischen Notwendigkeiten entstanden ist zeigen, dass selbst gesetzlich vorgeschriebene Funktionen nicht immun gegen die turbulente AI-First-Strategie des Unternehmens sind.

Im gesamten Silicon Valley entfaltet sich ein ähnliches Narrativ, da KI zu einer gängigen Rechtfertigung für den Personalabbau wird. Andere Technologiegiganten verweisen auf die Effizienzsteigerungen durch KI, um Einstellungsstopps und Entlassungen zu erklären.

Salesforce-CEO Marc Benioff beispielsweise kürzlichtly kündigte Pläne zum Abbau von 4.000 Stellen im Kundensupport an aufgrund der wachsenden Möglichkeiten der Technologie. „Wir haben gesehen, dass die Zahl der Supportfälle, die wir bearbeiten, zurückgegangen ist und wir nicht mehr aktiv Support-Ingenieurpositionen nachbesetzen müssen.“

Große Finanzunternehmen folgen diesem Beispiel. Der Finanzchef von JPMorgan Chase hat kürzlich bestätigt, dass Manager angewiesen wurden, die Einstellung von Mitarbeitern in bestimmten Bereichen einzustellen, da die Bank ihre eigene KI einführt Initiativen, die die Technologie ausdrücklich mit einer Verlangsamung des Personalwachstums in Verbindung bringen.

In der gesamten Branche positioniert dieser Trend KI nicht nur als Werkzeug für Innovation, sondern als Hebel für erhebliche Unternehmensumstrukturierungen und Kostensenkungen.

Für Meta ist die Ersetzung seines von der FTC beauftragten Überprüfungsteams durch KI eine riskante Wette. Das Unternehmen setzt auf Technologie, um eine seiner sensibelsten rechtlichen Verpflichtungen zu rationalisieren.

Während der Schritt eine höhere Effizienz verspricht, birgt er auch das Risiko, das Vertrauen der Benutzer zu untergraben und eine erneute Prüfung durch genau die Regulierungsbehörden auf sich zu ziehen, die die menschliche Aufsicht überhaupt erst vorgeschrieben haben.

Categories: IT Info