Meta hat offiziell den Countdown für australische Teenager ausgelöst und eine Massenbenachrichtigungswelle eingeleitet, die den 10. Dezember als harte Frist für die Löschung von Konten von unter 16-Jährigen festlegt, um dem strengen Social-Media-Verbot der Bundesregierung nachzukommen.
Ab Donnerstag erhalten Benutzer, die auf Facebook und Instagram als minderjährig identifiziert werden, Warnungen per In-App-Benachrichtigung, SMS und E-Mail, sodass sie nur zwei Wochen Zeit haben, ihre Daten herunterzuladen, bevor der Zugriff widerrufen wird.
Der Schritt markiert die erste konkrete Durchsetzung Schritt von einer wichtigen Plattform im Rahmen der umstrittenen Gesetzgebung der albanischen Regierung, was Meta dazu zwingt, seine bevorzugten Selbstregulierungsmaßnahmen zugunsten einer staatlich vorgeschriebenen digitalen Räumung aufzugeben.
Die digitale Räumung: Mechanismen einer Masse Säuberung
Der Durchsetzungsmechanismus ist weit mehr als ein einfacher Schalterwechsel, sondern basiert auf einer gestaffelten Einführung, die das Chaos minimieren und gleichzeitig den aggressiven Zeitplan der Regierung einhalten soll.
Ab Donnerstag, dem 20. November, leitet Meta eine 14-tägige Warnsequenz ein, die sich an Benutzer unter 16 Jahren richtet. Mithilfe einer „mehrschichtigen“ Kommunikationsstrategie wird das Unternehmen In-App-Popups, SMS-Textnachrichten und direkte E-Mails bereitstellen Stellen Sie sicher, dass die Mitteilung vor Ablauf der Frist eingeht und bestätigt wird.
Während die letzte Frist der 10. Dezember ist, beginnt das operative Durchgreifen früher. Ab dem 4. Dezember blockiert Meta alle neuen Kontoregistrierungen für unter 16-Jährige und beginnt damit, den Zugriff auf bestehende Konten systematisch zu sperren.
Dieser schrittweise Ansatz zielt darauf ab, einen Last-Minute-Anstieg an Aktivitäten oder Support-Tickets zu verhindern, obwohl das Unternehmen bereits vor dem offiziellen Startdatum Probleme mit neuen Anmeldungen für unter 16-Jährige eingeräumt hat, was auf eine schwierige Übergangszeit hindeutet.
Umfassende Durchsetzung gilt für Facebook und Instagram und damit auch für Threads, wo ein Instagram-Login erforderlich ist. Dadurch wird Metas sozialer Fußabdruck für die Bevölkerungsgruppe effektiv gelöscht, obwohl Messenger technisch gesehen weiterhin ausgeschlossen bleibt.
Da die Gesetzgebung speziell auf „Social-Media“-Feeds und nicht auf direkte Kommunikationstools abzielt, ist Meta gezwungen, Messenger so umzugestalten, dass er unabhängig für Teenager funktioniert, ohne das zugrunde liegende Facebook-Profil, das ihn normalerweise antreibt.
Statt einer sofortigen Löschung werden Konten „deaktiviert“ oder eingefroren. Benutzer werden angewiesen, ihre Archive (einschließlich Beiträge, Direktnachrichten und Reels) vor dem Stichtag herunterzuladen, um einen vollständigen Datenverlust zu verhindern.
Meta hat eine „Ruhe“-Funktion in die Verbotsarchitektur eingebaut und verspricht, dass Benutzer ihre Profile mit allen intakten Inhalten reaktivieren können, sobald sie 16 Jahre alt werden. Wie Mia Garlick, Regional Policy Director von Meta, erklärte: „Wenn Sie 16 werden und wieder auf unsere Apps zugreifen können, sind alle Ihre Inhalte genau so verfügbar, wie Sie sie verlassen haben“, wodurch das Verbot zur Pflicht wird Pause statt dauerhafter Verbannung.
Meta verlässt sich auf seine internen Systeme, um zu „verstehen“, welche Konten Minderjährigen gehören, eine vage Methodik, die wahrscheinlich selbst gemeldete Geburtsdaten mit Verhaltensanalysen kombiniert, um Konten zur Entfernung zu kennzeichnen, ohne dass im Voraus Massen-Uploads von IDs erforderlich sind. Das schiere Ausmaß des Vorgangs garantiert jedoch technische Störungen und Benutzerreibungen, da Millionen von Konten gleichzeitig verarbeitet werden.
Identität vs. Privatsphäre: Das Verifizierungsdilemma
Die Einführung wird durch die inhärente Spannung zwischen der Durchsetzung von Altersgrenzen und der Wahrung der Privatsphäre der Benutzer erschwert. Für Benutzer, die als unter 16-Jährige gekennzeichnet sind und behaupten, älter zu sein, ist das „Ehrensystem“ tot. Um wieder Zugriff zu erhalten, muss eine strenge Alterssicherungsprüfung bestanden werden, bei der die Plattform von der passiven Schätzung auf die aktive Verifizierung umgestellt wird.
Meta hat sich mit dem Unternehmen für digitale Identität Yoti zusammengetan, um diese Streitigkeiten zu bearbeiten, und bietet zwei Wege an: ein Video-Selfie, das durch Gesichtsschätzungsalgorithmen analysiert wird, oder das direkte Hochladen eines von der Regierung ausgestellten Ausweises.
Während Yotis Technologie ein Standard für die Alterssicherung ist, ist sie eher probabilistisch als deterministisch. Meta hat vorsorglich zugegeben, mit Fehlern im Schätzungsprozess zu rechnen, die dazu führen könnten, dass legitime erwachsene Nutzer ausgesperrt werden oder älter aussehende Teenager nicht erfasst werden.
Kritiker verweisen auf die Ironie eines datenschutzorientierten Gesetzes, das die Erfassung hochsensibler biometrischer oder behördlicher Daten erzwingt, ein Schritt, der Metas historischem Widerstand widerspricht, ein Identitätsvermittler zu werden. Diese Forderung nach einem harten Identitätsnachweis kommt etwas mehr als ein Jahr, nachdem Meta in einer Untersuchung des australischen Senats zugegeben hat, dass das Unternehmen öffentliche Facebook-Daten – einschließlich Posts aus dem Jahr 2007 – gescrapt hat, um seine KI-Modelle ohne einen Opt-out-Mechanismus zu trainieren, wodurch ein feindliches Umfeld für neue Datenanfragen geschaffen wurde.
Obwohl Meta behauptet, dass ID-Daten nach der Überprüfung gelöscht werden, entsteht durch die Einbindung von Drittanbietern und die schiere Menge sensibler Daten, die für die Bearbeitung von Millionen von Streitfällen erforderlich sind, ein neuer, zentralisierter Angriffsvektor für schlechte Akteure.
Darüber hinaus behält Meta eine „Black-Box“-Kontrolle über die Durchsetzung, indem es sich weigert, genau offenzulegen, wie bestimmt wird, welche Konten als unter 16-Jährige gelten. Eine solche Undurchsichtigkeit ermöglicht es möglicherweise, die Aggressivität des Verbots je nach regulatorischem Druck zu erhöhen oder zu verringern.
Antigone Davis, Metas Global Head of Safety, betonte die Komplexität der Aufgabe:
„Während wir hart daran arbeiten, alle Benutzer zu entfernen, von denen wir wissen, dass sie unter 16 Jahre alt sind, wird die Einhaltung des Gesetzes ein fortlaufender und vielschichtiger Prozess sein.“
Eine Welt geht zu Ende: Die globale Regulierung Belagerung
Während sich Canberra auf den Zugang konzentriert, nehmen die Regulierungsbehörden in Washington und Sacramento die grundlegende Architektur dieser Plattformen ins Visier. Das australische Verbot stellt eine völlige Ablehnung der „Teen Accounts“-Initiative von Meta dar, mit der versucht wurde, die Aufsichtsbehörden mit „PG-13“-Filtern und Kindersicherungen zu besänftigen. Die australischen Gesetzgeber haben faktisch entschieden, dass eine gefilterte Erfahrung nicht ausreicht, und haben sich für einen völligen Ausschluss entschieden.
Kalifornien geht das Problem aus einem anderen Blickwinkel an und schreibt „Tabak-ähnliche“ Gesundheitswarnungen und strenge KI-Chatbot-Protokolle vor. Gouverneur Gavin Newsom bemerkte, dass „neue Technologien wie Chatbots und soziale Medien inspirieren können … aber ohne echte Leitplanken kann Technologie auch unsere Kinder ausbeuten, irreführen und gefährden“, wodurch eine fragmentierte Compliance-Umgebung entsteht, in der Meta verschiedene Versionen seiner Apps für verschiedene Gerichtsbarkeiten erstellen muss.
Betriebliche Änderungen in Australien finden vor dem Hintergrund der Klage in New York statt, die das Design dieser Plattformen (endloses Scrollen, variable Belohnungen) als eine Gefahr für die öffentliche Gesundheit darstellt.
Diese Rechtstheorie geht über die Moderation von Inhalten hinaus und hin zur Produkthaftung. In ähnlicher Weise entzieht das jüngste Urteil des DC-Gerichts, das sich auf die „Ausnahme bei Kriminalität und Betrug“ beruft, Meta das Anwaltsgeheimnis hinsichtlich der Forschung zur Sicherheit von Teenagern.
Richterin Yvonne Williams stellte fest, dass „Metas Anwalt solche Rechtsberatung angeboten hat, um die potenzielle Haftung von Meta gezielt einzuschränken“, wodurch möglicherweise die internen Überlegungen offengelegt wurden, die genau zu den Funktionen geführt haben, die Australien jetzt verbietet.
Canberras harte Haltung bestätigt die Darstellung der Whistleblower, die dies behauptet haben Metas interne Sicherheitsforschung wurde unterdrückt, um eine „plausible Leugnung“ zu schaffen, was darauf hindeutet, dass Selbstregulierung nie ein gangbarer Weg war.
Mit dem DSA der EU, dem Verbot Australiens und den Gesetzen auf US-Bundesstaatsebene beschleunigt sich das „Splinternet“. Meta verliert die Fähigkeit, eine einzige, einheitliche globale Plattform zu betreiben, was die Betriebskosten und die Komplexität in die Höhe treibt.
Mit der Umstellung von Meta auf KI weitet sich die behördliche Prüfung auf Chatbots aus, wobei befürchtet wird, dass KI-Begleiter Verbote in sozialen Medien umgehen oder neue Schäden verursachen könnten. Dies hat zu präventiven Vorschriften wie den kalifornischen Chatbot-Sicherheitsgesetzen geführt, die das Netz um die Geschäftstätigkeit von Big Tech weiter verschärfen.