Instagram verschärft seine Regeln für jugendliche Nutzer. Die Muttergesellschaft Meta gab heute bekannt, dass alle Nutzer unter 18 Jahren automatisch einer neuen, restriktiveren Inhaltseinstellung „PG-13“ zugewiesen werden. Das Update zielt darauf ab, junge Menschen vor Inhalten für Erwachsene zu schützen, indem unangemessene Konten blockiert und Suchbegriffe gefiltert werden.
Das neue System wird jetzt in den USA, Großbritannien, Australien und Kanada eingeführt, führt außerdem strengere Kindersicherungen ein und wird bis zum nächsten Jahr weltweit ausgeweitet. Der Schritt folgt dem starken Druck von Aufsichtsbehörden und Sicherheitsbefürwortern, die über die Auswirkungen der Plattform auf die psychische Gesundheit von Jugendlichen besorgt sind.
Ein neuer „PG-13“-Standard für Teenager-Konten
Die Überarbeitung gleicht die Inhaltsrichtlinien von Instagram für Teenager an den bekannten PG-13-Filmbewertungsstandard an.
Das bedeutet, Beiträge mit anstößiger Sprache, riskanten Stunts oder Marihuana-Utensilien auszublenden oder nicht zu empfehlen.
Eine wichtige Änderung ist die Einführung der „Altersbegrenzung“ für ganze Konten. Wenn ein Profil regelmäßig altersunangemessene Inhalte teilt, wie zum Beispiel Links zu Websites für Erwachsene, blockiert Instagram jetzt alle Teenager-Konten daran, diese zu sehen, ihnen zu folgen oder damit zu interagieren.
Die Richtlinie geht über das bloße Ausblenden von Beiträgen hinaus. Außerdem wird verhindert, dass Jugendliche Konten folgen, deren Biografie oder Benutzername auf Themen für Erwachsene schließen lässt. Wenn ein Teenager einem solchen Konto bereits folgt, sieht er dessen Inhalt nicht mehr und kann nicht mehr mit ihm interagieren.
Die Plattform erweitert außerdem ihre Liste blockierter Suchbegriffe um Wörter wie „Alkohol“ oder „Blut“ sowie häufige Rechtschreibfehler, die zur Umgehung von Filtern verwendet werden.
Der Schutz erstreckt sich auch auf DMs, in denen Teenager daran gehindert werden, Links zu rechtsverletzenden Inhalten zu öffnen, selbst wenn sie von jemandem gesendet werden, dem sie folgen.
KI-Interaktionen unterliegen ebenfalls dem PG-13-Standard, um unangemessene Chatbot-Antworten zu verhindern. Dies ist eine direkte Reaktion auf die jüngsten Skandale, bei denen KI-Assistenten schädliche Gespräche mit Minderjährigen führten.
Natürlich hängen diese Schutzmaßnahmen davon ab, dass Benutzer ihr korrektes Alter angeben, eine dauerhafte Herausforderung. Meta sagt jedoch, dass es ein proaktives KI-System verwendet, um verdächtige minderjährige Benutzer zu identifizieren und automatisch die restriktiveren Einstellungen für Jugendliche anzuwenden.
Verbesserte Kindersicherung und eine strengere Option „Begrenzter Inhalt“
Über die neue Standardeinstellung hinaus führt Meta eine noch strengere Einstellung „Begrenzter Inhalt“ ein, die Eltern für die Konten ihrer Kinder aktivieren können. Dieser optionale Modus filtert mehr grenzwertige Inhalte aus der Erfahrung eines Teenagers heraus.
Entscheidend ist, dass die Einstellung „Begrenzter Inhalt“ einem Teenager auch die Möglichkeit entzieht, Beiträge zu sehen, zu hinterlassen oder Kommentare dazu zu empfangen. Dies stellt ein leistungsstarkes Tool für Eltern dar, die unerwünschte Interaktionen ihrer Kinder auf der Plattform deutlich reduzieren möchten.
Laut einem Umfrage im Auftrag von Meta, Eltern schätzten es, diese restriktivere Option zur Verfügung zu haben. Um diese Richtlinien zu verfeinern, hat das Unternehmen nach eigenen Angaben Tausende von Eltern konsultiert und über 3 Millionen Inhaltsbewertungen in seine Richtlinienaktualisierungen integriert.
Diese Funktionen sind Teil einer umfassenderen Initiative von Meta zur Stärkung seiner Family Center-Überwachungstools, deren Einführung erstmals im Jahr 2023 begann. Das Unternehmen testet außerdem ein neues Feedback-Tool, mit dem Eltern Inhalte, die ihrer Meinung nach für eine Überprüfung ungeeignet sind, direkt markieren können.
Eine Antwort auf Zunehmender regulatorischer Druck und wachsende Kritik
Dieser politische Wandel ist eine klare Reaktion auf eine anhaltende Welle regulatorischer Kontrolle. Im Mai 2024 leitete die Europäische Kommission eine formelle Untersuchung der Kindersicherheitspraktiken von Meta im Rahmen des Digital Services Act (DSA) ein.
Die Untersuchung untersucht, ob Plattformdesigns zu „Verhaltenssucht“ beitragen und ob Tools zur Altersüberprüfung wirksam sind.
Damals erklärte die EU-Beamtin Margrethe Vestager: „Mit dem Digital Services Act haben wir Regeln festgelegt, die Minderjährige schützen können, wenn sie online interagieren.“ Dies unterstreicht die Absicht des Blocks, seine neuen Regeln durchzusetzen.
In den USA leitete die Federal Trade Commission im September 2025 eine eigene Untersuchung ein, die Meta und andere Technologiegiganten wegen der Sicherheit von KI-Begleit-Chatbots für Jugendliche ins Visier nahm.
FTC-Vorsitzender Andrew N. Ferguson sagte, dass „der Schutz von Kindern im Internet für die Trump-Vance FTC oberste Priorität hat, und das gilt auch.“ „Förderung von Innovationen in kritischen Sektoren unserer Wirtschaft“, was einen harten, aber ausgewogenen Ansatz signalisiert.
Auch die Maßnahmen auf staatlicher Ebene werden intensiviert, wobei Kalifornien kürzlich wegweisende Kindersicherheitsgesetze erlassen hat.
Der Gouverneur von Kalifornien, Gavin Newsom, sagte zu den neuen Gesetzen: „Neue Technologien wie Chatbots und soziale Medien können inspirieren, aufklären und verbinden – aber ohne echte Leitplanken kann Technologie auch unsere ausbeuten, irreführen und gefährden.“ Kinder“, was den wachsenden Konsens darüber unterstreicht, dass Technologieplattformen stärkere Leitplanken benötigen.
Die Ankündigung stieß jedoch sofort auf Skepsis. US-Senator Richard Blumenthal nannte das Update „einen weiteren PR-Schritt“ und argumentierte, dass es das Kernproblem der süchtig machenden Algorithmen nicht angeht. Auch Befürworter der Kindersicherheit haben Bedenken geäußert.
Diese Gruppen verweisen auf vergangene Fehler, etwa auf Berichte, dass die KI von Meta Teenagern bei der Planung von Selbstverletzungen helfen könnte. Nach diesem Vorfall erklärte Jim Steyer, CEO von Common Sense Media: „Meta AI ist eine Gefahr für Jugendliche und sollte sofort entfernt werden.“ Diese Geschichte der Fehltritte nährt Zweifel daran, ob das neue PG-13-System ausreichen wird.
Metas Direktorin für öffentliche Ordnung, Liz Arcamona, hielt dagegen und sagte: „Im Großen und Ganzen entsprachen viele unserer Richtlinien bereits im Allgemeinen dem PG-13-Standard oder gingen sogar darüber hinaus. Und wo sie heute noch weiter gehen, werden sie dies auch in Zukunft tun.“ Doch für ein Unternehmen, das mit zahlreichen Untersuchungen und weit verbreitetem Misstrauen konfrontiert ist, liegt die Beweislast darin, nachzuweisen, dass diese neuen Leitplanken sinnvolle und dauerhafte Veränderungen bewirken.