Instagram zaostrza swoje zasady dotyczące nastoletnich użytkowników, a spółka-matka Meta ogłosiła dzisiaj, że automatycznie przypisze wszystkim użytkownikom poniżej 18 roku życia nowe, bardziej restrykcyjne ustawienie treści „PG-13″. Aktualizacja ma na celu ochronę młodych ludzi przed materiałami dla dorosłych poprzez blokowanie nieodpowiednich kont i filtrowanie wyszukiwanych haseł.
Wdrażany obecnie w USA, Wielkiej Brytanii, Australii i Kanadzie nowy system wprowadza również bardziej rygorystyczną kontrolę rodzicielską i do przyszłego roku będzie rozszerzany na całym świecie. Posunięcie to następuje po intensywnych naciskach organów regulacyjnych i zwolenników bezpieczeństwa zaniepokojonych wpływem platformy na zdrowie psychiczne młodzieży.
Nowe ustawienie domyślne „PG-13″ dla kont nastolatków
Przegląd dostosowuje politykę treści Instagrama dla nastolatków do znanego standardu oceny filmów PG-13.
W swoim ogłoszeniu firma wyjaśniła swój sposób myślenia, stwierdzając: „Tak jak widzisz sugestywne treści lub słyszysz wulgarny język w filmie PG-13, tak nastolatki mogą czasami zobaczyć coś takiego na Instagramie — ale będziemy nadal robić wszystko, co w naszej mocy, aby takie przypadki były jak najrzadsze.”
Oznacza to ukrywanie lub niezalecanie postów zawierających wulgarny język, ryzykowne akrobacje lub akcesoria związane z marihuaną.
Kluczową zmianą jest wprowadzenie „ograniczenia wiekowego” dla całych kont. Jeśli profil regularnie udostępnia treści nieodpowiednie dla wieku, takie jak linki do witryn dla dorosłych, Instagram zablokuje teraz wszystkim kontom nastolatków możliwość przeglądania, obserwowania i interakcji z nimi.
Zasady wykraczają poza ukrywanie postów. Zablokuje także nastolatkom możliwość obserwowania kont, których biografia lub nazwa użytkownika sugeruje tematykę dla dorosłych. Jeśli nastolatek już obserwuje takie konto, nie będzie już widział jego treści ani nie będzie mógł z nim wchodzić w interakcję.
Platforma rozszerza także listę zablokowanych wyszukiwanych haseł o słowa takie jak „alkohol” czy „gore” wraz z typowymi błędami ortograficznymi używanymi w celu ominięcia filtrów.
Ochrona obejmuje DM, w przypadku których nastolatkom nie będzie wolno otwierać linków do treści naruszających zasady, nawet jeśli zostaną wysłane przez osobę, którą obserwują.
Interakcje AI będą również regulowane przez standard PG-13, aby zapobiec niewłaściwym reakcjom chatbota. Jest to bezpośrednia reakcja na niedawne skandale, w których asystenci AI prowadzili szkodliwe rozmowy z nieletnimi.
Oczywiście zabezpieczenia te polegają na tym, że użytkownicy podają swój prawidłowy wiek, co stanowi ciągłe wyzwanie. Meta twierdzi jednak, że wykorzystuje proaktywny system sztucznej inteligencji do identyfikowania podejrzanych nieletnich użytkowników i automatycznie stosuje bardziej restrykcyjne ustawienia dla nastolatków.
Ulepszona kontrola rodzicielska i bardziej rygorystyczna opcja „Ograniczona zawartość”
Oprócz nowego domyślnego ustawienia Meta wprowadza jeszcze bardziej rygorystyczne ustawienie „Ograniczona zawartość”, które rodzice mogą włączyć dla kont swoich dzieci. Ten opcjonalny tryb odfiltrowuje więcej treści z pogranicza z doświadczenia nastolatka.
Co najważniejsze, ustawienie „Ograniczona treść” całkowicie uniemożliwia nastolatkowi przeglądanie, zostawianie i otrzymywanie komentarzy do jakichkolwiek postów. Stanowi to potężne narzędzie dla rodziców, którzy chcą znacznie ograniczyć niechciane interakcje ze swoimi dziećmi na platformie.
Według ankieta zlecona przez Meta, rodzice docenili dostępność tej bardziej restrykcyjnej opcji. Aby udoskonalić te wytyczne, firma twierdzi, że konsultowała się z tysiącami rodziców, włączając w aktualizacjach zasad ponad 3 miliony ocen treści.
Funkcje te stanowią część szerszego planu Meta mającego na celu ulepszenie narzędzi nadzoru Centrum Rodzinnego, które rozpoczęło się wdrażanie w 2023 r. Firma testuje także nowe narzędzie do przesyłania opinii, umożliwiające rodzicom bezpośrednie oznaczanie treści, które ich zdaniem nie nadają się do sprawdzenia.
Odpowiedź na monit Naciski i krytyka regulacyjna
Ta zmiana polityki jest wyraźną reakcją na ciągłą falę kontroli regulacyjnej. W maju 2024 r. Komisja Europejska wszczęła formalne dochodzenie w sprawie praktyk firmy Meta w zakresie bezpieczeństwa dzieci na mocy ustawy o usługach cyfrowych (DSA).
Dochodzenie sprawdza, czy projekty platform przyczyniają się do „uzależnień behawioralnych” i czy narzędzia weryfikacji wieku są skuteczne.
Wówczas urzędniczka UE Margrethe Vestager stwierdziła: „w ustawie o usługach cyfrowych ustanowiliśmy zasady, które mogą chronić nieletnich podczas interakcji w Internecie” podkreślając zamiar bloku egzekwowania nowych zasad.
W USA Federalna Komisja Handlu wszczęła we wrześniu 2025 r. własne dochodzenie, wymierzone w Meta i innych gigantów technologicznych w związku z bezpieczeństwem chatbotów towarzyszących sztucznej inteligencji dla nastolatków.
Przewodniczący FTC Andrew N. Ferguson powiedział, że „ochrona dzieci w Internecie jest najwyższym priorytetem dla FTC Trump-Vance, podobnie jak wspieranie innowacji w kluczowych sektorach naszej gospodarki”, sygnalizując twarde, ale zrównoważone podejście.
Intensyfikują się także działania na szczeblu stanowym, a Kalifornia przyjęła niedawno przełomowe przepisy dotyczące bezpieczeństwa dzieci.
Gubernator Kalifornii Gavin Newsom powiedział o nowych przepisach: „pojawiające się technologie, takie jak chatboty i media społecznościowe, mogą inspirować, edukować i łączyć — ale bez prawdziwych barier technologia może również wykorzystywać, wprowadzać w błąd i zagrażają naszym dzieciom”, podkreślając rosnący konsensus co do tego, że platformy technologiczne potrzebują silniejszych barier ochronnych.
Jednak ogłoszenie spotkało się z natychmiastowym sceptycyzmem. Amerykański senator Richard Blumenthal nazwał aktualizację „kolejnym posunięciem PR”, argumentując, że nie rozwiązuje ona podstawowego problemu uzależniających algorytmów. Zwolennicy bezpieczeństwa dzieci również wyrazili obawy.
Grupy te wskazują na niepowodzenia z przeszłości, takie jak doniesienia, że sztuczna inteligencja Meta może pomóc nastolatkom zaplanować samookaleczenie. Po tym incydencie dyrektor generalny Common Sense Media, Jim Steyer, oświadczył: „Meta AI stanowi zagrożenie dla nastolatków i należy ją natychmiast wyeliminować”. Ta historia błędów budzi wątpliwości, czy nowy system PG-13 będzie wystarczający.
Dyrektor ds. polityki publicznej w Meta, Liz Arcamona, odrzuciła tę kwestię, mówiąc: „w zasadzie wiele naszych polityk było już ogólnie zgodnych ze standardem PG-13 lub wręcz wykraczało poza nie. A jeśli dzisiaj idą dalej, będą to robić nadal w przyszłości”. Jednak w przypadku firmy borykającej się z wieloma dochodzeniami i powszechną nieufnością ciężar dowodu będzie polegał na wykazaniu, że te nowe bariery powodują znaczące i trwałe zmiany.