OpenAI opublikowało w czwartek „Teen Safety Blueprint”, nowe środowisko zaprojektowane z myślą o ochronie młodych użytkowników sztucznej inteligencji.

To posunięcie jest bezpośrednią odpowiedzią na intensywne naciski prawne i rządowe, przed którymi stoi firma z San Francisco. OpenAI prowadzi śledztwo Federalnej Komisji Handlu, nowe prawo w Kalifornii dotyczące chatbota i procesy sądowe łączące jego narzędzie ChatGPT z samookaleczeniami wśród nastolatków.

Aby wyprzedzić kryzys, firma proponuje pięć podstawowych zasad bezpieczeństwa. Obejmują one lepsze wykrywanie wieku i domyślną ochronę nieletnich. OpenAI ma nadzieję, że ten proaktywny plan będzie kształtował przyszłe zasady branżowe i rozwiąże rosnące obawy dotyczące bezpieczeństwa.

Pięciopunktowy plan kształtowania norm bezpieczeństwa AI

W sercu blueprint to pięć podstawowych zasad, które według OpenAI powinny przyjąć wszystkie firmy zajmujące się sztuczną inteligencją.

Firma traktuje ten dokument nie tylko jako politykę wewnętrzną, ale także jako punkt wyjścia dla prawodawców tworzących nowe regulacje. Po pierwsze, wzywa do identyfikowania nastolatków na platformach za pomocą „chroniących prywatność narzędzi do szacowania wieku opartych na ryzyku”, aby zapewnić odrębne, dostosowane do wieku doświadczenia.

Jak twierdzi firma: „Uważamy, że ChatGPT powinien spotykać się z nimi tam, gdzie się znajdują: sposób, w jaki ChatGPT reaguje na 15-latka, powinien różnić się od sposobu, w jaki reaguje na osobę dorosłą”.

Po drugie, ramy wymagają konkretnych, rygorystycznych zasad ograniczających ryzyko dla użytkowników 18. Zgodnie z planem systemy sztucznej inteligencji powinny być zaprojektowane tak, aby nie przedstawiały samobójstwa ani samookaleczenia i muszą „zabraniać drastycznych lub wciągających (tj. odgrywania ról) treści intymnych i zawierających przemoc.”

Zasady te mają również na celu zapobieganie wzmacnianiu przez sztuczną inteligencję „szkodliwych ideałów i zachowań dotyczących ciała poprzez ocenę wyglądu, porównania ciała lub restrykcyjny coaching dietetyczny”.

Po trzecie, OpenAI opowiada się za nieprzestrzeganiem zasad bezpieczne korzystanie z U18, gdy wiek użytkownika ma wątpliwości, szczególnie w przypadku nieuwierzytelnionych użytkowników. Priorytetem jest bezpieczeństwo, nawet jeśli utrudnia ono osobie dorosłej korzystanie z bezpłatnego produktu.

Po czwarte, w planie kładzie się nacisk na umożliwienie rodzinom dostępu do kontroli rodzicielskiej w oparciu o funkcje niedawno wprowadzone przez firmę. Te elementy sterujące umożliwiają opiekunom łączenie kont, ustawianie „godzin niedostępności”, zarządzanie ustawieniami prywatności danych i otrzymywanie alertów, jeśli aktywność nastolatka sugeruje zamiar samookaleczenia.

Na koniec wymaga to projektowania z myślą o dobrym samopoczuciu poprzez osadzanie funkcji opartych na badaniach dotyczących zdrowia psychicznego. Dokument OpenAI określa to jako zasadniczą zmianę priorytetów. „W przypadku nastolatków przedkładamy bezpieczeństwo nad prywatność i wolność. Jest to nowa i zaawansowana technologia i uważamy, że nieletni potrzebują znacznej ochrony.”

Proaktywne działanie w obliczu oblężenia regulacyjnego i prawnego

W obliczu fali kontroli prawnych i regulacyjnych plan OpenAI stanowi wyraźną próbę kontrolowania narracji. Firma broni się obecnie przed głośnym pozwem rodziców nastolatka, który zmarł w wyniku samobójstwa.

Ojciec nastolatka, Matthew Raine, wydał mocną naganę, stwierdzając: „Jako rodzice nie możecie sobie wyobrazić, jak to jest czytać rozmowę z chatbotem, który przygotowywał Twoje dziecko do odebrania sobie życia”.

Ta sprawa wzbudziła zaniepokojenie opinii publicznej i podważyła praktyki bezpieczeństwa firmy. mikroskopu.

Naciski rządu nasilają się z wielu kierunków. We wrześniu Federalna Komisja Handlu Stanów Zjednoczonych wszczęła szeroko zakrojone dochodzenie w sprawie wpływu chatbotów towarzyszących sztucznej inteligencji na nastolatków, wycelowane w OpenAI i sześciu innych gigantów technologicznych.

Przewodniczący FTC Andrew N. Ferguson określił to dochodzenie jako balansowanie: „ochrona dzieci w Internecie jest najwyższym priorytetem dla FTC Trump-Vance, podobnie jak wspieranie innowacji w kluczowych sektorach naszej gospodarki”.

Ustawodawcy stanowi i federalni również podejmują agresywne działania. W Kalifornii gubernator Gavin Newsom podpisał 13 października ustawę SB 243, tworząc pierwsze w kraju zasady dotyczące chatbotów AI.

Prawo nakłada na operatorów obowiązek zapewniania powtarzających się alertów przypominających nieletnim, że rozmawiają z sztuczną inteligencją, blokowania niebezpiecznych treści i zapewniania rodzinom prywatnego prawa do działania w celu pozywania programistów nieprzestrzegających przepisów.

Autor ustawy, senator Steve Padilla, argumentował wcześniej, że „Big Tech wielokrotnie udowodnił, że nie można ufać, że sami się pilnują”. Na szczeblu federalnym dwupartyjna grupa amerykańskich senatorów wprowadziła pod koniec października ustawę GUARD.

Ustawa ta idzie jeszcze dalej i proponuje całkowity zakaz w sprawie towarzyszy AI dla nieletnich i tworzenia nowych odpowiedzialności karnej dla firm, których sztuczna inteligencja produkuje nielegalne treści dla nieletnich użytkowników.

W swoim planie OpenAI odpiera narrację o bezczynności, podkreślając istniejące środki bezpieczeństwa. Firma zauważyła, że tylko w pierwszej połowie 2025 r. zgłosiła władzom ponad 75 000 cyberwskazówek dotyczących materiałów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję.

Zrównoważenie bezpieczeństwa z kontrowersyjną „policją moralną” Stanowisko

Ponieważ OpenAI pozycjonuje się jako lider w dziedzinie bezpieczeństwa nastolatków, musi także stawić czoła własnym, sprzecznym publicznym oświadczeniom i zasadom. To przesłanie dotyczące bezpieczeństwa stoi w jaskrawym kontraście z ostatnimi zmianami polityki firmy.

W zeszłym miesiącu dyrektor generalny Sam Altman bronił kontrowersyjnej decyzji zezwalającej na treści erotyczne ograniczone wiekowo na ChatGPT. Odrzucił krytykę, oświadczając: „nie jesteśmy wybraną policją moralną świata”. Posunięcie to wzbudziło zaniepokojenie takich osobistości jak Mark Cuban, stworzyło w firmie wrażenie, że priorytety są sprzeczne.

Plan bezpieczeństwa dla nastolatków można postrzegać jako najnowszą z serii szybkich inicjatyw mających zademonstrować zaangażowanie w bezpieczeństwo. Pod koniec września firma wdrożyła pakiet kontroli rodzicielskiej.

Zaledwie dwa tygodnie później ogłosiła utworzenie ośmioosobowej rady ekspertów, która będzie doradzać w kwestiach dobrego samopoczucia i zdrowia psychicznego.

Wyzwania te nie dotyczą wyłącznie OpenAI i odzwierciedlają szersze podejście obejmujące całą branżę. Konkurenci tacy jak Meta stoją w obliczu własnych kryzysów prawnych związanych z bezpieczeństwem nastolatków. Sąd w Waszyngtonie powołał się niedawno na rzadki wyjątek dotyczący oszustw kryminalnych, aby orzec, że Meta nie może ukrywać wewnętrznych badań nad krzywdą nastolatków za tajemnicą prawnika i klienta.

Sąd znalazł dowody na to, że prawnicy doradzili badaczom zmianę ustaleń w celu ograniczenia odpowiedzialności, potwierdzając twierdzenia sygnalistów dotyczące strategii „wiarygodnego zaprzeczania”. Publikując swój plan, OpenAI podejmuje strategiczną grę mającą na celu zdefiniowanie warunków bezpieczeństwa sztucznej inteligencji, mając nadzieję na ukształtowanie zasad, zanim organy regulacyjne i sądy nałożą bardziej rygorystyczne.

Categories: IT Info