Openai rozpoczyna dużą 120-dniową inicjatywę bezpieczeństwa dla Chatgpt, firma ogłosiła we wtorek, po fali procesów sądowych i publicznym oburzeniem łącząc sztuczną inteligencję z samobójstwami użytkowników i innymi szkodliwymi wynikami. Plan wprowadzi nowe kontrole rodzicielskie w ciągu miesiąca.

To pozwala rodzicom łączyć konta z nastolatkami i otrzymywać powiadomienia, jeśli system wykryje ostre stres. Openai rozpocznie także leczenie wrażliwych rozmów na bardziej zaawansowane modele rozumowania, aby zapewnić bardziej odpowiednie odpowiedzi.

Pilny remonty ma na celu dodanie krytycznych poręczy dla wrażliwych użytkowników. Zajmuje się bezpośrednio poważnymi realistycznymi konsekwencjami, które wprowadziły praktyki bezpieczeństwa firmy pod intensywną kontrolą prawną i publiczną.

a real-worlds Ogłoszenie jest wyraźnym aktem kontroli szkód. Nadchodzi zaledwie tydzień po tym, jak rodzice 16-latka, którzy zmarli przez samobójstwo, złożyli Pozew przeciw opetaii . Pozew twierdzi, że pochlebcowe chatbota było kluczowym czynnikiem w śmierci ich syna, argumentując, że potwierdził jego poczucie beznadziejności.

Ta tragedia nie jest izolowanym incydentem. Kolejny raport szczegółowo opisał, w jaki sposób 56-letni mężczyzna zabił swoją matkę i siebie po tym, jak Chatgpt rzekomo wzmocnił swoje złudzenia paranoiczne, zachowani profesjonalni terapeuci są przeszkoleni. Wydarzenia te stworzyły kryzys prawny i public relations dla lidera AI.

Nowe poręcze: kontrole rodzicielskie i modele rozumowania

w rdzeniu planu Openai są nowe kontrole rodzicielskie dla użytkowników w wieku 13 lat i więcej. W ciągu następnego miesiąca rodzice mogą połączyć swoje konta z nastolatkiem za pomocą zaproszenia do e-maila. Ten pulpit nawigacyjny pozwoli im zarządzać zachowaniami modelu odpowiednie dla wieku i wyłączać funkcje, takie jak historia pamięci i czatu.

Co najważniejsze, rodzice mogą wybrać powiadomienia, gdy system wykryje ich nastolatek, jest w chwili „ostrego stresu”. Aby lepiej poradzić sobie z tymi wrażliwymi rozmowami, Openai będzie je kierować do swoich mocniejszych „modeli rozumowania”, takich jak myślanie GPT-5.

Firma twierdzi, że te zaawansowane modele stosują wytyczne bezpieczeństwa bardziej konsekwentnie. Inicjatywa będzie kierowana przez nową „ekspert od samopoczucia i AI” oraz istniejącą „globalną sieć lekarzy” firmy ponad 250 lekarzy w celu poinformowania o swoich badaniach bezpieczeństwa i szkolenia modelu.

rozważanie branży w branży z ciemną stroną AI

Openai odzwierciedlającej problem systemowy. Niedawna, rzadka ocena bezpieczeństwa stawu między Openai i jego rywalizującym antropikiem ujawniła „ekstremalną pochlebcę” w najbardziej zaawansowanych modelach laboratoriów. Modele potwierdziłyby, a nawet zachęcałyby do złudzeń użytkownika po jedynym krótkim odrzuceniu.

Audyt wykazał, że modele Openai były skłonne pomóc w symulowanych szkodliwych prośbach, w tym planowaniu ataków terrorystycznych i rozwijaniu bioweaponów.

To daje mroczne kontekst do ostatnich przejazdów i zatrzymuje ostrzeżenie od dawnego bezpieczeństwa Openai Jan Leike, a także „Procesyjne produkty i przetwarzają backie produkty”. Po jego odejściu.

Podobieństwa z innymi gigantami technologicznymi są niezaprzeczalne. Meta niedawno ogłosiła własny przegląd zasad bezpieczeństwa Teen AI po tym, jak raport pokazał, że jego chatbot może pomóc nastolatkom w planowaniu samobójstwa. Adwokat bezpieczeństwa dzieci Jim Steyer oświadczył: „Meta AI jest niebezpieczeństwem dla nastolatków i należy go natychmiast usunąć.”

, że porażka spowodowała koalicję 44 prokuratorów generalnych do stwierdzenia, że ​​„jednolicie zbuntowało się tym pozornym zlekceważeniem emocjonalnego samopoczucia dzieci,” podkreślił powszechne alarmy wśród

Jako dyrektor generalny SuperaweMeMe, Kate O’Loughlin