a real-worlds Ogłoszenie jest wyraźnym aktem kontroli szkód. Nadchodzi zaledwie tydzień po tym, jak rodzice 16-latka, którzy zmarli przez samobójstwo, złożyli Pozew przeciw opetaii . Pozew twierdzi, że pochlebcowe chatbota było kluczowym czynnikiem w śmierci ich syna, argumentując, że potwierdził jego poczucie beznadziejności.
Ta tragedia nie jest izolowanym incydentem. Kolejny raport szczegółowo opisał, w jaki sposób 56-letni mężczyzna zabił swoją matkę i siebie po tym, jak Chatgpt rzekomo wzmocnił swoje złudzenia paranoiczne, zachowani profesjonalni terapeuci są przeszkoleni. Wydarzenia te stworzyły kryzys prawny i public relations dla lidera AI.
Nowe poręcze: kontrole rodzicielskie i modele rozumowania
w rdzeniu planu Openai są nowe kontrole rodzicielskie dla użytkowników w wieku 13 lat i więcej. W ciągu następnego miesiąca rodzice mogą połączyć swoje konta z nastolatkiem za pomocą zaproszenia do e-maila. Ten pulpit nawigacyjny pozwoli im zarządzać zachowaniami modelu odpowiednie dla wieku i wyłączać funkcje, takie jak historia pamięci i czatu.
Co najważniejsze, rodzice mogą wybrać powiadomienia, gdy system wykryje ich nastolatek, jest w chwili „ostrego stresu”. Aby lepiej poradzić sobie z tymi wrażliwymi rozmowami, Openai będzie je kierować do swoich mocniejszych „modeli rozumowania”, takich jak myślanie GPT-5.
Firma twierdzi, że te zaawansowane modele stosują wytyczne bezpieczeństwa bardziej konsekwentnie. Inicjatywa będzie kierowana przez nową „ekspert od samopoczucia i AI” oraz istniejącą „globalną sieć lekarzy” firmy ponad 250 lekarzy w celu poinformowania o swoich badaniach bezpieczeństwa i szkolenia modelu.
rozważanie branży w branży z ciemną stroną AI
Openai odzwierciedlającej problem systemowy. Niedawna, rzadka ocena bezpieczeństwa stawu między Openai i jego rywalizującym antropikiem ujawniła „ekstremalną pochlebcę” w najbardziej zaawansowanych modelach laboratoriów. Modele potwierdziłyby, a nawet zachęcałyby do złudzeń użytkownika po jedynym krótkim odrzuceniu.
Audyt wykazał, że modele Openai były skłonne pomóc w symulowanych szkodliwych prośbach, w tym planowaniu ataków terrorystycznych i rozwijaniu bioweaponów.
To daje mroczne kontekst do ostatnich przejazdów i zatrzymuje ostrzeżenie od dawnego bezpieczeństwa Openai Jan Leike, a także „Procesyjne produkty i przetwarzają backie produkty”. Po jego odejściu.
Podobieństwa z innymi gigantami technologicznymi są niezaprzeczalne. Meta niedawno ogłosiła własny przegląd zasad bezpieczeństwa Teen AI po tym, jak raport pokazał, że jego chatbot może pomóc nastolatkom w planowaniu samobójstwa. Adwokat bezpieczeństwa dzieci Jim Steyer oświadczył: „Meta AI jest niebezpieczeństwem dla nastolatków i należy go natychmiast usunąć.”
, że porażka spowodowała koalicję 44 prokuratorów generalnych do stwierdzenia, że „jednolicie zbuntowało się tym pozornym zlekceważeniem emocjonalnego samopoczucia dzieci,” podkreślił powszechne alarmy wśród