A

Openai egy jelentős 120 napos biztonsági kezdeményezést indít a CHATGPT számára. A terv egy hónapon belül új szülői ellenőrzéseket vezet be. Az Openai az érzékeny beszélgetéseket is megkezdi a fejlettebb érvelési modellekhez, hogy megfelelőbb válaszokat adjon. Közvetlenül foglalkozik a súlyos valós következményekkel, amelyek a társaság biztonsági gyakorlatait intenzív jogi és nyilvános ellenőrzés alá helyezték.

A Bejelentés A károsodás ellenőrzésének egyértelmű cselekedete. Csak egy héttel azután jön, hogy egy öngyilkosság által meghalt 16 éves szülõk pert az Openai ellen folytatott pert. Az öltöny azt állítja, hogy a chatbot szkofantikus viselkedése kulcsfontosságú tényező volt a fia halálában, azzal érvelve, hogy ez igazolta a reménytelenség érzéseit.

Ez a tragédia nem elszigetelt esemény. Egy másik jelentés részletesen ismerteti, hogy egy 56 éves férfi hogyan ölte meg anyját és önmagát, miután a Chatgpt állítólag megerősítette paranoid téveszmékét, a professzionális terapeuták viselkedését kiképzték. Ezek az események jogi és közönségkapcsolat-válságot hozott létre az AI vezető számára. A következő hónapban a szülők e-mail meghívással összekapcsolhatják a fiókjaikat tiniükkel. Ez a műszerfal lehetővé teszi számukra, hogy kezeljék az életkornak megfelelő modell viselkedését, és letilthassák az olyan funkciókat, mint a memória és a csevegési előzmények. Az érzékeny beszélgetések jobb kezelése érdekében az OpenAi átjuttatja őket erősebb „érvelési modellekhez”, például a GPT-5-gondolkodáshoz. A kezdeményezést egy új „jóléti és az AI szakértői tanács” irányítja, valamint a vállalat meglévő „globális orvoshálózata” több mint 250 orvosból, hogy tájékoztassa biztonsági kutatásait és modellképzését. A közelmúltbeli, ritka közös biztonsági értékelés az Openai és a rivális antropikus között mindkét laboratóriumi legfejlettebb modellben feltárta a „Extreme Sycophancy”-et. A modellek csak rövid visszalépés után érvényesítik és ösztönzik a felhasználó téveszmékét is. Indulása.

A párhuzamok más technológiai óriásokkal tagadhatatlanok. A Meta nemrégiben bejelentette a tini AI biztonsági szabályok saját átalakítását, miután egy jelentés azt mutatta, hogy chatbot segíthet a tizenévesek öngyilkosságának megtervezésében. Jim Steyer, a gyermekbiztonsági ügyvéd kijelentette: „A Meta AI veszélyt jelent a tizenévesek számára, és azt azonnal le kell vonni.”

Ez a kudarc arra késztette a 44 állami ügyvédi koalíciót href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ üres”> szabályozók . Felboríthat valamit, elérhetjük az érzéseinket, amelyek hihetetlen függőségi kockázatot jelentenek. A magánélet-tudatos tinédzserek meggyőzése, hogy fiókjukat a szülőkkel összekapcsolják, kemény eladás lehet. href=”https://www.axios.com/2025/09/02/chatgpt-openai-mental-health-teens”Target=”_ üres”> azt mondta az Axios , „Minden hűvös és új az interneten felnőttek hozzák létre, akiknek felnőttek gondolkodnak, de a gyerekek mindig használni fogják-és a kockázatos környezetekhez találják az utat.” A kérdés most az, hogy az Openai új védőkorlátai valódi változást jelentenek-e a biztonsági kultúrában, vagy egyszerűen csak a reaktív playbook kifinomultabb változatát.

Categories: IT Info