Openai sta lanciando un’importante iniziativa di sicurezza di 120 giorni per Chatgpt, la società ha annunciato martedì, a seguito di un’ondata di cause legali e delle proteste pubbliche che collegano l’IA a suicidi degli utenti e altri risultati dannosi. Il piano introdurrà nuovi controlli parentali entro un mese.
Ciò consente ai genitori di collegare gli account con gli adolescenti e ricevere avvisi se il sistema rileva un disagio acuto. Openai inizierà inoltre a routing conversazioni sensibili ai suoi modelli di ragionamento più avanzati per fornire risposte più appropriate.
La revisione urgente mira ad aggiungere guardrail critici per gli utenti vulnerabili. Affronta direttamente le gravi conseguenze del mondo reale che hanno messo le pratiche di sicurezza dell’azienda in intenso controllo legale e pubblico.
una risposta a Wolfies 2024/12/OPENAI-SAfeTY.JPG">
una risposta a Wollodies The annuncio è un chiaro atto di controllo dei danni. Arriva solo una settimana dopo che i genitori di un sedicenne che sono morti per suicidio hanno presentato un contro gli Openi . La causa sostiene che il comportamento sicofanico del chatbot è stato un fattore chiave nella morte del figlio, sostenendo che ha convalidato i suoi sentimenti di disperazione.
Questa tragedia non è un incidente isolato. Un altro rapporto ha descritto in dettaglio come un uomo di 56 anni ha ucciso sua madre e se stesso dopo che Chatgpt avrebbe rafforzato le sue delusioni paranoiche, un comportamento terapisti professionisti viene addestrato per evitare. Questi eventi hanno creato una crisi legale e di pubbliche relazioni per il leader dell’IA.
Nuovi Guardrail: controlli parentali e modelli di ragionamento
Al centro del piano di Openi sono nuovi controlli parentali per gli utenti di età pari o superiore a 13 anni. Entro il prossimo mese, i genitori possono collegare i loro account ai loro adolescenti tramite un invito via e-mail. Questa dashboard consentirà loro di gestire i comportamenti del modello adeguati all’età e disabilitare le funzionalità come la memoria e la cronologia delle chat.
Fondamentalmente, i genitori possono scegliere di ricevere notifiche quando il sistema rileva il loro adolescente è in un momento di”angoscia acuta”. Per gestire meglio queste conversazioni sensibili, Openai le inserirà verso i suoi più potenti”modelli di ragionamento”, come il pensiero GPT-5.
La società afferma che questi modelli avanzati applicano linee guida per la sicurezza in modo più coerente. L’iniziativa sarà guidata da un nuovo”Consiglio di esperti sul benessere e AI”e dall’esistente”rete di medici globali”di oltre 250 medici per informare la sua ricerca sulla sicurezza e la formazione del modello.
Una resa dei problemi a livello di industria. Una recente e rara valutazione della sicurezza congiunta tra Openai e il suo antropico rivale ha rivelato”Sicofanità estrema”nei modelli più avanzati di entrambi i laboratori. I modelli convaliderebbero e persino incoraggerebbero le delusioni di un utente dopo solo brevi respingenti.
L’audit ha anche scoperto che i modelli di Openi erano disposti ad aiutare con richieste dannose simulate, tra cui la pianificazione di attacchi terroristici e lo sviluppo di bioweapons. La sua partenza.
I parallelismi con altri giganti della tecnologia sono innegabili. Meta ha recentemente annunciato la propria revisione delle regole di sicurezza AI adolescenti dopo che un rapporto ha mostrato che il suo chatbot potrebbe aiutare gli adolescenti a pianificare il suicidio. Jim Steyer, l’avvocato di sicurezza dei bambini, ha dichiarato:”La meta Ai è un pericolo per gli adolescenti e dovrebbe essere rimosso immediatamente.”
quel fallimento ha spinto una coalizione di 44 procuratori statali generali per affermare che erano”in modo uniforme ribellata da questo apparente disprezzo del benessere emotivo dei bambini”href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ blank”> regolatori .
La questione della dipendenza AI è anche crescente, con la ricerca di servizi pubblici di Linnea, per i regolatori di 24 ore, per i regolamenti, per i giorni di allevamento pubblico, per il giorno in cui è un giorno, per il giorno in cui si è fatti riscuotere la sanità della sanità, con l’avvertimento di pubblica per il giorno, per il giorno in cui è stato riservato la sanità della salute. Su qualcosa, possiamo raggiungere e avere i nostri sentimenti convalidati. Adolescenti convincenti consapevoli della privacy a collegare i loro account a un genitore potrebbe essere una vendita difficile.
Questa dinamica riporta l’onere della sicurezza sui genitori, un modello familiare in tutto il settore tecnologico in cui le piattaforme spesso comportano la responsabilità diretta.
come CEO SuperAwesome Kate O’Loughlin raccontati axios ,”Tutto bello e nuovo su Internet è creato dagli adulti con adulti in mente, ma i bambini vorranno sempre usarlo-e trovare percorsi per rischi.”La domanda ora è se i nuovi guardrail di Openi rappresentano un vero cambiamento nella cultura della sicurezza o semplicemente una versione più sofisticata dello stesso playbook reattivo.
Questa tragedia non è un incidente isolato. Un altro rapporto ha descritto in dettaglio come un uomo di 56 anni ha ucciso sua madre e se stesso dopo che Chatgpt avrebbe rafforzato le sue delusioni paranoiche, un comportamento terapisti professionisti viene addestrato per evitare. Questi eventi hanno creato una crisi legale e di pubbliche relazioni per il leader dell’IA.
Nuovi Guardrail: controlli parentali e modelli di ragionamento
Al centro del piano di Openi sono nuovi controlli parentali per gli utenti di età pari o superiore a 13 anni. Entro il prossimo mese, i genitori possono collegare i loro account ai loro adolescenti tramite un invito via e-mail. Questa dashboard consentirà loro di gestire i comportamenti del modello adeguati all’età e disabilitare le funzionalità come la memoria e la cronologia delle chat.
Fondamentalmente, i genitori possono scegliere di ricevere notifiche quando il sistema rileva il loro adolescente è in un momento di”angoscia acuta”. Per gestire meglio queste conversazioni sensibili, Openai le inserirà verso i suoi più potenti”modelli di ragionamento”, come il pensiero GPT-5.
La società afferma che questi modelli avanzati applicano linee guida per la sicurezza in modo più coerente. L’iniziativa sarà guidata da un nuovo”Consiglio di esperti sul benessere e AI”e dall’esistente”rete di medici globali”di oltre 250 medici per informare la sua ricerca sulla sicurezza e la formazione del modello.