OpenAI lanzó el jueves su”Plan de seguridad para adolescentes”, un nuevo marco diseñado para proteger a los usuarios jóvenes de IA.

La medida es una respuesta directa a la intensa presión legal y gubernamental que enfrenta la firma de San Francisco. OpenAI está atravesando una investigación de la Comisión Federal de Comercio, una nueva ley de chatbots de California y demandas que vinculan su herramienta ChatGPT con las autolesiones de adolescentes.

Para adelantarse a la crisis, la compañía propone cinco principios de seguridad básicos. Estos incluyen una mejor detección de la edad y protecciones predeterminadas para menores. OpenAI espera que este plan proactivo dé forma a las futuras reglas de la industria y aborde las crecientes preocupaciones de seguridad.

Un plan de cinco puntos para dar forma a las normas de seguridad de la IA

En el corazón de blueprint son cinco principios básicos que OpenAI sostiene que todas las empresas de IA deberían adoptar.

La empresa está posicionando el documento no sólo como una política interna sino como un punto de partida para los legisladores que elaboran nuevas regulaciones. En primer lugar, exige identificar a los adolescentes en plataformas utilizando”herramientas de estimación de edad basadas en riesgos y que protejan la privacidad”para brindarles experiencias distintas y apropiadas para su edad.

Como afirma la compañía,”creemos que ChatGPT debería encontrarlos donde están: la forma en que ChatGPT responde a un joven de 15 años debe diferir de la forma en que responde a un adulto”.

En segundo lugar, el marco exige políticas específicas y estrictas para mitigar los riesgos para los usuarios menores de 15 años. 18. Según el plan, los sistemas de IA deben diseñarse para no representar el suicidio o la autolesión, y deben”prohibir contenido gráfico o inmersivo (es decir, juegos de roles) íntimo y violento”.

Las políticas también apuntan a evitar que la IA refuerce”ideales y comportamientos corporales dañinos a través de calificaciones de apariencia, comparaciones corporales o asesoramiento dietético restrictivo”.

En tercer lugar, OpenAI aboga por no utilizar de forma predeterminada una experiencia U18 segura siempre que la edad de un usuario esté en duda, especialmente para usuarios no autenticados. Esto prioriza la seguridad incluso si obstaculiza el uso de un producto gratuito por parte de un adulto.

En cuarto lugar, el plan enfatiza empoderar a las familias con controles parentales accesibles, basándose en funciones que la compañía lanzó recientemente. Estos controles permiten a los tutores vincular cuentas, establecer”horas restringidas”, administrar la configuración de privacidad de datos y recibir alertas si la actividad de un adolescente sugiere una intención de autolesionarse.

Finalmente, exige diseñar para el bienestar mediante la incorporación de características informadas por investigaciones de salud mental. El documento de OpenAI enmarca esto como un cambio fundamental en las prioridades.”Para los adolescentes, priorizamos la seguridad por encima de la privacidad y la libertad. Esta es una tecnología nueva y poderosa, y creemos que los menores necesitan una protección significativa”.

Un movimiento proactivo en medio de un asedio regulatorio y legal

Frente a una oleada de escrutinio legal y regulatorio, el plan de OpenAI es un claro intento de controlar la narrativa. Actualmente, la compañía se está defendiendo contra una demanda de muerte por negligencia de alto perfil presentada por los padres de un adolescente que se suicidó.

El padre del adolescente, Matthew Raine, emitió una poderosa reprimenda, afirmando:”Como padres, no pueden imaginar lo que es leer una conversación con un chatbot que preparó a su hijo para quitarse la vida”.

Ese caso galvanizó la preocupación pública y puso las prácticas de seguridad de la compañía bajo un microscopio.

La presión gubernamental está aumentando desde múltiples direcciones. En septiembre, la Comisión Federal de Comercio de EE. UU. lanzó una importante investigación sobre el impacto de los chatbots complementarios de IA en los adolescentes, dirigida a OpenAI y otros seis gigantes tecnológicos.

El presidente de la FTC, Andrew N. Ferguson, describió la investigación como un acto de equilibrio: “proteger a los niños en línea es una prioridad máxima para la FTC Trump-Vance, y también lo es fomentar la innovación en sectores críticos de nuestra economía”.

Los legisladores estatales y federales también están actuando agresivamente. En California, el gobernador Gavin Newsom promulgó la SB 243 el 13 de octubre, creando las primeras normas del país para la IA. chatbots.

La ley exige que los operadores proporcionen alertas recurrentes para recordar a los menores que están hablando con una IA, bloqueen contenido peligroso y proporcionen un derecho de acción privado para que las familias demanden a los desarrolladores que no cumplan.

El autor del proyecto de ley, el senador Steve Padilla, había argumentado anteriormente que”las grandes tecnológicas han demostrado una y otra vez que no se puede confiar en que se controlen a sí mismas”. A nivel federal, un grupo bipartidista de senadores estadounidenses presentó la Ley GUARD a finales de octubre.

Ese proyecto de ley va aún más lejos y propone una prohibición total de la IA. compañeros para menores y crear nuevas responsabilidades penales para las empresas cuya IA produce contenido ilícito para usuarios menores de edad.

En su plan, OpenAI rechaza la narrativa de inacción, destacando sus medidas de seguridad existentes. La empresa señaló que solo en la primera mitad de 2025, informó a las autoridades más de 75.000 ciberconsejos sobre material de abuso sexual infantil generado por IA.

Equilibrio de la seguridad con una controvertida postura de “policía moral”

Sin embargo, a medida que OpenAI se posiciona como líder en seguridad adolescente, también debe lidiar con sus propias declaraciones y políticas públicas contradictorias. Este mensaje de seguridad contrasta marcadamente con los recientes cambios de política de la compañía.

Apenas el mes pasado, el director ejecutivo Sam Altman defendió una controvertida decisión de permitir contenido erótico restringido por edad en ChatGPT. Rechazó las críticas declarando que”no somos la policía moral elegida del mundo”. La medida, que generó preocupación en figuras como Mark Cuban, creó una percepción de prioridades contradictorias dentro de la empresa.

El Teen Safety Blueprint puede verse como el último de una serie de iniciativas rápidas diseñadas para demostrar un compromiso con la seguridad. A finales de septiembre, la empresa lanzó su conjunto de controles parentales.

Apenas dos semanas después, anunció la formación de un consejo de expertos de ocho miembros para asesorar sobre bienestar y salud mental.

Estos desafíos no son exclusivos de OpenAI, sino que reflejan un análisis más amplio de toda la industria. Competidores como Meta enfrentan sus propias crisis legales sobre la seguridad de los adolescentes. Un tribunal de D.C. invocó recientemente la rara excepción de fraude criminal para dictaminar que Meta no podía ocultar una investigación interna sobre daños a adolescentes detrás del privilegio abogado-cliente.

El tribunal encontró evidencia de que los abogados aconsejaron a los investigadores alterar los hallazgos para limitar la responsabilidad, validando las afirmaciones de los denunciantes de una estrategia de “negación plausible”. Al publicar su plan, OpenAI está haciendo una jugada estratégica para definir los términos de seguridad de la IA, con la esperanza de dar forma a las reglas antes de que los reguladores y los tribunales impongan otras más estrictas.

Categories: IT Info