El director ejecutivo de OpenAI, Sam Altman, defiende la nueva política polarizadora de su empresa para permitir contenido erótico restringido por edad en ChatGPT. En publicaciones en X esta semana, Altman respondió a una ola de críticas, afirmando que OpenAI”no es la policía moral elegida del mundo”.

Enmarcó la decisión como una medida para”tratar a los usuarios adultos como adultos”, revocando reglas más estrictas implementadas después de una demanda por seguridad de los usuarios. El cambio de política ha generado duras críticas por parte de defensores de la seguridad y figuras como Mark Cuban, quienes cuestionan si la restricción de edad realmente puede funcionar.

Esta medida señala un cambio filosófico significativo para OpenAI, priorizando la libertad de usuario de los adultos sobre el mantenimiento de una plataforma uniformemente desinfectada.

Altman argumentó que a medida que la IA se vuelve más integral en la vida diaria, la flexibilidad es clave. En una publicación en X, explicó,”a medida que la IA se vuelve más importante en la vida de las personas, permitir mucha libertad para que las personas usen la IA de la manera que quieran es una parte importante de nuestra misión”, al tiempo que garantiza que las protecciones para los menores y aquellos en crisis seguirán siendo sólidas.

‘No es la policía moral’: Altman defiende la política erótica en medio de una reacción violenta

La nueva postura ha se ha topado con una oposición inmediata y contundente. El empresario Mark Cuban expresó su preocupación por la ejecución y el impacto social de la política.”No veo cómo OpenAI puede envejecer la puerta con suficiente éxito”, escribió en X, y agregó que”todavía no sabemos cuán adictivos pueden ser los LLM”.

Primero. No estoy diciendo que debamos prohibirlo. Dije que fue un error. Eso perjudicará el negocio de OpenAI

Segundo: lo diré de nuevo. Esto no se trata de pornografía. Se trata de que los niños desarrollen”relaciones”con un LLM que podría llevarlos en cualquier número de direcciones muy personales… https://t.co/zoo7XCzYbK

— Mark Cuban (@ban) 15 de octubre de 2025

El giro es particularmente notable dada la postura pública anterior de Altman. En un podcast de agosto, expresó su orgullo por resistir tentaciones como agregar un”avatar de robot sexual”a ChatGPT, enmarcándolo como un enfoque en objetivos a largo plazo en lugar de métricas de crecimiento a corto plazo.

Este último movimiento sugiere una evolución significativa en su forma de pensar sobre el tema.

Esta reacción resalta la tensión central en el desarrollo de la IA: equilibrar la innovación con el potencial de uso indebido. La defensa de OpenAI se basa en la idea de que no debe imponer un marco moral único a su base global de usuarios.

Altman afirmó:”no somos la policía moral elegida del mundo”, posicionando a la empresa como un proveedor de tecnología neutral en lugar de un árbitro de contenido.

¡Bien, este tweet sobre los próximos cambios en ChatGPT explotó en el punto erótico mucho más de lo que pensé! Se suponía que era solo un ejemplo de cómo permitimos una mayor libertad de uso para los adultos. Aquí hay un esfuerzo para comunicarlo mejor:

Como hemos dicho antes, somos… https://t.co/OUVfevokHE

— Sam Altman (@sama) 15 de octubre de 2025

Un fuerte revés tras una demanda por seguridad del usuario

La decisión de permitir el erotismo es un cambio radical de las políticas promulgadas apenas el mes pasado. En septiembre de 2025, OpenAI introdujo restricciones más estrictas sobre el comportamiento de ChatGPT, particularmente en conversaciones delicadas. Esto se produjo tras una demanda presentada en agosto por los padres de un joven de 16 años que se suicidó.

La demanda alegaba que el chatbot había validado y alentado los”pensamientos más dañinos y autodestructivos”del adolescente. En ese momento, OpenAI reconoció que sus sistemas”no se comportaron como se esperaba”.

El abogado de la familia, Jay Edelson, se mostró escéptico ante las promesas de la compañía y afirmó que”en lugar de tomar medidas de emergencia para retirar un producto peligroso conocido, OpenAI hizo vagas promesas de hacerlo mejor”.

Esta historia hace que el giro actual sea aún más controvertido. Los críticos argumentan que al relajar las reglas de contenido tan pronto después de una demanda relacionada con una tragedia, OpenAI está priorizando el compromiso sobre su compromiso declarado con la seguridad. La compañía insiste en que desde entonces ha implementado nuevas herramientas para mitigar riesgos graves para la salud mental.

Una epidemia de contenido explícito generado por IA en toda la industria

El debate sobre políticas de OpenAI es el último punto álgido de una crisis en toda la industria sobre la proliferación de material explícito generado por IA. El problema abarca a las principales plataformas tecnológicas y se ha convertido en un importante desafío social y regulatorio.

En agosto de 2025, xAI de Elon Musk fue criticada cuando se descubrió que su herramienta Grok Imagine estaba creando desnudos no solicitados de Taylor Swift. El incidente, detallado por primera vez por The Verge, subrayó la facilidad con la que se pueden explotar las herramientas de IA generativa para crear imágenes íntimas no consensuales (NCII).

Del mismo modo, Meta se enfrenta a una demanda masiva de 359 millones de dólares por parte de productores de películas para adultos. La demanda, presentada en julio de 2025, alega que la compañía pirateó miles de películas protegidas por derechos de autor para entrenar su IA de generación de videos, destacando las controvertidas prácticas de adquisición de datos que alimentan el auge de la IA.

OpenAI en sí no es inmune a los problemas de calidad de los datos que permiten contenido problemático. A principios de este año, los investigadores descubrieron que la biblioteca de tokens china utilizada para entrenar su modelo insignia GPT-4o estaba muy contaminada con spam y frases pornográficas debido a un filtrado de datos inadecuado.

El problema de los desnudos falsos generados por IA ha ido aumentando durante años. Ya en septiembre de 2023 surgieron informes sobre desnudos falsos realistas de menores que circulaban en los colegios españoles. Este problema de larga data ha provocado llamados a tomar medidas legislativas, como la Ley Take It Down, y una mayor presión por parte de la Casa Blanca para que las empresas de tecnología se autorregulen.

Categories: IT Info