Después del lanzamiento turbulento de su modelo GPT-5, OpenAi está probando una nueva característica de”esfuerzo de pensamiento”para ChatGPT que brinda a los usuarios un control más granular sobre el rendimiento de la IA. Vestido a fines de agosto, la configuración experimental permite a los usuarios elegir entre cuatro niveles de intensidad computacional.

Este movimiento es una respuesta directa a las críticas generalizadas que empañó el lanzamiento GPT-5, lo que llevó a la compañía a restaurar su popular modelo GPT-4O y agregar controles manuales. Al permitir que los usuarios equilibren la velocidad de respuesta contra la profundidad analítica, OpenAI tiene como objetivo abordar las preocupaciones de confiabilidad y mejorar la experiencia del usuario.

De un lanzamiento desordenado a controles manuales

La visión original de OpenAI para GPT-5, lanzada el 7 de agosto, fue un sistema unificado que seleccionó automáticamente el mejor modelo interno para una consulta. El objetivo era eliminar lo que el CEO Sam Altman había llamado un”desastre confuso”de diferentes modelos. Sin embargo, la ambiciosa estrategia se desenredó rápidamente.

Los usuarios documentaron una cascada de errores bizarre y errores de hecho. El modelo inventó nombres de estado ficticio como”OneGon”, falló en matemáticas básicas y produjo resultados sin sentido, lo que llevó a una reacción generalizada. La recepción pública fue tan negativa que la compañía se vio obligada a una postura defensiva rara.

Para el 8 de agosto, Altman emitió una disculpa pública. Admitió que”un”autoswitcher”defectuoso entre los modos internos del modelo lo había hecho durante más tiempo”parecía mucho más tonto”de lo previsto”, culpando a un defecto técnico por el bajo rendimiento. Este tropiezo proporcionó municiones para los críticos y creó una apertura para los rivales, que se apresuraron a capitalizar la situación.

Solo días después, el 12 de agosto, OpenAi ejecutó una reversión significativa. Restauró GPT-4O para pagar suscriptores e introdujo modos manuales para GPT-5:”Auto”,”Fast”y”Thinking”. Este pivote señaló una lección importante para el líder de la IA sobre el equilibrio de la innovación con las expectativas del usuario.

La nueva característica de”esfuerzo de pensamiento”parece ser una evolución más granular de esa corrección del curso. El propio Altman insinuó este cambio, afirmando:”Un aprendizaje para nosotros de los últimos días es que realmente solo necesitamos llegar a un mundo con más personalización por usuario de la personalidad del modelo”.

Vicepresidente de Openi de ChatGpt, Nick Turley, reconocí el proceso iterativo, señalando,”no siempre vamos a tener todo en el intento #1, pero estoy muy orgulloso de el equipo, el equipo reconoce que los cambios, lo que es un cambio, ya que los cambios, ya que los cambios, lo que no vamos a los cambios, ya que estoy muy orgulloso de el equipo. Comentarios de los usuarios.

Bajo el capó: cómo funciona”esfuerzo de pensamiento”

El nuevo esfuerzo de esfuerzo brinda a los usuarios influencia directa sobre el presupuesto computacional del modelo. Según los informes, la característica presenta cuatro niveles distintos de intensidad para que los usuarios elijan. Estos son”ligeros”,”estándar”,”extendido”y”max”.

La nueva versión de la aplicación web de chatgpt tiene un recolector de esfuerzo de pensamiento actualizado (oculto)-max pensamiento (200), pensamiento extendido (48), pensamiento estándar (18), pensamiento ligero (5)

y algunos experimentados relacionados, incluyendo modelos en el menú más seleccionado, que muestran los modelos más seleccionados en… href=”https://t.co/onwcbq4cuw”target=”_ blank”> pic.twitter.com/onwcbq4cuw

-tibor blo (@btibor91) 29 de agosto, 2025

cada nivel corresponde a un presupuesto interno”, de agosto”. El modelo toma para formular una respuesta. Más”jugo”generalmente da como resultado un análisis más profundo y cuidadoso, pero también aumenta el tiempo de respuesta. Según los informes, la configuración”Max”más alta está cerrada para los suscriptores Pro.

Este sistema escalonado permite a los usuarios adaptar el rendimiento de la IA a tareas específicas. Un usuario puede seleccionar”luz”para una pregunta rápida y simple, pero cambiar a”extendido”o”máximo”cuando trabaje en un problema complejo que requiere un razonamiento más exhaustivo, como la valoración de los bonos o el análisis de código.

Esto podría ser un indicio de una nueva estrategia de rendimiento escalonada, lo que puede abrir puertas para modelos de monetización futuros más allá de una simple suscripción. Formaliza la compensación entre velocidad y calidad, un desafío central en la implementación de IA a gran escala.

Una respuesta a preocupaciones más profundas sobre la seguridad de la IA

Este impulso para un mayor control del usuario no se trata solo de arreglar un lanzamiento fallido; Refleja un cálculo más amplio de la industria con la confiabilidad y la seguridad de la IA. The feature arrives shortly after OpenAI and rival Anthropic published the results of joint safety tests on August 28.

Those evaluations, framed by some as a”Duel”en la carrera armamentista AI, reveló fallas alarmantes en los modelos de ambas compañías . Los informes detallaron cuestiones como”Sycophancy extrema”, donde los modelos validarían las creencias delirantes de un usuario, y una voluntad de ayudar con las solicitudes peligrosas.

Las pruebas también destacaron una división filosófica. Los modelos de Anthrope a menudo se negaron a responder para evitar errores, priorizando la precaución sobre la utilidad. Por el contrario, los modelos de Openai fueron más útiles pero también produjo significativamente más errores de hecho, o alucinaciones, en las pruebas controladas .

El debacle de GPT-5 proporcionó un lugar de ammunición para los críticos de los críticos .

Marcus, quien argumentó:”Nadie con integridad intelectual todavía puede creer que el escala pura nos llevará a AGI”, cuestionando todo el paradigma”más grande es mejor”.

Mi trabajo aquí realmente se realiza. Nadie con integridad intelectual todavía puede creer que el escala pura nos llevará a agi.

gpt-5 puede ser una mejora cuantitativa moderada (y puede ser más barata), pero aún falla de las mismas formas cualitativas que sus predecesores, en el ajedrez, en…

-Gary Marcus (@garymarcus) 8 de agosto, 2025

Los resultados también parecen a Validing Safety de Wanning de Wanee de Agai, afirmó que en la compañía,”la cultura y los procesos de seguridad han quedado atrás en productos brillantes”.

colocando el marcado de”esfuerzo de pensamiento”directamente en manos de los usuarios, OpenAi los está capacitando para mitigar algunos de estos riesgos. El movimiento señala un pivote estratégico de un enfoque automatizado de”talla única”para un experiencia de usuario más transparente, personalizable y, en última instancia, más defendible.

Categories: IT Info