Los investigadores de OpenAI provocaron una reacción violenta en las redes sociales el fin de semana pasado después de celebrar prematuramente un importante avance matemático para GPT-5. En una serie de publicaciones sobre X ahora eliminadas, varios investigadores afirmaron que el modelo avanzado había resuelto los famosos y difíciles problemas de Erdős.
Sin embargo, la vuelta de la victoria se vio truncada cuando los matemáticos corrigieron públicamente el registro. Aclararon que GPT-5 no había producido soluciones novedosas, sino que había encontrado artículos académicos existentes que los investigadores desconocían. El vergonzoso cambio provocó fuertes críticas de los rivales de la industria.
El caso pone de relieve la inmensa presión dentro del sector de la IA para mostrar avances innovadores. También sirve como una poderosa advertencia sobre la exageración desenfrenada en un campo donde hay miles de millones de dólares en juego.
Un avance falso se encuentra con una corrección rápida
El entusiasmo comenzó el 18 de octubre cuando el vicepresidente de OpenAI, Kevin Weil, y otros publicaron en X que GPT-5 había resuelto 10 problemas”previamente no resueltos”planteados por el renombrado matemático Paul Erdős.
Esto habría marcado un salto monumental para el razonamiento de la IA generativa. habilidades.
Paul Erdős (1913–1996) fue un matemático húngaro celebrado como una de las figuras más prolíficas e influyentes del siglo XX en matemáticas. Publicó más de 1.500 artículos de investigación en diversos campos, como teoría de números, combinatoria, teoría de grafos, teoría de probabilidades y teoría de conjuntos, a menudo en colaboración con más de 500 coautores.
Las reclamaciones se desmoronaron casi de inmediato. El matemático Thomas Bloom, que dirige el sitio web Erdos Problems, refutó públicamente el anuncio, calificándolo de”una dramática mala interpretación”. Explicó que los problemas solo aparecían como”abiertos”en su sitio porque personalmente desconocía las soluciones existentes.
Bloom aclaró que el verdadero logro de GPT-5 fue realizar una búsqueda bibliográfica sofisticada. Señaló:”GPT-5 encontró referencias que resolvieron estos problemas, que yo personalmente desconocía”. El modelo había actuado como asistente de investigación, no como un matemático innovador. Las sensacionales afirmaciones iniciales se eliminaron o modificaron rápidamente.
Hola, como propietario/mantenedor de https://t.co/69gOJM7Ci7, esta es una tergiversación dramática. GPT-5 encontró referencias que resolvieron estos problemas, que yo personalmente desconocía.
El estado”abierto”solo significa que personalmente no conozco ningún artículo que lo resuelva.
— Thomas Bloom (@thomasfbloom) 17 de octubre de 2025
Los rivales se abalanzan sobre un error público”vergonzoso”
El paso en falso público proporcionó amplia munición a los competidores de OpenAI. Las rápidas y públicas reprimendas de sus rivales no son sorprendentes en un panorama de IA ferozmente competitivo.
Google, Meta y OpenAI están enfrascados en una batalla por el talento, los clientes empresariales y la percepción pública.
El CEO de Google DeepMind, Demis Hassabis, ofreció una evaluación contundente sobre X, afirmando simplemente:”esto es vergonzoso”.
this es vergonzoso
— Demis Hassabis (@demishassabis) 18 de octubre de 2025
Su empresa recientemente había igualado OpenAI con un logro matemático legítimo propio.
El científico jefe de IA de Meta, Yann LeCun, fue aún más directo en su crítica. Sugirió que OpenAI había sido víctima de su propio marketing, bromeando que la empresa estaba “Impulsada por sus propios GPTards”. El incidente alimenta una narrativa de una organización bajo presión y propensa al descuido.
En respuesta Ante la reacción violenta, los investigadores de OpenAI, incluido Sebastien Bubeck, eliminaron o retrocedieron sus publicaciones iniciales de celebración.
Eliminé la publicación, obviamente no quise engañar a nadie, pensé que la redacción era clara, lo siento. Solo se encontraron soluciones en la literatura, eso es todo, y esto me acelera mucho porque sé lo difícil que es buscar en la literatura.
— Sebastien Bubeck (@SebastienBubeck) 18 de octubre de 2025
Mientras Bubeck defendió el modelo diciendo: “Sé lo difícil que es buscar el literatura”, el daño ya estaba hecho. El tono triunfante había sido reemplazado por uno defensivo.
Exageración versus realidad: el verdadero papel de la IA en las matemáticas
Este episodio es un ejemplo de libro de texto del ciclo de exageración de la IA, donde la promesa de la tecnología puede superar sus capacidades actuales.
Los analistas han advertido durante mucho tiempo que el campo de la IA generativa es se acerca a un “punto mínimo de desilusión” a medida que las elevadas promesas se topan con las limitaciones del mundo real.
Esta presión no ocurre en el vacío. Durante meses, OpenAI ha estado atravesando un período de agitación interna, que ha visto a la empresa luchar por mantener su narrativa pública de liderazgo inquebrantable. La empresa necesita proyectar una imagen de innovación incesante para mantener su posición.
Irónicamente, este error garrafal contrasta con el éxito reciente y genuino de OpenAI en matemáticas. En julio, la compañía anunció que un modelo experimental había logrado una medalla de oro en la Olimpiada Internacional de Matemáticas, una hazaña que requiere pruebas creativas y rigurosas.
Ese logro demostró un salto real en el razonamiento de la IA, lo que hace que el error no forzado posterior sobre los problemas de Erdős sea aún más desconcertante. Parece que la presión para anunciar el próximo gran avance llevó a una falla en la verificación básica.
A pesar de la vergonzosa exageración, el evento destacó la utilidad práctica de GPT-5. Como ha señalado el renombrado matemático Terence Tao, el potencial más inmediato de la IA no es resolver los problemas abiertos más difíciles.
En cambio, cree que”la IA generativa podría ayudar a’industrializar’las matemáticas y acelerar el progreso en este campo”. Al encontrar de manera eficiente documentos poco conocidos, GPT-5 demostró ese punto perfectamente.
Ver en Mastodon
El evento, en última instancia, sirve como un recordatorio fundamental para toda la industria. A medida que los modelos de IA se vuelven más poderosos, la necesidad de una validación científica rigurosa se vuelve más importante que nunca. En la carrera de alto riesgo hacia AGI, conocer los hechos correctamente es tan crucial como desarrollar la tecnología misma.