Un grupo de más de 70 científicos ha reprendido públicamente a la presidenta de la Comisión Europea, Ursula von der Leyen, exigiéndole que se retracte de una afirmación de que la IA a nivel humano podría llegar”el año que viene”.
En una carta abierta enviada el lunes desde Bruselas, los expertos, incluidos asesores de la ONU, calificaron su afirmación de poco científica y peligrosa. Argumentan que se hace eco de las exageraciones publicitarias de los directores ejecutivos tecnológicos estadounidenses más que de evidencia empírica.
La carta afirma que amplificar tales afirmaciones socava la credibilidad de Europa y contribuye a una burbuja especulativa. El comentario original de Von der Leyen, realizado en mayo, se basó en declaraciones de los líderes de OpenAI, Anthropic y Nvidia, según una divulgación de la Comisión.
La presidenta de la UE, von der Leyen, bajo fuego
En una conferencia presupuestaria de la UE en mayo, la presidenta von der Leyen hizo una sorprendente predicción:”Pensábamos que la IA sólo se acercaría al razonamiento humano alrededor de 2050. Ahora esperamos que esto suceda ya el próximo año”.
Su comentario señaló una espectacular aceleración de los cronogramas de la IA. captando la atención tanto de tecnólogos como de responsables políticos. Sin embargo, la comunidad científica ahora ha cuestionado formalmente la base de esta afirmación.
Citando una solicitud de libertad de información que reveló la fuente de su afirmación, la carta abierta apunta directamente a declaraciones de ejecutivos de tecnología como Sam Altman de OpenAI y Dario Amodei de Anthropic.
Los firmantes, incluidos destacados investigadores de IA y asesores de la ONU Abeba Birhane y Virginia Dignum, argumentan que estas afirmaciones no se basan en una ciencia rigurosa.
En respuesta a la carta, la Comisión Europea intentó reformular las palabras del presidente. Un portavoz dijo a Euractiv que la declaración no era una predicción formal.
“Se trata de estar preparado, no de declarar una fecha. La planificación responsable no es adivinar el futuro, sino prepararse para diferentes escenarios”.
Esto Sin embargo, la aclaración ha hecho poco para sofocar las principales críticas de la comunidad científica.
Marketing versus método: los científicos denuncian la exageración impulsada por las ganancias
En su carta, los científicos argumentan que von der Leyen está repitiendo narrativas de marketing sin fundamento.”Estas son declaraciones de marketing impulsadas por el afán de lucro y la ideología en lugar de evidencia empírica y pruebas formales”.
Los firmantes sostienen que tales afirmaciones están diseñadas para alimentar la especulación financiera y están manifiestamente ligadas a los imperativos financieros de las empresas de tecnología, no a la validación científica.
Carta de científicos del ICCE al presidente de la UE sobre la exageración de la IA
Para los observadores del mercado, la advertencia de los científicos sobre una”burbuja especulativa”es particularmente oportuno. El sector de la IA se encuentra en medio de un auge del gasto de capital que se acerca a los 400 mil millones de dólares al año, un frenesí de gastos que establece paralelismos alarmantes con burbujas tecnológicas pasadas.
En este contexto de inversión vertiginosa y errores públicos, la carta de los académicos tiene un peso significativo.
Apenas el mes pasado, la industria de la IA fue testigo de un ejemplo de alto perfil de exageración que chocaba con la realidad cuando OpenAI anunció prematuramente que su modelo GPT-5 había resuelto de manera famosa problemas matemáticos difíciles.
Los matemáticos rápidamente desacreditaron la afirmación, aclarando que el modelo simplemente había realizado una búsqueda bibliográfica avanzada. El cambio público fue una vergüenza significativa, lo que llevó al CEO de Google DeepMind, Demis Hassabis, a comentar simplemente:”esto es vergonzoso”.
Tales eventos alimentan un debate más amplio y urgente sobre la carrera desenfrenada hacia la superinteligencia. Las crecientes preocupaciones sobre el riesgo existencial llevaron recientemente a más de 800 líderes globales, desde el cofundador de Apple Steve Wozniak hasta el pionero de la IA Yoshua Bengio, a firmar una declaración exigiendo detener el desarrollo de la superinteligencia hasta que se pueda demostrar que es segura.
Es un sentimiento que refleja una profunda ansiedad pública que la carta de los científicos aprovecha.
Algunas empresas ya están respondiendo a este cambio en el sentimiento público. El CEO de Microsoft AI, Mustafa Suleyman, anunció recientemente un nuevo equipo de”Superinteligencia Humanista”, enmarcando explícitamente la misión en torno a la seguridad y afirmando:”No podemos simplemente acelerar a toda costa. Eso sería simplemente una loca misión suicida”. Estratégicamente, la medida puede verse como un intento directo de construir una marca confiable para la precaución en un campo cada vez más definido por el riesgo.
En última instancia, el rechazo de la comunidad científica resalta una tensión profundamente arraigada. Si bien continúa el progreso legítimo y revisado por pares en IA, como se ve en el reciente trabajo de Google DeepMind con el matemático Terence Tao, la narrativa pública a menudo está dominada por afirmaciones sensacionalistas.
La demanda de los científicos es un llamado a la diligencia, instando a los formuladores de políticas a distinguir entre el avance científico genuino y los poderosos motores de marketing que impulsan la fiebre del oro de la IA.