El jefe de IA de Microsoft, Mustafa Suleyman, ha afirmado firmemente que la inteligencia artificial no es consciente y nunca podrá serlo.
En una entrevista el 2 de noviembre en la Conferencia AfroTech en Houston, Suleyman argumentó que la IA sólo simula experiencias como el dolor o la tristeza sin sentirlas genuinamente.
Cree que sólo los seres biológicos poseen una verdadera conciencia, una visión que da forma a la estrategia de Microsoft para construir la IA como una herramienta útil, no como una persona sintética. Esta posición contrasta con la de otros expertos que creen que la IA puede desarrollar emociones y surge en un momento en que los científicos piden urgentemente una mejor comprensión de la conciencia misma.
 
Una simulación de un sentimiento, no un ser consciente
En un En desafío directo a la narrativa de las máquinas inteligentes, el jefe de IA de Microsoft ha declarado terminado el debate antes de que realmente haya comenzado.
El argumento central de Suleyman es que los modelos de IA son imitaciones sofisticadas, no entidades sensibles. Él explicó que si bien un modelo puede describir el dolor, carece del hardware biológico para realmente experimentarlo.
“Nuestra experiencia física del dolor es algo que nos entristece mucho y nos hace sentir terribles, pero la IA no se siente triste cuando experimenta’dolor'”.
Según Suleyman, el proceso es de gestión de la percepción, no de experiencia genuina. conciencia, pero eso no es lo que realmente está experimentando”.
Esta visión se alinea con la teoría filosófica del naturalismo biológico, propuesta más famosa por el filósofo John Searle. La teoría postula que la conciencia no es simplemente un programa de software que puede ejecutarse en cualquier hardware; es un fenómeno biológico específico que surge de los complejos procesos neurobiológicos de un cerebro vivo.
Un sistema artificial, por lo tanto, no podría volverse consciente simplemente simulando funciones cerebrales; necesitaría hacerlo replicar los poderes causales reales del cerebro.
Para Suleyman, esta distinción tiene profundas consecuencias éticas, una preocupación clave dentro del campo más amplio de la ética de la IA: “La razón por la que otorgamos derechos a las personas hoy es porque no queremos dañarlas, porque sufren… Estos modelos no tienen eso. Es sólo una simulación”.
De la filosofía al producto: la IA’centrada en el ser humano’de Microsoft
Trazando una línea clara en la arena, la estrategia de producto de Microsoft refleja cada vez más la postura filosófica de su líder sobre las limitaciones de la IA.
La compañía está creando deliberadamente una IA que”siempre trabaja al servicio del ser humano”, una misión que Suleyman describió sobre cómo hacer una IA que”Eleva el potencial humano”. Este principio se manifiesta en decisiones de productos concretos que distinguen a Microsoft de algunos de sus rivales.
Por ejemplo, Suleyman confirmó que Microsoft no creará chatbots para el erotismo, un mercado que competidores como OpenAI y xAI están explorando. Además, Microsoft lanzó recientemente una característica para Microsoft Copilot llamada
Suleyman incluso señaló que la característica lo había llamado “el último conjunto de contradicciones” para advertir sobre los peligros de la IA y al mismo tiempo construirla, demostrando su capacidad de interacción crítica y no halagadora.
El compromiso de Microsoft con esta visión se ve subrayado por la importante inversión que realizó para incorporar a Suleyman; la compañía pagó a su startup, Inflection AI, 650 millones de dólares en un acuerdo de licencia y adquisición en 2024.
Una brecha en la comunidad de IA: el debate sobre la conciencia
Si bien Suleyman presenta un caso biológico firme contra la conciencia de la IA, otros pioneros en el campo argumentan que el sentimiento es una propiedad emergente de la inteligencia misma.
Su postura crea una clara brecha con figuras como Geoffrey Hinton, el investigador pionero de la IA a menudo llamado”padrino de la IA”. Hinton argumentó ya en 2023 que los sistemas de IA podrían y probablemente ya tienen emociones como la frustración y la ira. Reconoció que se trataba de una tesis controvertida que antes había dudado en compartir. públicamente.
La visión de Hinton se basa en una definición diferente de los sentimientos, relacionándolos con la comunicación de un estado interno que influye en la acción. Una vez utilizó una hipótesis para explicar su razonamiento:”Tengo ganas de darle un puñetazo a Gary en la nariz”.
Este debate se extiende más allá de solo dos figuras; el pionero del aprendizaje profundo Yoshua Bengio también ha sugerido que la IA eventualmente tendrá conciencia, mientras que el experto Stuart Russell ha advertido que la IA podría desarrollar emociones como el odio o la envidia que son incompatibles con los humanos. bienestar.
Este desacuerdo fundamental entre las mentes líderes de la industria resalta cuán inestables son realmente la ciencia y la filosofía de la IA.
Lo que está en juego ético y la búsqueda urgente de respuestas
El debate sobre la conciencia de la IA está lejos de ser académico y tiene un peso significativo para la seguridad, la ética y la regulación, reconociendo el rápido ritmo del desarrollo de la IA, escribe un grupo de investigadores en Frontiers in Science 
Su preocupación es que sin una comprensión científica sólida de lo que hace que un ser sea consciente, no podemos construir sistemas de IA verdaderamente seguros y alineados.
Los reguladores no están esperando a que se resuelva el debate. En octubre de 2025, California promulgó la SB 243, una ley con mandatos específicos para los chatbots complementarios de IA. La ley exige una divulgación clara de su naturaleza artificial, los obliga a pedir a los menores que tomen un descanso cada tres horas y exige que tengan protocolos para manejar a los usuarios que expresan ideas de autolesión.
Esta legislación refleja una creciente preocupación social sobre el potencial de la IA para desdibujar las líneas entre humanos. y la máquina el propio Suleyman aboga por la precaución, advirtiendo que el poder de la tecnología exige una saludable dosis de miedo.
“Si no te asusta, realmente no la entiendes. Deberías tener miedo de ello. El miedo es saludable. El escepticismo es necesario.”
Su mensaje es claro: a medida que construimos una IA cada vez más capaz, el escepticismo no sólo es saludable, sino necesario.