O chefe de IA da Microsoft, Mustafa Suleyman, afirmou firmemente que a inteligência artificial não é consciente e nunca poderá ser.
Em uma entrevista em 2 de novembro na Conferência AfroTech em Houston, Suleyman argumentou que a IA apenas simula experiências como dor ou tristeza sem senti-las genuinamente.
Ele acredita que apenas os seres biológicos possuem consciência verdadeira, uma visão que molda a estratégia da Microsoft para construir a IA como uma ferramenta útil, não como uma pessoa sintética. Esta posição contrasta com outros especialistas que acreditam que a IA pode desenvolver emoções e surge num momento em que os cientistas pedem urgentemente uma melhor compreensão da própria consciência. um desafio direto à narrativa das máquinas sencientes, o chefe de IA da Microsoft declarou o debate encerrado antes mesmo de ele realmente começar.
O argumento central de Suleyman é que os modelos de IA são mímicos sofisticados, e não entidades sencientes. Ele explicou que, embora um modelo possa descrever a dor, ele não possui o hardware biológico para realmente vivenciá-la.
“Nossa experiência física da dor é algo que nos deixa muito tristes e nos sentimos péssimos, mas a IA não se sente triste quando sente ‘dor’”.
De acordo com Suleyman, o processo é de gerenciamento de percepção, não de experiência genuína. da consciência, mas não é isso que ela realmente está experimentando.”
Essa visão se alinha com a teoria filosófica do naturalismo biológico, proposta mais famosa pelo filósofo John Searle. A teoria postula que a consciência não é apenas um programa de software que pode ser executado em qualquer hardware; é um fenômeno biológico específico que emerge dos complexos processos neurobiológicos de um cérebro vivo.
Um sistema artificial, portanto, não poderia se tornar consciente simplesmente simulando funções cerebrais; ele precisaria replicar o Os verdadeiros poderes causais do cérebro.
Para Suleyman, esta distinção tem consequências éticas profundas, uma preocupação fundamental no campo mais amplo da ética da IA “A razão pela qual damos direitos às pessoas hoje é porque não queremos prejudicá-las, porque elas sofrem… Estes modelos não têm isso. É apenas uma simulação.”
Da filosofia ao produto: a IA “centrada no ser humano” da Microsoft
Traçando uma linha clara na areia, a estratégia de produto da Microsoft reflete cada vez mais a posição filosófica de seu líder sobre as limitações da IA.
A empresa está criando deliberadamente uma IA que “sempre trabalha a serviço do ser humano”, uma missão que Suleyman descreveu sobre fazer uma IA que “eleve o potencial humano”. se manifesta em decisões concretas de produtos que diferenciam a Microsoft de alguns de seus rivais.
Por exemplo, Suleyman confirmou que a Microsoft não criará chatbots para conteúdo erótico, um mercado que concorrentes como OpenAI e xAI estão explorando. Além disso, a Microsoft lançou recentemente um recurso para o Microsoft Copilot chamado “Real Talk”, que foi projetado para desafiar a perspectiva do usuário em vez de ser bajulador.
Suleyman até observou que o recurso o chamou de”o conjunto definitivo de contradições”por alertar sobre os perigos da IA ao mesmo tempo em que a constrói, demonstrando sua capacidade de interação crítica e não lisonjeira.
O compromisso da Microsoft com essa visão é sublinhado pelo investimento significativo que fez para trazer Suleyman ao mercado conselho; a empresa pagou à sua startup, Inflection AI, US$ 650 milhões em um acordo de licenciamento e aquisição em 2024.
Uma fenda na comunidade de IA: o debate sobre a consciência
Enquanto Suleyman apresenta um argumento biológico firme contra a consciência da IA, outros pioneiros no campo argumentam que o sentimento é uma propriedade emergente da própria inteligência.
Sua postura cria uma ruptura clara com figuras como Geoffrey Hinton, o pesquisador pioneiro de IA, muitas vezes chamado de “padrinho da IA”. Hinton argumentou já em 2023 que os sistemas de IA poderiam e provavelmente já tinham emoções como frustração e raiva. dando um soco no nariz de Gary.”
Esse debate vai além de apenas dois números; o pioneiro do aprendizado profundo, Yoshua Bengio, também sugeriu que a IA eventualmente terá consciência, enquanto o especialista Stuart Russell alertou que a IA pode desenvolver emoções como ódio ou inveja, que são incompatíveis com o bem-estar humano.
Esse desacordo fundamental entre as principais mentes do setor destaca o quão instáveis são a ciência e a filosofia da IA.
Os desafios éticos e a busca urgente por Respostas
O debate sobre a consciência da IA está longe de ser acadêmico, tendo um peso significativo para a segurança, a ética e a regulamentação. Reconhecendo o ritmo acelerado do desenvolvimento da IA, um grupo de pesquisadores que escreveu em Frontiers in Science alertou recentemente que o a busca para compreender a consciência é agora uma prioridade científica e ética “urgente”.
A preocupação deles é que, sem uma compreensão científica sólida do que torna um ser consciente, não podemos construir sistemas de IA verdadeiramente seguros e alinhados.
Os reguladores não estão esperando que o debate seja resolvido. Em outubro de 2025, a Califórnia promulgou a SB 243, uma lei com mandatos específicos para chatbots de IA. uma pausa a cada três horas e exige que eles tenham protocolos para lidar com usuários que expressam ideias de automutilação.
Essa legislação reflete uma preocupação crescente da sociedade sobre o potencial da IA de confundir os limites entre o ser humano e a máquina. O próprio Suleyman defende cautela, alertando que o poder da tecnologia exige uma dose saudável de medo.
“Se você não tem medo dela, você realmente não a entende. Você deveria ter medo disso. O medo é saudável. O ceticismo é necessário.”
Sua mensagem é clara: à medida que construímos uma IA cada vez mais capaz, o ceticismo não é apenas saudável, é necessário.