A Microsoft está estabelecendo uma linha dura em relação ao conteúdo adulto gerado por IA. O chefe de IA da empresa, Mustafa Suleyman, disse na quinta-feira que a empresa não criará serviços para “simulados” erótica.”

Falando no Paley International Council Summit em Menlo Park, Califórnia, seus comentários marcam uma clara separação do principal parceiro OpenAI, que na semana passada anunciou que permitiria tal conteúdo para adultos verificados no ChatGPT.

A posição da Microsoft sinaliza uma abordagem mais cautelosa à segurança da IA e alinha a gigante da tecnologia com as novas leis estaduais que regulamentam os bots companheiros de IA, destacando uma divisão crescente no setor sobre como lidar com usos sensíveis de IA.

Microsoft traça uma linha dura em relação ao erotismo de IA, dividindo-se com OpenAI

Em um movimento sinalizando uma grande divergência política em relação ao seu parceiro de IA mais próximo, a Microsoft se comprometeu publicamente a evitar o desenvolvimento de chatbots eróticos.

Na Cúpula do Conselho Internacional Paley em Menlo Park, o CEO de IA da Microsoft, Mustafa Suleyman, foi inequívoco sobre a direção da empresa. que.”Ele enquadrou a criação de tal IA como um risco significativo, enfatizando a necessidade de contenção deliberada. “Isso é muito perigoso e acho que deveríamos tomar decisões conscientes para evitar esse tipo de coisa.”

As observações de Suleyman contrastam fortemente com a posição recentemente articulada pela OpenAI. Há pouco mais de uma semana, o CEO da OpenAI, Sam Altman, anunciou uma mudança de política para permitir conteúdo erótico com restrição de idade no ChatGPT.

Altman defendeu a medida posicionando sua empresa como um provedor de plataforma neutro, afirmando a famosa declaração: “não somos a polícia moral eleita do mundo”. Seu raciocínio se concentrava na autonomia do usuário para adultos à medida que a IA se tornava mais integrada à vida diária.

Uma divisão filosófica cada vez maior entre parceiros

Por trás desse desacordo público está uma parceria complexa que mostra sinais de tensão. A Microsoft, um grande investidor e fornecedor de nuvem para OpenAI, está cada vez mais focada em seus próprios serviços de IA, especialmente em seu assistente Copilot.

A posição da empresa em relação ao erotismo se alinha com uma estratégia mais ampla para construir o que chama de “IA centrada no ser humano”.

Essa estratégia foi exibida no início desta semana com o anúncio de novos recursos do Copilot, incluindo um companheiro animado chamado Mico.

Seu objetivo, de acordo com a Microsoft, é criar uma IA que aprofunde a conexão humana e ganhe confiança – uma visão que aparentemente entra em conflito com o desenvolvimento de IA para relacionamentos íntimos.

O próprio Suleyman já argumentou contra a construção de serviços “aparentemente conscientes”, uma categoria que ele agora sugere que inclui a tendência para o erotismo da IA.

Os analistas veem isso como evidência de uma crescente divisão filosófica e estratégica. Embora a OpenAI expanda os limites da IA ​​voltada para o consumidor, mesmo em áreas controversas, a Microsoft parece estar reforçando sua marca como fornecedora de tecnologia responsável e focada nas empresas.

Essas abordagens diferentes sugerem um futuro onde as duas empresas, embora ainda parceiras, competirão mais diretamente por diferentes segmentos do mercado de IA.

A indústria luta com segurança e regulamentação em meio ao conteúdo de IA. Crise

O esclarecimento de Suleyman ocorre num momento em que toda a indústria tecnológica enfrenta uma crise devido à proliferação de material explícito gerado por IA, e os reguladores estão começando a tomar conhecimento.

Uma nova lei da Califórnia, SB 243, agora regula diretamente os “chatbots complementares”, exigindo restrições de idade robustas e proibindo conteúdo sexualmente explícito para menores. A política da Microsoft alinha-se perfeitamente com este quadro jurídico emergente.

O problema do conteúdo explícito gerado pela IA é generalizado. Atualmente, a Meta enfrenta um enorme processo de US$ 359 milhões, alegando que pirateou filmes adultos protegidos por direitos autorais para treinar sua IA de geração de vídeos. A empresa só implementou controles de segurança mais rígidos em setembro, depois que uma ação judicial foi movida pelos pais de um adolescente que morreu por suicídio.

O advogado da família, Jay Edelson, foi crítico da resposta da empresa na época, afirmando que “em vez de tomar medidas de emergência para retirar um produto conhecido como perigoso do ar, a OpenAI fez vagas promessas de fazer melhor”.

Dado esse histórico, o pivô atraiu duras críticas de defensores da segurança e líderes empresariais como Mark Cuban, que questionaram a viabilidade de uma verificação eficaz da idade. “Não vejo como a OpenAI pode envelhecer com sucesso suficiente”, comentou Cuban, expressando preocupações sobre o potencial viciante dos relacionamentos de IA.

Primeiro. Não estou dizendo que devemos proibi-lo. Eu disse que foi um erro. Isso prejudicará os negócios da OpenAI

2º: vou repetir. Não se trata de pornografia. Trata-se de crianças desenvolvendo “relacionamentos” com um LLM que pode levá-las em diversas direções muito pessoais. href=”https://twitter.com/ban/status/1978317936336028016?ref_src=twsrc%5Etfw”target=”_blank”>15 de outubro de 2025

Para a Microsoft, evitar essa controvérsia parece ser uma decisão de negócios calculada, priorizando a segurança e conformidade regulatória sobre o potencial de envolvimento em um mercado de alto risco.

Categories: IT Info