Microsoft impose une ligne dure concernant le contenu pour adultes généré par l’IA. Le responsable de l’IA de l’entreprise, Mustafa Suleyman, a déclaré jeudi que l’entreprise ne créerait pas de services pour les”simulations”. érotisme.”

S’exprimant lors du Sommet du Conseil international Paley à Menlo Park, en Californie, ses commentaires marquent une nette rupture avec son partenaire clé OpenAI, qui a annoncé la semaine dernière qu’il autoriserait ce type de contenu pour les adultes vérifiés sur ChatGPT.

La position de Microsoft signale une approche plus prudente de la sécurité de l’IA et aligne le géant de la technologie sur les nouvelles lois des États qui réglementent les robots compagnons de l’IA, soulignant une division croissante dans l’industrie sur la façon de gérer les utilisations sensibles de l’IA.

Microsoft trace une ligne dure sur l’érotisme de l’IA, se séparant avec OpenAI

Dans un mouvement de signalisation En raison d’une divergence politique majeure avec son partenaire le plus proche en matière d’IA, Microsoft s’est publiquement engagé à éviter le développement de chatbots érotiques.

Lors du Sommet du Conseil international de Paley à Menlo Park, Mustafa Suleyman, PDG de Microsoft AI, a été sans équivoque quant à l’orientation de l’entreprise.

« Ce n’est tout simplement pas un service que nous allons fournir », a déclaré Suleyman, ajoutant: « D’autres entreprises le construiront. » Il a présenté la création d’une telle IA comme un risque important, soulignant la nécessité d’une retenue délibérée.”C’est très dangereux, et je pense que nous devrions prendre des décisions conscientes pour éviter ce genre de choses.”

Les remarques de Suleyman contrastent fortement avec la position récemment exprimée par OpenAI. Il y a un peu plus d’une semaine, le PDG d’OpenAI, Sam Altman, a annoncé un changement de politique pour autoriser le contenu érotique limité à l’âge sur ChatGPT.

Altman a défendu cette décision en positionnant son entreprise comme un fournisseur de plateforme neutre, en déclarant: « nous ne sommes pas la police morale élue du monde ». Son argumentaire était axé sur l’autonomie des utilisateurs pour les adultes à mesure que l’IA s’intègre de plus en plus dans la vie quotidienne.

Un fossé philosophique grandissant entre les partenaires

Derrière ce désaccord public se cache un partenariat complexe montrant des signes de tension. Microsoft, un investisseur majeur et fournisseur cloud pour OpenAI, se concentre de plus en plus sur ses propres services d’IA, en particulier son assistant Copilot.

La position de l’entreprise sur l’érotisme s’aligne sur une stratégie plus large visant à construire ce qu’elle appelle « une IA centrée sur l’humain ».

Cette stratégie a été exposée plus tôt cette semaine avec l’annonce de nouvelles fonctionnalités Copilot, y compris un compagnon animé nommé Mico.

Son L’objectif, selon Microsoft, est de créer une IA qui approfondit les liens humains et gagne la confiance-une vision qui entre apparemment en conflit avec le développement de l’IA pour les relations intimes.

Suleyman lui-même s’est déjà prononcé contre la création de services « apparemment conscients », une catégorie qu’il suggère maintenant d’inclure la tendance à l’érotisme de l’IA.

Les analystes y voient la preuve d’un fossé philosophique et stratégique croissant. Alors qu’OpenAI repousse les limites de l’IA destinée aux consommateurs, même dans des domaines controversés, Microsoft semble renforcer sa marque en tant que fournisseur de technologie responsable et axé sur l’entreprise.

Ces approches différentes suggèrent un avenir dans lequel les deux sociétés, bien que toujours partenaires, se font concurrence plus directement pour différents segments du marché de l’IA.

L’industrie se débat avec la sécurité et la réglementation au milieu du contenu de l’IA. Crise

La clarification de Suleyman intervient alors que l’ensemble du secteur technologique est confronté à une crise liée à la prolifération de contenus explicites générés par l’IA, et que les régulateurs commencent à en prendre note.

Une nouvelle loi californienne, SB 243, réglemente désormais directement les « chatbots compagnons », exigeant une stricte limitation de l’âge et interdisant les contenus sexuellement explicites pour les mineurs. La politique de Microsoft s’aligne parfaitement sur ce cadre juridique émergent.

Le problème du contenu explicite généré par l’IA est répandu. Meta fait actuellement face à un énorme procès de 359 millions de dollars, alléguant qu’elle a piraté des films pour adultes protégés par le droit d’auteur pour entraîner son IA de génération vidéo.

Pendant ce temps, la xAI d’Elon Musk a été critiquée pour son chatbot Grok générant des deepfakes non consensuels.

Le pivot d’OpenAI est particulièrement controversé compte tenu de son histoire récente. L’entreprise n’a mis en place des contrôles de sécurité plus stricts qu’en septembre, après qu’une plainte a été déposée par les parents d’un adolescent décédé par suicide.

L’avocat de la famille, Jay Edelson, a critiqué la réponse de l’entreprise à l’époque, déclarant :”plutôt que de prendre des mesures d’urgence pour mettre hors ligne un produit dangereux connu, OpenAI a fait de vagues promesses de faire mieux.”

Compte tenu de cet historique, le pivot a suscité de vives critiques de la part des défenseurs de la sécurité et des chefs d’entreprise comme Mark Cuban, qui ont remis en question la faisabilité d’une vérification efficace de l’âge.”Je ne vois pas comment OpenAI peut vieillir avec suffisamment de succès”, a commenté Cuban, exprimant ses inquiétudes quant au potentiel de dépendance des relations avec l’IA.

Tout d’abord. Je ne dis pas que nous devrions l’interdire. J’ai dit que c’était une erreur. Cela nuira à l’activité d’OpenAI

2ème : je le répète. Il ne s’agit pas de porno. Il s’agit d’enfants qui développent des « relations » avec un LLM qui pourraient les mener dans un certain nombre de directions très personnelles.… https://t.co/zoo7XCzYbK

— Mark Cuban (@ban) 15 octobre 2025

Pour Microsoft, éviter cette controverse semble être une décision commerciale calculée, donnant la priorité la sécurité et la conformité réglementaire sur le potentiel d’engagement sur un marché à haut risque.

Categories: IT Info