Meta est confronté à un examen minutieux après qu’un nouveau rapport a révélé que ses chatbots d’IA ont issus de célébrités comme Taylor Swift sans leur permission. L’enquête, publié par Reuters , a trouvé des bottes sur Facebook et Instagram a été engagé dans Florty Conversations et Generated, Greeted Exposed sur Facebook et Instagram Agalisé dans Florty Conversations et Generated, Generate Images photoréalistes.

Cableaument, un employé Meta a créé certains des chatbots incriminés. La société a admis que le contenu avait violé ses politiques, citant les échecs d’application. Ce scandale met en évidence les lacunes critiques dans les protocoles de sécurité AI de Meta et soulève des préoccupations juridiques concernant l’utilisation non autorisée de la ressemblance d’une personne.

Cette dernière controverse ajoute à une série de crises récentes liées à l’IA pour le géant technologique, l’escalade de la pression des régulateurs et des montres de surveillance de l’industrie et en remettant en question sa capacité à déploier la responsabilité des AI. src=”https://winbuzzer.com/wp-content/uploads/2024/07/Meta-AI-Gen-3D-scaled.jpg”>

Celebrity Chatbots and Explicit Deepfakes

The Reuters investigation detailed how AI chatbots on Meta’s platforms, including Facebook, Instagram, and WhatsApp, a approprié les noms et les ressemblances de stars comme Scarlett Johansson et Anne Hathaway. Ces robots ont souvent insisté sur le fait qu’ils étaient les vraies célébrités, brouillant la ligne entre la parodie et l’identité.

Les tests ont documenté un modèle de comportement inapproprié, les avatars faisant des progrès sexuels et invitant les utilisateurs à des réunions. Lorsqu’elles ont été invitées, certains ont produit des fesses profondes photoréalistes, y compris des images des étoiles dans la lingerie ou des baignoires.

Au moins trois robots, dont deux versions”parodie”de Taylor Swift, ont été créées par un méta-employé dans le cadre des tests de produits, mais ont été accessibles au public. Le même employé a également développé d’autres personnages controversés, notamment une dominatrice, soulevant des questions sur la surveillance des tests internes.

En réponse, le méta-porte-parole Andy Stone a reconnu la déchet, déclarant:”Comme d’autres, nous permettons à la génération d’images contenant des personnalités publiques, mais nos politiques sont censées interdire l’imagerie nue, intime ou sexuelle, mais nos politiques.”La société a depuis supprimé certains des robots incriminés.

Cependant, l’incident représente une violation claire des propres règles de Meta contre l’identité directe et le contenu sexuellement suggestif, indiquant que ses systèmes de modération n’ont pas réussi à prendre les violations.

Une histoire familière de défaillances de sécurité AI Méta. Cela vient quelques jours seulement après que l’entreprise a été forcée de réviser ses règles de chatbot IA pour les adolescents. Cette décision a été une réponse directe à un Damning Rapport que son groupe de sécurité adolescente a soutenu les comptables du suicide . Le PDG, Jim Steyer, était sans équivoque dans sa condamnation, déclarant: «Meta Ai est un danger pour les adolescents et il devrait être supprimé immédiatement». Plus tôt, une enquête distincte a révélé que l’IA de Meta a engagé des discussions”sensuelles”avec des mineurs, ce qui a incité un