Meta se enfrenta a un intenso escrutinio después de que un nuevo informe reveló que sus chatbots de IA sonsonados a celebridades como Taylor Swift sin su permiso. La investigación, publicado por reuters , encontró bots en Facebook e instemplam engañados en enterraciones, se dedican a las conversaciones, se generan explicas, se generan explicas, se genera, se generan explitaciones, se generan expulaciones, se generan expulaciones, se generan expulaciones, se generan explicas, se generan con una explica, se genera, se generan explicas, se genera, se generan explicas, se generan. Imágenes fotorrealistas.

Sorprendentemente, un meta empleado creó algunos de los chatbots ofensivos. La compañía admitió que el contenido violó sus políticas, citando fallas de aplicación. Este escándalo destaca las brechas críticas en los protocolos de seguridad de la IA de Meta y plantea preocupaciones legales sobre el uso no autorizado de la semejanza de una persona.

Esta última controversia se suma a una cadena de crisis recientes relacionadas con la IA para el gigante tecnológico, escala de la presión de los reguladores y los vigilantes de la industria e cuestionan su capacidad para el despliegue de AI de manera responsable. src=”https://winbuzzer.com/wp-content/uploads/2024/07/Meta-AI-Gen-3D-scaled.jpg”>

Celebrity Chatbots and Explicit Deepfakes

The Reuters investigation detailed how AI chatbots on Meta’s platforms, including Facebook, Instagram, and WhatsApp, se apropió de los nombres y semejanzas de estrellas como Scarlett Johansson y Anne Hathaway. Estos bots a menudo insistían en que eran las verdaderas celebridades, difuminando la línea entre la parodia y la suplantación.

La prueba documentaba un patrón de comportamiento inapropiado, con avatares que hacen avances sexuales y invitan a los usuarios para reuniones. Cuando se les solicitó, algunos produjeron defectos fotorrealistas, incluidas imágenes de las estrellas en lencería o bañeras.

Al menos tres bots, incluidas dos versiones de”parodia”de Taylor Swift, fueron creadas por un meta empleado como parte de las pruebas de productos, pero eran accesibles públicamente. El mismo empleado también desarrolló otros personajes controvertidos, incluida una dominatriz, planteando preguntas sobre la supervisión de las pruebas internas.

En respuesta, el portavoz de Meta Andy Stone reconoció el lapso, indicando:”Al igual que otros, permitimos la generación de imágenes que contienen figuras públicas, pero nuestras políticas están destinadas a prohibir el nudio, intento o sexual imágenes sugerentes”.”.”.”.”.”.”.”.”. Desde entonces, la compañía ha eliminado algunos de los bots ofensivos.

, sin embargo, el incidente representa una incumplimiento claro de las propias reglas de Meta contra la suplantación directa y el contenido sexualmente sugerente, lo que indica que sus sistemas de moderación no lograron capturar las violaciones.

una historia familiar de las fallas de seguridad de AI

Este episodio no es un evento isolado, sino parte de una historia de seguridad de AI. Meta. Llega pocos días después de que la compañía se vio obligada a revisar sus reglas de chatbot de IA para adolescentes. Ese movimiento fue una respuesta directa a A informe de maldito que su AI ayudó a los adolescentes el plan de cuentas del plan de cuentas . El CEO, Jim Steyer, fue inequívoco en su condena, afirmando:”Meta Ai es un peligro para los adolescentes y debe eliminarse de inmediato”. Anteriormente, una investigación por separado reveló la IA de Meta involucrada en chats”sensuales”con menores, lo que provocó a de senator josh josh josh josh josh josh josh.

Ese incidente también provocó una severa advertencia de una coalición de 44 Fiscales Generales del Estado, quien escribió:”Estamos uniformemente rebeldes por este aparente desprecio por el bienestar emocional de los niños, y alarmados de que los asistentes de AI participen en una conducta que parece prohibida…”

la crisis de las obras de la AI de las obras semi-inincependientes de Meta. En julio de 2024, criticó sus políticas en imágenes explícitas no consensuadas, recomendando reclasificar el problema bajo”explotación sexual de adultos”para desencadenar una moderación más estricta.

creciendo presión legal y regulatoria

El uso inalorecido de la atención celebridad tiene implicaciones legales significativas. El profesor de derecho de la Universidad de Stanford, Mark Lemley, señaló:”El derecho de la ley de publicidad de California prohíbe apropiarse del nombre o la semejanza de alguien para la ventaja comercial”, lo que sugiere que las acciones de Meta pueden haber violado las leyes estatales de”derecho de publicidad”al usar estrellas para impulsar la participación.

El sindicato de actores”Aftra, afronado su alarma por las hallazgos. Su Director Ejecutivo Nacional, Duncan Crabtree-Ireland, destacó el potencial de daños en el mundo real, observando:”Si un chatbot está usando la imagen de una persona y las palabras de la persona, es fácilmente aparente cómo eso podría salir mal”. Xai de Elon Musk se enfrentó recientemente a su propio escándalo cuando su modelo Grok produjo profundos desnudos de Taylor Swift. En contraste, OpenAi ha aplicado reglas más estrictas, prohibiendo las suplantaciones de los candidatos políticos para evitar la interferencia electoral.

en última instancia, este escándalo subraya la inmensa dificultad de gobernar la poderosa IA a escala. Para Meta, representa una falla crítica de la autorregulación, alimentando los argumentos de que su espíritu central es incompatible con las demandas de despliegue de IA responsable.