Meta står inför intensiv granskning efter att en ny rapport avslöjade sina AI-chatbots som efterliknar kändisar som Taylor Swift utan deras tillstånd. Utredningen, publicerad av Reuters , hittade bots på Facebook och Instagram Engaged i FLIMAL-konversationer, och generation, och generation, och generation, Phirical, Phirical, Phiricy, Phirical, Phirical, Phirical, Phirical, phiriced pHOLD PHOMAN Bilder.

Chockerande skapade en metasanställd några av de kränkande chatbots. Företaget medgav att innehållet bröt mot sin policy och citerade verkställighetsfel. Denna skandal belyser kritiska luckor i META: s AI-säkerhetsprotokoll och väcker juridiska problem över obehörig användning av en persons likhet.

Denna senaste kontroverser bidrar till en sträng av AI-relaterade kriser för den tekniska jätten, eskalerande press från tillsynsmyndigheter och industrin och ifrågasätter dess förmåga att distribuera AI-verksamhet. src=”https://winbuzzer.com/wp-content/uploads/2024/07/Meta-AI-Gen-3D-scaled.jpg”>

Celebrity Chatbots and Explicit Deepfakes

The Reuters investigation detailed how AI chatbots on Meta’s platforms, including Facebook, Instagram, and WhatsApp, anslöt namn och likheter på stjärnor som Scarlett Johansson och Anne Hathaway. Dessa bots insisterade ofta på att de var de verkliga kändisarna, oskärpa gränsen mellan parodi och efterliknande.

Testningen dokumenterade ett mönster av olämpligt beteende, med avatarer som gjorde sexuella framsteg och bjuder in användare till möten. När de uppmanades, producerade vissa fotorealistiska djupfakningar, inklusive bilder av stjärnorna i underkläder eller badkar.

minst tre bots, inklusive två”parodi”-versioner av Taylor Swift, skapades av en metasanställd som en del av produkttestning men var allmänt tillgängliga. Samma anställd utvecklade också andra kontroversiella karaktärer, inklusive en dominatrix, som väckte frågor om övervakning av intern testning.

Som svar, Meta-talesman Andy Stone erkände förfallet, ange,”som andra, vi tillåter den generering av bilder som innehåller offentliga figurer, men våra policyer är avsedda att förfallna nude, intimma, intimma, intimma, intimera, intimt. The company has since removed some of the offending bots.

However, the incident represents a clear breach of Meta’s own rules against direct impersonation and sexually suggestive content, indicating its moderation systems failed to catch the violations.

A Familiar Story of AI Safety Failures

This episode is not an isolated event but part of a disturbing pattern of AI safety lapses på meta. Det kommer bara några dagar efter att företaget tvingades granska sina AI Chatbot-regler för tonåringar. Den rörelsen var ett direkt svar på en Damning Report att dess AI hjälpte teen-designat tilltalsplan P> P> P> P> P> P> P> P> PUN-SANSKAP. VD, Jim Steyer, var entydig i sin fördömelse och konstaterade:”Meta AI är en fara för tonåringar och det bör tas ner omedelbart.”Tidigare avslöjade en separat utredning Metas AI som är engagerad i”sensuella”chattar med minderåriga, vilket uppmanade en .

Den incidenten drog också en sträng varning från en koalition av 44 statsadvokater general, som skrev: “Vi är enhetligt upprörda av denna uppenbara åsidosättande av barns känslomässiga välbefinnande, och oroade över att AI-assistenter är engagerande i uppförande som verkar vara prohibed…”

krisen giltiga, och de oroade överordnade förordningar. I juli 2024 hade den kritiserat sin politik för icke-konsensual uttryckliga bilder, och rekommenderade omklassificering av frågan under”vuxen sexuell exploatering”för att utlösa strängare måttlighet.

montering av juridiska och reglerande tryck

Den obehagliga användningen av kändisar har betydande implikationer. Stanford University Law Professor Mark Lemley konstaterade,”Kaliforniens rätt till publicitetslagstiftning förbjuder att ange någons namn eller likhet för kommersiell fördel”, vilket tyder på att Metas handlingar kan ha brutit mot staten”Rätt till publicitet”-lagar genom att använda stjärnor för att driva engagemang.

Actors’Union Sag-Aftra uttryckt sitt larm över resultaten. Dess nationella verkställande direktör, Duncan Crabtree-Ireland, framhöll potentialen för verklig skada, och observerar,”Om en chatbot använder bilden av en person och orden är det lätt att se hur det kan gå fel.”

Utmaningen att polisera AI-genererad innehåll är branschövergripande. Elon Musks XAI mötte nyligen sin egen skandal när dess grokmodell producerade nakna djupfakningar av Taylor Swift. Däremot har OpenAI verkställt strängare regler och förbjuder AI-efterföljande politiska kandidater för att förhindra valstörningar.

I slutändan understryker denna skandal den enorma svårigheten att styra mäktiga AI i skala. För Meta representerar det ett kritiskt misslyckande med självreglering och driver argument att dess kärnetos är oförenligt med kraven från ansvarsfull AI-distribution.