Meta står overfor intens granskning etter at en ny rapport avslørte sine AI-chatbots etterlignet kjendiser som Taylor Swift uten deres tillatelse. Etterforskningen, Eksplisitte, fotorealistiske bilder.

Sjokkerende skapte en meta-ansatt noen av de fornærmende chatbots. Selskapet innrømmet at innholdet krenket retningslinjene og siterer håndhevelsesfeil. Denne skandalen belyser kritiske hull i Metas AI-sikkerhetsprotokoller og vekker juridiske bekymringer for uautorisert bruk av en persons likhet.

Denne siste kontroversen gir en streng med nyere AI-relaterte kriser for den teknologiske giganten, eskalerende press fra regulatorer og bransjevakten og stiller spørsmål ved dens evne til å deplisere et rensbarhet. src=”https://winbuzzer.com/wp-content/uploads/2024/07/meta-ai-gen-3d-scaled.jpg”>

celebrity chatbots og eksplisitte dypfakes

Reuters Instigiged detaljerte detaljerte DEPFAKE Whatsapp, bevilget navn og likheter av stjerner som Scarlett Johansson og Anne Hathaway. Disse robotene insisterte ofte på at de var de virkelige kjendisene, og uskarpe linjen mellom parodi og etterligning.

Testingen dokumenterte et mønster av upassende oppførsel, med avatarer som gjorde seksuelle fremskritt og inviterte brukere til møter. Når de ble bedt om, produserte noen fotorealistiske dypfaks, inkludert bilder av stjernene i undertøy eller badekar.

Minst tre roboter, inkludert to”parodi”-versjoner av Taylor Swift, ble opprettet av en metatansatt som en del av produkttesting, men var offentlig tilgjengelig. Den samme ansatte utviklet også andre kontroversielle karakterer, inkludert en dominatrix, og reiste spørsmål om tilsynet med intern testing.

Som svar, erkjente meta-talsperson Andy Stone bortfallet,”som andre, vi tillater generering av bilder som inneholder offentlige figurer.”Selskapet har siden fjernet noen av de fornærmende robotene.

Imidlertid representerer hendelsen et klart brudd på Metas egne regler mot direkte etterligning og seksuelt suggererende innhold, noe bortfaller på Meta. Det kommer bare dager etter at selskapet ble tvunget til å overprøve sine AI-chatbot-regler for tenåringer. Dette trekket var et direkte svar på en damning at dets ai helped teen-plan-beretningen skal regnskapsregnes som en plates ronto-rollee. Medias administrerende direktør, Jim Steyer, var utvetydig i sin fordømmelse, og sa:”Meta AI er en fare for tenåringer, og det bør tas ned umiddelbart.”Tidligere avslørte en egen etterforskning Metas AI som engasjerte seg i”sensuelle”chatter med mindreårige, noe Hawley

Den hendelsen trakk også en streng advarsel fra en koalisjon av 44 statsadvokater, som skrev:”Vi er jevnlig opprørt av denne tilsynelatende ignorering av barns emosjonelle velvære, og skremmer at vi har en skremmende overtalt som er til å være i stand til å være forbudt. I juli 2024 hadde den kritisert politikkene for ikke-samtykke eksplisitte bilder, og anbefalte omklassifisering av problemet under”voksen seksuell utnyttelse”for å utløse strengere moderasjon.

Montering av lovlig og regulatorisk press

Den uautoriserte bruken av kjendisnikheter har betydelige lovlige juridiske. Stanford University Law Professor Mark Lemley bemerket:”Californias lovgivningsrettigheter forbyr å bevilge noens navn eller likhet for kommersiell fordel,”antyder at Metas handlinger kan ha krenket staten”Right of Publicity”-lover ved å bruke stjerner til å drive engasjement.

skuespillerens unionsaag-Aftra Voiced.

Den nasjonale administrerende direktøren, Duncan Crabtree-Ireland, fremhevet potensialet for skade i den virkelige verden, og observerte:”Hvis en chatbot bruker bildet av en person og ordene til personen, er det lett tydelig hvordan det kan gå galt.”

Utfordringen med å politisere AI-generert innhold er bransjebedrift. Elon Musks Xai møtte nylig sin egen skandale da GROK-modellen produserte naken Deepfakes of Taylor Swift. Derimot har Openai håndhevet strengere regler og forbød AI-etterligninger av politiske kandidater for å forhindre valginnblanding.

Til slutt understreker denne skandalen den enorme vanskeligheten med å styre mektig AI i skala. For Meta representerer det en kritisk svikt i selvregulering, og driver argumenter for at dens kjerneetos er uforenlig med kravene til ansvarlig AI-distribusjon.

Categories: IT Info