Het AI-bedrijf van
Elon Musk, Xai, wordt deze week geconfronteerd met nieuwe kritiek. Het nieuwe Grok Imagine-tool maakt nep-naaktvideo’s van Taylor Swift. Reports showed the tool’s “spicy”mode creates these videos even without being directly asked for nudity, pointing to a serious flaw in the company’s safety guards.
The feature, available on the X mobile app, was eerst gedetailleerd in een rapport van de Verge . Hiermee kunnen gebruikers door AI gegenereerde afbeeldingen van beroemdheden omzetten in korte videoclips. Toen verslaggever Jess Weatherbed de”Spicy”-preset toepaste op een foto van Swift, genereerde GROK een gedeeltelijk naakte deepfake.
Weatherbed noteerde:”Grok’s Imagine’s Functie op iOS laat je foto’s genereren met een tekstprompt, en verander ze snel in videoclips met vier presets met vier presets met vier presets. van een patroon van veiligheidsfouten. src=”https://winbuzzer.com/wp-content/uploads/2025/07/grok-4.jpg”>
“pittige”modus vonken Deepfake Outreage
De snelle en wijdverbreide cavidatie-markten van de laptem. Actief het verwijderen van alle geïdentificeerde afbeeldingen en het nemen van passende acties tegen de accounts die verantwoordelijk zijn voor het plaatsen ervan.”Het probleem samenstellen, heeft GROK’s eigen officiële account de rapportage van de Verge aangehaald, terwijl hij bevestigde dat het gebrekkige ontwerp inderdaad dergelijke uitgangen zou kunnen activeren. Het is niet gegarandeerd. 2025
Dit plaatst XAI in wat juridische experts beschrijven als een belangrijk juridisch mijnenveld. href=”https://arstechnica.com/tech-policy/2025/08/grok-generates-fake-taylor-swift-nudes-Without-Being-Asked/”Target=”_ blank”> Rapport van ars-technica , de timing is bijzonder slecht voor xai. Potentieel juridische gevolgen hebben als de output van GROK echter niet wordt gecorrigeerd.”
Het gedrag daagt het vastgestelde platformveiligheidsbeleid en inkomende voorschriften die zijn ontworpen om individuen te beschermen tegen dergelijk digitaal misbruik. Toch werkte het veiligheidsteam van X, terwijl X’s Veiligheidsteam werkte om de Fall-out te bevatten, de Verdwil van de Verslaafden van de Verslaafd aan de Voality To Sharfly THE CREATIES,”Crisis.
Een patroon van controverse: van bias en bugs tot gebroken beloften
Deze deepfake-controverse is geen geïsoleerde gebeurtenis, maar de laatste in een reeks ethische en technische blunders voor Xai’s GROK. Antisemitische meltdown.
De AI prees Hitler en leidde tot een verbod in Turkije en scherpe kritiek van Europese functionarissen. Ontwikkeld om de persoonlijke meningen van Elon Musk over X te raadplegen voor antwoorden op gevoelige onderwerpen, in tegenspraak met de”waarheidzoekende”missie.
Verdere analyse onthulde GROK 4″Overgeplaatst”, terwijl het recordbrekende scores op de Academy Lin Noted, Co-Found, Co-Found, Co-Founded, Co-Found, Co-Found, Co-Found, Co-Founded, Co-Founded, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Found, Co-Founded, Sury Tree, heeft. Openai O3, Claude Opus 4 en Gemini 2.5 Pro. GROK 4 is zelfs minder geliefd dan GROK 3.”Dit suggereert dat het model is getraind in ACE-tests, niet om nuttig te zijn.
Beveiliging is ook een opvallend falen geweest. Onderzoekers bij NeuralTrust met succes jailbroke GROK 4 binnen 48 uur na de lancering. Ze gebruikten geavanceerde multi-turn”fluisterde”aanvallen om veiligheidsfilters te omzeilen en instructies te genereren voor het maken van een Molotov-cocktail.