En viral turnévideo som beskylder Will Smith for å ha faget konsert folkemengder med AI antente en ildstorm denne uken, men virkeligheten er en Seerne flagget raskt uhyggelig visuals: smurt ansikter, forvrengte hender og nonsensisk tekst på vifteskilt. Disse kjennetegnene til AI-generert innhold førte til at mange konkluderte med at folkemengdene var helt falske, et bedrag for å blåse opp turens suksess.

Denne hendelsen fungerer som en sterk casestudie i hvordan flere lag med AI-prosessering-en forsettlig, en automatisert-kan forvandle autentisk opptak til noe som brenner offentlig mistillit og slurs mellom hva som er real og hva som er hva som er hva som er hva som er hva som er hva som er hva som er som src=”https://winbuzzer.com/wp-content/uploads/2025/08/will-smith-concert-youtube-ai-filter-coble.jpg”> en viral video gnister beskyldninger om en falske hurtigmengde

plukket opp av store utsalgssteder . Kritikere pekte på spesifikke rammer som forbannende bevis. Én journalist fremhevet et øyeblikk der,

Fortellingen om en kjendis som falske deres egen fanbase var overbevisende. Det passet pent inn i en økende kulturell angst for AIs rolle i å skape inauthentisk innhold. Videoen så ut til å være et annet eksempel på”AI Slop”, et begrep for den uhyggelige og ofte nonsensiske utgangen fra generative modeller.

Undersøkelsen: Hvordan virkelige fans tok feil av AI Fakes

href=”https://waxy.org/2025/08/will-smiths-concert-crowds-were-real-but-ai-is-blurring-the-lines/”target=”_ blank”> detaljert undersøkelse av andy baio of waxy.org Disemantled den enkle “falske crowg crowg crowd”. By cross-referencing the video with official photos and fan recordings from Smith’s European tour, Baio proved the people and signs in the video were authentic.

For example, a sign that appeared to read “West Swig̴̙̕g̷̤̔͜y”was, in reality, a clever fan sign from a Swiss festival that read “From West Philly to West Swizzy,” Som sett i bilder fra hendelsen .

til og med det mest følelsesladede eksemplet-et par som har tegn på å overleve kreft-vugger-et tegn på å overleve kreft-vunnet et tegn på en tegn på å overleve kreft-vunnet et tegn på en tegn på å overleve kreft-vunnet en tegn på å overleve kreft-vunnet en tegn på å overleve kreft. href=”https://www.instagram.com/p/dmvpetpscfm/?img_index=5″Target=”_ Blank”> bekreftet å være ekte via Smiths egen Instagram Posts

Forvrengningen stammet fra en todelt prosess. Først brukte Smiths team generativt bilde-til-video AI for å animere stillbilder av den virkelige mengden, som unannounced eksperiment til automatisk”Enh Enhance”enhing”. Dette filteret, designet for å fjerne og denoise innhold, produserer ofte den nøyaktige typen smørete, uhyggelige bilder som seerne flagget som falske.

den uskarpe linjen: AI, autentisitet og eroderende seer-tillit

Effekten av YouTubes filter var bekreftet ved å sammenligne å sammenligne den videoen A A A A A A A A A A A A A A A A A A A AN AT AT AT TOLL>

. href=”https://www.instagram.com/p/dnqspxgrg/”target=”_ blank”> versjoner lastet opp til Instagram og Facebook, som var merkbart klarere . Plattformens hemmelige prosessering var den kritiske faktoren som gjorde en kreativ redigert video til viralt”bevis”for bedrag.

Skapere hadde allerede advart om risikoen for dette automatiserte systemet. YouTuber Rhett Shull la ut en video 16. august og argumenterte for at uønsket behandling ville skade hans troverdighet . Han spådde,”Jeg tror det kommer Forbedringer gjøres ikke med generativ AI.”

Creator Liaison Rene Ritchie forklarte videre at”den bruker den typen maskinlæring du opplever med beregningsfotografering på smarttelefoner, for eksempel, og at den ikke endrer oppløsningen.”

no Genai, ingen oppskalering. Vi kjører et eksperiment på Select YouTube-shorts som bruker tradisjonell maskinlæringsteknologi for å unblur, denoise og forbedre klarheten i videoer under behandlingen (likt hva en moderne smarttelefon gjør når du spiller inn en video)

YouTube er alltid… https://t.co/vrojrrgwnw

-YouTube Liaison (@youtubeInsider)