Wirusowy film z wycieczką oskarżający Willa Smitha o udawanie tłumów koncertowych z AI rozpalił w tym tygodniu ogień ognia, ale rzeczywistość jest . Fani byli prawdziwi, ale ich obrazy zostały zniekształcone zarówno przez kreatywną drużynę Smitha, jak i tajną nową funkcję YouTube.
Kontrowersje rozpoczęły się, gdy Smith opublikował montażę do YouTube 24 sierpnia. Widzowie szybko oznaczyli niesamowite wizualizacje: rozmazane twarze, zniekształcone dłonie i nonsensowne tekst na znakach wentylatora. Te cechy charakterystyczne treści generowanych przez AI skłoniły wielu do stwierdzenia, że tłumy były całkowicie fałszywe, oszustwo, aby zawyżyć sukces jego trasy.
Ten incydent służy jako wyraźne studium przypadku w tym, jak wiele warstw przetwarzania AI-jedna zamierzona, jedna zauciskana-może przekształcić autentyczny film w coś, co wprowadza publiczne niedogoziomowanie i zabierze linię, a to, co jest algorycznie. src=”https://winbuzzer.com/wp-content/uploads/2025/08/will-smith-concert-youtube-ai-filter-couple.jpg”>
wirusowe wideo iskrzy oskarży o fałszywych tłumie AI
Accizations Rowhusy Across Across Media i były Narracja celebrytów udawania własnej bazy fanów była przekonująca. Starannie pasuje do rosnącego niepokoju kulturowego o rolę AI w tworzeniu nieautentycznych treści. Film wydawał się kolejnym przykładem „AI Slop”, terminu na niesamowite i często nonsensowne wyjście modeli generatywnych. Jednak a Szczegółowe badanie Andy Baio z Waxy.org Rozmąd prostej„ fałszywej tłumu “teorii. Współdzielanie wideo z oficjalnymi zdjęciami i nagraniami fanów z europejskiej trasy koncertowej Smitha, Baio udowodniło, że ludzie i znaki w filmie były autentyczne. Na przykład , znak, który wydawał się czytać „West Swig̴̙̕y”, w rzeczywistości, sprytnym znakiem fanów z festiwalu Squiss, który brzmiał „z West Philly do West Sweizzy”, jak widać na zdjęciach z wydarzenia . Nawet najbardziej naładowany emocjonalnie przykład-para trzymająca znak o przetrwaniu raka-Was Badanie: Jak prawdziwi fani byli mylni z podróbkami AI
autyred: ai platforma spotykająca. Przetwarzanie
Odkształcenie wynikało z dwuczęściowego procesu. Po pierwsze, zespół Smitha używał generatywnego obrazu do Video AI, aby animować zdjęcia prawdziwego tłumu, jako
Drugie, bardziej znaczące zniekształcenie pochodziło z samego YouTube. Przez ostatnie dwa miesiące platforma prowadzi nieustanne eksperyment, aby automatycznie „ulepszyć”. Ten filtr, zaprojektowany tak, aby niebluru i denoise treść, często wytwarza dokładny rodzaj rozmazania, niesamowitych wizualizacji, którą widzowie oznaczyli jako fałszywe.
Rozmycie linia: AI, autentyczność i erodowanie zaufania przeglądarki
Wpływ filtra YouTube został potwierdzony przez porównanie wideo z wersje przesłane na Instagram i Facebook, które były wyraźnie wyraźniejsze . Tajne przetwarzanie platformy było kluczowym czynnikiem, który przekształcił kreatywnie edytowane wideo w wirusowe „dowód” oszustwa.
Twórcy już ostrzegali o ryzyku tego zautomatyzowanego systemu. YouTuber Rhett Shull opublikował 16 sierpnia wideo, argumentując, że Niepotrzebne przetwarzanie uszkodzi jego wiarygodność . Przewidował: „Myślę, że doprowadzi to ludzie do myślenia, że używam sztucznej inteligencji do tworzenia moich filmów. Lub że był głęboko przekonany… nieuchronnie rozjaśni zaufanie widzów w mojej treści.”
[zawartość osadzona]
YouTube ostatecznie potwierdził eksperyment 21 sierpnia, z dodatkiem Siła, a Sifring wyjaśnia, że „jesteśmy eksperymentem na wybranych krótkich krótkich oprawach. Nie zrobiłem się z generatywną AI. “
Creator Liaison Rene Ritchie wyjaśniła dalej, że„ używa tego rodzaju uczenia maszynowego, którego doświadczasz z fotografią obliczeniową na smartfonach i nie zmienia rozdzielczości. “
Bez Genai, bez wzrostu. Prowadzimy eksperyment na wybranych szortach na YouTube, który wykorzystuje tradycyjną technologię uczenia maszynowego do odbluczenia, denoise i poprawy klarowności w filmach podczas przetwarzania (podobnie jak nowoczesny smartfon podczas nagrywania wideo)
YouTube jest zawsze… https://t.co/vromrrgwnw
-YouTube łącznik (@youtubeinsider) 20 sierpnia 2025
Ale dla widzów, The Distoltion. Rezultatem było treść, która wyglądała na fałszywą, niezależnie od procesu technicznego.
Ten incydent podkreśla rosnący kryzys zaufania. Ponieważ narzędzia AI stają się wszechobecne, publiczność jest przygotowana, aby zobaczyć cyfrowe manipulacje wszędzie. Kiedy platformy potajemnie zmieniają treść, wzmacniają ten sceptycyzm, co utrudnia każdemu rozróżnienie między autentycznych momentów od sztucznych kreacji.