A viral tour video accusing Will Smith of faking concert crowds with AI ignited a firestorm this week, but the reality is a complex tale of layered digital manipulación, no fabricación directa . Los fanáticos eran reales, pero sus imágenes estaban distorsionadas tanto por el equipo creativo de Smith como por la nueva función de YouTube secreta.

La controversia comenzó cuando Smith . Los espectadores rápidamente marcaron imágenes extrañas: caras manchadas, manos distorsionadas y texto no sensible en señales de ventilador. Estas marcas distintivas del contenido generado por la IA llevaron a muchos a concluir que las multitudes eran completamente falsas, un engaño para inflar el éxito de su gira.

Este incidente sirve como un estudio de caso marcado en cómo múltiples capas de procesamiento de IA: un intencional, uno automatizado, puede transformar las imágenes auténticas en algo que impulsa el público y desdibuja la línea entre lo real y lo que es real y lo que es el alo de los algorithmáticamente. src=”https://winbuzzer.com/wp-content/uploads/2025/08/will-smith–concert-youtube-ai-filter-couple.jpg”>

Un video viral provoca unas acusaciones de una multitud falsa de AI

href=”https://www.rollingstone.com/music/music-news/will-smith-ai-crowd-tour-video-1235415353/”target=”_ en blanco”> recogido por grandes medios . Los críticos señalaron a los marcos específicos como evidencia condenatoria. Un periodista destacó un momento en el que, según el independiente ,”OTRO SET SECUPCIONA A MANA, aparece un hombre de Knuckle, aparece a Man’s Knuckle a Lave a Lave a LA LUCHLE”ACTUAL. Con su señal… la diadema de la mujer detrás de ella está de alguna manera sobre su muñeca”. Tales artefactos extraños parecían ser una clara señal de generación de IA de baja calidad.

La narrativa de una celebridad que falla su propia base de fans era convincente. Encaja perfectamente en una creciente ansiedad cultural sobre el papel de la IA en la creación de contenido no auténtico. El video parecía ser otro ejemplo de”AI Slop”, un término para la salida extraña y a menudo sin sentido de los modelos generativos.

la investigación: cómo se confundieron los verdaderos fanáticos con las falsificaciones de IA

sin embargo, a Investigación detallada de Andy Baio de Waxy.org Desmantuló la teoría simple de”multitud falsa”. By cross-referencing the video with official photos and fan recordings from Smith’s European tour, Baio proved the people and signs in the video were authentic.

For example, a sign that appeared to read “West Swig̴̙̕g̷̤̔͜y”was, in reality, a clever fan sign from a Swiss festival that read “From West Philly to West Swizzy,” como se ve en las fotos del evento .

Incluso el ejemplo más cargado emocionalmente: una pareja con un letrero sobre el cáncer de sobreviviente —Was Confirmado que es real a través de las propias publicaciones de Instagram de Smith Desde el Gurtenfestival.

a dos lamosas ilusiones. Procesamiento

La distorsión proviene de un proceso de dos partes. Primero, el equipo de Smith usó la imagen generativa de Image-to-Video para animar fotos fijas de la multitud real, como deducido por baio . Esta técnica, utilizada por los creadores para agregar movimiento a las tomas estáticas, introdujo la primera capa de artefactos sutiles de IA. Esta es una tendencia creciente, con compañías como Google recientemente agregando características similares de imagen a video a su modelo VEO 3.

La segunda distorsión más significativa provino de YouTube en sí. Durante los últimos dos meses, la plataforma ha estado ejecutando un Experimento no anunciado para”mejorar los videos de cortos”mejoras”. Este filtro, diseñado para desbloquear y deshacer contenido, a menudo produce el tipo exacto de visuales manchados e asombrosos que los espectadores señalaron como falsos.

La línea de desenfoque: ai, autenticidad y erosionando el espectador de confianza

El impacto del filtro de YouTube se confirmó al compensar el video con versiones cargadas en Instagram y Facebook, que eran notablemente más claras . El procesamiento secreto de la plataforma fue el factor crítico que convirtió un video editado creativamente en”prueba”viral de engaño.

Los creadores ya habían advertido sobre los riesgos de este sistema automatizado. YouTuber Rhett Shull publicó un video el 16 de agosto argumentando que procesamiento no deseado dañaría su credibilidad . Él predijo:”Creo que va a llevar a las personas a pensar que estoy usando AI para crear mis videos. O que se ha hecho profundamente… inevitablemente erosionará la confianza de los espectadores en mi contenido”.

[Contenido integrado]

YouTube eventualmente confirmó el experimento en el 21 de agosto, con un portavoz que aclara que”estamos ejecutando un experimento en seleccionar YouTube que usa el tecnología de la imagen para obtener el contenido de la imagen de la imagen. Hecho con AI generativo.”

Liaeon Rene Ritchie explicó además que”está usando el tipo de aprendizaje automático que experimenta con fotografía computacional en teléfonos inteligentes, por ejemplo, y no está cambiando la resolución”. Estamos ejecutando un experimento en pantalones cortos de YouTube seleccionados que utiliza tecnología tradicional de aprendizaje automático para no ablarar, deshacer y mejorar la claridad en los videos durante el procesamiento (similar a lo que hace un teléfono inteligente moderno cuando grabas un video)

YouTube es siempre… https://t.co/vrojrrgwnw

-Liaison de YouTube (@YoutubeInsider) 20 de agosto, 2025

Pero para los espectadores, la distinción es académica. El resultado fue el contenido que parecía falso, independientemente del proceso técnico.

Este incidente destaca una creciente crisis de confianza. A medida que las herramientas de IA se vuelven ubicuas, el público está preparado para ver la manipulación digital en todas partes. Cuando las plataformas alteran el contenido en secreto, amplifican este escepticismo, lo que dificulta que cualquier persona distinga entre momentos auténticos y creaciones artificiales.

Categories: IT Info