Meta ha lanzado una nueva herramienta de traducción de IA para ayudar a los creadores en Facebook e Instagram a llegar al público global. La característica, anunciada el martes, se tambalea automáticamente en nuevos idiomas al tiempo que preserva la voz y el tono del creador. También incluye una función opcional de sincronización de labios para que el video se vea más natural.
inicialmente implementando con soporte inglés y español, la herramienta tiene como objetivo romper las barreras del idioma. La actualización está disponible a nivel mundial para todas las cuentas públicas de Instagram y creadores de Facebook con más de 1,000 seguidores en regiones donde se ofrece Meta AI. Este movimiento señala el empuje agresivo de Meta en aplicaciones prácticas de IA.
El lanzamiento coloca a Meta en competencia directa con herramientas de comunicación IA similares de Google y Microsoft, en una batalla de Ongoint por el dominio en plataformas con AI-AI.
cómo la aparición de dubbing y syncing de Lipser de Meta a la nueva gente.”Creemos que hay muchos creadores increíbles por ahí que tienen audiencias potenciales que no necesariamente hablan el mismo idioma”, explicó en una publicación. Él cree que al unir divisiones lingüísticas, la herramienta ayudará a los creadores a desbloquear nuevas oportunidades para el crecimiento y el compromiso en la plataforma.
Los creadores pueden activar la nueva función directamente dentro del flujo de trabajo de la publicación Reels seleccionando la opción”Traduce su voz con meta ai”. Según el anuncio de Meta, el sistema está diseñado para ser herramienta gratuita que, una vez habilitado, denuncia automáticamente contenido . La IA genera una nueva pista de audio que conserva el sonido y el tono auténticos del usuario, creando una experiencia perfecta para el espectador. Una característica opcional de sincronización de labios mejora aún más el efecto al igualar con precisión los movimientos de la boca del creador con las palabras traducidas, lo que hace que parezca que hablan con fluidez el nuevo lenguaje.
Esta tecnología, que se previó por primera vez en la Conferencia de Meta Connect en septiembre de 2024, coloca un fuerte énfasis en el control de los creadores. Los usuarios pueden optar por revisar y aprobar traducciones antes de que se publiquen habilitando una palanca específica. Envía una notificación al Creador, que luego puede aceptar o rechazar la versión doblada de su tablero profesional. Meta aclara que rechazar una traducción no afectará el carrete original y no traducido.
Para la transparencia, los espectadores verán un aviso que indica que el carrete se tradujo con meta ai y puede deshabilitar traducciones futuras para idiomas específicos a través del menú de configuración.
para ayudar a los creadores a comprender el impacto de su contenido mundial nuevo, Meta ha integrado una nueva metra en su análisis de análisis. Esta característica proporciona un desglose de visión con el lenguaje, ofreciendo ideas claras sobre cómo se están funcionando las traducciones con nuevas audiencias internacionales. Para obtener mejores resultados, Meta aconseja a los creadores que graben videos cara a cámara, hable con claridad sin cubrir la boca y minimizar el ruido o la música de fondo. La herramienta actualmente admite hasta dos altavoces, que deberían evitar hablar entre sí para la traducción más precisa.
Una alternativa manual para creadores multilingües
para los creadores que requieren un control o trabajo más granular o trabajan en idiomas aún no respaldados por la AI, Meta también ha introducido una opción manual robusta. Las páginas de Facebook ahora tienen la capacidad de cargar hasta 20 de sus propias pistas de audio previamente translatadas a un solo carrete.
Esto se gestiona a través de la sección”Sétáliones y traducciones cerradas”en la suite Meta Business. A diferencia del flujo de trabajo previo a la publicación de la herramienta AI, estas pistas cargadas manualmente se pueden agregar, reemplazar o eliminar antes y después de que se publique el carrete, ofreciendo una solución flexible para flujos de trabajo de producción profesional.
La carrera de armamentos de traducción de IA: meta vs. la competencia
la nueva herramienta de meta entera de la herramienta meta. Microsoft anunció su función de”intérprete en los equipos”a fines de 2024, cuyo objetivo es clonar la voz de un usuario para traducciones de reuniones sin problemas y en tiempo real. El CMO de Microsoft, Jared Spataro, destacó el objetivo de hacer que la comunicación cruzada sea más personal, pidiéndole a los usuarios que”imaginen poder sonar como usted en un idioma diferente”.
En mayo de 2025, Google siguió su ejemplo integrando Gemini Ai en Google Reunsed para la traducción del habla en vivo. El enfoque de Google enfatiza la preservación de las cualidades vocales únicas del orador, incluidos el tono y la cadencia. Como señaló un experto, este enfoque en los matices es fundamental:”No se trata solo de palabras; se trata de transmitir la intención. La calidad y seguridad por la que Deepl es conocido para la traducción del habla en tiempo real fue la próxima frontera para nosotros como negocio y estamos entusiasmados de finalmente revelar nuestros primeros productos”.
Esta oleada de innovación subraya un importante impulso de toda la industria para desmantelar las barreras de idiomas utilizando AI sofisticada. Para Meta, el lanzamiento también coincide con una importante reestructuración interna de su división de IA, lo que indica un enfoque renovado en integrar la IA avanzada directamente en sus productos orientados al consumidor.
Esta tecnología, que se previó por primera vez en la Conferencia de Meta Connect en septiembre de 2024, coloca un fuerte énfasis en el control de los creadores. Los usuarios pueden optar por revisar y aprobar traducciones antes de que se publiquen habilitando una palanca específica. Envía una notificación al Creador, que luego puede aceptar o rechazar la versión doblada de su tablero profesional. Meta aclara que rechazar una traducción no afectará el carrete original y no traducido.
Para la transparencia, los espectadores verán un aviso que indica que el carrete se tradujo con meta ai y puede deshabilitar traducciones futuras para idiomas específicos a través del menú de configuración.
para ayudar a los creadores a comprender el impacto de su contenido mundial nuevo, Meta ha integrado una nueva metra en su análisis de análisis. Esta característica proporciona un desglose de visión con el lenguaje, ofreciendo ideas claras sobre cómo se están funcionando las traducciones con nuevas audiencias internacionales. Para obtener mejores resultados, Meta aconseja a los creadores que graben videos cara a cámara, hable con claridad sin cubrir la boca y minimizar el ruido o la música de fondo. La herramienta actualmente admite hasta dos altavoces, que deberían evitar hablar entre sí para la traducción más precisa.
Una alternativa manual para creadores multilingües
para los creadores que requieren un control o trabajo más granular o trabajan en idiomas aún no respaldados por la AI, Meta también ha introducido una opción manual robusta. Las páginas de Facebook ahora tienen la capacidad de cargar hasta 20 de sus propias pistas de audio previamente translatadas a un solo carrete.
Esto se gestiona a través de la sección”Sétáliones y traducciones cerradas”en la suite Meta Business. A diferencia del flujo de trabajo previo a la publicación de la herramienta AI, estas pistas cargadas manualmente se pueden agregar, reemplazar o eliminar antes y después de que se publique el carrete, ofreciendo una solución flexible para flujos de trabajo de producción profesional.
La carrera de armamentos de traducción de IA: meta vs. la competencia
la nueva herramienta de meta entera de la herramienta meta. Microsoft anunció su función de”intérprete en los equipos”a fines de 2024, cuyo objetivo es clonar la voz de un usuario para traducciones de reuniones sin problemas y en tiempo real. El CMO de Microsoft, Jared Spataro, destacó el objetivo de hacer que la comunicación cruzada sea más personal, pidiéndole a los usuarios que”imaginen poder sonar como usted en un idioma diferente”.
En mayo de 2025, Google siguió su ejemplo integrando Gemini Ai en Google Reunsed para la traducción del habla en vivo. El enfoque de Google enfatiza la preservación de las cualidades vocales únicas del orador, incluidos el tono y la cadencia. Como señaló un experto, este enfoque en los matices es fundamental:”No se trata solo de palabras; se trata de transmitir la intención. La calidad y seguridad por la que Deepl es conocido para la traducción del habla en tiempo real fue la próxima frontera para nosotros como negocio y estamos entusiasmados de finalmente revelar nuestros primeros productos”.
Esta oleada de innovación subraya un importante impulso de toda la industria para desmantelar las barreras de idiomas utilizando AI sofisticada. Para Meta, el lanzamiento también coincide con una importante reestructuración interna de su división de IA, lo que indica un enfoque renovado en integrar la IA avanzada directamente en sus productos orientados al consumidor.