Meta a lancé un nouvel outil de traduction d’IA pour aider les créateurs sur Facebook et Instagram à atteindre les publics mondiaux. La fonctionnalité, annoncée mardi, doute automatiquement des bobines dans de nouvelles langues tout en préservant la propre voix et le ton du créateur. Il comprend également une fonction de synchronisation labiale en option pour rendre la vidéo plus naturelle.

Déplacement initialement avec le support anglais et espagnol, l’outil vise à décomposer les barrières linguistiques. La mise à jour est disponible dans le monde entier pour tous les comptes Instagram publics et les créateurs de Facebook avec plus de 1 000 abonnés dans des régions où Meta AI est offerte. Ce mouvement signale la poussée agressive de Meta dans les applications pratiques d’IA.

Le lancement place Meta en concurrence directe avec des outils de communication similaires axés sur l’IA de Google et Microsoft, dans une bataille d’Ongoint pour la domination dans les plates-formes améliorées en AI.

comment meta’s AI Dubbing and Lip-Syncing fonctionne la nouvelle fonctionnalité de la plate-forme de la plateforme Adam Mosseri.”Nous pensons qu’il y a beaucoup de créateurs incroyables qui ont un public potentiel qui ne parle pas nécessairement la même langue”, a-t-il expliqué dans un article. Il estime qu’en pontant les divisions linguistiques, l’outil aidera les créateurs à déverrouiller de nouvelles opportunités de croissance et d’engagement sur la plate-forme.

Les créateurs peuvent activer la nouvelle fonctionnalité directement dans le flux de travail de publication des rouleaux en sélectionnant l’option”Translater votre voix avec Meta Ai”. Selon l’annonce de Meta, le système est conçu pour être un outil gratuit qui, une fois activé, doute automatiquement le contenu . L’IA génère une nouvelle piste audio qui préserve le son et le ton authentiques de l’utilisateur, créant une expérience transparente pour le spectateur. Une fonction de synchronisation labiale facultative améliore encore l’effet en correspondant précisément aux mouvements de la bouche du créateur aux mots traduits, ce qui donne l’impression qu’ils parlaient couramment la nouvelle langue.

Cette technologie, qui a d’abord été présentée à la conférence Meta Connect en septembre 2024, met l’accent sur le contrôle du créateur. Les utilisateurs peuvent choisir d’examiner et d’approuver les traductions avant d’être publiées en permettant une bascule spécifique. Il envoie une notification au Créateur, qui peut ensuite accepter ou rejeter la version doublée de son tableau de bord professionnel. Meta clarifie que le rejet d’une traduction n’aura pas d’impact sur la bobine d’origine et non traduite.

Pour la transparence, les téléspectateurs verront un avis indiquant que la bobine a été traduite avec Meta AI et peut désactiver les traductions futures pour des langues spécifiques à travers le menu des paramètres.

Pour aider les créateurs à comprendre leur contenu nouveau, Meta a intégré un nouveau métrial dans ses analyses. Cette fonctionnalité fournit une répartition des comptes de vue par le langage, offrant des informations claires sur la façon dont les traductions fonctionnent avec de nouveaux publics internationaux. Pour de meilleurs résultats, Meta conseille aux créateurs de tourner des vidéos en face à caméra, de parler clairement sans se couvrir la bouche et de minimiser le bruit ou la musique de fond. L’outil prend actuellement en charge jusqu’à deux haut-parleurs, qui devraient éviter de se parler pour la traduction la plus précise.

Une alternative manuelle pour les créateurs multilingues

pour les créateurs qui nécessitent un contrôle ou un travail plus granulaire dans des langues non encore soutenues par l’IA, META a également introduit une option manuelle robuste. Les pages Facebook ont ​​désormais la possibilité de télécharger jusqu’à 20 de leurs propres pistes audio pré-traditionnelles sur une seule bobine.

Ceci est géré via la section”Cermements et traductions”dans la suite Meta Business. Contrairement au flux de travail pré-édition de l’outil AI, ces pistes téléchargées manuellement peuvent être ajoutées, remplacées ou supprimées avant et après la publication de la bobine, offrant une solution flexible pour les flux de travail de production professionnels.

La traduction des armes de l’IA: Meta vs. le pays de la compétition

Meta meta dans un pays de compétition. Microsoft a annoncé sa fonctionnalité”Interpreter in Teams”fin 2024, qui vise à cloner la voix d’un utilisateur pour des traductions de réunion sans couture et en temps réel. Le CMO de Microsoft, Jared Spataro, a mis en évidence l’objectif de rendre la communication transversale plus personnelle, demandant aux utilisateurs de”imaginer pouvoir vous ressembler dans une langue différente.”

En mai 2025, Google a suivi le costume en intégrant Gemini AI dans Google Meet pour la traduction de la parole en direct. L’approche de Google met l’accent sur la préservation des qualités vocales uniques de l’orateur, y compris le ton et la cadence. Comme un expert l’a noté, cette concentration sur les nuances est essentielle:”Il ne s’agit pas seulement de mots; il s’agit de transmettre l’intention. Et la sécurité que Deepl est connue pour la traduction de la parole en temps réel a été la prochaine frontière pour nous en tant qu’entreprise et nous sommes ravis de dévoiler enfin nos premiers produits.”

Cette vague d’innovation souligne une poussée importante à l’échelle de l’industrie pour démanteler les barrières linguistiques en utilisant une IA sophistiquée. Pour Meta, le lancement coïncide également avec une restructuration interne majeure de sa division d’IA, signalant un accent renouvelé sur l’intégration d’IA avancée directement dans ses produits orientés vers les consommateurs.

Categories: IT Info