Meta heeft een nieuw AI-vertaaltool gelanceerd om makers op Facebook en Instagram Global Audiences te helpen bereiken. De functie, dinsdag aangekondigd, brengt automatisch naar nieuwe talen, terwijl hij de eigen stem en toon van de maker behoudt. Het bevat ook een optionele lip-sync-functie om de video er natuurlijker uit te laten zien.

Aanvankelijk uitgerold met Engelse en Spaanse ondersteuning, wil de tool taalbarrières doorbreken. De update is wereldwijd beschikbaar voor alle openbare Instagram-accounts en Facebook-makers met meer dan 1.000 volgers in regio’s waar Meta AI wordt aangeboden. Deze beweging geeft de agressieve duw van Meta aan in praktische AI-applicaties.

De lancering plaatst meta in directe concurrentie met vergelijkbare AI-gedreven communicatiehulpmiddelen van Google en Microsoft, in een ongepo-strijd om dominantie in Ai-versterkte platforms.

hoe meta’s ai dubbing en lip-syncing werken van het platform van het platform van het platform van het platform. mensen.”Wij geloven dat er veel geweldige makers zijn die potentieel publiek hebben die niet noodzakelijkerwijs dezelfde taal spreken,”legde hij uit in een bericht. Hij is van mening dat door het overbruggen van taalkundige scheidingen, de tool makers zal helpen nieuwe kansen voor groei en betrokkenheid op het platform te ontgrendelen.

makers kunnen de nieuwe functie direct in de workflow voor het publiceren van rollen activeren door de”Vertalen van uw stem met Meta AI”-optie. Volgens de aankondiging van Meta is het systeem ontworpen als een gratis tool die, eenmaal ingeschakeld, automatisch de inhoud dubt . De AI genereert een nieuw audiotrack dat het authentieke geluid en de toon van de gebruiker bewaart, waardoor een naadloze ervaring voor de kijker ontstaat. Een optionele lip-sync-functie verbetert verder het effect door de mondbewegingen van de maker nauwkeurig te matchen met de vertaalde woorden, waardoor het lijkt alsof ze vloeiend de nieuwe taal spreken.

Deze technologie, die voor het eerst werd bekeken op de connectconferentie van META in September 2024, legt een sterke nadruk op creatorcontrole. Gebruikers kunnen ervoor kiezen om vertalingen te bekijken en goed te keuren voordat ze worden gepubliceerd door een specifieke schakelaar in te schakelen. Het stuurt een melding naar de maker, die vervolgens de nagesynchroniseerde versie van hun professionele dashboard kan accepteren of afwijzen. Meta verduidelijkt dat het afwijzen van een vertaling geen invloed heeft op de originele, niet-vertaalde haspel.

Voor transparantie zullen kijkers een kennisgeving zien die aangeeft dat de reel is vertaald met meta AI en toekomstige vertalingen voor specifieke talen kan uitschakelen via het instellingenmenu. Deze functie biedt een uitsplitsing van weergave door taal en biedt duidelijke inzichten in hoe vertalingen presteren met een nieuw internationaal publiek. Voor betere resultaten adviseert Meta makers om face-to-camera video’s te maken, duidelijk te spreken zonder hun mond te bedekken en achtergrondgeluid of muziek te minimaliseren. De tool ondersteunt momenteel maximaal twee sprekers, die moeten voorkomen dat ze over elkaar praten voor de meest nauwkeurige vertaling.

Een handmatig alternatief voor meertalige makers

voor makers die meer gedetailleerde controle of werk in talen nodig hebben die nog niet worden ondersteund door de AI, META heeft een robuuste handmatige optie. Facebook-pagina’s hebben nu de mogelijkheid om maximaal 20 van hun eigen vooraf vertaalde audiotracks naar een enkele haspel te uploaden.

Dit wordt beheerd via de sectie”Gesloten bijschriften en vertalingen”in de Meta Business Suite. In tegenstelling tot de pre-publish workflow van de AI-tool, kunnen deze handmatig geüploade tracks worden toegevoegd, vervangen of verwijderd, zowel voor als nadat de reel is gepubliceerd, bieden een flexibele oplossing voor professionele productieworkflows.

de AI-vertaling Arms race: meta versus de concurrentie

meta meta meta meta meta meta meta meta van een fiercely-landschap. Microsoft kondigde eind 2024 de functie”Interpreter in teams”aan, die tot doel heeft de stem van een gebruiker te klonen voor naadloze, realtime vergadervertalingen. Microsoft’s CMO, Jared Spataro, benadrukte het doel om cross-taalcommunicatie persoonlijker te maken en gebruikers te vragen’zich voor te stellen’te kunnen klinken net als u in een andere taal.’

In mei 2025 volgde Google door Gemini AI te integreren in Google Meet voor live speech-vertaling. De aanpak van Google benadrukt het behoud van de unieke vocale kwaliteiten van de spreker, waaronder toon en cadans. Zoals een expert opmerkte, is deze focus op nuance cruciaal:”Dit gaat niet alleen over woorden; het gaat over het overbrengen van de intentie. Google’s focus op vocale nuance kan revolutionair zijn voor hoe gedistribueerde teams verbinding maken.”

Ondertussen vertaling Deepl Deepl Stem in november 2024. Het bedrijf hield zijn reputatie voor accuracy en beveiliging, met ceo-jarek, met ceo jarek kutyki state, met ceo jarek kutyki state, met ceo jarek kutyki state, met ceo jarek kutyki state.”Het brengen van de kwaliteit en beveiliging waar de EPL bekend om staat voor realtime spraakvertaling was de volgende grens voor ons als een bedrijf en we zijn verheugd om eindelijk onze eerste producten te onthullen.”

Deze vlaag van innovatie onderstreept een belangrijke industriële push om taalbarrières te ontmantelen met behulp van geavanceerde AI. Voor meta valt de lancering ook samen met een belangrijke interne herstructurering van zijn AI-divisie, wat een hernieuwde focus aangeeft op het integreren van geavanceerde AI rechtstreeks in zijn consumentengerichte producten.

Categories: IT Info