Meta, het moederbedrijf van Facebook, Instagram en Threads, brengt een ingrijpende verandering aan in zijn beleid voor inhoudsmoderatie door het factcheckingprogramma van derden te elimineren ten gunste van een gebruikersgestuurd systeem genaamd Community Notes.

De transitie weerspiegelt Meta’s hernieuwde focus op vrije meningsuiting, terwijl tegelijkertijd aanhoudende kritiek op vooringenomenheid en overdreven reikwijdte in haar moderatiepraktijken wordt aangepakt.

“We willen dat oplossen en terugkeren naar die fundamentele toewijding aan vrije meningsuiting expressie”, schrijft Joel Kaplan, hoofd mondiaal beleid van Meta, in een officiële verklaring

Kaplan beschreef eerdere moderatiesystemen als overdreven restrictief, en voegde eraan toe: “Hoe goedbedoeld veel van deze inspanningen ook zijn geweest, ze zijn in de loop van de tijd uitgebreid tot het punt waarop we te veel fouten maken, onze gebruikers frustreren en te vaak de vrije meningsuiting die we instellen in de weg staan uit om mogelijk te maken.”

De veranderingen zullen de komende maanden eerst in de Verenigde Staten worden uitgerold, met plannen voor geleidelijke uitbreiding naar andere regio’s.

Gerelateerd:

strong> Meta verwijdert zijn AI Bot-accounts na online Backlash

Een nieuwe aanpak: wat zijn community-notities?

Community-notities is een moderatiesysteem gemodelleerd naar X (voorheen Twitter), dat de context voor gemarkeerde berichten crowdsourcet berichten. In plaats van opdringerige waarschuwingen op te leggen, biedt Community Notes bijdragers de mogelijkheid om berichten te annoteren met aanvullende informatie, op voorwaarde dat er consensus wordt bereikt onder gebruikers met verschillende perspectieven. Dit consensusmechanisme is bedoeld om vooringenomenheid te minimaliseren en transparantie in het modereren van inhoud te bevorderen.

“We hebben gezien dat deze aanpak werkt op X – waar ze hun gemeenschap in staat stellen te beslissen wanneer berichten mogelijk misleidend zijn en meer context nodig hebben, en mensen met uiteenlopende perspectieven beslissen welke context nuttig is voor andere gebruikers.”

Onder dit nieuwe systeem zal Meta niet langer rechtstreeks Community Notes schrijven of modereren In plaats daarvan zullen bijdragers vrijwillig annotaties maken die voldoen aan overeengekomen criteria. Het systeem elimineert ook de waarschuwingen op volledig scherm die gebruikers voorheen ervan weerhielden gemarkeerde inhoud te bekijken, en vervangt deze door kleinere labels waarop gebruikers kunnen klikken voor meer context.

Gerelateerd: Meta dringt aan op juridische blokkering van de transitie van OpenAI naar een entiteit met winstoogmerk

Losere beperkingen en gerichte handhaving

In combinatie met de goedkeuring van de Community Merkt op dat Meta de beperkingen op politiek gevoelige onderwerpen zoals immigratie en genderidentiteit versoepelt. Deze onderwerpen, waarover vaak wordt gedebatteerd in de publieke sfeer, zullen niet langer zo strak worden gemodereerd. Meta zal in plaats daarvan prioriteit geven aan het handhaven van regels bij ernstige schendingen, zoals terrorisme, uitbuiting van kinderen en fraude.

“We schrappen een aantal beperkingen op onderwerpen als immigratie, genderidentiteit en gender die de belangrijkste zijn onderwerp van frequent politiek discours en debat”, schrijft Kaplan.”Het is niet juist dat dingen op tv of in het Congres kunnen worden gezegd, maar niet op onze platforms.”

Meta is ook haar afhankelijkheid van geautomatiseerde moderatie systemen, die bekritiseerd zijn vanwege het verkeerd classificeren van inhoud. Op minder ernstige overtredingen wordt nu alleen gereageerd als deze door gebruikers worden gemarkeerd, terwijl algoritmen zich uitsluitend zullen richten op zeer ernstige problemen.

Gerelateerd: Meta introduceert Video Seal Framework voor Hidden AI Video Watermerken

Politieke en strategische implicaties

De timing van Meta’s moderatie-revisie valt samen met een politieke verschuiving in de Verenigde Staten, wat aanleiding geeft tot speculatie over de de motivaties van het bedrijf. Critici hebben opgemerkt dat Meta al lang te maken heeft met beschuldigingen van politieke vooringenomenheid, vooral van conservatieve groepen die zich het doelwit voelden van eerder inhoudsmoderatiebeleid.

Kaplan erkende de reactie en stelde dat een te brede handhaving tot fouten had geleid. “We denken dat een tot twee op de tien van deze acties fouten kunnen zijn geweest (dat wil zeggen dat de inhoud ons beleid niet daadwerkelijk heeft geschonden)”, legde hij uit, eraan toevoegend dat de nieuwe aanpak tot doel heeft het vertrouwen tussen gebruikers over het hele politieke spectrum te herstellen..

Het oorspronkelijke factcheckingprogramma van Meta, gelanceerd in 2016, was bedoeld om verkeerde informatie over verkiezingen te bestrijden. Het initiatief was bedoeld om gebruikers van nauwkeurige informatie te voorzien. Het kreeg kritiek vanwege de waargenomen inmenging in politieke debatten en de afhankelijkheid ervan op externe organisaties met hun eigen vooroordelen.

Gerelateerd: Instagram introduceert proefrollen om makers te helpen de betrokkenheid te optimaliseren

De verplaatsing van vertrouwen en Veiligheidsteams

Als onderdeel van de bredere herstructurering verplaatst Meta zijn vertrouwens-en veiligheidsteams van Californië naar Texas en andere Amerikaanse locaties , terwijl het ook een verschuiving signaleert in de operationele strategie van Meta. Critici hebben zich afgevraagd of dit besluit ook de politieke positionering weerspiegelt, gezien de aantredende Amerikaanse regering.

Meta legde uit dat het verplaatsen van vertrouwens-en veiligheidsteams de besluitvorming en het reactievermogen op de behoeften van de gemeenschap zou verbeteren. Het bedrijf is ook van plan het gebruik van geavanceerde taalmodellen uit te breiden om te helpen bij moderatie en om fouten in handhavingsbeslissingen te verminderen.

Gerelateerd: EU onderzoekt Google-meta-samenwerking over op tieners gerichte advertenties op YouTube

Herintroductie van burgerinhoud met een gepersonaliseerde focus

Meta heroverweegt zijn benadering van burgerlijke en politieke inhoud op zijn platforms. Na jarenlang dergelijke inhoud in de feeds van gebruikers te hebben verminderd, is het bedrijf van plan deze opnieuw te introduceren met een gepersonaliseerde strategie. Gebruikers zullen meer controle hebben over hoeveel politieke inhoud ze zien, op basis van betrokkenheidsstatistieken zoals vind-ik-leuks, reacties en kijkgedrag.

Meta gaf aan dat er tests op gepersonaliseerde maatschappelijke inhoud zijn uitgevoerd en dat het bedrijf van plan is uit te breiden opties om gebruikers te helpen relevante inhoud te prioriteren. Het nieuwe initiatief heeft tot doel de voorkeuren van gebruikers in evenwicht te brengen met Meta’s doel om een ​​robuust maatschappelijk discours te bevorderen.

Automatisering, betrokkenheid van de gemeenschap en toekomstperspectieven

Hoewel automatisering een essentieel instrument in het moderatie-arsenaal van Meta, de rol ervan wordt opnieuw gedefinieerd. Grote taalmodellen (LLM’s) zullen nu fungeren als second opinion bij handhavingsbeslissingen, waarbij de nadruk ligt op ernstige overtredingen. Ondertussen vertegenwoordigt de verschuiving naar Community Notes een bredere poging om het toezicht op de inhoud te decentraliseren en gebruikers rechtstreeks te betrekken bij het moderatieproces.

Zuckerberg gaf aan dat de veranderingen erop gericht zijn ervoor te zorgen dat het beleid beter aansluit bij Meta’s missie om vrije meningsuiting mogelijk te maken..

Categories: IT Info