Meta, la société mère de Facebook, Instagram et Threads, apporte un changement radical à ses politiques de modération de contenu en supprimant son programme tiers de vérification des faits au profit d’un système piloté par l’utilisateur appelé Community Notes.

La transition reflète l’accent renouvelé de Meta sur la liberté d’expression tout en répondant aux critiques persistantes concernant les préjugés et les excès dans ses pratiques de modération.

« Nous voulons résoudre ce problème et revenir à cet engagement fondamental en faveur de la liberté. expression”, écrit Joel Kaplan, responsable de la politique mondiale de Meta, dans un déclaration officielle

Kaplan décrit précédemment les systèmes de modération sont trop restrictifs, ajoutant: « Aussi bien intentionnés que nombre de ces efforts aient été, ils se sont étendus au fil du temps au point que nous commettons trop d’erreurs, frustrant nos utilisateurs et entravant trop souvent la gratuité. expression que nous souhaitons permettre.”

Les changements seront d’abord déployés aux États-Unis au cours des prochains mois, avec des plans pour une expansion progressive dans d’autres régions.

Connexe: Meta supprime son robot IA Comptes après des réactions négatives en ligne

Une nouvelle approche : que sont les notes de la communauté ?

Les notes de la communauté sont un système de modération inspiré de X (anciennement Twitter), qui fait appel au crowdsourcing contexte pour les publications signalées. Au lieu d’imposer des avertissements intrusifs, les notes de la communauté permettent aux contributeurs d’annoter les publications avec des informations supplémentaires, à condition qu’un consensus soit atteint entre les utilisateurs ayant des points de vue divers. Ce mécanisme de consensus vise à minimiser les préjugés et à favoriser la transparence dans la modération du contenu.

« Nous avons vu cette approche fonctionner sur X : ils permettent à leur communauté de décider quand les publications sont potentiellement trompeuses et nécessitent plus de contexte, et des personnes de différents points de vue décident quel type de contexte est utile aux autres utilisateurs.”

Dans ce nouveau système, Meta n’écrira ni ne modérera plus directement les notes de la communauté. Au lieu de cela, les contributeurs créeront volontairement. des annotations qui répondent aux critères convenus. Le système élimine également les avertissements en plein écran qui empêchaient auparavant les utilisateurs de visualiser le contenu signalé, en les remplaçant par des étiquettes plus petites sur lesquelles les utilisateurs peuvent cliquer pour plus de contexte.

Connexe: Meta demande un blocage juridique à la transition d’OpenAI vers une entité à but lucratif

Restrictions plus souples et application ciblée

En tandem avec l’adoption de la Communauté Remarques, Meta assouplit les restrictions sur des sujets politiquement sensibles tels que l’immigration et l’identité de genre. Ces sujets, fréquemment débattus dans l’espace public, ne seront plus aussi fortement modérés. Meta donnera plutôt la priorité à l’application des règles sur les violations graves, telles que le terrorisme, l’exploitation des enfants et la fraude.

“Nous supprimons un certain nombre de restrictions sur des sujets comme l’immigration, l’identité de genre et le genre qui sont les priorités. sujet de discours et de débats politiques fréquents”, écrit Kaplan.”Il n’est pas juste que des choses puissent être dites à la télévision ou au Congrès mais pas sur nos plateformes.”

Meta réduit également sa dépendance à l’égard de des systèmes de modération automatisés, qui ont été critiqués pour avoir mal classé le contenu. Les violations moins graves ne seront désormais traitées que si elles sont signalées par les utilisateurs, tandis que les algorithmes se concentreront exclusivement sur les problèmes de haute gravité.

Connexe : Meta présente le cadre Video Seal pour les vidéos d’IA cachées. Filigranes

Implications politiques et stratégiques

Le moment de la refonte de la modération de Meta coïncide avec un changement politique aux États-Unis, suscitant des spéculations sur la les motivations de l’entreprise. Les critiques ont noté que Meta faisait depuis longtemps l’objet d’accusations de parti pris politique, en particulier de la part de groupes conservateurs qui se sentaient ciblés par les précédentes politiques de modération de contenu.

Kaplan a reconnu cette réaction négative, déclarant qu’une application trop large avait conduit à des erreurs.”Nous pensons qu’une à deux de ces actions sur 10 pourraient être des erreurs (c’est-à-dire que le contenu n’aurait peut-être pas violé nos politiques)”, a-t-il expliqué, ajoutant que la nouvelle approche vise à rétablir la confiance entre les utilisateurs de tous les bords politiques..

Le programme original de vérification des faits de Meta, lancé en 2016, a été conçu pour lutter contre la désinformation électorale. Même si l’initiative visait à fournir aux utilisateurs des informations précises, elle a suscité des critiques pour sa perception d’ingérence dans les débats politiques et sa confiance. sur les organisations tierces avec leurs propres préjugés.

Connexe : Instagram déploie des bobines d’essai pour aider les créateurs à optimiser l’engagement

La relocalisation de la confiance et équipes de sécurité

Dans le cadre de sa restructuration plus large, Meta délocalise ses équipes de confiance et de sécurité de la Californie au Texas et dans d’autres endroits aux États-Unis. Cette décision vise à répondre aux préoccupations concernant les préjugés régionaux en matière de modération. décisions, tout en signalant un changement dans la stratégie opérationnelle de Meta. Les critiques se demandent si cette décision reflète également un positionnement politique, compte tenu de la nouvelle administration américaine.

Meta a expliqué que le déplacement des équipes de confiance et de sécurité améliorerait la prise de décision et la réactivité aux besoins de la communauté. La société prévoit également d’étendre l’utilisation de modèles linguistiques avancés pour faciliter la modération et réduire les erreurs dans les décisions d’application.

Connexe : L’UE enquête sur la collaboration Google-Meta sur les publicités ciblées sur les adolescents. sur YouTube

Réintroduire le contenu civique avec une approche personnalisée

Meta repense son approche du contenu civique et politique sur ses plateformes. Après des années de réduction de ce contenu dans les flux des utilisateurs, l’entreprise envisage de le réintroduire avec une stratégie personnalisée. Les utilisateurs auront plus de contrôle sur la quantité de contenu politique qu’ils voient, en fonction de mesures d’engagement telles que les likes, les commentaires et les habitudes de visionnage.

Meta a indiqué que des tests sur le contenu civique personnalisé ont été effectués et que l’entreprise prévoit de se développer. des options pour aider les utilisateurs à prioriser le contenu pertinent. La nouvelle initiative vise à équilibrer les préférences des utilisateurs avec l’objectif de Meta de favoriser un discours civique solide.

Automatisation, participation communautaire et perspectives d’avenir

Bien que l’automatisation reste un Outil incontournable de l’arsenal de modération de Meta, son rôle est en train d’être redéfini. Les grands modèles linguistiques (LLM) serviront désormais de deuxième avis dans les décisions d’application, en se concentrant sur les violations graves. Parallèlement, le passage aux Notes de la communauté représente un effort plus large visant à décentraliser la surveillance du contenu et à impliquer directement les utilisateurs dans le processus de modération.

Zuckerberg a indiqué que les changements visent à garantir que les politiques soient mieux alignées sur la mission de Meta consistant à permettre la libre expression..

Categories: IT Info