Instagram renforce ses règles pour les utilisateurs adolescents, la société mère Meta annonçant aujourd’hui qu’elle placera automatiquement tous les utilisateurs de moins de 18 ans dans un nouveau paramètre de contenu plus restrictif « PG-13 ». La mise à jour vise à protéger les jeunes des contenus réservés aux adultes en bloquant les comptes inappropriés et en filtrant les termes de recherche.

Déployé dès maintenant aux États-Unis, au Royaume-Uni, en Australie et au Canada, le nouveau système introduit également un contrôle parental plus strict et sera étendu à l’échelle mondiale d’ici l’année prochaine. Cette décision fait suite à une pression intense de la part des régulateurs et des défenseurs de la sécurité préoccupés par l’impact de la plateforme sur la santé mentale des jeunes.

Une nouvelle valeur par défaut « PG-13 » pour les comptes adolescents

La refonte aligne la politique de contenu d’Instagram pour les adolescents sur la norme familière de classification des films PG-13.

Dans son annonce, la société a expliqué sa réflexion en déclarant :”Tout comme vous pourriez voir un contenu suggestif ou entendre un langage grossier dans un film PG-13, les adolescents peuvent occasionnellement voir quelque chose comme ça sur Instagram.-mais nous allons continuer à faire tout notre possible pour que ces cas restent aussi rares que possible. Si un profil partage régulièrement du contenu inapproprié pour l’âge, tel que des liens vers des sites Web pour adultes, Instagram empêchera désormais tous les comptes d’adolescents de le voir, de le suivre ou d’interagir avec lui.

Cette politique va au-delà du simple masquage des publications. Il empêchera également les adolescents de suivre des comptes dont la biographie ou le nom d’utilisateur suggère des thèmes pour adultes. Si un adolescent suit déjà un tel compte, il ne verra plus son contenu ni ne pourra plus interagir avec lui.

La plateforme étend également sa liste de termes de recherche bloqués pour inclure des mots comme « alcool » ou « gore », ainsi que des fautes d’orthographe courantes utilisées pour échapper aux filtres.

Les protections s’étendent aux messages directs, où les adolescents ne pourront pas ouvrir de liens vers du contenu en violation, même s’ils sont envoyés par quelqu’un qu’ils suivent.

Les interactions avec l’IA seront également régies par la norme PG-13 afin d’éviter les réponses inappropriées des chatbots. Il s’agit d’une réponse directe aux récents scandales au cours desquels des assistants IA se sont engagés dans des conversations nuisibles avec des mineurs.

Bien entendu, ces protections reposent sur la fourniture par les utilisateurs de leur âge exact, un défi persistant. Cependant, Meta affirme utiliser un système d’IA proactif pour identifier les utilisateurs mineurs suspectés et appliquer automatiquement les paramètres les plus restrictifs pour les adolescents.

Contrôle parental amélioré et option de « contenu limité » plus stricte

Au-delà de la nouvelle valeur par défaut, Meta introduit un paramètre de « contenu limité » encore plus strict que les parents peuvent activer pour les comptes de leurs enfants. Ce mode facultatif filtre les contenus plus limites de l’expérience d’un adolescent.

Le paramètre « Contenu limité » supprime également complètement la possibilité pour un adolescent de voir, de laisser ou de recevoir des commentaires sur des publications. Cela constitue un outil puissant pour les parents qui souhaitent réduire considérablement les interactions non sollicitées de leurs enfants sur la plateforme.

Selon un enquête commandée par Meta, les parents ont apprécié de disposer de cette option plus restrictive. Pour affiner ces directives, la société affirme avoir consulté des milliers de parents, intégrant plus de 3 millions d’évaluations de contenu dans ses mises à jour de politique.

Ces fonctionnalités font partie d’une initiative plus large de Meta visant à renforcer ses outils de supervision du Family Center, dont le déploiement a commencé en 2023. La société teste également un nouvel outil de commentaires permettant aux parents de signaler directement le contenu qu’ils jugent inapproprié pour examen.

Une réponse à l’augmentation du nombre de parents. Pressions et critiques réglementaires

Ce changement de politique est une réponse claire à une vague soutenue de contrôle réglementaire. En mai 2024, la Commission européenne a lancé une enquête formelle sur les pratiques de Meta en matière de sécurité des enfants en vertu de la loi sur les services numériques (DSA).

L’enquête examine si la conception des plateformes contribue aux « dépendances comportementales » et si les outils de vérification de l’âge sont efficaces.

À l’époque, la responsable européenne Margrethe Vestager avait déclaré: « avec la loi sur les services numériques, nous avons établi des règles qui peuvent protéger les mineurs lorsqu’ils interagissent en ligne. » soulignant l’intention du bloc d’appliquer ses nouvelles règles.

Aux États-Unis, la Federal Trade Commission a lancé sa propre enquête en septembre 2025, ciblant Meta et d’autres géants de la technologie sur la sécurité des chatbots compagnons d’IA pour les adolescents.

Le président de la FTC, Andrew N. Ferguson, a déclaré que « la protection des enfants en ligne est une priorité absolue pour la FTC Trump-Vance, tout comme la promotion l’innovation dans des secteurs critiques de notre économie”, signalant une approche ferme mais équilibrée.

L’action au niveau de l’État s’intensifie également, la Californie ayant récemment promulgué des lois historiques sur la sécurité des enfants.

Le gouverneur de Californie, Gavin Newsom, a déclaré à propos des nouvelles lois,”les technologies émergentes comme les chatbots et les médias sociaux peuvent inspirer, éduquer et connecter-mais sans véritables garde-fous, la technologie peut également exploiter, induire en erreur et mettre en danger notre enfants”, soulignant le consensus croissant selon lequel les plateformes technologiques ont besoin de garde-fous plus solides.

Cependant, cette annonce a été accueillie avec un scepticisme immédiat. Le sénateur américain Richard Blumenthal a qualifié la mise à jour de « nouvelle mesure de relations publiques », arguant qu’elle ne parvient pas à résoudre le problème central des algorithmes addictifs. Les défenseurs de la sécurité des enfants ont également exprimé leurs inquiétudes.

Ces groupes soulignent des échecs passés, tels que des rapports selon lesquels l’IA de Meta pourrait aider les adolescents à planifier leur automutilation. Après cet incident, Jim Steyer, PDG de Common Sense Media, a déclaré: « La méta-IA est un danger pour les adolescents et elle devrait être supprimée immédiatement. » Cette histoire de faux pas alimente les doutes quant à savoir si le nouveau système PG-13 sera suffisant.

La directrice des politiques publiques de Meta, Liz Arcamona, a réagi en déclarant: « dans l’ensemble, bon nombre de nos politiques étaient déjà généralement conformes ou allaient plus loin que la norme PG-13. Et là où elles vont plus loin aujourd’hui, elles continueront de le faire à l’avenir. » Pourtant, pour une entreprise confrontée à de multiples enquêtes et à une méfiance généralisée, la charge de la preuve sera de démontrer que ces nouveaux garde-fous créent un changement significatif et durable.

Categories: IT Info