L’Union européenne abandonne son projet controversé visant à exiger l’analyse des messages numériques privés à la recherche de matériel pédopornographique, ont confirmé jeudi des responsables.
Face à une impasse législative et à une opposition farouche pour des raisons de confidentialité, la présidence danoise de l’UE a fait volte-face en proposant un nouveau compromis qui maintiendrait la détection de tels contenus sur une base volontaire.
Cette décision vise à éviter un vide juridique, le cadre actuel d’analyse volontaire expirant en avril 2026. La proposition originale, largement connue sous le nom de « Chat » Control”a été effectivement bloqué par des pays comme l’Allemagne, qui affirmaient que cela créerait un système de surveillance de masse sans précédent et saperait le cryptage.
La montée et la chute du”contrôle des discussions”
Au cœur de la controverse qui a duré des années se trouvait la menace que représentait la proposition pour le numérique. vie privée. Le règlement CSA, introduit pour la première fois par la Commission européenne en 2022, visait à obliger toutes les entreprises technologiques à analyser les communications privées des utilisateurs, y compris les photos, vidéos et messages, à la recherche de matériel pédopornographique (CSAM).
Cette obligation d’analyse aveugle se serait appliquée à chaque citoyen sans aucun soupçon préalable.
Sa portée se serait étendue même aux services offrant un cryptage de bout en bout, tels que WhatsApp et Signal. Pour se conformer, ces services auraient dû mettre en œuvre une technique connue sous le nom d’analyse côté client.
Les technologies ont averti que cela nécessiterait le déploiement de code sur l’appareil d’un utilisateur pour analyser le contenu avant qu’il ne soit crypté, une méthode décrite par les critiques comme un « logiciel espion personnalisé » qui briserait fondamentalement les garanties de sécurité et de confidentialité du cryptage.
Les défenseurs de la vie privée, les experts en cybersécurité et les autorités européennes de protection des données ont immédiatement tiré la sonnette d’alarme. Ils ont averti qu’un tel système équivalait à une surveillance de masse et créerait un dangereux précédent, ouvrant la porte à une surveillance gouvernementale plus large des communications privées.
Un mur d’opposition dirigé par l’Allemagne
La ferme opposition de l’Allemagne s’est avérée être un obstacle majeur à la législation. Face à l’immense pression publique, le gouvernement allemand a refusé de soutenir la proposition, empêchant l’obtention de la majorité qualifiée requise pour que le projet de loi soit adopté au Conseil de l’UE au début du mois.
La ministre fédérale allemande de la Justice, Stefanie Hubig, a résumé le principe en jeu en déclarant: « Le contrôle des discussions sans motif doit être tabou dans un État régi par l’État de droit. »
Cette position faisait partie d’une coalition de résistance large et diversifiée. Des groupes de défense des droits numériques comme European Digital Rights (EDRi) ont lancé la campagne « Stop Scanning Me », soulignant le préjudice disproportionné que la loi pourrait infliger aux journalistes, aux militants et aux familles ordinaires.
L’opposition s’est également reflétée au sein des propres institutions de l’UE, le Parlement européen ayant adopté une position critique en 2023 qui excluait explicitement la surveillance de masse.
Ajoutant à la pression, un groupe puissant d’entreprises technologiques européennes, y compris des entreprises axées sur la confidentialité comme comme Proton et Tuta ont publié une lettre ouverte avertissant que la loi détruirait la confiance des utilisateurs et nuirait à la souveraineté numérique de l’Europe.
Ils ont fait valoir que les forcer à affaiblir la sécurité tuerait leur avantage concurrentiel.
Patrick Breyer, un éminent militant et ancien législateur européen, a qualifié l’arrêt de résultat direct de cette action citoyenne généralisée.”C’est une formidable victoire pour la liberté et prouve que la protestation fonctionne !”, a-t-il déclaré, attribuant le mérite à l’activisme infatigable d’avoir mis fin à ce qu’il a appelé une”loi totalitaire sur la surveillance de masse.”
Un pivot pragmatique pour éviter un vide juridique
Face à une impasse législative et à l’approche de l’échéance de 2026, la présidence danoise, qui dirige actuellement les négociations du Conseil de l’UE, a opté pour un retrait stratégique.
Le cadre juridique existant qui permet aux plateformes de rechercher volontairement des contenus CSAM est sur le point d’expirer, et l’échec de l’adoption d’une nouvelle réglementation laisserait le bloc sans aucun outil juridique pour lutter contre la diffusion de ces contenus en ligne.
L’ampleur du problème est importante ; un rapport de l’Internet Watch Foundation, basée au Royaume-Uni, a révélé que 62 % des contenus pédopornographiques identifiés au niveau international l’année dernière étaient hébergés sur des serveurs de l’UE.
Le ministre danois de la Justice, Peter Hummelgaard, a expliqué cette décision comme un choix pragmatique visant à éviter une issue pire.”Si nous poursuivons les négociations sur la base de la proposition de compromis précédente, il existe un risque sérieux que nous nous retrouvions pendant une longue période sans l’outil dont nous disposons aujourd’hui”, a-t-il déclaré. href=”https://www.lemonde.fr/en/international/article/2025/10/30/eu-will-not-force-online-platforms-and-messaging-services-to-scan-for-child-sex-abuse-images_6746931_4.html”target=”_blank”>a déclaré à l’Agence France-Presse.
Il a reconnu que la proposition modifiée n’était pas idéale mais a souligné qu’elle valait « mieux qu’un pas en arrière ».
The new, softened proposal will now be circulated among the 27 EU member states for approval. Bien qu’il supprime l’élément le plus controversé, il vise à préserver et à formaliser les efforts volontaires.
Si le Conseil parvient à un accord, le projet de loi entrerait dans les négociations finales du « trilogue » avec le Parlement européen. Cependant, il resterait confronté à un Parlement sceptique, qui a défendu une approche alternative axée sur des mesures ciblées telles que rendre obligatoire la « sécurité dès la conception » et imposer le retrait rapide des contenus illégaux connus, plutôt que de briser le cryptage.