Pédopornographie en ligne : une étude du Parlement européen critique la proposition de la Commission

L’analyse d’impact du Parlement européen sur la proposition concernant le matériel relatif à des abus sexuels commis sur des enfants en ligne soulève de sérieuses inquiétudes quant aux implications techniques et de protection de la vie privée du projet de loi.

Euractiv.com
Businessman,Hand,Working,On,Laptop,Computer,With,Digital,Layer,Business
La conclusion la plus pertinente de l’étude est que la technologie actuelle n’est pas assez avancée pour détecter les nouveaux cas de CSAM et de grooming sans entraîner un taux d’erreur élevé. [Shutterstock/ESB Professional]

L’analyse d’impact du Parlement européen sur la proposition concernant le matériel relatif à des abus sexuels commis sur des enfants (CSAM) en ligne, obtenue par EURACTIV, soulève de sérieuses inquiétudes quant aux implications techniques et de protection de la vie privée du projet de loi.

La proposition de la Commission européenne visant à lutter contre la diffusion de contenus pédopornographiques a suscité une forte opposition en raison de ses implications en matière de protection de la vie privée.

Dans sa version actuelle, la proposition permettrait aux autorités judiciaires d’émettre des ordonnances de détection à l’encontre d’applications de messagerie ou de services de courrier considérés comme présentant un risque important de diffusion de ce type de contenu illicite.

Sur réception d’une ordonnance de détection, un fournisseur de services de communication devrait mettre en place des outils automatisés pour détecter les CSAM connus, mais aussi les nouveaux contenus abusifs et tout ce qui peut être lié au « grooming » (la séduction malintentionnée des enfants).

Le Parlement européen a commandé une analyse d’impact supplémentaire afin d’évaluer ces préoccupations concernant la proposition, présentée jeudi (13 avril) à la commission des Libertés civiles, de la Justice et des Affaires intérieures (LIBE) du Parlement.

La conclusion la plus pertinente de l’étude est que la technologie actuelle n’est pas assez avancée pour détecter les nouveaux cas de CSAM et de grooming sans entraîner un taux d’erreur élevé. Ce taux d’erreur serait d’autant plus important que tous les messages d’une plateforme pourraient être analysés.

Une autre préoccupation liée à la proposition de l’UE est qu’elle serait en contradiction avec le chiffrement de bout en bout. Cette technologie permet uniquement au destinataire de la communication de lire le message envoyé.

Selon l’étude commandée par le Parlement, il n’existe actuellement aucune solution technologique qui permettrait de scanner les communications privées demandées par les ordonnances de détection sans porter atteinte au chiffrement de bout en bout.

L’analyse d’impact indique également qu’il est peu probable que de telles solutions techniques soient développées dans les deux à cinq années à venir, c’est-à-dire d’ici à ce que le nouveau règlement soit en place.

Faux positifs

Le projet de législation confie à un nouveau centre européen le rôle de trier les faux positifs, afin d’éviter que des contenus inoffensifs, tels que les échanges entre adultes, ne se retrouvent entre les mains des services de police.

Selon l’analyse d’impact, il est également peu probable que le centre européen envisagé « améliore substantiellement la qualité de la détection, étant donné que des décennies de recherche et de développement n’ont, à ce jour, pas permis d’atteindre des niveaux de précision élevés pour la détection des nouveaux messages à caractère sexuel et du grooming ».

Même sans tenir compte du chiffrement de bout en bout, l’analyse d’impact note que « seule la détection de CSAM connus sur des canaux de communication ouverts peut, à l’heure actuelle, être effectuée avec des niveaux de précision relativement élevés ».

En d’autres termes, les nouveaux matériels seraient plus difficiles à détecter, et même les matériels connus pourraient être modifiés de manière à échapper aux algorithmes de détection.

Alors que le chiffrement de bout en bout est de plus en plus répandu dans les services de communication tels que WhatsApp, les auteurs de l’étude estiment que la législation européenne pourrait freiner le développement de ce type de technologie.

En outre, le balayage des messages précédemment protégés les rendrait non seulement entièrement accessibles au fournisseur de services, mais en cas de faille de sécurité ou de piratage, les données des utilisateurs pourraient potentiellement être exposées.

Ross Creelman, responsable de la politique publique de l’Association européenne des exploitants de réseaux de télécommunications (ETNO), a confié à EURACTIV que les opérateurs étaient d’accord sur le fait que « le risque pour le chiffrement sape la confiance dans ces technologies et les droits fondamentaux — et tout cela à un degré qui va au-delà de ce qui est nécessaire pour l’objectif politique ».

Au-delà des problèmes de chiffrement, l’étude souligne que les adolescents mineurs pourraient « se sentir mal à l’aise lorsque des images partagées de manière consensuelle pourraient être classées comme du contenu CSAM ».

Parmi les autres difficultés, citons le fait que la détection des contenus sur le dark web est encore plus complexe et qu’il existe une barrière linguistique, la plupart des technologies ne fonctionnant pour l’instant qu’en anglais, et qu’à mesure que la technologie progresse, les solutions de contournement se développent également. L’analyse d’impact, qui a également soulevé ces problèmes, parle de « course aux armements technologiques ».

Emily Slifer, directrice de la politique de l’organisation de protection des enfants Thorn, a expliqué à EURACTIV que l’étude n’accordait pas assez d’attention au fonctionnement réel de la technologie.

Mme Slifer et Susie Hargreaves, directrice générale de l’Internet Watch Foundation, ont toutes deux déclaré qu’elles auraient été ouvertes à un échange avec les auteurs de l’étude et à l’offre de leur expertise.

Selon l’étude, une solution plus efficace à ce stade serait l’analyse du comportement des utilisateurs et des métadonnées, telles que les signaux de réseau. Cette solution est déjà largement utilisée par de grandes plateformes comme WhatsApp.

[Édité par Anne-Sophie Gayet]