Les organismes de protection de la vie privée mettent en garde contre les risques mondiaux liés aux deepfakes générés par l'IA

Les autorités du monde entier ont cosigné lundi une déclaration soulignant les préoccupations liées à la sécurité de l'IA et signalant leur intention de coopérer pour lutter contre un « risque mondial ».

EURACTIV.com
GettyImages-2261525140
GettyImages-2261525140 [Hindustan Times via GettyImage]

Les organismes de protection de la vie privée du monde entier mettent en garde contre les risques croissants posés par les images non consenties de personnes réelles générées par l’IA, également appelées « deepfakes », dans le but de lutter contre un « risque mondial ».

Soixante et une autorités chargées de la protection des données (APD) ont cosigné lundi une déclaration exprimant leurs préoccupations concernant la diffusion sur les réseaux sociaux d’images et de vidéos générées par l’IA qui représentent des personnes réelles à leur insu et sans leur consentement, en particulier des images intimes d’enfants et d’autres personnes issues de groupes vulnérables.

« Nous sommes particulièrement préoccupés par les préjudices potentiels pour les enfants et autres groupes vulnérables, tels que le cyber-harcèlement et/ou l’exploitation », ont-ils écrit.

L’indignation mondiale suscitée par les deepfakes s’est amplifiée ces dernières semaines, après que l’assistant IA d’Elon Musk, Grok, intégré à sa plateforme de réseaux sociaux X, ait généré des dizaines d’images intimes sexualisées de femmes et d’enfants. Bien que Musk ait limité la production de Grok sur X face à l’indignation générale, le scandale de la « pornification » de l’IA a mis en lumière les risques liés aux deepfakes, incitant les législateurs, notamment au sein de l’UE, à rechercher des moyens de lutter contre ces préjudices en ligne.

Cette déclaration intervient également quelques jours après la rencontre des dirigeants mondiaux à New Delhi pour un sommet annuel très médiatisé sur l’IA. Alors que le premier de ces événements, le « Sommet sur la sécurité de l’IA » de 2023, avait été organisé autour de l’idée de forger une coopération internationale pour limiter les risques potentiellement existentiels posés par l’IA, la conférence s’est recentrée sur la promotion de l’innovation et de l’investissement, devenant davantage un salon professionnel dédié à l’IA.

L’édition indienne du sommet était axée sur la démocratisation de l’accès à l’IA. La déclaration finale des dirigeants mondiaux comprend une brève section sur « une IA sûre et fiable », mais évite de mentionner les risques mondiaux (tels que les deepfakes). Elle met plutôt l’accent sur les mesures volontaires prises par l’industrie et les « cadres politiques qui permettent l’innovation tout en promouvant l’intérêt public ».

Réponse mondiale

Les signataires de la déclaration des autorités de protection des données, parmi lesquels figurent le Contrôleur européen de la protection des données (CEPD) de l’UE, le Comité européen de la protection des données (CEPD) et plusieurs autorités nationales de protection de la vie privée de l’UE, telles que la CNIL en France et la DPC en Irlande, ainsi que des autorités d’Amérique du Nord et du Sud, d’Asie, d’Afrique et d’Australie, affirment qu’ils s’efforceront de partager des informations sur la manière dont ils traitent chacun les deepfakes afin de soutenir une « réponse coordonnée » pour lutter contre ce « risque mondial », selon leur déclaration.

Les autorités chargées de la protection des données appellent également les développeurs d’IA à mettre en place des mesures de protection solides pour empêcher toute utilisation abusive de leurs systèmes, demandent une « transparence significative » de la part des fabricants d’outils d’IA et encouragent les entreprises technologiques à mettre en place des mécanismes pour aider les victimes à supprimer les contenus préjudiciables sur Internet, en les exhortant à accorder une attention particulière à la protection des enfants.