Les géants américains de l'IA semblent accepter que leur technologie soit utilisée pour espionner les Européens

L'espionnage des alliés par l'IA n'a pas été un facteur déterminant pour OpenAI et Anthropic dans les négociations avec le Pentagone.

EURACTIV.com
Aerial view of a military building, The Pentagon, Washington DC, USA
Aerial view of a military building, The Pentagon, Washington DC, USA [Glowimages / Getty Images]

Les géants américains de l’IA OpenAI et Anthropic ne semblent pas préoccupés par le fait que leurs technologies soient utilisées pour la surveillance de masse de personnes non américaines, y compris des Européens, selon de récentes déclarations publiques.

Ces commentaires ont été faits dans le contexte d’une dispute entre Anthropic – qui se positionne comme le plus éthique des grands laboratoires d’IA, ses fondateurs ayant quitté OpenAI pour des raisons de sécurité – et le département américain de la Défense (DoD), ou « département de la Guerre » comme le président Donald Trump préfère l’appeler.

Le chatbot Claude d’Anthropic est largement utilisé comme outil d’aide à la décision par l’armée américaine, tout récemment encore pour l’attaque de samedi contre l’Iran. Mais la société a maintenu une ligne rouge lors de récentes négociations contractuelles avec le DoD, exigeant l’assurance que ses modèles ne seraient pas utilisés pour la surveillance massive sur le territoire national ou pour alimenter des armes entièrement autonomes.

Les négociations auraient échoué la semaine dernière. Vendredi, le secrétaire américain à la Défense, Pete Hegseth, a non seulement résilié les contrats de son département avec Anthropic, mais il a également désigné le fabricant de LLM comme un risque pour la chaîne d’approvisionnement, ce qui signifie que d’autres entreprises ne pourront pas utiliser Anthropic lorsqu’elles travailleront sur des projets avec l’armée américaine.

Il s’agit d’une restriction très forte, normalement réservée aux entreprises de pays comme la Chine. Dans ce cas précis, cette restriction sévère semble motivée par le dégoût des responsables de l’administration Trump pour une entreprise qu’ils perçoivent comme remplie de libéraux « woke ».

Les Européens ne sont pas des Américains, yo !

Toutefois, en ce qui concerne l’utilisation de l’IA à des fins d’espionnage, les garanties souhaitées par Anthropic ne concernaient que la surveillance massive nationale. L’entreprise ne s’opposait pas à la surveillance massive légale des non-Américains, y compris des Européens.

« Nous soutenons l’utilisation de l’IA pour des missions légales de renseignement et de contre-espionnage à l’étranger », a écrit la semaine dernière le PDG d’Anthropic, Dario Amodei. « Mais l’utilisation de ces systèmes pour la surveillance de masse nationale est incompatible avec les valeurs démocratiques. »

Samedi, OpenAI a annoncé qu’elle était intervenue et avait conclu un accord avec le ministère de la Défense, qui, selon elle, offrait de meilleures garanties que celles demandées par Anthropic. Mais en matière de surveillance, les garanties d’OpenAI se concentrent également uniquement sur les Américains.

« Le système d’IA ne doit pas être utilisé pour la surveillance sans restriction des informations privées des citoyens américains, conformément à ces autorités », peut-on lire dans un extrait du contrat entre OpenAI et le DoD, publié dans un article de blog sur le site web du développeur d’IA.

Suite à certaines réactions négatives au niveau national, le PDG d’OpenAI, Sam Altman, a également écrit mardi qu’il modifierait son accord avec le département afin d’ajouter des garanties supplémentaires pour empêcher que son système d’IA ne soit utilisé à des fins de « surveillance nationale des personnes et des ressortissants américains ».

M. Altman a également écrit qu’OpenAI avait reçu l’assurance que ses services ne seraient pas utilisés par les agences de renseignement américaines relevant du DoD, telles que la National Security Agency.

L’IA booste la surveillance de masse

Bien que l’IA ne soit pas le seul outil capable de rassembler des données personnelles pour créer des profils détaillés d’individus, Robin Staab, qui mène des recherches sur l’IA et la vie privée à l’ETH Zurich en Suisse, souligne que les systèmes d’IA modernes peuvent accomplir cette tâche à un coût bien moindre que les approches moins sophistiquées.

« Vous obtenez le résultat pour un centième, voire un millième de l’investissement financier et temporel, voire moins », a-t-il déclaré à Euractiv.

M. Staab n’est pas non plus convaincu qu’il soit techniquement possible de former les modèles d’IA à ne pas être utilisés pour la surveillance de masse, d’autant plus que leur fonction première est justement de combiner logiquement des données.

Les garanties techniques n’empêcheront pas non plus une personne motivée d’utiliser un outil d’IA à des fins de surveillance de masse, a averti M. Staab.

Les conditions générales de l’UE peuvent s’appliquer

Bien sûr, le fait qu’Anthropic ou OpenAI acceptent en principe que le gouvernement américain utilise leurs modèles d’IA pour la surveillance de masse des non-Américains ne signifie pas nécessairement qu’un organisme américain le fasse.

Il existe également certaines règles régissant la manière dont les États-Unis sont autorisés à utiliser les données des Européens.

Notamment, le cadre de protection des données entre l’UE et les États-Unis (DPF) impose des obligations aux organisations américaines participantes qui traitent les données personnelles des citoyens de l’UE lorsqu’elles sont transférées aux États-Unis.

Mais les précédents accords transatlantiques de haut niveau sur le transfert de données ont échoué précisément à cause des programmes de surveillance de masse américains ciblant les non-Américains. Si, dans le cadre du DPF, les agences de renseignement américaines ont la possibilité d’accéder aux données des citoyens de l’UE, un mécanisme de plainte inclus dans le cadre vise à créer un système de contrôle et d’équilibre, bien que son efficacité soit contestée.

Max Schrems, éminent militant européen pour le droit à la vie privée dont les recours juridiques ont enterré les précédents accords de transfert entre l’UE et les États-Unis devant les tribunaux, ne pense pas que ces accords offrent une grande protection contre la surveillance par l’IA.

« Si vous n’êtes pas citoyen américain, presque tout est possible tant que les données sont « pertinentes pour les relations internationales des États-Unis », a déclaré M. Schrems à Euractiv.

Autres accords en courssur les données

Il existe également des accords en vertu desquels les autorités américaines reçoivent des données spécifiques sur les Européens, notamment sur les vols commerciaux qu’ils ont pris ou sur leurs transactions financières. Ces accords visent principalement à lutter contre le terrorisme.

L’UE et les États-Unis discutent également d’ un nouvel accord qui impliquerait le transfert de données sensibles sur les voyageurs européens vers les États-Unis, ce qui pourrait permettre de prendre des décisions automatisées – impliquant potentiellement l’utilisation de l’IA – dans certaines circonstances.

Euractiv a contacté Anthropic, OpenAI et la représentation américaine à Bruxelles pour leur demander si l’IA était utilisée pour surveiller massivement les Européens et quelles règles s’appliquaient dans ce cas, mais aucune réponse n’avait été reçue au moment de la publication.