AI Act : Paris, Berlin et Rome veulent « auto-réguler » les modèles de fondation

Les trois plus grands pays de l’UE font pression pour que les règles qui concernent les modèles de fondation au sein du règlement européen relatif à l’intelligence artificielle se limitent à des codes de conduite, sans sanctions, plutôt que d'imposer des obligations normatives, selon un document non officiel vu par Euractiv.

Euractiv.com
Portland,,Or,,Usa,-,Mar,15,,2023:,Webpage,Of,Openai’s
Les négociations concernant la première réglementation détaillée de l’IA au monde ont été bouleversées par la montée en puissance de ChatGPT, un système d’IA polyvalent appelé IA à usage général, qui est construit sur le puissant modèle de fondation d’OpenAI, GPT-4. [[Tada Images/Shutterstock]]

Les trois plus grands pays de l’UE, l’Allemagne, la France et l’Italie, font pression pour que les règles qui concernent les modèles de fondation au sein du règlement européen relatif à l’intelligence artificielle (AI Act) se limitent à des codes de conduite, sans sanctions, plutôt que d’imposer des obligations normatives, selon un document non officiel vu par Euractiv.

La législation sur l’IA est un projet majeur de l’UE visant à mettre en place un cadre réglementaire pour l’intelligence artificielle en vue de minimiser les risques inhérents à cette technologie. Le dossier est actuellement dans la dernière phase du processus législatif : les trilogues. Ces réunions réunissent la Commission, le Conseil et le Parlement de l’UE afin d’élaborer les dispositions finales de la législation.

Les négociations concernant la première réglementation détaillée de l’IA au monde ont été bouleversées par la montée en puissance de ChatGPT, un système d’IA polyvalent appelé IA à usage général, qui est construit sur le puissant modèle de fondation d’OpenAI, GPT-4.

Le 10 novembre, Euractiv a révélé que l’ensemble de la législation était menacée suite à l’opposition grandissante de la France, qui a entre-temps obtenu le soutien de l’Allemagne et de l’Italie dans sa démarche contre toute réglementation sur les modèles de fondation.

Ces trois acteurs majeurs de l’UE — la France, l’Allemagne et l’Italie — ont demandé à la présidence espagnole du Conseil de l’UE, qui préside les trilogues au nom des États membres, de renoncer à l’approche à plusieurs niveaux qui semblait faire consensus lors du dernier trilogue politique tenu à la mi-octobre.

En réponse, plusieurs membres du Parlement européen ont quitté une réunion de trilogue pour signaler qu’il n’était pas politiquement acceptable de ne pas inclure les modèles de fondation dans la législation. Ces dernières semaines, la présidence espagnole a tenté de parvenir à un arrangement entre les eurodéputés et les gouvernements européens les plus réticents.

Mais les trois pays ont fait circuler dimanche (19 novembre) un document non officiel laissant peu de place au compromis. Ils considèrent en effet que des règles horizontales concernant les modèles de fondation iraient à l’encontre de l’approche de neutralité technologique et de prise en compte des risques de la réglementation sur l’intelligence artificielle, censée préserver à la fois l’innovation et la sécurité.

« Les risques inhérents résident dans la mise en œuvre des systèmes d’IA plutôt que dans la technologie elle-même. Les normes européennes peuvent soutenir cette approche à la suite du nouveau cadre législatif », indique le document, ajoutant que les signataires sont « opposés à une approche à deux niveaux pour les modèles de fondation ».

« En ce qui concerne les modèles de fondation, nous nous opposons à l’instauration de normes non testées et suggérons d’instaurer entre-temps une autorégulation obligatoire par le biais de codes de conduite », peut-on lire dans le document officieux, qui souligne que ces codes suivent les principes définis par le G7 dans le cadre du processus d’Hiroshima.

Les trois pays estiment au contraire que réglementer les systèmes d’IA à usage général, pouvant être utilisés pour des utilisations bien définies, est plus conforme à l’approche de réglementation par les risques, que de réglementer les modèles de fondation stricto sensu.

Pour mettre en œuvre cette approche, la France, l’Allemagne et l’Italie proposent que les concepteurs des modèles de fondation rédigent des spécifications techniques, c’est-à-dire une documentation qui résume les informations sur les modèles entraînés, en utilisant un langage accessible à un large public.

« Définir des spécifications techniques et les rendre disponibles pour chaque modèle de fondation constitue l’élément obligatoire de cette autorégulation », note le document officieux, soulignant que ces fiches devront inclure des informations pertinentes sur les capacités et les limites du modèle de fondation et être basées sur les bonnes pratiques partagées au sein de la communauté des concepteurs.

Les exemples fournis dans le document listent le nombre de paramètres utilisés, les utilisations prévues, les limites, les résultats des études de biais, et les tests d’intrusion qui permettent une évaluation de la sécurité.

Le document non officiel propose qu’un organe de gouvernance de l’IA contribue à l’élaboration de lignes directrices et vérifie la mise en œuvre des spécifications techniques, en offrant un moyen simple de signaler toute infraction au code de conduite.

« Par souci de transparence, toute violation présumée devra être rendue publique par l’autorité », précise le document.

Les trois pays ne souhaitent pas non plus que des sanctions soient appliquées au début. Selon eux, un régime de sanctions ne serait mis en place qu’à la suite d’infractions répétées aux codes de conduite et après une analyse « appropriée » et une évaluation de l’impact des défaillances identifiées.

Paris, Berlin et Rome sont tous les trois d’avis que les normes européennes pourraient être un outil nécessaire qui garantirait à l’UE sa capacité à s’ajuster et prendre en compte les développements technologiques futurs.

L’approche relative aux modèles de fondation sera au centre d’une discussion du groupe « Télécommunications et société de l’information », un organe technique du Conseil de l’UE, mardi (21 novembre). Le même jour, les eurodéputés tiendront une réunion interne sur le sujet, suivie d’un dîner avec la présidence espagnole du Conseil de l’UE et la Commission européenne.

« [Ce document] est une déclaration de guerre », a déclaré un représentant du Parlement à Euractiv, sous couvert d’anonymat.