La Commission européenne publie des lignes directrices internes sur l’IA générative

La Commission européenne a publié des lignes directrices destinées à son personnel sur l’utilisation des modèles d’intelligence artificielle générative en ligne ainsi que sur l’interaction avec de tels modèles, en particulier en ce qui concerne leurs limites et les risques qu’ils présentent.

Euractiv.com
Eu,Flags,In,Front,Of,European,Commission,In,Brussels
Le document vise en particulier à guider les membres du personnel dans la gestion des risques et des limites de l’IA générative, telle que ChatGPT, Bard et Stable Diffusion, qui génèrent du contenu à partir des invites de l’utilisateur. [SHUTTERSTOCK/symbiot]

La Commission européenne a publié mardi (30 mai) des lignes directrices destinées à son personnel sur l’utilisation des modèles d’intelligence artificielle (IA) générative en ligne ainsi que sur l’interaction avec de tels modèles, en particulier en ce qui concerne leurs limites et les risques qu’ils présentent.

Le document intitulé « Lignes directrices à l’attention du personnel relatives à l’utilisation d’outils d’intelligence artificielle générative disponibles en ligne » et la note qui l’accompagne, consultés par EURACTIV, ont été mis à disposition dans le système d’information interne de la Commission.

Le comité de direction chargé de la gestion de l’information de la Commission a adopté ces lignes directrices le 27 avril.

« Les lignes directrices couvrent les outils tiers disponibles publiquement en ligne, tels que ChatGPT. Elles visent à aider le personnel de la Commission européenne à comprendre les risques et les limites que les outils disponibles en ligne peuvent entraîner et à soutenir l’utilisation appropriée de ces outils », peut-on lire dans la note.

Le document vise en particulier à guider les membres du personnel dans la gestion des risques et des limites de l’IA générative, telle que ChatGPT, Bard et Stable Diffusion, qui génèrent du contenu à partir des invites de l’utilisateur.

La Commission a noté que ces outils ont le potentiel de stimuler l’efficacité et d’améliorer la qualité de la productivité au travail, car ils peuvent aider à rédiger des notes d’information et à développer des codes informatiques. Toutefois, elle souligne que leur utilisation doit également être encadrée.

Les lignes directrices précisent que « les risques et les limites évoqués ne s’appliquent pas nécessairement aux outils d’IA générative développés en interne par la Commission. Les outils internes développés et/ou contrôlés par la Commission seront évalués au cas par cas dans le cadre de la gouvernance informatique existante pour les systèmes informatiques ».

En outre, il est précisé que le document est considéré comme un « document évolutif » qui doit être tenu à jour en fonction des évolutions technologiques et des interventions règlementaires à venir, à savoir la législation sur l’intelligence artificielle (AI Act).

Le premier risque évoqué concerne la divulgation d’informations sensibles ou de données personnelles au public : les lignes directrices soulignent notamment le fait que toute donnée fournie à un modèle d’IA générative en ligne est ensuite transmise au fournisseur de l’IA, qui peut ensuite s’en servir pour alimenter les résultats générés à l’avenir.

Ainsi, il est interdit au personnel de l’exécutif de partager « toute information qui ne relève pas déjà du domaine public ou toute donnée personnelle avec un modèle d’IA générative disponible en ligne ».

Le deuxième point concerne les lacunes potentielles du modèle d’IA, qui peuvent conduire à des réponses erronées ou biaisées en raison d’un ensemble de données incomplet ou de la conception même de l’algorithme, sur laquelle les développeurs d’IA ne sont pas toujours transparents.

Les responsables de l’UE doivent donc « toujours évaluer de manière critique toute réponse produite par un modèle d’IA générative disponible en ligne afin de détecter les biais potentiels et les informations factuellement inexactes ».

En outre, le document ajoute que le manque de transparence concernant les sources des réponses fournies implique également un risque de violation des droits de propriété intellectuelle, en particulier des droits d’auteur, car des contenus protégés peuvent être utilisés pour entraîner le modèle d’IA.

Par conséquent, les membres du personnel sont toujours invités à évaluer de manière critique si les résultats générés par l’IA violent les droits de propriété intellectuelle, surtout le droit d’auteur. Ils sont également tenus de « ne jamais reproduire directement les résultats d’un modèle d’IA générative dans des documents publics, comme lors de la création de textes de la Commission, notamment ceux qui sont juridiquement contraignants ».

Enfin, le document souligne que les modèles d’IA générative peuvent présenter un délai de réponse assez long ou ne pas être disponibles en permanence. Il est donc interdit au personnel de la Commission de s’appuyer sur ces outils pour les tâches critiques et urgentes.

[Édité par Anne-Sophie Gayet]