Loi sur l’IA : les eurodéputés discuteront de la classification des systèmes à haut risque
Les eurodéputés doivent délibérer sur la manière de classer les systèmes d’intelligence artificielle (IA) en fonction des risques réels ou potentiels qu’ils posent, dans le cadre du nouveau règlement sur l’IA.
Les eurodéputés doivent délibérer sur la manière de classer les systèmes d’intelligence artificielle (IA) en fonction des risques réels ou potentiels qu’ils posent, dans le cadre du nouveau règlement sur l’IA (AI Act).
Le règlement sur l’IA est une proposition législative visant à réglementer la technologie de l’IA en fonction de son potentiel de nuisance. Au cœur de la proposition se trouve la catégorie à haut risque, qui implique des exigences plus strictes en termes de robustesse et de gestion des risques de la part des développeurs d’IA.
Les eurodéputés travaillant sur le dossier discuteront de cet aspect critique de la proposition lors d’une réunion mercredi (1er février). Selon un ordre du jour obtenu par EURACTIV, la disposition définissant le processus de classification des risques de l’IA sera au cœur de la discussion.
Cet ordre du jour inclut un compromis potentiel des co-rapporteurs Brando Benifei et Dragos Tudorache. Les eurodéputés en charge du dossier ont déjà proposé un texte de compromis la semaine dernière, mais la nouvelle version comprend des changements significatifs qui pourraient ouvrir la voie à un consensus.
Au cours de la même réunion, les eurodéputés devraient formellement approuver les compromis sur les exigences relatives aux systèmes d’IA à haut risque et les mesures visant à favoriser l’innovation.
Loi sur l’IA : les eurodéputés cherchent à finaliser les dispostions relatives à la classification à haut risque
Les eurodéputés en charge des travaux relatifs au règlement sur l’intelligence artificielle (AI Act) ont…
6 minutes
Classification à haut risque
Le projet initial de règlement classait l’IA à haut risque à partir d’une liste de domaines critiques dans lesquels la technologie est appliquée. Parmi ces domaines figuraient notamment des secteurs tels que le maintien de l’ordre ou les soins de santé. Dans le cadre du compromis de la semaine dernière, les co-rapporteurs ont proposé de rendre le processus moins automatique.
En d’autres termes, les développeurs d’IA auraient la possibilité d’évaluer eux-mêmes si leur système présente un risque « significatif » de porter atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes. Le mot « significatif » a été ajouté à partir du texte précédent, accompagné d’une définition.
« Le terme “risque significatif” désigne un risque de porter atteinte à la santé, à la sécurité, et aux droits fondamentaux des personnes physiques potentiellement impactées, qui est significatif en termes de gravité, d’intensité, de probabilité de se produire/de survenir, de durée de ses effets et de sa capacité à affecter un individu, une pluralité de personnes ou à affecter un groupe particulier de personnes », peut-on lire dans le texte.
Si les développeurs d’IA estiment qu’il n’y a pas de risque significatif, ils devront demander une exemption à l’autorité de surveillance nationale du pays concerné ou à l’organe de l’UE concerné si le système doit être lancé sur plus d’un marché européen.
L’autorité compétente entamera alors un dialogue réglementaire avec le fournisseur et devra rendre une décision motivée dans les trois mois.
En tout état de cause, le système d’IA sera toujours classé à haut risque s’il s’agit d’un composant de sécurité de produits couverts par la législation sectorielle de l’UE qui exige que le produit soit soumis à un contrôle d’évaluation de la conformité par un tiers. Par exemple, si le système d’IA est utilisé pour assurer la sécurité d’un jouet ou d’un ascenseur.
La définition de composant de sécurité a été modifiée pour ne faire référence qu’au risque lié à la défaillance ou au dysfonctionnement potentiel du système d’IA pour la santé et la sécurité des personnes, tandis que la sécurité des biens a été exclue.
Modification de la liste des domaines à haut risque
La liste des domaines critiques pour les applications d’IA à haut risque a été incluse dans l’annexe III afin de permettre à la Commission européenne de la mettre à jour en fonction des développements technologiques et commerciaux.
En dessous de chaque domaine à haut risque se trouvent des cas d’utilisation spécifiques. C’est le cas, par exemple, des systèmes utilisés pour accepter les étudiants à l’université.
Dans le cadre du dernier compromis, l’exécutif européen devrait avoir le pouvoir d’ajouter ou de modifier la liste des domaines et des cas d’utilisation par le biais d’actes délégués. De même, la Commission pourrait supprimer les cas d’utilisation de la liste, mais pas les domaines critiques, si elle estime qu’ils ne sont plus applicables.
Loi sur l’IA : les eurodéputés proposent d’étendre les pouvoirs de révision de la Commission
Les co-rapporteurs du Parlement européen pour le règlement sur l’intelligence artificielle (AI Act) ont proposé…
6 minutes
[Édité par Anne-Sophie Gayet]