Interprétation de l'AI Act : la société civile se mobilise pour placer les droits de l'homme au premier plan
La Commission européenne va publier des lignes directrices sur l'interprétation du règlement relatif à l'intelligence artificielle (IA) et ses interdictions. Dans une déclaration commune, les organisations de la société civile demandent que les droits de l'homme et la justice y occupent une place plus importante.
BRUXELLES — La Commission européenne va publier ses lignes directrices sur l’interprétation du règlement relatif à l’intelligence artificielle (IA) et sur les interdictions prévues par ce dernier. Des organisations de la société civile demandent que les droits de l’homme et la justice y occupent une place plus importante.
Les interdictions de l’AI Act (loi sur l’IA) concernant les systèmes présentant un « risque inacceptable » entreront en vigueur le 2 février. Ce qui pourrait donner de l’ampleur à l’ensemble du cadre fondé sur la notion de risque.
La Commission doit encore fournir des lignes directrices sur l’interprétation de ce texte juridique. Selon les parties prenantes, la consultation lancée par l’institution en décembre, portant sur les interdictions prévues par la loi sur l’IA, était trop tardive et n’incluait pas de projet de document. Un document circulait cependant au sein de la Commission.
Dans une déclaration publiée ce jeudi, les organisations de la société civile demandent que les pratiques qui posent problème soient incluses dans les dispositions, ce qui viendrait combler de « graves lacunes » dans le texte final du règlement sur l’IA.
Suite à une autre consultation de la Commission, cette fois sur la définition de l’IA, elles souhaitent également que l’institution décide que les systèmes « simples » soient également considérés comme de l’IA.
Les quatre professeurs et 21 organisations signataires — dont Access Now, Amnesty International et European Digital Rights (EDRi) — craignent que les développeurs n’utilisent la définition de l’IA et des systèmes d’IA à haut risque pour contourner les obligations de l’AI Act.
Dans un commentaire séparé, Blue Tiyavorabun, conseiller politique à l’EDRi, a dénoncé le processus de consultation de la Commission, le qualifiant de profondément déficient en termes de transparence, d’inclusion et d’accessibilité. Selon lui, la Commission devrait donner un avis approprié et publier le projet en s’assurant qu’un retour d’information adéquat puisse être donné.
AI Act : la Commission doit clarifier les interdictions en matière d’IA avant leur entrée en vigueur
Les parties prenantes se trouvent dans l’impossibilité de donner leur avis sur les interdictions en…
6 minutes
Définir le niveau d’exigence pour l’AI Act
L’essentiel des exigences du règlement sur l’IA s’applique aux systèmes d’IA « à haut risque ». Ils sont considérés moins risqués que les cas d’utilisation interdits « inacceptables », mais plus que les domaines à risque « limité », largement exemptés.
Les questions soulevées sont fondamentales pour le règlement, car elles déterminent quels systèmes sont couverts, et le montant des obligations pour les systèmes couverts.
Selon Laura Lázaro Cabrera, conseillère et directrice du programme pour l’équité et les données au Centre pour la démocratie et la technologie, si trop peu de systèmes d’IA sont interdits, cela pourrait fausser toute l’échelle des risques. Pour l’experte, cela rehausserait en effet la barre de classification des risques à la fois élevés et limités.
La Commission aura toutefois peu de temps pour examiner les commentaires, et encore moins pour apporter des changements. Lors d’un événement cette semaine, un haut fonctionnaire européen a déclaré que les lignes directrices seraient publiées « très bientôt ».
IA : un projet de loi californien controversé pourrait améliorer l’AI Act de l’UE
Selon plusieurs experts, un projet de loi californien controversé sur les modèles d’intelligence artificielle (IA)…
6 minutes
[Édité par Alice Bergoënd]