IA : le Royaume-Uni jette les bases de son modèle réglementaire
Le Royaume-Uni jette les bases de son futur modèle réglementaire en matière d’IA. À l’instar de l’UE, il suggère d’adopter une approche basée sur le risque, mais se distinguera du bloc en confiant la mise en application à un panel de régulateurs.
Le Royaume-Uni jette les bases de son futur modèle réglementaire en matière d’intelligence artificielle (IA). À l’instar de l’UE, il suggère d’adopter une approche fondée sur le risque, mais se distinguera du bloc en confiant la mise en application à un panel de régulateurs.
Le gouvernement britannique a présenté son « approche pro-innovation de la réglementation de l’IA » lundi (18 juillet) parallèlement à son nouveau projet de loi sur la protection des données et l’information numérique.
Cela fait suite à la présentation de la stratégie nationale en matière d’IA en septembre dernier, un plan sur dix ans visant à garantir que le Royaume-Uni devienne une superpuissance de l’IA au niveau mondial. Le pays a investi plus de 2,3 milliards de livres (2,7 milliards d’euros) dans l’IA depuis 2014.
L’approche britannique en matière de réglementation se concentre sur les applications à haut risque, mettant de côté les faibles risques associés à l’IA afin que l’innovation ne soit pas entravée et que l’industrie ne soit pas ralentie par des lourdeurs administratives.
Le cadre repose sur un ensemble de principes trans-sectoriels, inspirés des principes de l’OCDE [Organisation de coopération et de développement économiques] en matière d’IA : sûreté et sécurité dès la conception, transparence et explication, équité et contestabilité.
Régulateurs
Contrairement à l’approche de l’UE, qui prévoit que l’application de la loi sur l’IA soit confiée à un seul régulateur national pour chaque État membre, le Royaume-Uni prévoit d’en confier la responsabilité à plusieurs d’entre eux.
L’Ofcom, l’autorité britannique de régulation des communications, l’Autorité de la concurrence et des marchés (Competition and Markets Authority, CMA), l’ICO (Information Commissioner’s Office), la FCA (Financial Conduct Authority) et l’Agence de régulation des médicaments et des produits de santé (Medicine and Healthcare Products Regulatory Agency, MHRA) figurent sur la liste. Certains d’entre eux pourraient éventuellement voir leurs pouvoirs et leurs attributions évoluer.
Les principes énoncés dans l’approche britannique « fournissent des orientations claires aux régulateurs, mais ne se traduiront pas nécessairement par des obligations exigées », précise la déclaration politique, qui les encourage plutôt à « envisager des options plus légères dans un premier temps ».
En ce qui concerne la définition même de la technologie, qui pose souvent problème, le gouvernement britannique a refusé d’établier une définition universellement applicable, choisissant plutôt de se concentrer sur les caractéristiques et les capacités de l’IA dont les régulateurs peuvent s’inspirer.
On attendra également d’eux qu’ils prennent l’initiative d’identifier, d’évaluer et de hiérarchiser les risques visés par les principes tout en travaillant dans le cadre d’une coopération renforcée.
La nécessité d’une coopération accrue entre les régulateurs afin de relever les défis de l’IA a été confirmée par un rapport indépendant de l’Alan Turing Institute publié lundi. Celui-ci souligne que la technologie s’est désormais étendue, en termes d’échelle et de complexité, à tous les domaines de la vie sociale et économique et que la nature commune des obstacles auxquels sont déjà confrontés les régulateurs appelle une stratégie commune.
Un enjeu mondial
Un « écosystème d’IA florissant » peut être une source d’avantage concurrentiel international, a écrit la secrétaire d’État au Numérique, Nadine Dorries, dans la déclaration, promettant que le Royaume-Uni « continuera à plaider au niveau international » pour cette approche favorable à l’innovation et soulignant que les défis et les opportunités de l’IA sont des questions d’ordre mondial.
Londres reconnaît la « nature transfrontalière inhérente à l’écosystème numérique » et souligne la nécessité de travailler « en étroite collaboration avec les partenaires » afin d’éviter la fragmentation du marché mondial, « d’assurer l’interopérabilité et de promouvoir le développement responsable de l’IA au niveau international », selon le gouvernement.
Le Royaume-Uni s’est engagé à continuer de lutter contre l’autoritarisme, la répression et la discrimination et à rester « actif » dans les organisations mondiales telles que le Partenariat mondial sur l’intelligence artificielle (PMIA), l’OCDE ou les organismes de normalisation, a-t-elle poursuivi, avant de conclure que le pays s’efforcera de rester une « voix pragmatique en faveur de l’innovation dans les négociations en cours au Conseil de l’Europe ».
Les parties prenantes de l’écosystème de l’IA sont invitées à faire part de leur point de vue sur cette approche réglementaire d’ici à la fin du mois de septembre, de manière à alimenter un futur livre blanc sur la mise en œuvre d’une telle stratégie.
Loi sur l’IA : la présidence tchèque propose une définition plus étroite de l’IA
La présidence tchèque du Conseil de l’UE a proposé une définition plus étroite de l’intelligence…
6 minutes