Meta refuse de signer le code de bonnes pratiques de l’UE pour l’IA générative
Meta est la première grande entreprise à annoncer qu’elle ne signera pas le code de bonnes pratiques de l’UE pour les IA à usage général, un ensemble d’engagements volontaires censés aider les développeurs à se conformer à l’AI Act.
Meta est la première grande entreprise à annoncer qu’elle ne signera pas le code de bonnes pratiques de l’UE pour les IA à usage général (GPAI), un ensemble d’engagements volontaires censés aider les développeurs d’IA à se conformer à sa loi sur l’IA (AI Act), un texte juridiquement contraignante.
Joel Kaplan, directeur des affaires internationales de Meta, a révélé la décision de ne pas adhérer au code de bonnes pratiques dans un message publié sur LinkedIn, dans lequel il écrit que « l’Europe fait fausse route en matière d’IA ».
« Ce code introduit un certain nombre d’incertitudes juridiques pour les développeurs de modèles, ainsi que des mesures qui vont bien au-delà du champ d’application de l’AI Act », a-t-il également fait indiqué.
L’AI Act a fait l’objet de nombreuses critiques ces derniers mois, plusieurs entreprises ayant appelé la Commission à la reporter, voire à la remanier.
Le code de bonnes pratiques était au centre de cette discussion, sa publication ayant été reportée à plusieurs reprises. La Commission a finalement publié la version finale le 10 juillet.
À ce jour, la société française Mistral AI et le créateur de ChatGPT, OpenAI, ont annoncé qu’ils signeraient le code.
La réaction des députés européens travaillant sur l’IA à l’annonce de Meta a été loin d’être enthousiaste.
Sergey Lagodinsky, co-rapporteur écologiste sur l’AI Act, a souligné que Mistral et OpenAI avaient tous deux signé, arguant que le texte final avait été rédigé en tenant compte des fournisseurs GPAI. « Je ne crois pas à l’argument de Meta selon lequel le code va au-delà de la loi sur l’IA », a-t-il confié à Euractiv.
Axel Voss, membre du Parti populaire européen (PPE, centre-droit), n’était pas non plus convaincu. Tout en reconnaissant qu’il y avait des raisons de critiquer le code, il l’a qualifié d’étape importante vers des modèles d’IA plus responsables. « Le fait que Meta ne souhaite pas soutenir cette norme minimale est un signal fatal pour la transparence, la sécurité et la responsabilité européenne », a ajouté le législateur.
La Commission a réaffirmé que les entreprises qui ne signeraient pas le code pourraient faire l’objet d’un contrôle plus strict de leur conformité avec l’AI Act.
[Édité par Anne-Sophie Gayet]