Deepfakes : Bruxelles envisage une icône commune pour signaler les contenus générés par l’IA

La Commission européenne a publié mercredi 17 décembre une première ébauche du futur code de bonnes pratiques en matière de la transparence de l’IA.

EURACTIV.com
[Getty Images/Curly_photo]

Ce code vise à aider les entreprises à respecter les règles de transparence de la loi européenne sur l’IA (AI Act), mais celles-ci sont libres d’y adhérer ou non, car il s’agit essentiellement d’une recommandation de conformité et non d’une loi contraignante.

Ce code vise à aider les entreprises à se conformer aux obligations de transparence prévues par la loi européenne sur l’IA. Son adoption restera toutefois volontaire : il s’agit d’un cadre de bonnes pratiques et non d’un instrument juridiquement contraignant.

L’ébauche du texte précise notamment comment les entreprises peuvent indiquer de manière claire que des contenus photoréalistes générés par l’IA — comme des images ou des vidéos semblant représenter des personnes réelles — sont en réalité des des images de synthèse, communément appelés deepfakes. Il définit également les modalités de signalement pour d’autres types de contenus produits par l’IA.

Pour les deepfakes, les auteurs du code, issus de l’industrie, du monde universitaire et de la société civile, envisagent une « icône commune de l’UE » — un symbole devant permettre aux utilisateurs de voir rapidement si une image représentant un évènement ou un être humain apparemment réel a été créée ou modifiée à l’aide de l’IA, et à leur permettre d’accéder à des informations supplémentaires sur le contenu.

L’icône devrait inclure un « acronyme de deux lettres faisant référence à l’intelligence artificielle », très probablement « AI » en anglais, mais pouvant être adapté en fonction des traductions dans d’autres langues.

Les entreprises signataires du code s’engageraient à soutenir le développement d’une icône commune et accepteraient d’utiliser une icône provisoire, composée uniquement de l’acronyme de deux lettres, jusqu’à ce que le design soit finalisé.

Elles devraient également ajouter des informations sur l’origine du contenu généré par l’IA s’il ne ressemble pas à une personne ou à un événement réel. Selon le projet de règlement, elles devront ajouter ces informations aux métadonnées du fichier, si possible, ainsi qu’un « filigrane imperceptible » appliqué directement au contenu.

Ils devraient suivre « la meilleure méthode technique et économiquement viable » pour s’assurer que le filigrane soit difficile à supprimer, selon le projet — une formulation qui pourrait laisser une grande marge de manœuvre aux entreprises pour décider que certaines méthodes sont trop coûteuses à utiliser.

Les signataires qui forment leurs propres modèles d’IA s’engageraient également, en vertu du code, à les former de manière à ce que les utilisateurs en aval des IA puissent facilement identifier le contenu créé avec celles-ci comme étant synthétique.