OpenAI, le concepteur de ChatGPT, met au point un outil de filigrane pour les contenus générés par l'IA
OpenAI, le concepteur de ChatGPT, a mis au point un outil de filigrane (watermarking en anglais) qui pourrait l’aider à se conformer au règlement sur l’intelligence artificielle (AI Act), mais l’entreprise ne l’a pas encore publié par crainte, semble-t-il, de perdre des utilisateurs.
OpenAI, le concepteur de ChatGPT, a mis au point un outil de filigrane (watermarking en anglais) qui pourrait l’aider à se conformer au règlement sur l’intelligence artificielle (AI Act), mais l’entreprise ne l’a pas encore publié par crainte, semble-t-il, de perdre des utilisateurs.
L’AI Act exige que les fournisseurs de systèmes d’intelligence artificielle (IA), comme ChatGPT, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, indiquent si les résultats du système ont été générés ou manipulés de manière artificielle.
L’AI Act est entrée en vigueur le 1er août 2024, mais cette nouvelle exigence sera applicable à partir du 2 août 2026.
Dimanche 4 août, le Wall Street Journal (WSJ) a cité des sources indiquant qu’OpenAI était, depuis un an, prête à déployer un outil de filigrane pour les textes, mais qu’elle hésitait à le déployer par peur de perdre des utilisateurs.
Dans un article de blog mis à jour dimanche, OpenAI a confirmé avoir développé un outil de filigranage de texte « très précis » qu’elle « continue d’envisager dans le cadre de sa recherche d’alternatives ».
L’entreprise a toutefois indiqué qu’elle évaluait actuellement les risques d’un tel outil : « nos recherches suggèrent que la méthode de filigrane de texte peut avoir un impact disproportionné sur certains groupes », tels que les personnes dont l’anglais n’est pas la langue maternelle.
Elle doute également de son efficacité contre les falsifications à l’échelle mondiale, telles que les systèmes de traduction et la reformulation à l’aide d’un autre modèle génératif, « ce qui la rendrait facile à contourner par de mauvais utilisateurs ».
Selon le WSJ, OpenAI débat et mène des enquêtes depuis novembre 2022 pour décider de déployer ou non son outil de filigrane.
Dans un sondage, près de 30 % des utilisateurs réguliers de ChatGPT ont déclaré qu’ils utiliseraient moins le chatbot si OpenAI déployait des filigranes et qu’un concurrent ne le faisait pas. Toutefois, une autre enquête menée par OpenAI a révélé que, dans l’absolu, quatre personnes sur cinq dans le monde soutenaient l’idée d’un outil de détection de l’IA.
La Commission européenne veut développer les « usines d’IA » et accélérer la compétitivité de l’UE
La Commission européenne cherche à faciliter la création de centres de données pour l’intelligence artificielle…
6 minutes
Détecter l’IA
Cet outil apposerait un cachet numérique sur tout contenu créé par ChatGPT, rendant plus difficile l’utilisation abusive du contenu généré par l’IA ou son utilisation à des fins de fraude. L’utilisation abusive de ce type de contenu a posé de gros problèmes aux employeurs, aux enseignants et aux professeurs, qui ont demandé que l’on trouve des moyens de sanctionner ce problème.
Selon le WSJ, l’outil de filigrane ne laisse pas de traces visibles dans le texte écrit, mais lorsque ce texte est vérifié par un outil de détection de l’IA, il est signalé comme un contenu généré par l’IA.
Les outils actuels de détection d’IA sont peu fiables et peuvent donner des résultats mitigés, ce qui complique la tâche des enseignants et des professionnels lorsqu’il s’agit de signaler un contenu généré par l’IA.
Entrée en vigueur de la législation inédite de l’UE pour encadrer l’IA
Le règlement de l’Union européenne pour encadrer l’intelligence artificielle (AI Act), une législation inédite au…
3 minutes
L’AI Act
Le filigrane est mentionné dans le projet de pacte sur l’IA, un ensemble d’engagements volontaires auxquels les entreprises peuvent adhérer pour se préparer à se conformer à l’AI Act. La Commission espère organiser en septembre un événement au cours duquel les entreprises s’engageront publiquement à respecter ce pacte.
« Les organisations peuvent s’y engager […] dans la mesure du possible, concevoir des systèmes d’IA générative de sorte que le contenu généré par l’IA soit marqué par des solutions techniques, telles que des filigranes et des identifiants de métadonnées », peut-on lire dans le projet de pacte.
La semaine dernière, OpenAI a déclaré publiquement qu’elle s’engageait à respecter l’AI Act, qui exige que les fournisseurs de modèles d’IA générative comme ChatGPT « veillent à ce que les résultats du système d’IA soient marqués dans un format lisible par une machine et détectables comme étant générés ou manipulés artificiellement ».
Mais pour ce qui est des détails sur la manière dont l’outil de filigrane peut aider OpenAI à se conformer à l’AI Act, un porte-parole de l’entreprise a renvoyé Euractiv à l’article de blog du 4 août.
La Commission n’a pas répondu à la demande de commentaire d’Euractiv au moment de la publication.
L’IA transformera 92 % des emplois dans les technologies de l’information et de la communication, selon une étude
Environ 92 % des emplois spécialisés dans les technologies de l’information et de la communication (TIC),…
4 minutes
[Édité par Sarah N’tsia]