L'Europe veut que les plateformes labellisent l'IA

Blog

MaisonMaison / Blog / L'Europe veut que les plateformes labellisent l'IA

May 23, 2023

L'Europe veut que les plateformes labellisent l'IA

L'Union européenne s'appuie sur les signataires de son code de bonnes pratiques en ligne

L'Union européenne s'appuie sur les signataires de son Code de bonnes pratiques sur la désinformation en ligne pour étiqueter les deepfakes et autres contenus générés par l'IA.

Dans des remarques hier à la suite d'une réunion avec les plus de 40 signataires du Code, la commissaire européenne aux valeurs et à la transparence, Vera Jourova, a déclaré que les personnes inscrites pour lutter contre la désinformation devraient mettre en place une technologie pour reconnaître le contenu de l'IA et l'étiqueter clairement aux utilisateurs.

"Les nouvelles technologies d'IA peuvent être une force pour le bien et offrir de nouvelles voies pour une efficacité accrue et une expression créative. Mais, comme toujours, nous devons mentionner le côté obscur de cette question et elles présentent également de nouveaux risques et le potentiel de conséquences négatives pour la société", a-t-elle averti. "Aussi en ce qui concerne la création et la diffusion de désinformation.

"Les chatbots avancés comme ChatGPT sont capables de créer en quelques secondes des contenus et des visuels complexes et apparemment bien étayés. Les générateurs d'images peuvent créer des images authentiques d'événements qui ne se sont jamais produits. Les logiciels de génération de voix peuvent imiter la voix d'une personne sur la base d'un échantillon de quelques secondes. Les nouvelles technologies soulèvent également de nouveaux défis pour la lutte contre la désinformation. J'ai donc demandé aujourd'hui aux signataires de créer une piste dédiée et distincte dans le code pour en discuter."

"En ce qui concerne la production d'IA, je ne vois aucun droit pour les machines à avoir la liberté d'expression.

Les signataires du code de bonnes pratiques de l'UE contre la désinformation devraient mettre en place une technologie permettant de reconnaître le contenu de l'IA et de l'étiqueter clairement pour les utilisateurs."

– Vice-président @VeraJourova pic.twitter.com/yLVp79bqEH

– Commission européenne (@EU_Commission) 5 juin 2023

La version actuelle du code, que l'UE a renforcée l'été dernier – lorsqu'elle a également confirmé qu'elle entendait que l'instrument volontaire devienne une mesure d'atténuation qui compte pour la conformité avec la loi (juridiquement contraignante) sur les services numériques (DSA) – ne s'engage pas actuellement à identifier et à étiqueter les deepfakes. Mais la Commission espère changer cela.

Le commissaire européen a déclaré qu'il voyait deux angles de discussion principaux sur la manière d'inclure des mesures d'atténuation pour le contenu généré par l'IA dans le code : l'un se concentrerait sur les services qui intègrent l'IA générative, tels que les services de recherche augmentés par l'IA New Bing de Microsoft ou Bard de Google - qui devraient s'engager à intégrer "les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation".

Une seconde engagerait les signataires qui ont des services susceptibles de diffuser la désinformation générée par l'IA à mettre en place "une technologie pour reconnaître ce contenu et l'indiquer clairement aux utilisateurs".

Jourova a déclaré qu'elle avait parlé avec Sundar Pichai de Google et qu'on lui avait dit que Google disposait d'une technologie capable de détecter le contenu textuel généré par l'IA, mais également qu'il continuait à développer la technologie pour améliorer ses capacités.

Dans d'autres remarques lors d'une séance de questions-réponses avec la presse, la commissaire a déclaré que l'UE souhaitait que les étiquettes pour les deepfakes et autres contenus générés par l'IA soient claires et rapides – afin que les utilisateurs normaux puissent immédiatement comprendre qu'un élément de contenu qui leur est présenté a été créé par une machine, et non par une personne.

Elle a également précisé que la Commission souhaitait voir les plateformes mettre en œuvre l'étiquetage maintenant — "immédiatement".

Le DSA inclut certaines dispositions exigeant que les très grandes plates-formes en ligne (VLOP) étiquettent le son et les images manipulés, mais Jourova a déclaré que l'idée d'ajouter un étiquetage au code de désinformation est que cela peut se produire encore plus tôt que la date limite de conformité du 25 août pour les VLOP en vertu du DSA.

"J'ai dit à plusieurs reprises que notre tâche principale était de protéger la liberté d'expression. Mais en ce qui concerne la production d'IA, je ne vois aucun droit pour les machines d'avoir la liberté d'expression. Et donc cela revient également aux bons vieux piliers de notre loi. Et c'est pourquoi nous voulons travailler davantage là-dessus également dans le cadre du code de pratique sur la base de cette idée très fondamentale", a-t-elle ajouté.

La Commission s'attend également à ce que des mesures soient prises pour signaler les risques de désinformation générés par l'IA le mois prochain - Jourova déclarant que les signataires concernés devraient utiliser les rapports de juillet pour "informer le public des garanties qu'ils mettent en place pour éviter l'utilisation abusive de l'IA générative pour diffuser la désinformation".

Le Code de la désinformation compte désormais 44 signataires au total – qui comprennent des géants de la technologie comme Google, Facebook et Microsoft, ainsi que de plus petites entités adtech et des organisations de la société civile – un total de 34 qui avaient signé les engagements en juin 2022.

Cependant, à la fin du mois dernier, Twitter a pris la décision inhabituelle de se retirer du code volontaire de l'UE.

L'UE met en garde Twitter contre la désinformation après que les changements de politique de Musk aient stimulé la propagande du Kremlin

Parmi les autres grands problèmes que Jourova a indiqué avoir soulevés avec les autres signataires lors de la réunion d'hier – les exhortant à agir davantage – figuraient la propagande de guerre russe et la désinformation pro-Kremlin; la nécessité d'une modération et d'une vérification des faits "cohérentes" ; les efforts sur la sécurité des élections ; et l'accès aux données pour les chercheurs.

"Il y a encore beaucoup trop de contenus de désinformation dangereux qui circulent sur les plateformes et trop peu de capacités", a-t-elle averti, soulignant une plainte de longue date de la Commission selon laquelle les initiatives de vérification des faits ne sont pas appliquées de manière exhaustive sur les contenus ciblant toutes les langues parlées dans les États membres de l'UE, y compris les petits pays.

"Ce sont surtout les pays d'Europe centrale et orientale qui sont attaqués en permanence par des sources de désinformation, en particulier russes", a-t-elle ajouté. "Il y a beaucoup à faire. Il s'agit de capacités, il s'agit de nos connaissances, il s'agit de notre compréhension de la langue. Et aussi de la compréhension des raisons pour lesquelles, dans certains États membres, il existe un terrain fertile ou un sol préparé pour l'absorption d'une grande partie de la désinformation."

L'accès des chercheurs est encore insuffisant, a-t-elle également souligné, exhortant les plateformes à intensifier leurs efforts sur les données pour la recherche.

Jourova a également ajouté quelques mots d'avertissement sur la voie choisie par Elon Musk – suggérant que Twitter s'est placé dans le collimateur de l'UE, en tant que VLOP désigné dans le cadre de la DSA.

La DSA impose aux VLOP une obligation légale d'évaluer et d'atténuer les risques sociétaux tels que la désinformation. Twitter invite donc à la censure et à la sanction en renversant le code de l'UE (les amendes en vertu de la DSA peuvent atteindre 6 % du chiffre d'affaires annuel mondial).

"A partir du mois d'août de cette année, nos structures, qui joueront le rôle d'exécuteurs de la DSA, examineront les performances de Twitter pour savoir si elles sont conformes, si elles prennent les mesures nécessaires pour atténuer les risques et prendre des mesures contre... en particulier les contenus illégaux", a-t-elle encore averti.

"L'Union européenne n'est pas le lieu où nous voulons voir la loi californienne importée", a-t-elle ajouté. "Nous l'avons dit à plusieurs reprises et c'est pourquoi je veux aussi revenir et apprécier la coopération avec les… anciens employés de Twitter, qui ont collaboré avec nous [depuis] plusieurs années déjà sur le Code de conduite contre le discours de haine et le Code de pratique [sur la désinformation] également. Nous en sommes donc désolés. Je pense que Twitter avait des gens très compétents et déterminés qui ont compris qu'il doit y avoir une certaine responsabilité, une responsabilité bien accrue sur le site des plateformes comme Twitter."

Lorsqu'on lui a demandé si l'approche des notes de la communauté de Twitter – qui externalise (donc essentiellement sous-traite) la vérification des faits aux utilisateurs de Twitter si suffisamment de personnes interviennent pour ajouter un consensus de contexte aux tweets contestés – pourrait être suffisante à elle seule pour se conformer aux exigences légales pour lutter contre la désinformation en vertu de la DSA, Jourova a déclaré qu'il appartiendra aux autorités de la Commission d'évaluer si elles sont conformes ou non.

Cependant, elle a souligné que le retrait de Twitter du Code était un pas important dans la mauvaise direction, ajoutant : "Le Code de pratique va être reconnu comme la mesure d'atténuation très sérieuse et digne de confiance contre le contenu préjudiciable".

Elon Musk retire Twitter du Code de bonnes pratiques de l'UE en matière de désinformation