Intelligence artificielle: l'UE tente de finaliser une législation historique
Le Parlement européen et les Etats membres de l'UE tentent mercredi de trouver un accord sur un texte sans équivalent pour réguler l'intelligence artificielle (IA), après des mois de négociations difficiles sur...
Le Parlement européen et les Etats membres de l'UE tentent mercredi de trouver un accord sur un texte sans équivalent pour réguler l'intelligence artificielle (IA), après des mois de négociations difficiles sur la prise en compte du phénomène ChatGPT.
L'Union européenne veut être la première au monde à se doter d'un cadre juridique complet pour limiter les dérives de l'IA tout en sécurisant l'innovation.
Les négociateurs se sont réunis à Bruxelles vers 15H20 (14H20 GMT) et les discussions devraient se poursuivre tard dans la soirée, voire dans la nuit.
"Semi-marathon, marathon ou ultramarathon? La ligne d'arrivée est à portée de main", a estimé sur X (ex-Twitter) le commissaire européen Thierry Breton qui a porté le projet.
Selon plusieurs sources, un accord reste incertain.
"Il ne faut pas qu'on s'interdise d'avoir d'autres réunions dans les semaines qui viennent. Ce qui compte c’est d'avoir un bon accord", a estimé le ministre français du Numérique Jean-Noël Barrot.
Le processus législatif, lancé en avril 2021 par une proposition de la Commission, a été percuté en fin d'année dernière par l'apparition de ChatGPT, le générateur de textes de la société californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.
Ce nouvel outil a été rapidement suivi par les concurrents Bard (Google) et Llama (Meta). A l'instar des générateurs d'images comme Dall-E (également développé par OpenAI) ou Midjourney, ils ont révélé au grand public le potentiel immense de l'IA. Mais aussi certains risques.
La diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, a par exemple alerté sur le danger de manipulation de l'opinion.
Ce phénomène des IA génératives a été intégré dans les négociations en cours, à la demande des eurodéputés qui insistent sur un encadrement spécifique pour ces technologies.
Mais le compromis est difficile à trouver avec les Etats membres qui craignent qu'une régulation excessive tue dans l'oeuf leurs champions naissants, comme Aleph Alpha en Allemagne et Mistal AI en France, en rendant prohibitifs les coûts de développement.
"La meilleure des protections, c'est de développer en Europe nos propres modèles. Celui qui conçoit l'outil technologique aura toujours plus d'influence sur le cours des choses que celui qui le régule", souligne Jean-Noël Barrot.
Refuser un mauvais accord
"L'Allemagne, la France et l'Italie ne veulent pas de régulation spécifique sur les IA génératives", affirme l'eurodéputé Axel Voss qui souhaite imposer plus de "transparence" sur les algorithmes et les bases de données géantes au coeur de ces systèmes.
"Nous n'aurons pas peur de refuser un mauvais accord", a prévenu l'eurodéputé Brando Benifei, co-rapporteur du texte.
Un compromis discuté mercredi prévoirait des règles pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et vérifier qu'ils ne violent pas la législation sur les droits d'auteur. Les IA génératives devront par ailleurs s'assurer que les sons, images et textes produits seront identifiés comme artificiels.
Des contraintes renforcées s'appliqueraient aux seuls systèmes dépassant des seuils de puissance de calcul et de nombre d'entreprises utilisatrices.
De quoi inquiéter les lobbies de la tech (BSA, CCIA), pour qui le traitement spécifique imposé aux IA génératives remet en cause les principes de "neutralité technologique" et d'approche "basée sur les risques" qui ont inspiré la proposition initiale de la Commission.
Ces principes sont ceux des réglementations européennes existantes en matière de sécurité des produits qui imposent des contrôles reposant d'abord sur les entreprises.
Outre les IA génératives, le cœur du projet consiste en effet en une liste de règles imposées aux seuls systèmes jugés à "haut risque", essentiellement ceux utilisées dans des domaines sensibles comme les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre...
Ces systèmes seraient soumis à une série d'obligations comme celles de prévoir un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.
La législation prévoit un encadrement particulier des systèmes d'IA qui interagissent avec les humains. Elle les obligera à informer l'utilisateur qu'il est en relation avec une machine et contraindra les applications générant des images à préciser qu'elles ont été créées artificiellement.
Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine. Mais les eurodéputés veulent supprimer les dérogations autorisant l'identification biométrique à distance des personnes dans les lieux publics par les forces de l'ordre, un autre point de friction avec les Etats membres.
34726Z4