Historique ! s’est félicité Thierry Breton, le commissaire européen au marché intérieur, vendredi 8 décembre. « L’UE devient le premier continent à fixer des règles claires pour l’utilisation de l’IA », a déclaré l’ancien ministre français de l’Economie sur X (ex-Twitter), après trois jours d’intenses discussions.
Dans la soirée, les Etats membres de l’Union européenne et le Parlement européen sont parvenus à un accord sur l’Artificial Intelligence Act, une législation inédite visant à réguler l’utilisation et le développement de l’intelligence artificielle. Le compromis, qui doit encore être finalisé et adopté par le Parlement européen et le Conseil de l’Union européenne, a pour objectif d’établir « des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact », résume un communiqué. Le texte « vise à garantir que les droits fondamentaux, la démocratie, l’État de droit et la durabilité écologique soient protégés contre l’IA à haut risque, tout en stimulant l’innovation et en faisant de l’Europe un leader dans le domaine ».
Lancé en 2021, ce projet de législation avait été bouleversé par l’arrivée de ChatGPT, illustration du vaste potentiel – et des possibles menaces – de l’intelligence artificielle générative. Franceinfo revient sur les principaux points de cet accord inédit.
L’accord prévoit des mesures pour les systèmes d’intelligence artificielle à usage général (GPAI). Comme le rappelle la Commission nationale de l’informatique et des libertés (Cnil), un tel système d’IA « peut être utilisé et adapté à un large éventail d’applications pour lesquelles il n’a pas été conçu intentionnellement et spécifiquement ». Ces systèmes, mais aussi les modèles à partir desquels ils ont été créés, seront soumis à des règles de transparence, comme le Parlement européen le souhaitait. Il s’agit notamment de mettre au point une documentation technique précise, de respecter les règles européennes en matière de droits d’auteurs ou encore de fournir des informations sur les contenus utilisés pour la formation des modèles d’IA. Les développeurs devront s’assurer que les sons, images et textes produits seront bien identifiés comme artificiels.
Dans l’ensemble, « les systèmes d’IA ne présentant qu’un risque limité seraient soumis à des obligations de transparence très légères, par exemple en divulguant que le contenu a été généré par l’IA afin que les utilisateurs puissent prendre des décisions éclairées quant à leur utilisation ultérieure », résume le Conseil de l’Union européenne. En revanche, « plus le risque est grand, plus les règles seront strictes ». Sur les modèles d’intelligence artificielle à usage général présentant un « risque systémique », « les négociateurs du Parlement ont réussi à obtenir des obligations plus strictes », poursuit le communiqué du Parlement européen. Des évaluations de modèles pourront être lancées, tout comme des évaluations et des efforts pour limiter ces « risques systémiques ». En cas d’incidents graves, des signalements devront être faits auprès de la Commission et le compromis demande également des garanties en matière de cybersécurité.
Le texte établit aussi des contraintes renforcées pour les systèmes d’intelligence artificielle définis comme étant « à haut risque ». Il s’agit, selon le Parlement européen, de technologies présentant un « préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’Etat de droit ». Sont cités par exemple des technologies visant à altérer les résultats d’élections ou à influer les décisions des électeurs. Une analyse d’impact sur les droits fondamentaux sera obligatoire, tout comme davantage de transparence. Des citoyens européens pourront également lancer des plaintes contre des systèmes d’intelligence artificielle.
Enfin, le texte prévoit l’obligation d’informer des personnes « quand elles sont exposées » à des systèmes de reconnaissance des émotions. Un non-respect de ces différentes règles expose les sociétés d’IA à des amendes, qui pourraient atteindre jusqu’à 7% du chiffre d’affaires annuel « selon l’infraction et la taille de l’entreprise ». Un service dédié à l’intelligence artificielle sera également créé au sein de la Commission européenne.
Face aux risques posés par certaines intelligences artificielles, notamment en matière de « droits des citoyens et de démocratie », les Etats-membres de l’UE et les eurodéputés se sont accordés sur l’interdiction de six types de systèmes d’intelligence artificielle. Il s’agit par exemple de systèmes de catégorisation biométrique utilisant des informations telles que les croyances politiques et religieuses, ou encore l’orientation sexuelle ; de technologies récupérant des images de visages sur internet ou dans des images de vidéosurveillance, « pour créer des bases de données de reconnaissance faciale ». D’autres intelligences artificielles, « utilisées pour exploiter les fragilités des personnes du fait de leur âge, handicap ou situation économique », ou visant à « manipuler les comportements », seront aussi interdites. Sur les systèmes d’identification biométrique, des exceptions sont toutefois prévues dans le cadre du travail des forces de l’ordre. Celles-ci pourront avoir recours à certaines de ces technologies après « une autorisation de la justice » et pour « une liste de crimes strictement définis ». Des technologies biométriques pourront être utilisées pour rechercher des victimes d’enlèvement, d’exploitation sexuelle ou de trafic d’êtres humains, ou encore en réponse à une menace terroriste. Les forces de l’ordre y auront aussi accès pour retrouver des personnes soupçonnées d’avoir commis de graves crimes, tels que des meurtres, des viols, des crimes environnementaux ou encore des actes de terrorisme.
L’accord vise aussi à permettre aux entreprises européennes, « en particulier les PME », de mettre au point des technologies d’IA « sans une pression de la part de géants industriels qui contrôlent la chaîne de valeur ». Comme le rappelle Libération, des dirigeants d’entreprise européens avaient évoqué, dans une lettre en juin, un « projet de législation [mettant] en péril la compétitivité et la souveraineté technologique de l’Europe ». Les régulations sur le développement de nouveaux systèmes d’IA doivent permettre des tests dans des conditions réelles, avec « des conditions et des garanties spécifiques », précise le Conseil de l’UE. Le compromis prévoit aussi des actions pour soutenir des entreprises de plus petite taille dans le domaine.