Aller au contenu
L’Europe se rêve leader de l’intelligence artificielle « digne de confiance »

L’Europe se rêve leader de l’intelligence artificielle « digne de confiance »

La Commission européenne propose un paquet de nouvelles mesures pour mieux encadrer l’intelligence artificielle en Europe. Nouveau cadre juridique, plan coordonné mis à jour et nouveau règlement relatif aux machines et équipements, la Commission veut faire de l’Europe le leader de l’intelligence artificielle « digne de confiance ».

La Commission européenne s’attaque à l’opacité des algorithmes et souhaite assurer la bonne balance entre bénéficies et risques de l’intelligence artificielle (IA). À l’image du RGPD qui protège les données personnelles, l’Union européenne (UE) souhaite protéger les utilisateurs des nouveaux risques de l’IA liés à la sécurité et aux droits fondamentaux. L’UE souhaite devenir une source d’inspiration ailleurs dans le monde. « En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE », assure Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, via communiqué.

Une approche inédite basée sur les risques

Première disposition de ce nouveau paquet qui doit encore être adopté par le Parlement européen et les États membres : une proposition de règlement établissant des règles harmonisées sur l’intelligence artificielle. Ce règlement s’appliquerait à tout système d’IA mis sur le marché dans l’UE ou dont l’utilisation a une incidence sur des personnes vivant dans l’UE. Il repose sur une approche fondée sur les risques selon quatre niveaux : inacceptable, élevé, limité et minimal.  Pas question pour l’Europe d’autoriser les utilisations jugées inacceptables. La Commission vise les utilisations qui manipuleraient le comportement humain pour les priver de leur libre-arbitre. Elle y place tous les systèmes qui font peser « une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes ». Par exemple, elle cite les systèmes de notation sociale des États et s’interdit ainsi un système similaire au « système de crédit social » lancé en Chine. Dans un autre domaine, elle évoque des jouets à assistance vocale qui inciteraient des mineurs à avoir un comportement dangereux.

Des risques élevés à encadrer strictement

La commission identifie de nombreux systèmes à risque élevé. On y retrouve les technologies qui touchent aux infrastructures critiques comme celles liées aux transports, aux services privés et publics dit « essentiels » ou touchant à la sécurité des produits. Cette catégorie comprend aussi les technologies liées à l’éducation et à la formation professionnelle, au marché du travail, au maintien de l’ordre, à la gestion de la migration, de l’asile et des contrôles aux frontières, à la justice, et aux processus démocratiques. Leur mise sur le marché devra répondre à des « obligations strictes ». « Ces exigences portent sur la qualité des ensembles de données utilisés, la documentation technique et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, ainsi que la robustesse, l’exactitude et la cybersécurité », détaille la Commission européenne.

Concrètement, à quoi peut ressembler un système d’IA à risque élevé ? Bruxelles évoque des systèmes permettant la notation d’épreuves d’examens, des systèmes intervenant dans la chirurgie assistée par robot ou encore les logiciels de tri des CV pour les procédures de recrutement. Il peut aussi s’agir de systèmes évaluant le risque de crédit privant certains citoyens de la possibilité d’obtenir un prêt ou encore vérifiant l’authenticité des documents de voyage.

Bruxelles met un coup de projecteur sur les systèmes biométriques. « Leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre est en principe interdite », prévient la Commission européenne. Elle prévoit des dérogations en cas de recherche d’enfant disparu, de menace terroriste « spécifique et imminente » ou pour arrêter le suspect d’une infraction pénale grave. Toute dérogation devra être « soumise à des limitations appropriées concernant la durée, la portée géographique et les bases de données consultées », ajoute la Commission.

Du risque limité au risque minime

Il y a encore des systèmes où le risque est jugé limité. Il s’agit ici des cas où il existe un risque manifeste de manipulation. La Commission cite le cas des chatbots. Les utilisateurs doivent alors savoir qu’ils interagissent avec une machine « afin de pouvoir décider en connaissance de cause de poursuivre ou non ».

En bas de cette classification se trouve le risque minime. « La grande majorité des systèmes d’IA relèvent de cette catégorie », considère la Commission. Il s’agit par exemple des jeux vidéo ou des filtres anti-spam. Avec un risque considéré comme minime, voire nul, le projet de règlement ne prévoit aucune intervention pour cette catégorie.

Nouveau plan coordonné et règlement relatif aux machines et équipements

Le deuxième dispositif du paquet est la mise à jour du plan coordonné datant de 2018. Celui-ci jetait les bases d’une coordination des politiques et encourageait les États membres à élaborer des stratégies nationales en matière d’IA. La Commission en présente une version actualisée pour garantir un lien avec le Pacte Vert européen et le plan de relance pour renforcer les actions dans les domaines de l’environnement et de la santé.  Enfin, le troisième dispositif concerne un projet de règlement sur les machines et équipements. Ce règlement vient compléter le règlement général sur l’IA en garantissant l’intégration sûre des systèmes d’IA dans les machines et équipements pour ne pas compromettre la sécurité des dispositifs dans leur ensemble.

Source link

Laisser un commentaire