Aller au contenu
Comme les êtres humains, l’IA repère difficilement ses erreurs d’appréciation

Comme les êtres humains, l’IA repère difficilement ses erreurs d’appréciation


Sous une vidéo présentant des personnes noires, l’algorithme de reconnaissance d’images de Facebook a demandé à ses utilisateurs s’ils souhaitaient voir d’autres « vidéos sur les primates ». Dès que cette grossière erreur a été révélée par la presse, le réseau a désactivé son outil de recommandation et présenté ses excuses. Cette affaire rappelle que les biais restent le talon d’Achille de l’IA.

Révélée par le New York Times, cette affaire montre que la reconnaissance d’image est encore loin d’être parfaite. Pour tenter de comprendre l’origine de cette « erreur inacceptable » (selon les propos d’une porte-parole de Facebook), le réseau a annoncé qu’il allait mener une enquête interne.

Loin d’être infaillible comme le laissent à penser le discours marketing de certains éditeurs ou startups spécialisées, l’intelligence artificielle est parfois épinglée pour ses erreurs reposant souvent sur des biais.

Il y a de nombreuses façons de biaiser un algorithme, car les précautions élémentaires ne sont pas prises. Elles sont moins d’ordre informatique ou algorithmique, que statistique. Disposer d’un échantillon représentatif d’une population que l’on veut adresser par un dispositif est très compliqué.

Risques de discrimination

Fin 2019, les régulateurs de l’État de New York avaient ouvert une enquête contre United Health Group accusé d’avoir utilisé un algorithme dans des hôpitaux qui donnait la priorité aux patients blancs sur les patients noirs. « Il faut être extrêmement vigilant lors de la constitution du corpus afin d’éviter ces biais discriminatoires. Les métiers – et les RH ne font pas exception à la règle, car ce ne sont pas des techniciens – ne sont souvent pas en capacité de juger comment a été formé le corpus d’entraînement, or celui-ci peut présenter un biais », prévenait Jean-Luc Marini, directeur du Lab d’IA de Axys Consultants.

Cet été, le National Institute of Standards and Technology a publié une proposition détaillant la manière dont les entreprises peuvent lutter contre les préjugés de leurs systèmes. « Ce document insiste sur un point très important : les entreprises, mais aussi les autorités lorsqu’il s’agit de repérer une personne dans une foule par exemple, doivent être très vigilantes afin de limiter les biais d’apprentissage et les risques de discrimination. Si on suspecte l’existence de biais, il faut les trouver rapidement et prouver qu’il s’agit réellement d’erreurs », explique Jean-Gabriel Ganascia, professeur à la faculté des sciences de Sorbonne Université, président du comité d’éthique du CNRS et responsable l’équipe ACASA du LIP6.

Concernant l’affaire Facebook, cet expert estime que la proposition faite par l’IA de présenter d’autres images de « primates » n’était pas volontaire. « Le modèle d’apprentissage s’appuie peut-être sur trop peu d’images de personnes de couleur. Mais différents facteurs peuvent perturber le résultat de l’IA : la réflexion de la lumière sur la peau noire n’est pas la même que sur la peau blanche, par exemple ».

IA et induction

De nombreux outils s’appuient sur des données passées pour construire des règles générales, c’est ce qui se produit avec la reconnaissance faciale ou la reconnaissance de posture par exemple. C’est ce qu’on appelle l’induction (raisonnement du particulier au général). « Les philosophes ont démontré depuis très longtemps que le passé ne peut pas définir l’avenir. Plus on a d’éléments pour induire, plus on va se rapprocher de la certitude, mais il peut toujours y avoir quelque chose d’erroné. C’est la raison pour laquelle ce n’est pas la machine qui a – ou qui doit avoir – le dernier mot ; c’est à l’opérateur de prendre la décision finale », rappelle Jean-Gabriel Ganascia.



Source link

Laisser un commentaire