1. médialab Sciences Po
  2. Actualités
  3. Les biais de l'IA passés au scanner.

Les biais de l'IA passés au scanner.

Soutenance de la thèse de Jean-Marie John-Mathews

Chronique

  

Le 1er décembre 2021, Jean-Marie John-Mathews, doctorant au laboratoire LITEM (Institut Mines-Télécom) et au médialab (Sciences Po), a brillamment soutenu sa thèse intitulée « Éthique de l'Intelligence Artificielle en pratique : enjeux et limites ».

Il a obtenu le grade de Docteur de l’Université Paris Saclay, avec proposition de soumission à des prix de thèses et félicitations orales du président du jury. 

Cette thèse a été co-dirigée par Christine Balagué, professeure à l’institut Mines-Télécom, et Dominique Cardon, professeur à Sciences Po. 

  

À l’image du parcours de Jean-Marie John-Mathews, cette thèse transdisciplinaire mêle intelligence artificielle, sociologie et philosophie pour mettre en lumière les enjeux éthiques posés par l’IA.

Pour en savoir plus sur la thèse "Éthique de l'Intelligence Artificielle : pratique et enjeux" :

Alors que l’Intelligence Artificielle (IA) est de plus en plus critiquée en raison des enjeux éthiques qu’elle pose, un ensemble d’outils et de méthodes ont émergé ces dernières années pour la normer, tels que les algorithmes de débiaisement, les métriques d’équité, la génération d’explications, etc. Ces méthodes, dites de l’IA responsable, doivent s’adapter à des algorithmes qui s’alimentent de données de plus en plus granulaires, volumineuses et comportementales. Dans ce travail de recherche, nous décrivons comment l’IA prétend calculer le monde lui-même sans l’usage des catégories normatives que nous utilisons habituellement pour formuler des critiques. Comment normaliser une IA qui prétend justement se positionner en deçà des normes ? 

Pour répondre à cette question, nous avons développé, à partir de la littérature technique dans la discipline de l’éthique de l’IA, un dispositif pour normer les modèles afin de faire face aux enjeux de discriminations, d’opacité et de vie privée. Ensuite, nous avons formulé quatre critiques empiriques et théoriques pour souligner les limites des outils techniques de l’éthique. Premièrement, nous montrons les limites des méthodes de génération d’explications a posteriori de décisions émanant d’IA dites « boîte noire ». Deuxièmement, nous montrons la difficulté de normer l’IA avec des méthodes d’explication libérales supposant la capacité des IA à dévoiler d’elles-mêmes leurs propres biais. Nous montrons ensuite, en s’inspirant de la sociologie pragmatique de Boltanski, que les méthodes pour lutter contre les discriminations tendent vers un système de domination experte dans lequel l’IA modifie constamment les contours de la réalité sans offrir une prise à la critique. Enfin, nous montrons que l’IA s’insère plus généralement dans un mouvement d’extension diluant le rôle des institutions qui ont le pouvoir de stabiliser les critiques sociales tout en donnant une prise sur le monde. 

Ces quatre critiques empiriques et théoriques nous permettent finalement d’ajuster notre première proposition pour normer l’IA. En partant d’un outil technique, nous proposons finalement une enquête ouverte et matérielle permettant de réactualiser constamment la question des fins et des moyens au sein des collectifs de l’IA.