1. médialab Sciences Po
  2. Actualités
  3. L'IA générative dans le métier d'étudiant. Une analyse ethnométhodologique des régimes d'accountability

L'IA générative dans le métier d'étudiant. Une analyse ethnométhodologique des régimes d'accountability

Bilel Benbouzid (LISIS, Université Gustave Eiffel) présentera son travail sur la manière dont le travail étudiant se transforme avec le développement des AG lors du séminaire du médialab.

Rendez-vous, Séminaire de recherche

Salle du Conseil, 13 rue de l'Université, 75007 Paris

Résumé

La majorité des recherches sur les IA génératives en contexte éducatif prennent le cerveau comme unité d’analyse. Il s’agit de mesurer l’impact cognitif de ces outils sur les étudiants, d’évaluer ce qu’ls gagnent ou perdent en termes de mémorisation, d’attention, métacognition et cognition. Les approches ethnographiques, attentives aux usages situés et aux significations pratiques que les acteurs leur confèrent, restent rares, à l’exception notable des travaux de Ricci et Alcaras (2025). Cette communication s’inscrit dans cette veine minoritaire en adoptant un cadre ethnométhodologique qui, en cherchant ce que les étudiants font avec ChatGPT, analyse comment ils rendent compte de ce qu’ils font, à eux-mêmes et à un enquêteur étudiant lui-même.

L’enquête repose sur un corpus de près de 200 entretiens qualitatifs conduits auprès d’étudiants d’horizons disciplinaires variés (SHS, physique-chimie, mathématiques et informatique, architecture, génie urbain, lettres et langues étrangères). Leur analyse mobilise un dispositif méthodologique hybride qui constitue lui-même un enjeu réflexif : chaque entretien a d’abord été traité par un système de fiches structurées produites par un LLM, avant d’être soumis à une architecture multi-agents chargée d’opérer une comparaison constante entre entretiens pour faire émerger des clusters interprétatifs. Ce que déléguer une partie du travail analytique à des agents fait à la sociologie qualitative constitue une question que la communication entend aussi prendre en charge.

L’analyse ne porte pas sur les opinions exprimées, sur les représentations mobilisées ou la simple mise à plat des usages, mais sur l’intensité et la structure du travail interactionnel déployé par l’étudiant pour tenir cette situation d’entretien. Comment les troubles produits par l’obligation de rendre des comptes des usages des IAG apparaissent-ils et sont-ils traités ? L’entretien apparaît comme une scène que les étudiants traversent de manière différente.

Cinq régimes d’accountability ont émergé de cette analyse, un régime d’accountability désignant la tonalité interactionnelle d’ensemble d’un entretien, soit la manière dont un enquêté gère, tout au long de l’échange, le fait de devoir rendre compte de ses usages des IAG devant un pair : Le régime de mise à l’épreuve morale traite l’usage comme une transgression à gérer. Celui de la normalisation instrumentale procède par banalisation pragmatique. La souveraineté affirme le maintien d’un contrôle cognitif sur la machine. Le plaidoyer défensif révèle la présence d’un accusateur implicite, souvent l’institution universitaire incapable d’une politique claire, face auquel l’enquêté doit se justifier d’emblée. L’optimisation revendiquée, enfin, retourne le stigmate en capital, l’efficacité devient compétence, l’usage preuve d’adaptabilité professionnelle.

Ce que ces régimes permettent de saisir, c’est la façon dont le métier d’étudiant se reconfigure sous la pression d’une technologie qui brouille les frontières entre travail intellectuel propre et assistance externalisée. La communication s’attachera à illustrer ces régimes à travers des fragments d’entretiens et à discuter les implications de cette approche pour la sociologie des usages numériques.

Ce que l’analyse de ces régimes montre aussi, c’est que les agents conversationnels (essentiellement ChatGPT et Gemini) deviennent, pour beaucoup d’étudiants, un espace discret dans lequel se déplacent certaines opérations autrefois prises en charge, de façon plus ou moins inégale, par la relation pédagogique, le travail collectif ou les épreuves ordinaires de l’université. Nous montrerons que cette intimacy dividend (gain d’intimité), qui repose sur une hybridation étudiant-machine, peut devenir une intimacy trap.

Biographie

Bilel Benbouzid est maître de conférences à l’Université Gustave Eiffel et chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS). Ses travaux portent sur la régulation des technologies numériques, notamment les politiques de l’intelligence artificielle. Il s’intéresse en particulier aux questions de fairness et d’accountability dans le machine learning, aux techniques d’évaluation des grands modèles de langage, ainsi qu’à la réglementation européenne en matière d’intelligence artificielle. Ses recherches actuelles incluent une enquête approfondie sur les usages et les pratiques des intelligences artificielles génératives dans l’enseignement supérieur. Elles s’appuient également sur les méthodes de la sociologie computationnelle, appliquées à l’étude des dynamiques économiques et sociales des plateformes numériques, notamment YouTube. Engagé dans plusieurs projets de recherche collaboratifs, il travaille à l’intersection des sciences sociales, de l’informatique et de l’action publique.

Informations pratiques

Ce séminaire se déroulera en présentiel et en français, le mardi 2 juin 2026 de 14h à 15h30, en salle du Conseil, 13 rue de l'Université, 75007 Paris.

L'inscription est obligatoire via ce lien.