1. médialab Sciences Po
  2. Actualités
  3. MetAt - Journal de bord du 13 janvier 2026

MetAt - Journal de bord du 13 janvier 2026

Partager nos savoir-faire et pratiques méthodologiques.

Rendez-vous, Atelier

Salle du Conseil, 13 rue de l'Université, 75007 Paris

NOTA BENE



Qu’est-ce que le METAT ?


Le METAT est un atelier d’accompagnement aux méthodes de recherche : chaque mois, un créneau de trois heures pour vous aider à résoudre les difficultés d’ordre méthodologique que vous rencontrez dans le cadre d’un projet scientifique.

À qui s’adresse le METAT ?


Le METAT s’adresse à toute personne souhaitant être accompagné ponctuellement pour l’utilisation d’un outil ou d’une méthode de recherche. Tous les profils sont les bienvenus : étudiant-e-s, doctorant-e-s, chercheur-e-s, métiers de l’ingénierie de recherche ou autre, internes et externes à Sciences Po, sans restriction de statut ou d’affiliation.

Comment s’inscrire ?


L’inscription est obligatoire via le formulaire disponible sur la page du METAT

Séance du 13/01/2026

Lieu : Sciences Po, 13 rue de l'Université, 75007 Paris.

Nombre de participant·e·s : 7

Encadrant·e·s :  Béatrice Mazoyer, Maxime Crépel, Benjamin Ooghe-Tabanou, Robin de Mourat, Fynch Meynent,  Blazej Palat, Evan Chevalerias, Marine Chuberre

Analyse de corpus textuels avec Cortext

Accompagnement d’un étudiant·e en master et d’un membre d’ONG pour analyser des corpus textuels avec l’outil Cortext (articles de presse et rapports). 

Une démonstration de l’outil a été réalisée sur un corpus d’une douzaine de fichiers PDF pour le/la premier·e participant·e et d’un fichier CSV de 500 lignes pour le second. Les participant·es ont construit un graphe de cooccurrence de termes pour analyser leurs données, puis clusterisé les noeuds du graphe. 

Pour la première étape de la démonstration, l’outil Europarser a été utilisé pour parser des fichiers html en format CSV.

A l’issue de la séance de l’atelier de méthodes, un·e des participant·es a visualisé un graphe représentant les liens entre 500 termes avec l’apparition de 5 clusters pour un corpus de 500 articles de presse. Le second a eu des difficultés pour l’analyse des rapports en fichier PDF : la taille des fichiers demande plus de temps d’analyse par Cortext et le bruit est considérable dans les PDF analysés. L’extraction du texte des fichiers PDF est une piste étudiée pour un prochain MetAt pour faciliter l’analyse, en extrayant le fichier par titre ou chapitre. 

Accompagnement méthodologique pour l’étude de la construction sociale des usages marchands de l’IA

Accompagnement méthodologique d’un·e doctorant·e : après la collecte et l’analyses de premiers corpus de texte (transcriptions de vidéos YouTube), les discussions ont porté sur le cadre théorique à préciser et mobiliser en sociologie et économie pour la suite de la thèse ainsi que les données et méthodes d’analyse appropriées. 

Le/la doctorant·e va poursuivre ses analyses en appliquant les conseils prodigués pendant la séance sur le topic modelling, notamment en utilisant le modèle LDA. Il/Elle va également vérifier les paramètres du modèle utilisés jusqu'à présent pour s’assurer que tous les mots des documents sont utilisés par le modèle BERT. Il/Elle va réfléchir à la collecte du corpus permettant de répondre aux questions soulevées par la revue de littérature. L’idée sera de regarder les différents types de prescripteurs et la façon dont ils construisent l’IA contre les prénotions.

Topic model et analyse de sentiments pour des projets d’accompagnement de personnes handicapées 

Accompagnement d’un·e représentant·e d’ONG qui souhaite rendre compte de manière globale la satisfaction des usagers handicapés d’établissements médico-sociaux. Plusieurs aspects sont étudiés pour déterminer si les usagers sont satisfaits ou non de ces établissements. Le but serait de rendre plus audibles les souhaits des personnes pour influencer la mise en place de politiques publiques adaptées.  

Étant donné que coder ne semblait pas une méthode adaptée dans le temps imparti de l’atelier, des outils alternatifs ont été recherchés afin de pouvoir comparer ces derniers à la solution commerciale fournie par l’ONG où travaille le participant. Les échanges ont également porté sur la manière d’évaluer la qualité de l’outil (par exemple en observant si les topics créent sont cohérents, en s’assurant d’une base de données assez large pour faire fonctionner les modèles). Pour la suite, il a été question d’envisager des solutions déployables dans les serveurs de travail du participant pour respecter le caractère sensible des données, comme par exemple Label Studio, ActiveTigger ou Doccano.

Analyse exploratoire visuelle et analytique de graphes

Accompagnement d’un·e journaliste pour réaliser un travail exploratoire de datajournalisme en explorant des graphes comprenant des données sur des pièces de l’affaire Epstein d’une part et des métadonnées SIREN des entreprises de vidéo-surveillance. Les discussions ont porté sur les méthodes d’exploration possibles. Les usages possibles de Gephi et des variantes web ont été évoqués, ainsi que des aspects méthodologiques liés aux statistiques classiques de graphes (centralité, autorité, etc).

Classification de texte avec des modèles Huggingface

Accompagnement d’un·e étudiant·e en master : après une collecte de tweets d’hommes et femmes politiques français et turcs, il/elle cherche à les classifier en différentes catégories (analyse de sentiment et évocation ou non d’un sentiment de déclin). Il/Elle a utilisé ChatGPT pour générer du code qui réalise cette classification, mais ne sait pas comment interpréter les résultats : le classifieur est-il de bonne qualité ?

Le code produit par ChatGPT a été examiner pour identifier les modèles Huggingface utilisés : il s’agit d’un modèle CamemBERT pour le français et d’un modèle BERT base turkish pour le turc (https://huggingface.co/dbmdz/bert-base-turkish-cased). Nous avons ensuite utilisé le notebook de Rubing Shen, Salomé Do et Étienne Ollion The Augmented Social Scientist pour avoir un mode d’emploi étape par étape de la classification avec BERT. Nous avons discuté des méthodes d’évaluation de ce type de modèles.