1. médialab Sciences Po
  2. Actualités
  3. MetAt - Journal de bord du 14 avril 2026

MetAt - Journal de bord du 14 avril 2026

Partager nos savoir-faire et pratiques méthodologiques.

Rendez-vous, Atelier

Salle Goguel, 27 rue Saint Guillaume, 75007 Paris

NOTA BENE



Qu’est-ce que le METAT ?


Le METAT est un atelier d’accompagnement aux méthodes de recherche : chaque mois, un créneau de trois heures pour vous aider à résoudre les difficultés d’ordre méthodologique que vous rencontrez dans le cadre d’un projet scientifique.

À qui s’adresse le METAT ?


Le METAT s’adresse à toute personne souhaitant être accompagné ponctuellement pour l’utilisation d’un outil ou d’une méthode de recherche. Tous les profils sont les bienvenus : étudiant-e-s, doctorant-e-s, chercheur-e-s, métiers de l’ingénierie de recherche ou autre, internes et externes à Sciences Po, sans restriction de statut ou d’affiliation.

Comment s’inscrire ?


L’inscription est obligatoire via le formulaire disponible sur la page du METAT

Séance du 14/04/2026

Lieu : Sciences Po, 27 rue Saint Guillaume, 75007 Paris.

Nombre de participant·e·s : 7

Encadrant·e·s :  Béatrice Mazoyer, Maxime Crépel, Audrey Baneyx, Salomé Do, César Pichon, Guillaume Plique, Benjamin Ooghe-Tabanou, Guillaume Levrier, Marine Chuberre

Travail de terrain scientométrique sur l’Indonésie

Accompagnement d’un·e étudiant·e en master dont les travaux aspirent à comprendre pourquoi le fieldwork en Indonésie a été moins fertile que d’autres régions en termes de construction de théories (anthropologie, etc). Il avait été initialement suggéré à l’étudiant·e de collecter des articles sur une plateforme en ligne d’articles académiques avec des méthodes de scraping. Une autre option a été envisagée en utilisant la plateforme Dimensions.ai, qui permet de faire de la recherche en plein texte sur beaucoup (voir tous) les articles scientifiques. In fine, il se trouve qu’il serait probablement plus intéressant de faire des recherches archivistiques au département d’anthropologie de Cornell et des archives gouvernementales indonésiennes. 

Réseau d’acteur·ices politiques

Accompagnement d’un·e étudiant·e en master dans son projet de mesure des changements de centralité dans un réseau Twitter avant et après l’élection législative de 2022. Nous avons utilisé ChatGPT pour trouver comment filtrer la table des followers d’hommes/de femmes politiques dont elle disposait en R, et ne garder que les candidat·es à l’élection. Nous avons ensuite utilisé Table2Net pour construire ce réseau et Nansi pour le visualiser. Nous avons discuté de différentes mesures d’importance dans un réseau (degré entrant, degré sortant) et de centralité (eigenvector centrality, betweenness centrality). Nous avons également discuté si le fait de travailler avec les retweets plutôt qu’avec les followers allait ou non changer les résultats. L’accompagnant·e a recommandé à l’étudiant·e d’utiliser Gephi Light pour construire les indicateurs de centralité évoqués et les représenter visuellement dans le graphe. Celle-ci va désormais construire le réseau de retweets avant et après l’élection et s’intéresser aux changements de centralité des candidats.

Formation à Hyphe et minet

Accompagnement d’un·e postdoctorant·e dans l’utilisation de Hyphe, après qu’il/elle ait eu l’occasion de réaliser quelques expérimentations avec cet outil. Il/Elle souhaite mieux connaître les rouages et étudier les moyens d’analyser son corpus sur l’anthropocène sous un angle textuel. Nous avons fait un tour d’horizon des fonctionnalités de Hyphe, notamment tags et import/export, puis nous avons regardé avec minet comment extraire la liste des urls du corpus, puis les télécharger avec minet fetch et en extraire le contenu texte avec minet extract. 

Discussion concernant le développement web

Accompagnement d’un·e chercheur·euse qui souhaiterait construire une chronologie d'événements politiques. Il/Elle a vibecodé une application web interactive pour explorer des timelines complexes et veut explorer les possibilités d'amélioration de son outil dans le futur. Plusieurs outils du laboratoire lui ont été présentés, qui présentent une histoire de développement similaire. L’atelier a ensuite été consacré à une exploration d’un éventail de solutions web. Le/la chercheur·euse a désormais une vision plus claire du sujet et sait quelles sont les étapes logiques pour la suite de son projet.

Discussion sur du TAL à propos de messages twitch

Accompagnement d’un·e designer de recherche menant une recherche sur les pratiques de réception de l’actualité politique sur twitch. Il/elle recherche un accompagnement méthodologique pour explorer des pistes de traitement automatique du langage afin de caractériser les communautés et les participant·es de twitch à partir des contenus textuels.

Nous avons effectué un remue-méninge sur l’ensemble des marqueurs qui pourraient être calculés à partir des contenus textuels pour annoter les données (par exemple, la mention de liens, pronoms, verbes…). Nous avons ensuite discuté des méthodes d’analyse factorielle qui permettraient de les mobiliser pour comparer les communautés/utilisateurs. Nous avons enfin testé l’outil Cortext comme moyen de prototypage de ce type de méthodes.

Le/la designer de recherche doit passer ses données sur une base de données sqlite, et commencer par calculer tous les marqueurs repérés afin de pouvoir mobiliser des catégories textuelles pour comparer les utilisateurs/communautés.

Installation d’un système d’exploitation sécurisé et extraction de textes de fichiers PDF

Accompagnement d’un·e doctorant·e qui souhaite stocker ses données de manière sécurisée et extraire du texte et certaines informations dans des fichiers PDF.

Pour que les données soient sécurisées, l’utilisation de Tails en live usb a été recommandée, avec a minima une partition chiffrée. Homebrew a été ensuite installée pour installer pdftotext afin d’extraire du texte des fichiers PDF. Les données textuelles n’ont pas pu être extraites avec cet outil, un script bash a été rédigé afin d’OCRiser les PDF avec OCRmyPDF (+Tesseract), qui étaient scannés. 

Afin de traiter les données textuelles extraites, il a été conseillé à le/la doctorant·e de participer à une prochaine séance du MetAt.

Réalisation d’une carte des partenariats du médialab en 2025

Accompagnement d’un·e chargée de communication dans la réalisation de deux cartes différentes : l’une pour rendre compte du nombre de partenariats d’un médialab en Europe en 2025 et l’autre pour géolocaliser sur une carte d’Europe l’ensemble des institutions partenaires du médialab en 2025. Après avoir recodé les informations dans des formats compatibles avec les outils nécessaires, la première carte a été réalisée avec Khartis et la seconde avec Umap.