1. médialab Sciences Po
  2. Actualités
  3. MetAt - Journal de bord du 13 mai 2025

MetAt - Journal de bord du 13 mai 2025

Partager nos savoir-faire et pratiques méthodologiques.

Rendez-vous, Atelier

Salle K.031, 1 Place Saint-Thomas d'Aquin

NOTA BENE



Qu’est-ce que le METAT ?


Le METAT est un atelier d’accompagnement aux méthodes de recherche : chaque mois, un créneau de trois heures pour vous aider à résoudre les difficultés d’ordre méthodologique que vous rencontrez dans le cadre d’un projet scientifique.

À qui s’adresse le METAT ?


Le METAT s’adresse à toute personne souhaitant être accompagné ponctuellement pour l’utilisation d’un outil ou d’une méthode de recherche. Tous les profils sont les bienvenus : étudiant-e-s, doctorant-e-s, chercheur-e-s, métiers de l’ingénierie de recherche ou autre, internes et externes à Sciences Po, sans restriction de statut ou d’affiliation.

Comment s’inscrire ?


L’inscription est obligatoire via le formulaire disponible sur la page du METAT

Séance du 13/05/2025

Lieu : Sciences Po, 1 place Saint Thomas d’Aquin, 75007 Paris.

Nombre de participant·e·s : 8

Encadrant·e·s :  Béatrice Mazoyer, Maxime Crépel, Audrey Baneyx, Fynch Meynent, Benjamin Ooghe-Tabanou, Guillaume Plique, Marine Chuberre, Blazej Palat, Rebecca Mühlhaus, Lilla Conte

Extraction de mots-clés dans des articles de presse et extraction d’articles sur le web

Accompagnement d’un·e doctorant·e ayant besoin, pour sa thèse, d’extraire des articles de presse sur le web afin de faire par la suite des recherches par mots clés sur les articles.

Plusieurs tentatives de requêtes http ont été faites via curl puis python requests pour récupérer les articles sur le web mais des problèmes de connexion ont empêché l’obtention de résultats.

L’outil EuroParser lui a néanmoins été présenté : il permet de convertir les fichiers HTML en format tableur afin que leur contenu soit exploitable.

Les fonctionnalités de l’outil Cortext Manager ont également été présentées, notamment pour faire des requêtes par mots clés sur des données textuelles issues d’un corpus Europresse.

Différentes manières d’exploiter les données et de visualiser les résultats ont été testées, dont un réseau de co-occurrences sur mots clés les plus saillants du corpus, de la dataviz issue du calcul du chi2, de la détection de clusters dans les réseaux…

Analyse de base d’entretiens, ACM

Accompagnement d’un·e doctorant·e dans l’analyse de base d’entretiens : une initiation à Cortex pour l’ACM lui a été proposée. Des ressources pour créer des pipelines sur R ont également été fournies. Les discussions ont ensuite porté sur la gestion de diverses bases de données.

Extraction de données sur des réseaux sociaux et sites web chinois

Accompagnement de deux post doctorant·es et deux stagiaires d’un projet de recherche collectif. Les encadrant·es et participant·es ont partagés différents questionnements méthodologiques et des réflexions épistémologiques qui se posent dans le projet. Plusieurs méthodes et outils de scraping, comme minet et artoo, ont été démontrés et testés sur des réseaux sociaux et des sites web chinois.

Reprise d’un code pour analyse des séquences

Accompagnement d’un·e doctorant·e qui s’intéresse à l’analyse de carrières politiques sous l’angle des inégalités de genre.

Suite à une discussion sur le format des données pour analyser des séquences avec R (librairie TraMineR), le code d’un·e doctorant·e ayant travaillé sur un sujet similaire a été adapté pour réaliser les mêmes traitements sur les données du/de la doctorant·e. Ces données ont été filtrées afin de réduire l’échantillon aux élu·es étudié·es. Le travail réalisé a permis de dresser un plan d’action pour les prochaines étapes des analyses, à commencer par la préparation d’un fichier au format large.

Collecte et analyse de tweets

Accompagnement d’un·e doctorant·e pour collecter des tweets en lien avec la polémique provoquée par l’ADEME sur la thématique du “dévendeur”. L’outil minet a été utilisé pour réaliser cette collecte. Les échanges ont porté sur des techniques d’analyses des données collectées : analyse de réseaux (qui mentionne qui), analyse temporelle (création d’un graphique du nombre de tweets par jour), et analyse syntaxique (avec l’outil VoyantTools).