1. médialab Sciences Po
  2. Actualités
  3. MetAt - Journal de bord du 13 février 2024

MetAt - Journal de bord du 13 février 2024

Partager nos savoir-faire et pratiques méthodologiques.

Rendez-vous, Atelier

Salle K.011, 1 place Saint Thomas d'Aquin 75007 Paris

Qu’est-ce que le MetAt ?

Le MetAt est un atelier d’accompagnement aux méthodes de recherche : chaque mois, un créneau de trois heures pour vous aider à résoudre les difficultés d’ordre méthodologique que vous rencontrez dans le cadre d’un projet scientifique. 

À qui s’adresse le MetAt ?

Le MetAt s’adresse à toute personne souhaitant être accompagnée ponctuellement pour l’utilisation d’un outil ou d’une méthode de recherche. Tous les profils sont les bienvenus : étudiant-e-s, doctorant-e-s, chercheur-e-s, métiers de l’ingénierie de recherche ou autre, internes et externes à Sciences Po, sans restriction de statut ou d’affiliation.

Comment s’inscrire ?

L’inscription est obligatoire via le formulaire disponible sur la page du MetAt

Séance du 13/02/2024

Lieu : Sciences Po

Nombre de participant·e·s : 10

Encadrant·e·s : Audrey Baneyx, Béatrice Mazoyer, Marion Frelat, Kelly Christensen, Claire Ecotiere, Maxime Crépel, Benjamin Ooghe-Tabanou, Guillaume Plique, Diego Antolinos Basso, Félix Alié, Emilien Schultz, Robin De Mourat, Antoine Machut,  Guillaume Levrier, Yuma Ando

Cartographier les terrains de vie de la drépanocytose

Deuxième accompagnement d’un·e étudiant·e de master de Sciences Po souhaitant comparer des cartes co-produites avec des personnes interrogées, pour représenter les terrains de vie de la drépanocytose. L’accompagnement a pris la forme d’une discussion sur les conséquences du choix d’un protocole d’enquête et de la place du (ré)ajustement. Les encadrant·e·s ont proposé des méthodes d’entretien, des possibilités de cartographies et une approche d’enquête plutôt “avec” que “sur”. L’étudiant·e devrait recueillir l’avis d’un·e designer de recherche pour poursuivre son projet. 

Collecte de données Youtube

Premier accompagnement d’un·e participant·e venu·e pour être accompagné·e sur une collecte des métadonnées et des transcriptions des vidéos à partir d'un échantillon d'urls YouTube. L'échantillon se composait des vidéos en plusieurs langues, telles que l'hindi, le télougou, et l'anglais.

L’encadrant·e a proposé d’installer Minet sur trois endroits : (1) l'ordinateur Windows, (2) la machine virtuelle Ubuntu, et (3) le terminal bash d'un serveur R à distance. Le dernier a été préféré puisqu'il permet de laisser tourner les commandes sur le serveur mais il était le plus difficile à installer en raison des permissions d'installation du profil du serveur. Enfin, en profitant de la version 3.8 de Python déjà installée sur le serveur, virtualenvwrapper et minet ont pu être installés dans un environnement virtuel. Une introduction à l’utilisation de Minet pour collecter des données de YouTube a été faite, puis l’encadrant·e a accompagné le·la participant·e pour générer une clé API de Youtube et l’utiliser pour collecter les métadonnées des chaînes et des vidéos, ainsi que collecter les commentaires. 

Pour installer Minet dans le terminal d'un serveur R, où l'utilisateur n'a pas beaucoup de droits mais où une version python supérieur à 3.7 est déjà installée, il serait possible d’essayer de profiter du "virtualenvwrapper," un gestionnaire ancien des environnements virtuels. Pour l'utiliser, entrez "source virtualenvwrapper.sh" puis "workon env" (par exemple, un environnement nommé "minet" dans lequel est installé minet avec "pip install minet").

Outil de veille sur Youtube

Les participant·e·s sont venu·e·s avec un outil déjà développé sur StreamLit permettant de visualiser les transcriptions de vidéos captées 4 fois par jour à l’aide des tendances Youtube. La discussion a porté sur les méthodes pour faire émerger des mots-clefs saillants sur une période donnée par rapport au reste du corpus, également sur des outils de détection de topics, ainsi que sur de la construction et visualisation de réseaux.

Analyser le discours des banques centrales

Accompagnement d’un·e chercheur·euse et un·e postdoctorant·e pour de l’analyse textuelle de données provenant des banques centrales. L’accompagnement a pris la forme d’une discussion autour de l’utilisation du paragraphe comme marqueur de l’analyse argumentative, dans le sens où le parsing et l’ocr-isation de documents en format PDF (format propriétaire) sont complexes à optimiser pour un projet limité dans le temps. Deuxièmement, un dataframe contenant les phrases d’intérêt a été créé. Il sera nécessaire de travailler sur l’extraction des notes de bas de page, sur les regex qui repèrent les phrases d’intérêt, et sur la méthode d’annotation qualitative des ensembles phrase-contexte. 

Projet LoParlament 

Deuxième accompagnement d’un·e artiste du numérique pour un projet de transformation des débats parlementaires en installations artistiques, notamment musicales, dans un ancien lavoir béarnais. La personne accompagnée avait bien avancé depuis sa précédente participation au MetAt, et avait des questions sur les choix, la présentation et l’articulation des différentes métriques générées à partir des comptes rendus de débats d’une part et l’accès aux données des député·e·s d’autre part, pour lequel l’encadrant·e l’a mis en contact avec l’équipe de l’association Regards Citoyens chargée d’assurer le suivi du site NosDéputés.fr.

Cartographier les controverses avec les outils  TAL, Europresse et Cortext

Accompagnement de deux étudiant·e·s ayant formulé le besoin d’utiliser les outils de TAL pour alimenter des cartographies des controverses, suite à des premières tentatives via l’outil AtalsTI pas tout à fait satisfaisantes. L’encadrant·e les a aidé à extraire un corpus Europresse en html (initialement en pdf), à extraire les termes, à produire un réseau de coocurences avec Cortext, faire une matrice de contingence, puis une demographie de corpus et blumpchart avec Cortext également. 

Cette première prise en main a été très riche pour leurs besoins sur un corpus de test. La séance s’est conclue avec la mise en place d’un protocole pour traiter les corpus complets