1. médialab Sciences Po
  2. Actualités
  3. MetAt - Journal de bord du 10 décembre 2024

MetAt - Journal de bord du 10 décembre 2024

Partager nos savoir-faire et pratiques méthodologiques.

Rendez-vous, Atelier

Campus Grands Moulins, Université Paris Cité

NOTA BENE



Qu’est-ce que le METAT ?


Le METAT est un atelier d’accompagnement aux méthodes de recherche : chaque mois, un créneau de trois heures pour vous aider à résoudre les difficultés d’ordre méthodologique que vous rencontrez dans le cadre d’un projet scientifique.

À qui s’adresse le METAT ?


Le METAT s’adresse à toute personne souhaitant être accompagné ponctuellement pour l’utilisation d’un outil ou d’une méthode de recherche. Tous les profils sont les bienvenus : étudiant-e-s, doctorant-e-s, chercheur-e-s, métiers de l’ingénierie de recherche ou autre, internes et externes à Sciences Po, sans restriction de statut ou d’affiliation.

Comment s’inscrire ?


L’inscription est obligatoire via le formulaire disponible sur la page du METAT

Séance du 10/12/2024

Lieu : Campus Grands Moulins de l’Université Paris Cité, Hall C du Bâtiment de la Halle aux Farines, Esplanade Pierre Vidal Naquet, 75013, Paris.

Nombre de participant·e·s : 8.

Encadrant·e·s : Guillaume Plique, Maxime Crépel, Charlotte Dion, Adèle Etaix, Diego Antolinos Basso, Benjamin Ooghe-Tabanou, Julien Pontoire, Carlo Santagiustina, Béatrice Mazoyer, Blazej Palat, Audrey Baneyx, Sandra Hamiche.

Collecte de données sur internet

Accompagnement d’un·e étudiant·e cherchant à recueillir et à traiter des données issues de forums et de groupes facebook sur les punaises de lit, sachant que ce sont des textes courts et souvent anonymes. Une première tentative de recueil des données a été effectuée à l’aide de l’outil du médialab minet, librairie python et outil en ligne de commande de webmining néanmoins, son outil de scraping était obsolète. Une seconde tentative de scraping a alors été proposée depuis un autre terrain, les posts Doctissimo, grâce à l’outil shelob. Un accompagnement méthodologique à la collecte manuelle de données sur tableur a ensuite été effectué.

Analyse de discours parlementaires et politiques sur la radicalisation

Accompagnement d’un·e étudiant·e de master en Relations internationales souhaitant analyser un corpus de discours politiques sur la radicalisation, notamment à l’Assemblée nationale, en Python, en tenant compte du facteur psychologique du phénomène de radicalisation. L’encadrant·e l’a initié aux bases du traitement automatique du langage (TAL). Pour cela, différents types de données ont été envisagés en amont, comme le site Vie publique en plus de ceux déjà en possession de l’étudiant·e (fichier excel de débats). Un problème d’encodage issu du XML a été rencontré. Il doit être réglé au moment de l’export. Une discussion a été tenue sur la structure des deux bases de données. Enfin, un test a été effectué sur Cortext pour le traitement, une fois la base de données terminée.

Nettoyage et analyse de données recueillies auprès d’insta poètes

Accompagnement d’un·e chercheur·euse souhaitant réaliser une cartographie des poètes en ligne ou “insta poètes” en mobilisant une méthodologie au croisement des études sur la littérature numérique, des sciences de l’information et de la communication, de la sociologie et de l’histoire contemporaine. Iel dispose de données au format tableur tirées des résultats d’un questionnaire Google Forms avec beaucoup de questions ouvertes et a besoin de le nettoyer et l’analyser facilement, par exemple avec des statistiques ou des réseaux. Les encadrant·es ont commencé par présenter à Camille les fonctionnalités d’Open Refine pour nettoyer et explorer les valeurs de son fichier de données. Iels ont ensuite regardé ensemble Table 2 Net et Nansi pour l’analyse de réseaux. Puis l’usage d’Iramuteq a été suggéré pour une analyse textuelle exploratoire des réponses aux questions par les enquêtés. Les possibilités de traitement des données sont ouvertes par la multiplicité des outils présentés. Il faut pour cela garder en tête les hypothèses de travail de départ et s’offrir le temps de découvrir et apprendre les méthodes de traitement existantes.

Collecte de données X (ex Twitter) sur les violences sexuelles

Accompagnement d’un·e étudiant·e cherchant à collecter des données sur les violences sexuelles provenant des réseaux sociaux, en particulier des tweets mentionnant un utilisateur spécifique sur une période donnée. Les encadrant·es ont aidé à collecter et à traiter les données depuis X. Étant donné que l’API de X n’est plus gratuite, un outil développé par le Digital Methods Initiative (DMI) appelé Zeeschuimer a été utilisé. Encadrant·es et étudiant·e ont procédé au téléchargement et à l’installation de Firefox ainsi que l’extension Zeeschuimer. À l’aide de Zeeschuimer, plusieurs centaines de tweets ont été collectés et téléchargés au format .ndjson. Ensuite, les données .ndjson ont été converties en format tabulaire .csv à l’aide de Konbert. WSL, Cargo et XAN ont enfin été installés pour explorer les données et effectuer des analyses lexicométriques et statistiques. Les résultats intermédiaires et finaux ont été sauvegardés dans des fichiers .csv séparés pour permettre une analyse approfondie par l’étudiant·e qui a également été formé·e à l’exécution de toutes les commandes de XAN pour lui permettre de réaliser des analyses similaires de manière autonome.

Collecte d’informations sur les bots

Accompagnement d’un·e doctorant·e qui voulait identifier des bots et des trolls dans plusieurs corpus de réseaux sociaux dans la cadre de sa thèse sur les publics de RT France. Iel avait collecté lors d’un précédent MetAt (et ailleurs) des commentaires issus de réseaux sociaux (Twitter, Facebook, Telegram, YouTube, Odyssee, etc.) concernant RT France, et cherche à identifier les bots et les trolls dans ces corpus. Encadrant·e et doctorant·e ont réfléchi ensemble à différentes façons d’identifier les bots. Des informations ont été collectées via minet sur les profils des utilisateurs sur YouTube. Une discussion a été tenue au sujet des différents outils de traitement du texte (CorText) et de l’image (Panoptic) et de méthodes pour apprendre le Python. La·le doctorant·e va tester Panoptic sur ses images et essayer de mettre en place les indicateurs de détection de bots évoqués.

Analyse exploratoire de données 

Accompagnement d’un·e doctorant·e souhaitant être formé·é à atlas.ti dans le codage et l’analyse de données. L’encadrant·e l’a aiguillé dans l’installation de l’environnement de programmation R, avec le paquetage utile pour quelques analyses exploratoires des données tabulaires. Le jeu de données a ensuite été formaté pour une analyse géométrique, plus précisément aux méthodes multiple and joint correspondance analysis. Enfin, une discussion a été tenue au sujet de l’exploration des données tabulaires en relation avec d’autres sources d’informations de la thèse. 

Codage et sécurité des données en sociologie de la santé

Aide fournie à un·e doctorant·e cherchant à élaborer une grille d'analyse de ses données en sociologie de la santé mais également à être conseillé·e sur la meilleure manière de garantir le secret médical et les droits et libertés des patient·es et médecins observé·es et interviewé·es au cours de sa recherche. Enfin, iel cherchait à mieux expliciter, d’un point de vue méthodologique et théorique, son positionnement (chercheuse atteinte de la même pathologie que ses interlocuteurs). La procédure d’anonymisation des données mise en place par la·le doctorant·e a été vérifiée et validée. Néanmoins, les accompagnateur·trices ont rappelé que les données recueillies par la doctorante étaient d’autant plus sensibles qu'elles touchaient au secret médical. En effet, la méthode de recherche repose sur une ethnographie regroupant des observations menées durant des consultations médicales, des entretiens avec patient·es et médecins (identifiables par leurs propos et car le nom de l'hôpital est mentionné en tant que cas d’étude) et des questionnaires. Il lui a été conseillé de consulter le comité d’éthique de son université, démarche déjà entreprise mais aussi d’éviter de conserver ses données sur clé USB non cryptée (ou disque dur externe). Ses données devront également être supprimées dans un délai raisonnable après soutenance. Ensuite, si une ébauche de grille d’analyse des données avait déjà été effectuée, les données étaient présentées de manière sommaire sur excel. Les encadrant·es l’ont donc formé·e à la création de tableaux croisés dynamiques. Enfin, quelques recommandations bibliographiques ont été effectuées se situant notamment dans les champs des cultural studies, études sur les sub- et contre-cultures, études féministes et anthropologie interprétative sur la relation du chercheur à ses enquêtés et à son sujet de recherche.