seminaire MESHS : Les méthodes quantitatives d’analyse des textes politiques
Les méthodes quantitatives d’analyse des textes politiques
Projet partenariat ADA 2012-2013
L’analyse de contenu apparaît aujourd’hui comme un passage obligé pour tout chercheur qui souhaite travailler à partir de ou à propos de textes politiques. Cette étude s’opère toutefois souvent de manière très artisanale avec un ensemble d’outils plus ou moins rudimentaires issus de la linguistique et appliqués assez directement aux sciences sociales et politiques: analyse thématique, analyse sémantique, analyse séquentielle, analyse par oppositions, analyse argumentative, etc. Cette façon de faire se heurte toutefois à trois inconvénients majeurs. D’abord, elle laisse une large place à la subjectivité du chercheur.
Ensuite, elle laisse le chercheur relativement démuni lorsqu’il a à faire à des corpus importants alors, précisément, qu’avec le développement des outils numériques, il est de plus en plus fréquent qu’on se trouve face à des corpus de plus en plus vastes (cf le développement des humanités numériques et des « big data »). Enfin, elle ne donne qu’une place limitée aux spécificités propres au caractère politique des discours analysés (par exemple, souci particulier de l’argumentation et de la persuasion, publics et enjeux spécifiques,etc.).
Pour dépasser cette difficulté, un ensemble d’équipes, en France et ailleurs, ont commencé à développer des outils et des concepts en s’appuyant sur des fondements disciplinaires relativement distincts, voire opposés, qui se concrétisent dans des logiciels eux-mêmes différents (Lexico, TXM, Alceste, Tropes, Prospero, Hyperbase, Spad-T, Trideux, etc.). Certains proviennent plutôt de la linguistique et de la statistique, voire de l’informatique; d’autres plutôt de la sociologie, de l’histoire ou de la science politique; d’autres encore plutôt de la psychologie, voire du marketing. Ces manières parfois différentes de traiter les textes politiques tendent à cohabiter sans nécessairement se croiser.
Le séminaire proposé se donne précisément pour objet de faire intervenir des représentants de ces différentes écoles relevant de champs disciplinaires différents, travaillant sur des types de corpus différents et usant d’outils pour partie eux-mêmes différenciés, en vue d’une publication inédite en ce qu’elle rassemblerait leurs approches en un seul volume et permettrait ainsi de les faire dialoguer
>> sur le site du MESHS
Mercredi 25 septembre 2013
- Christine Barats, (Paris Descartes/ Céditec), « Approche longitudinale de corpus socio-politiques : l’exemple des discours présidentiels sur l’immigration (1981-1993) et de la médiatisation du classement de Shanghai”.
- Jean-Marc Leblanc (Université Paris-Est Créteil (UPEC)/ Céditec (EA 3119)), « Analyses statistiques des données textuelles : introduction générale »
Mercredi 9 octobre 2013
- Julien Bonneau (post-doctorant, Université Paris-Est Créteil (UPEC)/ Céditec (EA 3119)), « De la lexicométrie à la textométrie et la logométrie. Nouvelles pratiques descriptives »
- Jean-Marc Leblanc (MCF, Université Paris-Est Créteil (UPEC)/ Céditec (EA 3119)), « Problèmes de visualisation en textométrie. Présentation de quelques outils logiciels »
Mercredi 30 octobre 2013
- Mathieu Brugidou (chercheur senior, EDF R&D et PACTE), « Analyse de grands corpus politiques écrits, le cas du grenelle de l’environnement : une approche morphologique et formelle avec des logiciels d’analyse des données textuelles, Alceste et Tropes »
- Claire de Galembert (CR CNRS, ISP), « Alceste, un outil d’investigation de la fabrique parlementaire du droit. Quelques enseignements tirés de l’analyse des débats parlementaires sur la loi sur le voile du 15 mars 2004 ».
Mercredi 30 novembre 2013
- Claude Martineau Université Marne-la-Vallée (LIGM) « Extraction d’information avec l’environnement Unitex »
- Philippe Gambette Université Marne-la-Vallée (LIGM) » Nuages arborés et analyse textuelle de corpus politiques avec TreeCloud »
- Margareta Kastberg-Sjöblom Université de Franche-Comté, ELLIAD » Analyser et comprendre, à travers Hyperbase, des corpus de dimensions très différentes »