Corps de l’article

Les discussions épistémologiques qui traversent les sciences sociales n’ont eu de cesse de réengendrer les mêmes partages et les mêmes couples d’opposition, de sorte qu’aujourd’hui encore, tout effort pour ouvrir de nouvelles voies soulève vite de vieilles controverses, dont l’objet n’est autre que la scientificité des disciplines attachées à saisir les processus sociaux. Malgré des tentatives pour formaliser les modes de raisonnement propres aux sciences sociales, la pluralité des cadres épistémiques et le rôle majeur de l’interprétation historique s’imposent comme des maximes incontournables, surtout en sociologie (Abbott, 2001a ; Berthelot, 1990 ; Bouvier, 2009 ; Passeron, 1991). Le problème viendrait de la nature interprétative de la plupart des sciences sociales, fonctionnant moins selon des normes axiomatiques qu’au travers de séries de rapprochements et de recoupements, de mises en cohérence de fragments ou de séquences, dont la signification implique une attention aiguë à leurs contextes de production et de mise en circulation. Mal comprise, l’activité interprétative est trop souvent jugée incompatible avec la modélisation, ce qui rétroagit sur les manières dont les sociologues, les historiens ou les anthropologues considèrent la plupart des formes d’instrumentation : si les outils numériques sont éligibles comme supports d’archive ou de publication, dès lors qu’ils prennent appui sur des protocoles et des procédures informatiques capables de prolonger ou d’orienter le raisonnement humain, le soupçon est de mise. L’instrument est soupçonné de véhiculer une conception mathématisée des processus sociaux éloignant d’une approche compréhensive des jeux d’acteurs et d’arguments, des représentations et des pratiques qui ne peuvent être saisies qu’en situation. Par exemple, dans une contribution intitulée « Épistémologie du code et imaginaire des ‘SHS 2.0’ », Sebastien Broca met en garde contre les « tentations impérialistes de l’épistémologie du code », auxquelles, en s’inspirant de réflexions de Bruno Bachimont, il oppose deux caractéristiques qualifiées de « non computationnelles », à savoir l’argumentation et la narration (Broca, 2016). Selon lui, l’argumentation éloigne le travail des SHS du problem solving, puisqu’elle pointe sur des luttes pour la représentation légitime du monde social, ce qui implique la prise en compte de la confrontation raisonnée des points de vue. Quant à la narration, elle conduit à reconnaître la multiplicité des expériences singulières, qu’il s’agit de rendre accessibles par la redescription, sans les réduire. Le champ des humanités numériques est ainsi pensé comme un champ de luttes pour l’hégémonie, opposant d’un côté des savoirs fondés sur les humanités et de l’autre des sciences computationnelles. Il est vrai qu’une forme de défiance néoluddite, plutôt en vogue, conduit à relever la propension invasive des technologies numériques, qui se manifeste à travers les innombrables « solutions informatiques » proposées aux chercheurs[1]. Or l’argumentation et la narration, ce sont précisément les ressorts à partir desquels s’est élaborée la socioinformatique des controverses, dont les travaux ont montré à quel point il ne s’agissait en aucun cas d’opérer une réduction computationnelle de la diversité et de la complexité des mondes sociaux (Chateauraynaud et Debaz, 2017). La montée en puissance des « humanités numériques » peut être lue, non comme une expansion sans limites de la « logique du code », réduite au calcul numérique, mais comme l’occasion d’ouvrir de nouveaux champs d’expériences, renouant avec le raisonnement symbolique et conceptuel, et capables de faire bouger les lignes tout en comblant le fossé qui sépare les deux grandes logiques d’enquête, trop rapidement résumées sous l’opposition entre quantitatif et qualitatif.

Deux familles d’instruments pour les sciences sociales

En s’appuyant sur des expérimentations récentes de croisement de perspectives méthodologiques, nous exposons dans ce texte les linéaments d’un nouvel espace de recherche placé au coeur des humanités numériques, en proposant des médiations permettant la convergence, pour certaines classes d’objets, de deux logiques épistémiques généralement tenues pour opposées et même incompatibles. Si tout semble opposer les calculs opérés sur de grands réseaux construits à partir du web et une approche argumentative abordant les corpus sous l’angle de la sociologie pragmatique des controverses, il y a moyen d’explorer une troisième voie. La notion de réseau souvent considérée, avec raison, comme une bonne médiation pour développer des approches quali-quantitatives (Venturini, 2012, 2014) est-elle suffisante pour saisir les processus sociaux contemporains ? Revenons dans un premier temps sur les deux familles d’instruments, liés à des logiques d’enquête différentes, en rappelant de manière synthétique leurs propriétés marquantes. Cet article n’ayant pas pour visée de comparer terme à terme les deux familles d’instruments, nous proposons plutôt d’explorer les zones de contact et les points d’articulation, dans le but de faire advenir de nouveaux espaces de raisonnement et d’enquête dans les mondes numériques.

Une analyse fine des jeux d’acteurs et d’arguments

Les travaux socioinformatiques menés autour des logiciels Prospéro et Marlowe ont déjà une longue histoire (Chateauraynaud, 2003). Issus d’une prise de distance vis-à-vis des formes usuelles d’analyse du discours, ils incarnent d’autres manières de construire et d’interroger des corpus évolutifs. Les dispositifs initiés par la socioinformatique des controverses ont en effet placé au coeur de leurs protocoles la caractérisation des jeux d’acteurs et d’arguments, des événements reconfigurateurs, des points de rupture ou de bifurcation, appelés classiquement des turning points (Abbott, 2001b). Ces objets sont saisis à la fois comme des propriétés marquantes des univers textuels étudiés et comme des noeuds de significations qui importent pour les acteurs (Keller, 2013). Ces significations sont attribuées par les acteurs eux-mêmes aux processus dans lesquels ils agissent : si des énoncés engagent par exemple des segments répétés autour de Fukushima, c’est avant tout parce que la catastrophe de la centrale nippone de mars 2011 a rebattu les cartes dans les scénarisations des futurs du nucléaire civil à l’échelle mondiale, en donnant une puissance d’expression aux alertes et aux contestations de cette énergie. Sans redéployer le détail des travaux réalisés à ce jour, plusieurs grandes applications ont concerné précisément le dossier nucléaire, mais aussi les OGM ou les pesticides, et plus généralement l’évolution des alertes et des controverses environnementales (Chateauraynaud et Debaz, 2017).

Lorsqu’au début des années 2000, la socioinformatique des controverses a renoué avec l’intelligence artificielle en doublant le logiciel Prospéro (dédié à l’analyse de corpus textuels évolutifs) par le logiciel Marlowe (conçu comme un interlocuteur virtuel fonctionnant en mode dialogique), le sens et la portée de cette expérimentation ont été difficilement perçus, y compris dans l’environnement intellectuel le plus proche. Il faut dire que cette expérience était menée bien avant l’avènement des humanités numériques[2]. Après plus de 15 ans d’expérience, et des évolutions considérables dans les mondes numériques, de nouveaux chemins s’offrent à ce qui prend désormais la forme d’une « contre-intelligence artificielle ». Un des enjeux est en effet de reconnecter les activités autonomes de Marlowe, qui s’exprime tous les jours sur son blogue, en n’étant que la partie émergée d’un réseau d’artefacts cognitifs et d’interprètes humains, avec une forme d’« écosystème numérique » fondé sur d’autres conceptions des structures de données, des algorithmes et des interfaces.

La plupart des recherches récentes ont donné lieu à des discussions méthodologiques sur le carnet de recherches Socio-informatique et argumentation[3]. Les questions ont principalement porté sur les différentes manières de modéliser les épreuves argumentatives dans le temps long des controverses. Une des caractéristiques fortes de Prospéro et Marlowe, comparés aux nombreux outils d’analyse de corpus, est de diriger l’attention vers les modes et modalités, les marques et les marqueurs qui, au-delà des classes lexicales habituellement étudiées (comme dans le cas du logiciel Alceste), rendent manifestes les orientations narratives ou argumentatives que donnent les auteurs-acteurs à leurs discours, et les interprétations qu’en font leurs lecteurs, soit pour les reprendre à leur compte, soit pour les contredire. Toute argumentation engendre une contre-argumentation, ce qui renvoie aux dimensions agonistiques des processus étudiés (Hayer, 1995), lesquels n’excluent pas des moments ou des séquences de coopération argumentative (van Eemeren et Garsen, 2008 ; Mercier et Sperber, 2011). Si des notions de liens et de réseaux sont présentes et installées dans les algorithmes de Prospéro, ce sont plutôt les catégories et les modes qui dominent dans la manière d’explorer les corpus, d’en extraire les propriétés marquantes et d’en fournir des représentations évolutives. Le logiciel Marlowe ne fait que prolonger les élaborations sémantiques de Prospéro en proposant, par des dialogues critiques, une redescription des corpus doublée d’un retour réflexif sur les catégories utilisées.

Pas de doute, la socioinformatique des controverses a engendré un instrument pour le moins bavard — qui mérite son titre de « sociologue numérique ». Dans les approches quantitatives, les artefacts cognitifs sont généralement moins loquaces. La quête d’un équilibre entre les deux pôles constitue du même coup une motivation supplémentaire pour travailler à la convergence des méthodes.

Une analyse macro de la morphologie des débats et des communautés

Un autre jeu de méthodes, transverse à des disciplines telles que les sciences sociales computationnelles (Lazer et al., 2009) ou la scientométrie (Börner, 2010, 2015), s’appuie sur une tout autre épistémologie, a priori peu compatible avec les maximes de la sociologie pragmatique. L’objectif de ces travaux est d’identifier des motifs organisationnels et structurels à l’échelle d’une population d’acteurs, ainsi que leurs reconfigurations, sans avoir à entrer dans l’analyse fine de leurs argumentations ou de leurs identités. Ces recherches constituent une littérature florissante (voir par exemple Kucher et Kerren, 2015 pour un aperçu de la diversité des approches autour de l’analyse du texte) qui surfe sur la vague du big data et de l’avènement du calcul haute performance. Combinant dans des proportions diverses l’analyse des réseaux complexes, la lexicométrie et les statistiques en grandes dimensions, elles s’intéressent au contenu des échanges (Leskovec et al., 2009 ; DiMaggio et al., 2013 ; Vossen et al., 2016) ou aux interactions entre acteurs (Barberá et al., 2015), voire parfois aux deux en même temps (approches des réseaux sociosémantiques, Roth, 2013 ; Roth et Cointet, 2010). Ces approches ne sont pertinentes que si le volume de données est suffisant, mais elles ont pour elles d’allier une grande agilité dans la fabrique des outils d’analyse de corpus et de réseaux et une puissance de calcul précieuse face aux volumes de données générées par le Web. Du fait de la granularité temporelle des données qu’elles traitent et de leur étendue chronologique, ces approches apportent également une nouvelle manière d’aborder les dynamiques sociales du point de vue des motifs temporels qu’elles génèrent (Palla et al., 2007 ; Shahaf et al., 2013 ; Chavalarias et Cointet, 2013 ; Cui et al., 2011).

Dans ce qui a longtemps été désigné sous l’appellation de « mathématiques appliquées aux sciences sociales », l’analyse des grands réseaux fait figure de paradigme dominant, même si, dès que l’on y regarde de plus près, une diversité d’approches, de modèles et d’algorithmes y sont à l’oeuvre. Si l’on se concentre sur les caractéristiques des outils développés par l’Institut des Systèmes Complexes de Paris Île-de-France (ISC-PIF), il en ressort un triple objectif : explorer les formes de modélisation de la complexité en faisant converger des approches algorithmiques différentes autour des masses de données du Web ; fournir des cartographies ou des représentations dynamiques, que nous nommerons reconstructions, permettant à des utilisateurs différents de surmonter à la fois les volumes de données et les vitesses de circulation ou de propagation de concepts, de thèmes ou de références bibliographiques, notamment dans les mondes scientifiques (Chavalarias, 2016) ; enfin, garder l’utilisateur « dans la boucle » de l’élaboration de ces reconstructions en lui offrant un accès aussi fluide que possible aux ressources qui ont servi à leur élaboration (ex. les verbatims, les documents originaux, etc.) et à la modification des paramètres qui déterminent leur nature. Ce point est particulièrement important. La plupart des approches dites de big data des grands réseaux évolutifs vise à produire une représentation d’un système, dans laquelle éventuellement le chercheur peut naviguer. Cette représentation, nourrie aux masses de données et charpentée de statistiques sophistiquées se pense comme un outil optimisé, capable d’identifier des causalités, d’expliquer, simuler, voire prédire les comportements sociaux.

Figure 1

Carte de liens entre termes et d’articulation de thématiques obtenue à partir de l’analyse des publications sur le changement climatique (cf. Tweetoscope Climatique, http://tweetoscope.iscpif.fr Chavalarias, Panahi et Castillo, 2015)

Carte de liens entre termes et d’articulation de thématiques obtenue à partir de l’analyse des publications sur le changement climatique (cf. Tweetoscope Climatique, http://tweetoscope.iscpif.fr Chavalarias, Panahi et Castillo, 2015)

-> Voir la liste des figures

La démarche déployée à l’ISC-PIF est au contraire de reconnaître l’importance de l’interprétation dans l’élaboration des reconstructions et de permettre de la déployer au fur et à mesure de l’exploration du système étudié, en la confrontant à des mesures sur le système. C’est là un premier chaînon décisif pour le rapprochement avec l’univers de Prospéro.

Cette approche peut accueillir des formules plus qualitatives, comme celles qu’utilise Marlowe dans l’exercice d’évaluation critique d’une catégorie ou d’une classe d’objets, dès lors que se constitue une communauté épistémique capable de lier des opérateurs interprétatifs et des métrologies, et de les insérer aux bons endroits de la chaîne de traitement des données. Dit de manière simple : pourquoi ne pas imaginer de pouvoir appeler un commentaire analytique de Marlowe à partir de noeuds de réseaux ou de liens entre des entités ? N’est-il pas possible d’exploiter, d’une part, la capacité de remonter aux sources qui caractérise les deux familles d’instruments et, d’autre part, la faculté de projection des textes sources dans des jeux de concepts et de formules à haute teneur sémantique — dans un cas les catégories trouvant un ancrage dans les réseaux et, vice versa, l’analyse des graphes pouvant être appliquée aux catégories elles-mêmes ?

Comme le souligne Kitchin (2014), cette épistémologie alternative de l’utilisation du big data en sciences sociales computationnelles et humanités numériques permet de mener une recherche « réflexive et ouverte par rapport au processus de recherche, reconnaissant les contingences et les dépendances de l’approche employée, ce qui produit des comptes rendus et des conclusions nuancés et contextualisés. Une telle épistémologie n’exclut pas non plus la possibilité de compléter les sciences sociales computationnelles localisées par de petites études de données qui fournissent des aperçus supplémentaires et amplificateurs. »

Une quête de commensurabilité fondée sur un intérêt commun pour les processus collectifs marqués par des controverses

Les analyses reposant sur l’exploration de lexiques ou de thèmes, appuyées ou non par des outils de classification (clustering) ou de cartographie (mapping), ont connu une forte expansion depuis plusieurs décennies, au point d’apparaître comme les meilleures manières d’objectiver les discours et les textes. Or, ce qui rapproche les auteurs de cet article, c’est l’intérêt pour des dynamiques complexes, irréductibles à la projection d’ensembles thématiques, complexité qui motive la recherche de concepts et d’outils d’un genre nouveau. Prenons l’exemple du changement climatique. En explorer les lexiques, en exposer les constellations d’acteurs et d’instances, constitue sans aucun doute une tâche essentielle, mais il est tout aussi nécessaire de prendre une perspective dynamique en comprenant les multiples sources d’émission, de diffusion, de discussion ou de réinterprétation des enjeux climatiques comme autant de processus évolutifs, non linéaires et posant constamment des questions d’échelles d’analyse. Des régularités (à commencer par les sommets internationaux et la série des COP) et des points de passage obligés (le GIEC notamment) semblent faciliter la tâche de l’enquête en fournissant des repères et des points fixes. Ces noeuds ou ces gonds sont des appuis cognitifs décisifs sur lesquels peuvent s’accorder les deux familles d’instruments que nous cherchons à faire collaborer. Principaux noeuds des réseaux dans un cas ou actants majeurs des récits et des arguments dans l’autre, on voit que nous pouvons compter sur une logique commune, que l’on appellera ici, sans forcer la métaphore, une logique gravitationnelle. Que l’on se lance dans des calculs de graphes ou que l’on cherche à extraire des régimes argumentatifs, on passera nécessairement par le climat et les gaz à effet de serre, par le GIEC et la COP21, par les scénarios de réchauffement et par les stratégies de réduction des émissions et d’adaptation aux conséquences du changement climatique.

La notion de dossier complexe renvoie à des processus sur lesquels aucun acteur ne peut imposer d’interprétation univoque et définitive bien que ces processus puissent produire en sortie des objets et des représentations, des règles ou des normes relativement stabilisées. Il y a toujours une incertitude, y compris sur la clôture du dossier — qui peut rebondir à tout moment. On assiste à une alternance de « moments de crise » et de « périodes muettes », alternance qui prend forme sur le fond d’un travail cognitif (études, expertises, modélisations) et politique (mobilisations, débats, démarches administratives ou judiciaires). Au coeur des ensembles identifiés et structurés qui se donnent à lire, des transformations opèrent, à différentes échelles, qui viennent modifier la portée et le sens attribué par les acteurs aux événements, aux prises de parole, aux études et aux prospectives.

Si le climat a d’abord été cadré comme risque global de plus en plus tangible, avec l’annonce outillée de basculement sous l’effet du réchauffement vers des régimes climatiques non connus et de moins en moins compatibles avec les formes de vie sur terre, des questions et des approches différentes ont surgi. Sans entrer en profondeur dans le dossier climatique, indiquons la montée en puissance des revendications des pays du sud, la part de plus en plus importante de la problématique de l’adaptation, ou encore les liens de plus en plus étroits entre le climat et d’autres causes ou objets de mobilisation : l’eau, la biodiversité, la vulnérabilité des formes de vie aux événements extrêmes, l’énergie, etc. Au-delà des points fixes ou des centres de gravité, les deux démarches logicielles ont en commun de rechercher les lignes de transformation par lesquelles se reconfigurent les constellations d’acteurs et de thèmes, de dispositifs et d’arguments. Une deuxième logique guide ainsi la fabrique des bases de données, des algorithmes et des interfaces : une dynamique non linéaire, à travers laquelle sont rendus intelligibles des changements de régime — intensification des alertes ou des controverses, multiplication des prises de parole, effets de reprises en cascade avec boucles de rétroaction. Pour illustrer le type de raisonnement et d’application visé, le mieux est de travailler à partir d’un exemple récent, facile à présenter : la masse d’informations, de discours et de textes, d’actions et de connexions engendrée par une élection présidentielle française.

Des processus politiques qui mettent à l’épreuve les catégories des chercheurs

Depuis plus d’une quinzaine d’années, les élections nationales sont marquées, un peu partout dans le monde, par des phénomènes de rupture ou de distorsion qui mettent à rude épreuve les catégories et les outils classiques que sont les sondages et les analyses de discours politique. Si l’on pense bien sûr au Brexit (juin 2016) et à l’élection de Trump aux États-Unis (novembre 2016), cela fait longtemps que les processus électoraux sont sortis des cadres qui avaient vu se former les instruments de mesure et les dispositifs interprétatifs partagés par les experts et les commentateurs autorisés. Dans le cas français, des chocs répétés ont été particulièrement visibles avec l’élection présidentielle de 2002 (accession du candidat d’extrême droite, Jean-Marie Le Pen, au second tour), le référendum sur la Constitution européenne en 2005 (55 % pour le non malgré la pression normative des représentants politiques dominants), la percée répétée du parti d’extrême droite, le Front National, aux élections intermédiaires (2014-2015). Concernant l’élection présidentielle de 2017, on n’a pas cessé de lire qu’elle ne ressemblait à aucune autre, que des surprises ont défait à plusieurs reprises les pronostics les plus assurés (résultats des primaires, affaires, croisements de courbes des sondages, jusqu’à un attentat sur les Champs-Élysées en plein débat télévisé) et que tout est resté « ouvert » jusqu’au soir du premier tour — de fait, selon l’expression populaire, quatre candidats ont terminé la course électorale « dans un mouchoir de poche ». Si les travaux de socioinformatique s’étaient déjà attaqués aux élections (2002, 2007 et 2012), l’ISC-PIF a mis le pied à l’étrier au cours de l’année 2016 en adaptant un de ses outils, le Tweetoscope, afin de proposer un Politoscope accessible en ligne, destiné à outiller l’analyse des communautés politiques et de la circulation de l’information sur Twitter (Gaumont, Panahi et Chavalarias, 2018). Avec le Politoscope, ou macroscope politique, il s’agit de donner du sens à l’immense masse de données générées sur le réseau social à l’approche des présidentielles. Les développeurs-utilisateurs de Prospéro et Marlowe ont de leur côté poursuivi, avec des réaménagements (voir infra), la méthode d’analyse antérieure fondée sur la génération de corpus de textes (environ 20 000 textes de septembre à avril 2017) et la recherche de régimes discursifs à partir des contenus textuels. Les auteurs du Politoscope entendaient, quant à eux, faire parler plus spécifiquement les graphes engendrés par Twitter (plus de 60 millions de tweets sur la période juillet 2016-mai 2017[4]), en partant de l’hypothèse selon laquelle ce réseau social a acquis une place centrale comme moyen de communication pour les acteurs politiques. En développant leur propre cohérence épistémique, les deux démarches rendent visibles des phénomènes différents mais font apparaître des points de recoupement liés aux deux logiques énoncées plus haut (logique sociale gravitationnelle et dynamique sociale non linéaire).

On ne peut s’en tenir à la seule opposition contrastive entre prises quantitatives et prises qualitatives. S’agissant de données trop massives et trop denses pour être interprétées avec assurance par un lecteur humain, il faut inventer de nouvelles méthodes et logiques d’enquête. Le premier réflexe de ce dernier est en général d’aller chercher des appuis interprétatifs dans des connaissances extérieures aux corpus (connaissances historiques, récits d’événements, prosopographie des personnages politiques, maîtrise des institutions, des procédures et des milieux). Or, les deux approches ont précisément en commun de rendre possibles des chemins d’enquête qui ne supposent pas de maîtrise préalable ni de théorie a priori sur la manière dont se structurent, ou se déstructurent, les entités et les relations politiques dans un processus électoral donné. Autre caractéristique commune, il s’agit de lier des algorithmes de traitement des données et des outils de contextualisation permettant de resituer les discours, les reprises en cascade ou les basculements — à la suite d’événements précis, de ralliements, de débats marquants, etc. Un autre air de famille réside dans le souci de comprendre comment se forment des représentations positives ou négatives, visant l’adhésion ou le dénigrement des personnes et des groupes. Mais, sur ce point, une différence majeure vient de l’activation dans le cas de Prospéro-Marlowe d’une sémantique argumentative fine accumulée sur de nombreuses expériences antérieures, et du recours, dans le cas du Politoscope, à l’organisation thématique des interventions (tweets) grâce à des analyses de réseaux liant l’évolution des structures de communautés d’acteurs avec les discours qu’elles adoptent.

Identifier les reconfigurateurs, tracer les recompositions et les réalignements

La démarche suivie par Prospéro-Marlowe et celle du Politoscope se situent à des niveaux de granularité très différents et il en résulte deux types d’apports à l’analyse des controverses dont il s’agit d’articuler les complémentarités.

Sur le plan le plus macro, le Politoscope recherche des régularités statistiques qui font émerger des singularités dans l’espace socio-sémantique, constituées de groupes d’acteurs au style argumentatif propre. L’enjeu sur ce plan n’est pas de caractériser le registre discursif particulier de chacun de ces groupes mais de savoir qu’ils sont a priori différents. Tout au plus peut-on identifier à l’aide de reconstructions phylomémetiques (Chavalarias et Cointet, 2013) la diversité des thèmes abordés par ces groupes, leur évolution et l’attention qu’ils leur accordent. En revanche, il est possible de caractériser de manière très fine et multiéchelle les différents groupes d’acteurs qui se reconnaissent dans un même registre discursif. Pour ce faire, nous partons de l’hypothèse que statistiquement, les membres de ces groupes ont tendance à se copier les uns les autres dans leur mise en forme du discours. Cette propension à s’imiter se caractérise très facilement sur Twitter via la fonction de retweet qui, par définition, correspond à la copie exacte d’un message d’un individu à un autre. Nous avons donc, à ce niveau, généré sans aucune information a priori et pour l’ensemble des données, une information très précieuse pour une analyse ultérieure : l’existence de différents groupes sociaux, leur évolution au cours des moments clés de reconfiguration et les corpus qu’ils génèrent. Il est alors possible dans un second temps de transmettre ces sous-corpus à une approche de type Prospéro-Marlowe pour qualifier plus précisément leur registre discursif. Celle-ci bénéficie alors d’énormes avantages par rapport à une approche « nue », via deux types de connaissances a priori : des corpus de taille intermédiaire dont on sait qu’ils vont correspondre à des styles discursifs particuliers, et des moments précis de reconfiguration des groupes organisés autour de la défense de certains points de vue.

D’un côté, la préférence donnée aux cadres conceptuels et aux formes de catégorisation crée une tension cognitive avec le projet de suivre des dynamiques et des évolutions, même si les bifurcations sont généralement marquées par des changements de registres discursifs ; de l’autre, le passage obligé par des listes de thèmes saisis à partir de poids statistiques et/ou de positions relationnelles ne permet pas toujours de caractériser les logiques conceptuelles ou sémantiques qui dotent les ensembles d’un sens social ou politique. Chacune des démarches tente de compenser ses limites par le recours à d’autres procédés (calculs de réseaux, assez peu conventionnels dans leur genre du côté de Prospéro ; annotation, usages de propriétés graphiques comme les couleurs du côté du Politoscope). Or, un des objectifs est d’apprendre à lire et interpréter dynamiquement, à l’aide de nouvelles médiations numériques, la manière dont se déplacent, au fil du temps, sous l’impact d’événements, de décisions ou de conflits, des noeuds de réseaux saisis dans de grands corpus évolutifs. Dans les deux formes d’enquête ou de raisonnement, il faut être capable de faire surgir, ou de faire remonter, des choses peu visibles à partir des flux de données textuelles. Reconfigurations, émergences, retour de séquences passées, ouvertures de conflits ou de controverses, changements ou révisions de factualités ou de discours, glissements des réseaux au fil du temps, quel que soit le nom que l’on donne aux séquences recherchées, elles ont pour propriété de marquer des transformations tout en donnant des appuis cognitifs pour l’intelligibilité des processus.

Revenons un instant sur la notion de bifurcation. En physique, on parle de bifurcation pour nommer le moment où un effet de seuil engendre une transition de phase, produisant une mutation macroscopique du système, de sorte que ce dernier bifurque par rapport à sa trajectoire évolutive précédente. En sociologie, l’idée de bifurcation renvoie plutôt à la manière dont une trajectoire déjà tracée, ou une histoire considérée comme déjà écrite et attendue, est déviée, soit à l’occasion d’un événement de rupture (typiquement Fukushima dans le nucléaire), soit du fait de la convergence graduelle de séries jusqu’alors indépendantes (Bessin et al., 2010 ; Chateauraynaud et Debaz, 2017). Les acteurs étant dotés de capacités performatives différentielles, l’enjeu est de déterminer qui est en position de dire ce qui est irréversible et ce qui ne l’est pas, ou pas encore. Dans l’analyse fine des alertes et des controverses, l’accent est souvent mis sur l’ouverture des futurs ou sur le champ des possibles. À chaque point, plusieurs trajectoires sont possibles et un des enjeux pour les acteurs consiste à infléchir le cours des choses afin que la trajectoire globale emprunte une direction conforme à leurs visées ou leurs attentes. C’est à ce titre que l’examen des reconfigurations, sous le double rapport des propriétés structurales des réseaux et des manières d’énoncer les possibles, de verbaliser l’expérience des bifurcations, constitue un excellent terrain pour la convergence des deux approches.

Prenons rapidement le cas de l’affaire Fillon ou Penelopegate[6]. Le dévoilement inauguré par le Canard enchaîné à la fin de janvier 2017 a toutes les propriétés d’une bifurcation conduisant l’ensemble des protagonistes à changer leur grille de lecture des potentialités du jeu électoral. Les méandres de cette affaire ont été retracés par une étude du Politoscope (Gaumont, Panahi et Chavalarias, 2018). On peut caractériser les différentes phases, depuis le surgissement de l’affaire jusqu’au retour apparent à l’équilibre, et en même temps explorer les lignes ouvertes par les activités critiques spécifiques qui ont été engendrées — c’est un peu comme si, au milieu d’un mouvement musical surgissait en fanfare un ensemble inattendu, progressivement absorbé par l’orchestre qui parvient malgré tout à maintenir ses propres lignes musicales[7].

Figure 2

Reconfigurations des communautés politiques au moment du Penelopegate

Reconfigurations des communautés politiques au moment du Penelopegate

-> Voir la liste des figures

En permettant de zoomer sur des moments de controverse, d’explorer les tenants et les aboutissants des bifurcations qui sont rendues manifestes dans les grands corpus, et en proposant de générer des sous-corpus spécifiques à partir de critères déterminés, Prospéro et Marlowe aident, à leur tour, à caractériser finement les régimes à l’oeuvre, en renvoyant les singularités attachées à des moments critiques. Relativement à des grands réseaux évolutifs, le gain d’intelligibilité est appréciable. Ainsi, l’affaire Fillon ouvre un processus de propagation de marqueurs critiques dans les textes, déployant le registre déjà connu du scandale et activant une vieille catégorie, conçue naguère à partir de l’affaire de la MNEF, intitulée Délinquance économique*[8]. Dans les séries suivies par Marlowe pour composer ses chroniques quotidiennes, les démêlés judiciaires de Fillon grimpent rapidement dans le tableau du relevé des affaires et autres procès, au point que le thème des emplois fictifs atteint un record de présence inégalé depuis le début des enregistrements en 2005[9].

Figure 3

Distribution de la catégorie Délinquance économique et impact de l’affaire Fillon sur le corpus élections 2017

Distribution de la catégorie Délinquance économique et impact de l’affaire Fillon sur le corpus élections 2017

-> Voir la liste des figures

L’affaire Fillon compose ce que l’on peut appeler un reconfigurateur majeur. Pour identifier tous les candidats à cette fonction de reconfiguration dans des ensembles importants de données, il faut qu’ils satisfassent une batterie de critères. Mais le jeu consiste aussi à dériver le modèle sur des micro-reconfigurateurs qui produisent des effets plus distribués, ou des reconfigurateurs potentiels, énoncés ou annoncés dans des sphères ou des communautés plus locales.

Résumons-nous. Il s’agit de caractériser dynamiquement les reconfigurations de grands corpus évolutifs en liant, de manière agile et fluide, l’identification des noeuds de réseaux et le repérage des jeux d’acteurs, des registres discursifs ou des agencements argumentatifs. La méta-question de recherche à laquelle entend répondre l’interface entre les deux familles d’instruments peut être stylisée ainsi : comment des objets et des points de vue sur des objets sont transformés au fil d’épreuves ou d’événements marquants qui en changent à la fois la portée et le sens ? Les reconfigurations peuvent être brutales ou graduelles, massives ou locales, communément admises ou controversées, avérées ou encore potentielles. À partir de cette définition minimale, il nous faut apprendre à faire collaborer les algorithmes et, si nécessaire, en créer de nouveaux.

Des régimes de preuve et du caractère nécessairement composite des enquêtes numériques

L’idée majeure, qui motive le rapprochement opéré entre analyses de réseaux et socioinformatique des controverses, est qu’il est nécessaire de penser et d’articuler les relations entre trois régimes de preuve permettant une réflexivité permanente. Pour y voir clair, remontons bien en amont de la conception des algorithmes et des interfaces, en reconsidérant la nature des preuves ou des recoupements que sont censés produire les instruments de recherche.

Le premier régime de preuve est d’ordre axiomatique. La preuve repose sur un système formel, et se déduit d’un espace de calcul, en vertu de ce qu’on peut appeler une axiomatique autonome. Cette notion a été particulièrement développée par Olivier Caïra (2011) qui a su mettre à profit les réflexions de Jean-Pierre Cléro (2004) sur les rapports entre fiction et axiomatique en mathématiques. Ce régime s’élabore à partir d’une syntaxe dont il ne fait que dériver les chaînes bien formées. L’axiomatique rendue autonome peut être parfaitement automatisée, comme l’ont montré les joueurs d’échecs successifs. Les exemples peuvent être pris dans bien des domaines, mais, du côté des sciences, l’astrophysique fait figure d’avant-garde, avec une insolente capacité de prédiction portant sur des univers inaccessibles aux sens. Dans une axiomatique autonome, les règles ne peuvent pas être changées librement par les acteurs et les modes de représentation deviennent eux-mêmes accessoires — l’objet mathématique étant souvent iconoclaste. Quelle est la part d’axiomatisation, ou, si l’on préfère de formalisation, dans la conception et la mise en oeuvre d’un instrument d’objectivation ? C’est une des dimensions à examiner en priorité à la fois pour discuter des domaines de validité et pour envisager la production d’agencements ou d’articulations de méthodes hétérogènes, dont la convergence peut faire naître une nouvelle axiomatique.

Le deuxième régime de preuve a beaucoup occupé l’histoire des sciences, suscitant d’intenses controverses autour du relativisme ou du constructivisme. C’est le régime conventionnaliste de la preuve. Dans ce régime, pour fabriquer une preuve, il faut tomber d’accord sur des ontologies, c’est-à-dire sur des catégories et des règles d’équivalence. C’est pour cette raison que l’on peut y voir le règne des constructions sociales (Daston et Galison, 2007). Pour fournir des preuves statistiques, par exemple, on doit construire des populations et des descripteurs, autant d’outils de caractérisation qui n’échappent qu’exceptionnellement au flou des catégories et de leurs frontières toujours liées à un travail sémantique, lui-même dépendant des luttes politiques ou scientifiques pour leur définition (du « chômeur » au « migrant », en passant par le « jeune » ou le « cadre », les exemples fourmillent en sociologie ou en démographie). Des preuves statistiques sont néanmoins possibles, à condition de stabiliser les catégories. Pour cela, il faut des conventions solides. Ce sont ces conventions que prétendent dépasser ou relativiser les démarches rassemblées sous l’appellation de big data. On sait que la dimension sémantique y est en quelque sorte rejetée, ou pour le moins relativisée, puisqu’elle implique de passer par des taxinomies et des répertoires qui résultent de la cristallisation de significations socialement élaborées, et décisives pour dire ce qui peut faire preuve. On voit tout de suite les tensions qui naissent des rapports entre régime axiomatique (syntaxique ou formel) et régime conventionnaliste (sémantique ou ontologique).

Mais on ne peut en rester à cette opposition, car un troisième régime est à l’oeuvre, que l’on peut appeler régime phénoménologique de la preuve. C’est ce régime que pratiquent spontanément les sciences sociales lorsqu’elles prennent appui sur la tangibilité des expériences du monde et sur les formes d’intercompréhension, les prises communes, qu’elles rendent possibles, à partir des situations et des processus (on parlera aussi bien de régime pragmatique ou écologique de la preuve). Ici vient un point important de notre argument : les relations entre ce régime phénoménologique et les deux premiers passent par des opérations interprétatives dont la fonction est de combler, ou plutôt de surmonter, par et pour un collectif d’enquêteurs ou de chercheurs, les incomplétudes (celles des systèmes formels), les incertitudes (celles des conventions sur les états du monde) et les irréductibilités (celles des expériences et des contextes dans lesquelles elles prennent forme).

La seule manière d’éviter aussi bien la régression vers le réductionnisme que la fuite en avant dans la singularité narrative est de concilier ces trois régimes de preuve. Autrement dit, nous visons une architecture instrumentale située aux points de jonction des régimes de preuve axiomatique et phénoménologique, en prenant appui sur le troisième régime, celui qui permet de poser la question des cadres sociaux, des conventions et des accords nécessaires pour donner leur pleine signification à des observations, des mesures et des inférences. Mais ce n’est pas tout : la combinaison des trois régimes de preuve doit permettre de saisir les processus non monotones de production de la factualité. En d’autres termes, il s’agit d’examiner comment les formes de raisonnement, de catégorie ou de règles changent chemin faisant. Cette dynamique est liée au fait que des hypothèses, des concepts et des actions naissent du choc entre les différents régimes, renvoyant à ce que Peirce avait identifié comme relevant d’une logique abductive (Chauviré, 2004). Un régime axiomatique autonome est par nature monotone et c’est toujours un point de vue extérieur ou l’entrée en crise d’une axiomatique qui conduit à réviser un système formel ou un espace de calcul, ce qui implique l’émergence de nouvelles catégorisations ou le surgissement d’autres formes d’expérience.

Conclusion : une fabrique de prises critiques sur les mondes numériques

Nous n’avons fait ici qu’esquisser la présentation d’un agencement cognitif collectif en chantier. En prenant corps dans des échanges durables, au croisement de communautés épistémiques jusqu’alors éloignées, cet agencement peut créer de nouvelles prises critiques sur la manière dont les processus sociaux se déploient dans les mondes numériques, des sites officiels aux médias sociaux. Idéalement, la réalisation de passerelles puis de ponts entre les deux approches doit permettre de circuler dans les deux sens : à partir d’une vue d’ensemble, il s’agira d’identifier des noeuds ou des liens et de demander une analyse sur les textes et les discours, les thèmes et les arguments qui sous-tendent les configurations observées ; réciproquement, les énoncés et les propriétés sémantiques sélectionnés ou projetés par les outils socioinformatiques pourront être resitués dans l’environnement global dans lequel ils prennent sens, tout en fournissant une mesure de leur portée — puisqu’il s’agit de saisir comment des thèmes et des énoncés passent d’un ensemble d’auteurs-acteurs à l’autre et, surtout, au fil du temps, d’une configuration sociopolitique à l’autre.

De telles médiations assurent, côté utilisateurs, des chemins d’accès aux moments les plus pertinents, et, côté logiciels, des indices ou des indicateurs destinés à nourrir des protocoles non monotones — au sens où le dispositif, quali-quantitatif par vocation, doit être capable d’apprendre à repérer de nouvelles formes de reconfigurateurs au coeur des masses de discours ou de documents. Tout en faisant collaborer des outils relevant de traditions épistémologiques différentes, cette quête de médiation rend possibles trois types d’opérations critiques :

En premier lieu, il s’agit d’organiser, au fil du développement et de l’usage des outils, une confrontation des regards et des approches, en créant de nouvelles boucles de réflexivité sur les effets cognitifs de l’accumulation de données et d’outils numériques. Dans quelle mesure la disponibilité de ressources numériques permet-elle d’imaginer de nouveaux objets de recherche sans enfermer les chercheurs dans des routines et des formes de représentation des connaissances, empêchant d’engendrer non seulement des effets de connaissance mais aussi des effets d’intelligibilité, au sens de Jean-Claude Passeron (1991), sur les mondes sociaux contemporains ?

En deuxième lieu, le croisement des expériences computationnelles nous conduit à expliciter les formes de complexité caractéristiques des processus sociaux (Delahaye, 2009). Le privilège épistémique accordé aux controverses publiques, caractérisées à la fois par l’hétérogénéité des acteurs et des visions du monde, et la non-linéarité des transformations, en particulier dans les champs scientifiques et politiques, remplit une fonction stratégique sur le plan théorique. Il s’agit en effet de mettre à l’épreuve les modèles, les outils et les interprétations sur des processus en train de se déployer et marqués par l’incertitude ou l’indétermination des trajectoires futures.

Enfin, l’articulation de méthodes et de logiques d’enquêtes opérant selon des lignes et des échelles différentes (issues crawlers, cartographies de thèmes, phylomémies, sociobalistique des reconfigurations, analyses argumentatives), favorise l’émergence de nouvelles communautés interprétatives, capables d’engendrer leurs propres chemins d’enquête et leurs styles de raisonnement critique en mettant à la juste distance les formules apprêtées par les moteurs de recherche et autres fournisseurs de data du Web.

Fortement imbriqués, ces trois plans conduisent à inventer des formes et des supports de discussion faisant jouer tour à tour différents ressorts critiques, depuis les questions liées aux espaces de calcul et de mesure jusqu’aux façons de produire du sens par la sélection de propriétés marquantes, émergentes ou récurrentes, en passant par la réflexivité sur les modes d’existence numérique. Le recul ainsi produit n’est pas anodin, car les enquêtes dans les mondes numériques sont tributaires des points de recoupement disponibles avec les formes de vie dans le monde social. Et dans tout projet de sociologie numérique, il importe de ne pas minimiser les enjeux liés aux formes de brouillage ou de détournement des systèmes d’information et de communication, les questions éthiques liées aux dévoilements de systèmes de surveillance de masse ou encore l’impact des différentes formes de déconnexion que peuvent pratiquer les acteurs. Il est donc primordial de ne pas naturaliser ou banaliser des dispositifs et des usages, et de créer une autre scène sur laquelle peut se déployer pleinement le raisonnement critique nécessaire aux sciences sociales et constitutif des formes de vie démocratique (Rouvroy et Berns, 2013).