Corps de l’article

1. L’informatique dans les sciences

Plusieurs épistémologues et spécialistes de la méthodologie des sciences ont souligné à maintes reprises que la technologie du numérique a transformé les méthodologies des disciplines scientifiques, tant des sciences naturelles que des sciences humaines et sociales[1]. « La révolution informatique a transformé la science en permettant une grande variété de nouvelles découvertes grâce à la technologie de l’information[2]. » Et à la surprise de plusieurs, l’ordinateur a même investi massivement le domaine des humanités[3]. Il a en effet modifié en profondeur autant ses objets d’étude que ses méthodes[4]. Il produirait une convergence dans les pratiques de recherche[5]. Pour Denning, il se serait créé une pensée computationnelle (computational thinking) qui, lentement mais sûrement, a transformé la nature et la démarche de la connaissance scientifique[6].

2. L’informatique en philosophie

Sauf pour quelques utilisations très techniques, les principaux courants de recherche philosophique ont résisté à la pénétration du numérique dans leurs champs d’activités. L’ordinateur ne demeure souvent qu’une technologie périphérique et non essentielle au travail intellectuel philosophique typique. Pourtant, depuis une trentaine d’années et malgré cette résistance persistante, plusieurs programmes de recherches philosophiques[7] ont intégré l’ordinateur à leur méthodologie. On peut reconnaître quelques variantes interreliées qui se distinguent par le rôle épistémique qu’elles assignent à l’ordinateur, soit pour l’objet d’étude, soit dans la méthodologie elle-même.

Un premier programme de recherche se veut une philosophie de l’ordinateur (computer philosophy)[8]. L’ordinateur et plus spécifiquement la technologie informatique y deviennent des objets d’étude. Ces systèmes informatiques posent de nouvelles questions épistémologiques, entre autres sur la computation, la programmation et la simulation[9]. S’ouvre ainsi un nouveau champ pour la philosophie des sciences.

Un deuxième programme de recherche, très différent du premier, introduit cette fois l’informatique dans la méthode philosophique elle-même. On parle alors d’une philosophie computationnelle (computational philosophy).

L’idée centrale d’une philosophie computationnelle est simplement d’appliquer la modélisation et les techniques informatiques afin de faire progresser la découverte philosophique, l’exploration et l’argumentation[10].

L’informatique modifierait le processus argumentatif et démonstratif de la philosophie. Par exemple en épistémologie, la simulation computationnelle jouerait un rôle important dans une théorie de la démonstration scientifique[11].

Un troisième programme sera celui de la philosophie dite expérimentale (experimental philosophy)[12]. Il prône une démarche interdisciplinaire qui en appelle aux méthodes empiriques et expérimentales appartenant aux sciences humaines, plus particulièrement à la psychologie. L’ordinateur devient un outil de calcul pour la découverte et la preuve d’un énoncé philosophique.

La philosophie expérimentale est un nouveau domaine interdisciplinaire qui utilise des méthodes normalement associées à la psychologie pour étudier des questions normalement associées à la philosophie[13].

La puissance technologique de l’ordinateur permettrait d’explorer des modèles mathématiques complexes, mais aussi logiques, linguistiques et graphiques (la simulation et la visualisation). Ces outils formels et leur traduction computationnelle sont appliqués à des questions philosophiques classiques relevant de l’éthique, de la philosophie sociale et de la philosophie de l’esprit, par exemple la connaissance, les qualia, les états mentaux, la perception, l’ontologie, la volonté libre, le libre arbitre, la causalité, la responsabilité, etc. On abandonnerait ainsi une analyse intuitive de ces questions (souvent nommée philosophie de fauteuil), au profit d’une analyse empirique[14].

Enfin, le dernier programme de recherche est celui de la philosophie numérique (digital philosophy)[15] : « Les philosophes du numérique font progresser la recherche philosophique et les domaines connexes grâce à la technologie numérique[16] ». Ce programme se situe entre la philosophie computationnelle et la philosophie expérimentale. On peut le voir comme un secteur spécifique des humanités numériques telles que définies par leur origine :

Les humanités numériques recouvrent un ensemble de pratiques de recherche à l’intersection des technologies numériques et des différentes disciplines des sciences humaines[17].

Cette philosophie numérique n’en demeure pas moins distincte des trois courants précédents. L’informatique n’est ici ni un objet d’étude philosophique ni une version computationnelle de la méthode philosophique. Elle se distingue cependant de la philosophie expérimentale en ce qu’elle ne cherche pas à intégrer une approche empirique et expérimentale dans la réponse à des questions philosophiques, mais vise plutôt à utiliser l’ordinateur pour certaines tâches de la méthode philosophique. C’est cette approche qui retiendra notre attention dans la présente recherche.

3. L’informatique et les projets de lecture et d’analyse des textes philosophiques

Cette dernière vision de la relation de l’informatique avec la philosophie n’est pas récente. En fait, elle est antérieure aux trois autres approches et a presque cinquante ans d’existence. Dans ses premiers développements, l’ordinateur a été utilisé comme assistant pour les tâches les plus classiques de la pratique philosophique : celle de la lecture de grandes oeuvres philosophiques ou encore de l’analyse des thèses ou des concepts centraux de grands courants philosophiques.

Dès les années 1970, l’utilisation de l’ordinateur s’est centrée sur la numérisation des textes philosophiques, tels ceux de Thomas d’Aquin, de Malebranche, de Kierkegaard et de plusieurs textes médiévaux[18]. Ce fut aussi la naissance de grands projets de numérisation d’une part importante de la philosophie grecque (Projet Perseus) et médiévale (Bibliotheca Latina ; The Latin Library). Depuis, presque toutes les grandes oeuvres de philosophie, quel que soit leur paradigme, ont été numérisées. En parallèle et de manière discrète suivit la numérisation des publications philosophiques, institutionnelles de tous types : revues, monographies, sites web, etc. Ces données textuelles philosophiques sont rapidement devenues massives et facilement accessibles sur Internet, par exemple par le truchement de PhilPapers, Google Scholar, Research Gate, Academia, etc. On voit apparaître aussi des patrimoines nationaux de textes philosophiques. Lentement mais sûrement, le projet Sophia[19] construit des archives des oeuvres philosophiques importantes de l’Occident. Au Québec, de nombreux textes québécois de philosophie sont numérisés et déposés sur le site du Patrimoine philosophique du Québec et des Classiques de sciences sociales[20].

Au fil des années, de nombreuses stratégies de lectures et d’analyses de textes assistées par ordinateur (LATAO) ont été appliquées à la philosophie. Certaines étaient linguistiques (règles, grammaires, algèbres, graphes, etc.), d’autres étaient mathématiques (logique, statistiques, probabilités, topologie, etc.). Aujourd’hui, plusieurs de ces méthodes sont hybrides et intègrent des stratégies issues de l’intelligence artificielle. Cette LATAO vise à assister la lecture et l’analyse pour explorer le vocabulaire, les thèmes, les discours et même les arguments présents dans des textes philosophiques. Nos propres recherches ont développé des systèmes informatiques spécialisés de cette LATAO[21]. Ce fut l’occasion de découvrir la complexité du traitement qu’impose l’informatique lorsqu’elle est appliquée à des textes philosophiques.

Mais depuis les années 2000, plusieurs philosophes ont commencé à appliquer des techniques formelles de la linguistique de corpus pour explorer systématiquement des contextes de concepts et de thèmes[22].

Ainsi, de plus en plus, on voit l’ordinateur jouer un rôle essentiel dans la démarche philosophique. Certains chercheurs voient là une forme d’herméneutique matérielle[23]. Notons que des philosophes québécois sont très actifs dans cette aventure[24].

Ce type de projet en LATAO s’inscrit dans l’horizon des humanités numériques. Peu importe la forme sémiotique adoptée (article, monographie, thèse, livre, etc.), l’ordinateur est intégré dans l’analyse des textes comme un assistant dans l’exploration de leur contenu philosophique, et ce, quels qu’en soient le style, le genre, le paradigme, etc. Et la jeune génération de philosophes, qui maîtrise de plus en plus l’informatique, sait se frayer des voies nouvelles.

4. Le défi épistémologique de la LATAO

Malgré cette effervescence, ces programmes de recherche qui introduisent l’ordinateur tantôt comme objet, tantôt dans la démarche philosophique, ne manquent pas de soulever des questions épistémologiques importantes. Dans le domaine des humanités, plusieurs experts croient que l’ordinateur n’est qu’un outil technologique qui donne de nouveaux accès aux objets classiques des humanités. Il n’affecterait pas sérieusement l’intégrité des pratiques traditionnelles : « Les humanités numériques sont une extension des compétences et des méthodes de connaissances traditionnelles, et non un remplacement de celles-ci[25] ». Peut-être en est-il ainsi dans les projets de philosophie. Pour certains, cependant, l’ordinateur ne serait pas un outil bien utile même dans l’assistance à des tâches classiques : « Il y a de grands défis à l’idée même que la recherche en philosophie expérimentale pourrait s’avérer utile pour répondre aux questions philosophiques[26] ».

Ces critiques nous amènent à poser la vraie question : est-on vraiment en philosophie ? Ou comme le formulent Knobe et Nichols : « Is it philosophy ?[27] » Ne serait-on pas devant un retour discret de la philosophie positiviste et empiriste[28] ? Pour plusieurs philosophes, la « vraie » philosophie relève d’une attitude épistémique radicalement différente. C’est une connaissance, soit analytique, soit réflexive, interprétative et normative, etc. II n’est donc pas évident que l’informatique puisse intégrer de manière sérieuse la démarche philosophique.

Même si la philosophie expérimentale est intéressante, cela ne signifie pas nécessairement qu’elle est importante. Ceux qui insistent sur le fait qu’elle marque une révolution dans la philosophie nous doivent une explication de sa signification[29].

De plus, comme le souligne Chartrand, ces divers projets ont été surtout des preuves de concepts qui explorent des outils computationnels pour en déterminer la pertinence[30]. La question de l’évaluation formelle de ces approches n’est pas déterminée. Ces problèmes épistémologiques sont évidemment importants pour la philosophie computationnelle et expérimentale, mais sont-ils de même nature pour la LATAO appliquée en philosophie ?

Face à de telles critiques, plusieurs douteront que la LATAO soit un projet philosophique sérieux. Il exige la rencontre de deux visions épistémiques opposées et inconciliables : l’une qui semble privilégier une procédure intuitive, alors que l’autre vise une formalisation computable et évaluable. Comme formulé, il ne semble donc pas possible de réaliser une rencontre entre ces deux approches, surtout en tablant sur la conceptualité utilisée pour exprimer ces positions. Y a-t-il des solutions ?

5. Deux solutions

Une première solution, relativement classique, consiste à créer des projets parallèles et autonomes où la philosophie et l’informatique tiennent à leurs principes et méthodes, mais usent de passerelles d’appoint jouant ici et là le rôle d’adjuvants pour des tâches techniques spécifiques. Selon cette solution, le philosophe conserverait ses paramètres propres de recherche et utiliserait l’ordinateur comme un outil, mais sans toujours comprendre la complexité des algorithmes utilisés. Quant à l’informaticien, il maîtriserait l’ordinateur, mais il manipulerait et interpréterait des textes uniquement en regard d’algorithmes connus et populaires. Bien que cette solution de deux projets autonomes existe, elle n’enrichit que très peu la recherche en philosophie et en informatique. Autrement dit, la philosophie et l’informatique demeurent des champs épistémiques autonomes entre lesquels le dialogue est factice.

Il existe cependant une deuxième solution, qui nous semble des plus heuristique. Elle exige toutefois une reformulation de la problématique. On n’oppose plus une technologie physique (l’ordinateur) à une méthode de connaissance (la philosophie) ; au contraire, on intègre les deux comme des contributions épistémiques différentes au sein d’un unique projet cognitif. Et, dans cette perspective, la LATAO est approchée par des modes différents de connaissance, telles les mathématiques, la linguistique, l’ingénierie informatique, les sciences cognitives, etc. Autrement dit, la LATAO ne constituerait pas un projet philosophique pour et par elle-même. Cette optique pose néanmoins des questions épistémologiques importantes : que devient la philosophie au sein d’un tel type de projet de recherche ? Garde-t-elle sa signature ou la perd-elle ?

6. La modélisation en informatique

Pour comprendre le rôle de l’informatique dans une pratique scientifique particulière comme la LATAO, il faut en appeler à la philosophie contemporaine des sciences. Pour celle-ci, les projets scientifiques ne visent pas avant tout la construction de théories comme telles ; ils viseraient plutôt la construction de modèles. C’est par eux qu’on explique ce qui doit être fait, en l’occurrence les tâches ou opérations propres à ce phénomène ou activité que sont la lecture et l’analyse de texte assistées par ordinateur. « Expliquer un phénomène, c’est trouver un modèle[31]. » En cela, ce projet de type LATAO serait typique des projets de recherche contemporains. « Ce qui est nouveau et distinctif dans la science contemporaine, c’est l’existence de modèles de médiation complexes[32]. » Et lorsque le phénomène est complexe, de nombreux épistémologues proposent de construire non pas un seul modèle, mais plusieurs modèles[33]. Une telle posture épistémologique n’est pas nouvelle. Plusieurs informaticiens la soutiennent depuis longtemps[34]. Déjà en 1955, Von Neumann affirmait ceci : « Les sciences n’essaient pas d’expliquer, elles essaient à peine d’interpréter, elles construisent surtout des modèles[35] ».

Aujourd’hui, cette thèse est rappelée à satiété. Ainsi McLelland, un autre ténor de l’I.A., répétera régulièrement que « les modèles sont des outils de recherche qui ont leurs forces et leurs faiblesses, comme d’autres outils que nous utilisons en tant que scientifiques[36] ».

Dans la même veine, Dennett affirmait lui aussi qu’en intelligence artificielle, on devait différencier les points de vue, c’est-à-dire avoir des postures épistémiques différentes pour ces types de projets qu’aujourd’hui on traduit en termes de modèles[37]. Ainsi, Marr, Pylyshyn et Newell distingueront trois types de postures différentes : la posture intentionnelle ou représentationnelle, la posture fonctionnelle et la posture physique[38].

On peut penser que ces hypothèses épistémologiques sont aussi heuristiques lorsqu’appliquées à des phénomènes typiques des sciences humaines. On y rencontre régulièrement des faits ou des projets complexes, plus particulièrement ceux qui portent sur des artefacts signifiants comme le langage naturel et les textes, les images, etc. Et ces hypothèses sont encore plus pertinentes lorsque l’informatique y est impliquée. Dans le contexte de ces projets comprenant tels types d’artefacts signifiants, nous avons proposé de distinguer la présence d’au moins quatre modèles : un modèle physique, un modèle computationnel, un modèle formel, et nous ajoutons, comme le font de plus en plus certains informaticiens[39], un modèle conceptuel.

Nous ne pouvons ici les expliciter en détail. Nous ne les présenterons que très synthétiquement. Nous nous attarderons sur celui qui est le plus pertinent pour notre propos : le modèle conceptuel.

7. La modélisation dans un projet de LATAO

Pour monter un projet complet de type LATAO, ces quatre modèles doivent être utilisés. Le premier, le modèle physique, construit un artefact technologique relevant de l’ingénierie informatique. Il possède une architecture de composantes électroniques (capteurs, effecteurs, unités centrales, disque dur, etc.) dont la fonction sera d’implémenter concrètement des algorithmes. Par exemple, un modèle physique pour un traitement de LATAO appliquée sur des textes philosophiques pourrait être une tablette numérique autant qu’un mini-ordinateur ou des serveurs sur le nuage. Mais vu l’ampleur et la complexité des algorithmes pour ce type de tâche, on préférera un ordinateur puissant.

Le rôle du deuxième modèle, le computationnel, est de définir les algorithmes eux-mêmes. Il a été démontré formellement que, sous certaines conditions, des algorithmes équivalaient à des procédures effectives de type Machine de Turing pouvant computer les fonctions calculables. Ce qui élimine du coup toutes les relations qui, bien que fonctionnelles, ne sont pas calculables[40]. En LATAO, les algorithmes seront les programmes spécifiques pour certaines tâches définies dans le modèle conceptuel et ensuite formalisées (modèle formel).

Quant au troisième modèle, de type formel, il construit des structures mathématiques et les projette sur des relations et des opérations aussi définies dans le modèle conceptuel. Le LATAO exige un type particulier de relations : les relations de dépendances fonctionnelles calculables au sens formel de ce terme. Elles pourront être exprimées sous la forme d’équations, de formules logiques, de règles grammaticales, de graphes dirigés, etc. Celles-ci deviendront alors les intrants des modèles computationnels.

Enfin vient le modèle conceptuel, le plus important. Pour le résumer, nous dirons que son rôle principal est de conceptualiser et d’expliquer dans un langage naturel (partagé par une communauté épistémique) les multiples propriétés, relations ou opérations caractérisant l’objet d’étude.

On peut illustrer la structure des quatre modèles pour un projet intégrant de l’informatique par le graphe suivant :

Figure 1

Graphe d’un projet incluant les quatre modèles

Graphe d’un projet incluant les quatre modèles

-> Voir la liste des figures

Chacun des modèles possède des composantes et une structure spécifique. Et chacun est mis en relation avec d’autres modèles.

8. Précisions sur le modèle conceptuel

Un modèle conceptuel est essentiel pour tout projet contenant des modèles formels, computationnels et physiques. Sans lui, le comportement de l’ordinateur serait un pur jeu syntaxique implémenté dans une technologie électronique manipulant des signaux binaires. Il participe à la sémantique des modèles formels et computationnels. Autrement dit, tous les autres modèles dans ce type de projet sont fortement dépendants du modèle conceptuel.

Dans la formulation de Granger, une modélisation conceptuelle se présente sous la forme d’un commentaire externe, c’est-à-dire un langage non formel. Elle est essentielle dans une démarche scientifique comportant de l’informatique :

En tant que pensée en exercice, elle [la science] ne peut se présenter que comme une tentative de mise en forme, commentée par le truchement d’un langage non formel. La formalisation totale n’apparaît jamais que comme un horizon de la pensée scientifique, et l’on peut dire que la collaboration des deux langages est un caractère transcendantal, c’est-à-dire qu’elle est dépendante des conditions mêmes d’appréhension d’un objet[41].

Pour sa part, Winther voit cette conceptualisation comme une composante non formelle d’une théorie :

Le pluralisme interne d’une structure théorique… comprend de nombreux aspects non formels méritant une attention particulière. C’est-à-dire que de nombreuses composantes de la structure théorique, telles que les métaphores, les analogies, les valeurs et les points de vue politiques, ont une nature non mathématique, et « informelle », et elles sont implicites ou cachées[42].

Pour Johnson-Laird, ce modèle conceptuel est l’expression d’un modèle mental, c’est-à-dire d’une représentation mentale que les scientifiques construisent et par laquelle ils comprennent les différentes composantes de leurs sujets de recherche :

Si vous comprenez l’inflation, une preuve mathématique, la façon dont un ordinateur fonctionne, l’ADN ou un divorce, alors vous avez une représentation mentale qui sert de modèle d’une entité de la même manière que, disons, une horloge fonctionne comme un modèle de la rotation de la Terre[43].

Ce modèle mental est essentiellement une conceptualisation par laquelle un chercheur construit la description, l’explication et la compréhension. Bien que sa contribution soit importante, il n’est pas le seul à le faire dans un projet scientifique. De plus, parce qu’exprimé dans une langue naturelle, ce modèle peut être partagé au sein d’une communauté épistémique. Il peut ainsi être ajusté en regard des multiples modèles mentaux construits par les autres chercheurs.

La plupart des sciences naturelles, sociales ou humaines utilisent des modèles conceptuels, mais ceux-ci se présentent souvent sous d’autres noms. Par exemple, en ethnologie et en sociologie, ce sont les modèles conceptuels proprement dits[44]. En philosophie des sciences, malgré des différences sémantiques importantes, on parlera de modèles théoriques. En philosophie générale et en sciences cognitives, ce seront des représentations mentales[45], des systèmes de croyances[46], des connaissances implicites[47], théoriques ou chargées de théorie (theory laden)[48], des systèmes conceptuels[49] ou encore de la psychologie naïve[50]. Dans certains autres cadres théoriques, on évoquera le monde de la vie (Lebenswelt), des sciences naïves, des biais épistémiques, etc. Mais étonnamment, ce sont les sciences de l’information et les sciences informatiques qui reconnaissent explicitement l’importance des modèles conceptuels dans une démarche scientifique. Par exemple, on trouve cette thèse en génie logiciel : « Un modèle conceptuel [est] défini comme le résultat des processus menant de la tâche à la spécification de la conceptualisation de la structure ontologique du domaine du problème[51] ». En intelligence artificielle, on dira que

la modélisation conceptuelle est l’activité consistant à décrire formellement certains aspects du monde physique et social qui nous entoure à des fins de compréhension et de communication[52].

Et en informatique, ces modèles conceptuels se présenteront aussi sous divers noms : représentations des connaissances[53], cadres conceptuels[54], schémas conceptuels[55], espaces conceptuels[56], etc. En I.A. classique[57], un modèle conceptuel sera souvent construit de manière déclarative, mais dans l’I.A. récente, il sera plutôt appris[58] et pourra être formalisé dans des graphes de connaissances[59].

Quelle que soit la forme linguistique qui leur sera donnée, naturels ou semi-formels, ces modèles de représentations des connaissances sont des formes particulières des modèles conceptuels.

Un ensemble de connaissances officiellement représentées est basé sur une conceptualisation — une vision abstraite du monde que nous souhaitons représenter[60].

Le modèle conceptuel est une consolidation concise et précise de toutes les caractéristiques structurelles et comportementales pertinentes pour les objectifs de l’O. É. [l’objet d’étude] et qui sont présentées dans un format prédéfini[61].

Malgré les différences de points de vue, ces définitions de modèles conceptuels, non formels ou formels, soutiennent la thèse selon laquelle, dans tout projet de recherche scientifique, et plus particulièrement un projet informatique, il existe un modèle conceptuel explicite ou implicite ayant une signature spécifique. Les modèles conceptuels sont les moyens épistémiques par lesquels une recherche ou un projet construisent des connaissances structurées sur la réalité étudiée :

Nous connaissons la nature à travers les modèles que nous en construisons, en les construisant par abstraction de notre expérience, en les manipulant physiquement ou conceptuellement, et en testant leurs implications contre la nature[62].

9. Critiques des modèles conceptuels

Malgré leur omniprésence dans les pratiques scientifiques, les modèles conceptuels ne sont pas nécessairement acceptés de tous. Sperberg-McQueen en propose une critique radicale : « La non-formalité rend désastreusement difficile l’atteinte d’un désaccord clair. Pour cette raison, les modèles non formels méritent la réponse dédaigneuse souvent attribuée aux scientifiques[63] ».

Malgré ses difficultés et ses limites, un modèle conceptuel en langage naturel est toujours un modèle au sens technique du terme. Il ne disparaîtra pas des pratiques scientifiques. Même les mathématiques n’ont pas réussi à éliminer complètement une forme ou une autre de modélisation conceptuelle. Un programme informatique doit aussi avoir sa « documentation » ou son cahier de charges exprimé dans une langue naturelle, sinon, s’il est le moindrement complexe, il sera incompréhensible pour les humains.

En raison de ces problèmes, la modélisation conceptuelle reste fragile sur le plan épistémologique. Ce n’est souvent que par rapport à d’autres modèles et à de nombreux autres espaces conceptuels que ses énoncés finissent par participer de manière constructive à une théorie. Pourtant, la construction de ce type de modèles ne sera pas toujours une tâche facile. On ne saute pas spontanément dans les modèles ! La prudence est de mise.

10. La modélisation conceptuelle en LATAO

Un projet LATAO doit aussi construire son propre modèle conceptuel. Comme ailleurs, il aura pour fonction de conceptualiser les entités et opérations du projet. Il sera attentif à ses relations avec les modèles formels, computationnels et à la technologie informatique utilisée. Et lorsqu’appliqué à des textes philosophiques, il sera confronté à plusieurs paradigmes conceptuels qui pourraient être éventuellement pertinents en matière de lecture et d’analyse.

Une des objections majeures adressées à un tel modèle conceptuel vient d’une thèse adverse, qui voit la lecture et l’analyse des textes philosophiques comme un processus simple et naturel. Pour bien des philosophes, la lecture des textes semble en effet un talent développé spontanément au cours de la formation, et ensuite bien maîtrisé, de sorte que l’analyse subséquente serait une affaire d’intuition. Peu d’entre eux se sont arrêtés à la technicité et aux propriétés de ces activités si importantes pour leur pratique, qui relèveraient davantage de la métaphilosophie que de la philosophie elle-même. Malgré cette réserve, on trouve en philosophie, mais aussi en sciences cognitives, en linguistique et en littérature, des thèses fort pertinentes sur ce sujet[64]. Ces hypothèses appartiennent évidemment à des paradigmes théoriques spécifiques dont nous allons présenter certaines des thèses les plus pertinentes. Il est nécessaire de s’y arrêter si on veut construire un modèle conceptuel cohérent de LATAO appliqué aux textes philosophiques.

Classique, le premier paradigme relève de la tradition herméneutique. Ici, la lecture et l’analyse sont vues comme un travail d’interprétation dont la première thèse, souvent négligée parce que transparente, prétend que l’accès à la pensée ou aux idées d’un texte ne se réalise que par et dans le langage du texte. Autrement dit, interpréter est une activité de langage dont le texte est une des formes importantes. « Le langage est l’organe de formation de la pensée. » « Il en est la condition nécessaire[65]. » Une seconde thèse importante de ce paradigme affirme que cette interprétation ne dépend pas uniquement des mots ni même des phrases isolées, mais aussi de la manière dont le texte, comme totalité, contribue au contenu signifiant. Autrement dit, le texte serait en soi une unité signifiante globale.

Assurément la plus profonde, la troisième thèse herméneutique soutient que ce contenu signifiant ne se révèle pas uniquement dans le texte lui-même, mais dépend de l’engagement du lecteur dans l’activité d’interprétation : « Le texte dit quelque chose, mais cette activité du texte est due en définitive à l’action de l’interprète. Ils y ont part l’un et l’autre[66] ». Cet engagement transforme l’interprétation en compréhension du texte, une dynamique qui en appelle à toute l’expérience du monde du lecteur. En termes cognitifs, l’interprétation effectuée dans l’acte de lecture, certes subjective, repose sur des connaissances personnelles acquises, mais aussi sur des connaissances construites et partagées socialement, ce qui inclura donc la culture.

Les idées propres à l’interprète participent toujours, elles aussi et dès le début, au réveil du sens du texte. Ainsi l’horizon personnel de l’interprète est déterminant, il ne l’est pas cependant, lui non plus, à la manière d’un point de vue personnel que l’on maintient ou impose, mais plutôt comme une opinion ou une possibilité que l’on fait jouer et que l’on met en jeu, et qui contribue pour sa part à une appropriation véritable de ce qui est dit dans le texte[67].

Ces principes sont régulièrement repris chez les promoteurs de la lecture interprétative herméneutique : « L’art du sens d’un texte n’est pas basé sur ce qu’il y a dans le texte, mais sur ce qui est extérieur au texte[68] ». « Le sens des textes est fondé sur les intentions et l’histoire de leurs auteurs[69]. »

La quatrième et dernière thèse voit dans la lecture de type herméneutique un acte qui, loin d’être solitaire, participe d’une communication. Comme le dit Gadamer, un texte est une forme de dialogue ou de conversation. « Il en est ici comme de la conversation réelle : c’est l’enjeu commun qui lie l’un à l’autre, dans le dialogue, les partenaires, et ici le texte à l’interprète[70]. »

Bref, le paradigme herméneutique présente au moins cinq propositions spécifiques pour la construction d’un modèle conceptuel de LATAO : a) la lecture est un acte interprétatif ; b) cet acte de lecture est de nature langagière et c) la textualité constitue une de ses formes linguistiques importantes ; d) le contenu signifiant doit tenir compte de la communication à travers laquelle cette interprétation est partagée ; e) en effet, la compréhension qui en résulte dépend de l’auteur, de l’engagement du lecteur et du contexte social et culturel de la communication. Reste cependant que ce paradigme est peu précis sur les détails techniques touchant la manière dont s’effectue l’interprétation du langage comme artefact signifiant.

Le deuxième paradigme théorique vient de la philosophie analytique. Malgré l’ampleur du travail sur la nature de l’analyse, on y trouve peu de réflexions sur la lecture elle-même : « Qu’est-ce que la lecture ? C’est là une question importante, mais il y a un manque surprenant de recherche en philosophie analytique sur ce sujet[71] ».

Bien que ce paradigme n’offre pas une conceptualisation spécifique de la lecture, il apporte des concepts techniques sur la nature de l’opération d’interprétation mise en oeuvre à cette occasion. Elle y apparaîtra comme une activité sémantique appliquée aux constituants linguistiques, et l’analyse sera alors la reconstruction du contenu signifiant exprimée à son tour dans un autre texte. Évidemment, le courant analytique défend plusieurs compréhensions de ce travail sémantique. On peut les regrouper en trois thèses annexes relativement classiques.

La première, la plus connue, voit dans la sémantique une procédure référentielle associant une référence aux divers types d’expressions de base du langage du texte, tels les noms (propres et communs), les verbes, les adverbes, les performatifs, les expressions modales, les quantificateurs, les anaphores, etc. Pour les phrases composées de ces expressions de base, son rôle consisterait à en déterminer les conditions de vérité. Et pour les séquences de phrases, la sémantique déterminerait les diverses conditions d’inférences soutenant leur cohérence et leur cohésion. Bref, selon cette vision référentielle, la lecture serait un processus interprétatif, dont le rôle serait de déterminer dans son parcours ce dont « parlent » les mots, les phrases et les séquences de phrases.

Or, cette vision référentielle est problématique pour la LATAO. Il est en effet très difficile d’accepter que la lecture et l’analyse de texte soient comprises uniquement comme une interprétation de mots, de phrases et de séquences de phrases dont le lecteur doit déterminer la référence, que celle-ci soit liée à des entités dans un monde réel ou possible ou encore à des conditions de vérité. Certes, la tâche référentielle est nécessaire dans une lecture, mais un texte n’est-il qu’une séquence de phrases ? Et si c’est le cas, est-ce que l’interprétation référentielle est la seule condition de réussite de la lecture d’un texte ? Et surtout, comment cela se réalise-t-il effectivement ?

La deuxième thèse annexe vise à combler cette lacune. Elle se concentre non plus sur la référence, mais sur le sens (Sinn) des termes, c’est-à-dire, pour reprendre la formulation de Frege, sur le mode de présentation de la référence. Il existe cependant plusieurs manières de conceptualiser ce sens. Church, par exemple, l’avait identifié à la signification linguistique, au sens lexical partagé par les locuteurs[72]. D’autres (Carnap, Hintikka, etc.) y verront plutôt un objet logique. Ceci permettra, entre autres, de rendre compte de manière formelle du contenu des énoncés modaux. C’est souvent cette définition qui est appelée le sens frégéen, et, très formelle et abstraite, elle ne contribue que très peu à la compréhension de la lecture.

Une troisième définition a été popularisée par Husserl et, ultérieurement, par Dummett, Føllesdal, Evans, Fodor et bien d’autres. Ils donnent au sens un statut épistémique : le sens est ce qui est connu lorsqu’on connaît une langue.

Il n’y a aucun doute que pour Frege, le sens soit le contenu de ce qui est compris, ou plutôt, qu’il soit l’ingrédient principal de ce contenu : c’est ce que celui qui connaît le langage appréhende comme ce qui est objectivement associé aux expressions ; et cette appréhension est un exemple de connaissance[73].

Cette définition du sens sera très féconde pour une compréhension de la lecture. En effet, parmi ces trois compréhensions du sens, celle-ci donne accès à ce que Frege appelait la pensée (thought), car c’est elle qui serait exprimée par les phrases d’un texte. « La notion d’une pensée (thought) pour Frege devrait être interprétée à peu de choses près comme le contenu informationnel que nous saisissons lorsque nous comprenons une phrase[74]. » Fodor renchérit en disant que ces sens, ou « modes de présentation » (MOP) sont plus qu’une pensée ; ce sont des entités mentales particulières. « Les modes de présentation sont des particularités mentales structurées syntaxiquement[75]. » Ainsi, selon cette vision du sens, la lecture deviendrait un processus de saisie de la pensée : « À l’activité de saisie des pensées doit correspondre une capacité mentale, un pouvoir de penser[76] ».

La troisième thèse annexe en philosophie analytique donne une dimension pragmatique au travail sémantique. Originellement d’inspiration wittgensteinienne, elle a été reformulée par Strawson, Austin, Searle et Grice. On peut y établir un pont avec le paradigme herméneutique, surtout chez Habermas et Appel, qui en ont fait un fondement de leur modèle pragmatique de la communication. L’une des principales affirmations de cette vision sémantique est que la signification n’est pas interne aux symboles de la langue, mais qu’elle tire son origine de l’intention des locuteurs, tout en s’inscrivant dans la communication. Plus tard, Dummett a relié cette intentionnalité à la rationalité de la pensée.

Le langage est à la fois un instrument de communication et un véhicule de pensée : c’est une question importante d’orientation dans la philosophie du langage que nous considérons comme primordiale[77].

Brandom intégrera l’inférence à cette intentionnalité.

Dans cette perspective pragmatique, la lecture est encore une activité interprétative appliquée au langage. Elle tient certes compte des phrases, des séquences de phrases et de l’intention des auteurs, partie prenante du sens émergeant du texte. On trouve ici un lien avec les thèses herméneutiques de l’engagement du lecteur dans l’acte de lecture. En ce qui a trait à la lecture, justement, le problème majeur de ce paradigme est qu’il accorde peu de place au texte comme entité langagière spécifique.

En somme, le paradigme de la philosophie analytique, surtout de type épistémique et intentionnel, offre des propositions pertinentes pour construire un modèle conceptuel spécifique de LATAO, qui tient compte a) du langage du texte, b) des modalités par lesquelles ce langage réfère à un monde, c) aux sens (modes de présentation) qui donnent accès au contenu pensé et énoncé dans le texte et, finalement, d) aux intentionnalités et aux engagements de l’auteur et du lecteur.

Le troisième paradigme de lecture relève des sciences cognitives. Cette discipline étudie pour elles-mêmes les activités cognitives engagées dans la lecture et de l’analyse. La lecture est une activité unique aux humains, dont l’un des résultats parmi plusieurs autres (communication, compréhension, etc.) est l’analyse. Pour Gibson et Levine, « La lecture est une activité aussi variée et adaptative que la perception, le souvenir ou la pensée, car en fait, elle comprend toutes ces activités[78] ». Cette position sera ultérieurement traduite par van Dijk et Kintsch dans des termes relatifs au modèle situationnel ou local, c’est-à-dire en une représentation à base de texte (text-base representation) qui traduit des propositions d’un texte exprimant des situations[79] : « Une représentation à base de texte (text-base) est construite dans le processus de compréhension, et un modèle de situation est construit pour représenter la situation décrite dans le texte[80] ».

Ces schémas représentationnels seront des reposoirs d’informations nécessaires à l’interprétation.

Dire que l’on a compris un texte, c’est dire que la lecture a trouvé un « foyer » (home) mental pour l’information contenue dans le texte, ou bien qu’elle a modifié un foyer mental existant afin de s’adapter à cette nouvelle information[81].

Mais ce modèle demeure limité. On lui a ajouté des opérations de compréhension plus globale et qui tiennent compte de connaissances antérieures ou de fond (background) :

Comprendre un texte est un processus mental constructif et planifié où un lecteur crée une interprétation des significations textuelles, basée sur des informations textuelles écrites et des connaissances préalables[82].

Mais une condition essentielle de cette compréhension globale, est la maîtrise de la langue du texte sur divers plans de la structure des symboles linguistiques rencontrés : tels par exemple, au plan de la morphologie, de la syntaxe, mais surtout au plan, le plus important, de la sémantique, à savoir de ses unités lexicales isolées et contextualisées mais surtout de ses phrases. Enfin, une des dimensions importantes sur laquelle ce paradigme insiste est la cohérence et la cohésion globale du texte lui-même. Or, en contexte académique de lecture, le contenu signifiant sera souvent relié à celui d’autres textes. Autrement dit, la lecture n’est pas uniquement interprétation et compréhension intratextuelle, elle est aussi une dynamique intertextuelle.

En deuxième lieu, et c’est une des thèses importantes de la théorie cognitiviste, une lecture interprétative exige des connaissances relevant du monde, de la situation et du contexte. En effet, la définition lexicale, c’est-à-dire la signification, n’épuise pas tout le sens émergeant de la formation des phrases, des paraphrases, mais surtout du texte. C’est par ces connaissances que se construisent ultimement les modèles mentaux qui sont le socle de la compréhension.

Un modèle mental est une représentation tridimensionnelle emblématique qui s’apparente à un modèle réel de la scène du texte, mais en même temps, il peut être abstrait (contenant des symboles intangibles) et peut inclure une petite quantité d’informations[83].

Ce modèle mental se construit à partir de la signification des items lexicaux[84], mais aussi du sens inscrit dans la textualité tout entière.

Enfin, une troisième dimension de cette compréhension relève de la communication. En effet, un texte n’est pas uniquement lu en vue de la compréhension personnelle, il exige aussi l’habileté à traduire et à partager le contenu lu et compris avec une communauté épistémique d’appartenance : « La compréhension ne s’accomplit que si elle est prête à être coparticipée[85] ».

La compréhension des textes universitaires comprend les capacités, les connaissances linguistiques spécifiques et les connaissances disciplinaires liées à une communauté de discours[86].

Cette communication sert à l’accréditation et à l’assimilation personnelle effectuée dans les lectures. Elle est une étape dans la conversation avec les autres membres de sa communauté épistémique.

Bref, du paradigme cognitiviste, le modèle conceptuel retiendra que la lecture est plus particulièrement : a) une activité cognitive, b) qui utilise le langage c) pour construire des modèles mentaux à partir des données linguistiques. Et d) il lui faudra tenir compte de la connaissance mondaine acquise par le lecteur, e) en n’oubliant pas que le tout sera partagé par la communauté épistémique d’appartenance.

Le quatrième paradigme est celui de la linguistique textuelle (à ne pas confondre avec la linguistique de corpus[87]). Dans ce modèle, l’objet immédiat est le langage lui-même, et plus particulièrement la lecture et l’analyse appliquées au texte comme forme linguistique globale.

Pour ce paradigme, un texte est plus que des mots et des phrases : c’est une entité linguistique originale, dont le contenu signifiant est structuré et intégré. Ce n’est pas une unité grammaticale, comme une unité syntaxique ou une phrase, et il n’est pas défini par sa taille : « Il vaut mieux considérer un texte comme une unité sémantique ; une unité non pas de forme, mais de sens (meaning)[88] ». Et, ajoute Fowler, « un texte est composé de phrases, mais il relève de principes distincts de construction du texte, qui au-delà des règles permettent de construire des phrases[89] ».

Il existe évidemment plusieurs conceptions de la structure du texte, chacune ouvrant à des compréhensions spécifiques de la lecture et de l’analyse. Pour certains linguistes d’orientation formaliste, la structure du texte est fondée sur des règles ou des grammaires, qui en assureraient la cohérence et la cohésion[90]. Mais dans une telle perspective, la lecture devient un parcours d’acceptabilité des phrases en regard de ces règles et grammaires, un processus avant tout de nature syntaxique, dans lequel la sémantique ne joue guère de rôle. Pour d’autres, par exemple Adam ou Rastier, dont l’orientation est davantage sémiotique, la structure signifiante d’un texte relève de plusieurs niveaux, soit micro, méso ou macro, chacun déterminant des contextes spécifiques du sens d’un texte. « Le texte isolé n’a pas plus d’existence que le mot ou la phrase isolés : pour être produit et compris, il doit être rapporté à un genre et à un discours[91]. » Dans cette optique, la lecture est toujours un acte d’interprétation qui relève de plusieurs contraintes appartenant au style, au genre et à la rhétorique du texte. Ces aspects entraînent des architectures de textes où le sens se distribue et se construit dans et à travers tout le texte. Pour d’autres, enfin, le sens du texte ne résulte pas uniquement de sa structure interne, il dépend aussi des énonciateurs et des contextes d’énonciation, sans oublier l’interaction de ses diverses strates[92]. En ce sens, le texte se déploie en discours et schémas rhétoriques : « Un compte rendu complet du rôle des mots dans la construction du sens doit également aborder le sens au-delà du niveau de l’énoncé, c’est-à-dire au niveau du discours[93] ». Selon certaines théories rhétoriques, divers types de blocs de segments coexistent : les uns sont des noyaux, d’autres sont périphériques, et le texte les intègre en regard des buts de la communication ou du dialogue. Ainsi, pour Foucault, le discours doit se situer par rapport à d’autres discours périphériques manifestés dans d’autres textes[94]. Notons enfin que de Beaugrande et Dressler ont proposé sept propriétés de la textualité[95]. Pour eux, un texte est une forme de communication qui présente cohésion, cohérence, intentionnalité, acceptabilité, informativité, situationnalité et intertextualité.

On pourrait souligner aussi d’autres disciplines où le langage et le texte sont des objets d’étude et qui ont proposé des thèses sur la lecture et l’analyse. Ainsi, en littérature et en sémiotique, on insistera sur le rôle important de l’imaginaire, de l’émotion, de l’intentionnalité dans la formation du sens[96]. En sciences de l’éducation et dans les humanités, on parlera de lecture proche ou distante, que l’on pourrait distinguer en regard de deux axes ou vecteurs. La lecture proche construit un parcours vertical, c’est-à-dire en profondeur : « La lecture proche et attentive signifie lire pour découvrir des couches de signification (meaning) qui conduisent à une compréhension profonde[97] ». Ce qui caractérise ce type de lecture est l’utilisation de principes issus des approches linguistiques classiques qui en appellent à la sémantique, à la philologie, à l’interprétation subjective, à la textualité, etc. Quant à la lecture distante proposée par Moretti[98], elle se situe presque en dehors du paradigme linguistique. Il s’agit en fait d’une lecture horizontale, c’est-à-dire d’un parcours sensible à la temporalité (par exemple un thème dans plusieurs écrits d’une même époque) ou diachronique (par exemple un thème repris par des auteurs d’époques différentes). Mais sa caractéristique principale est que la lecture y est assistée d’outils mathématiques compatibles (statistiques, géométrie, logique, etc.), qui sont surtout sensibles aux mots et à la cooccurrence ou à leur contexte immédiat.

En somme, pour le paradigme de la linguistique textuelle, la lecture et l’analyse de texte offrent aussi des propositions intéressantes pour construire un modèle conceptuel de LATAO. Ce modèle doit alors tenir compte du fait a) que la lecture et l’analyse sont des activités d’interprétation et de compréhension multidimensionnelles, b) qu’il existe une structure interne au texte comme texte, c) que le texte présente une dynamique dialogique et interdiscursive.

Une brève synthèse de ces quatre paradigmes théoriques sur la lecture et l’analyse dira qu’un modèle conceptuel de LATAO applicable à des textes philosophiques devrait fournir des informations relativement spécifiques sur : a) la complexité de la structure linguistique opérant dans les multiples niveaux et contextes du texte, b) les divers types de connaissances liées aux intentions de l’auteur et du lecteur, c) l’ampleur de l’horizon épistémique textuel et discursif auquel appartient le texte, d) la communication établie par le texte avec la communauté épistémique dans laquelle il s’insère. Enfin, ce sont ces informations que, à leur tour, les modèles formels et computationnels devront prendre en considération s’ils veulent traiter adéquatement la nature et la complexité des tâches qu’une LATAO appliquée à des textes philosophiques met en oeuvre.

Conclusion

Pour terminer, revenons sur la question de la place de la philosophie dans les projets où l’ordinateur intervient et dont la LATAO n’est qu’un cas particulier. Où se situe la philosophie dans ces projets ?

D’abord, il faut se rappeler que la LATAO est une activité humaine qui prend la forme de la lecture et de l’analyse de textes, dont une des originalités est d’être assistée par ordinateur. Une LATAO peut certes devenir un projet pour un philosophe-lecteur qui s’intéresse à des textes philosophiques pour une raison ou une autre. Mais rien ne garantit qu’un tel type de projet relève de la recherche philosophique. Une lecture assistée par ordinateur d’un roman, si célèbre et profond soit-il, ne fait pas du lecteur un expert en littérature. Il semble en être ainsi pour tout projet impliquant l’informatique et traitant des activités d’interprétation et de compréhension d’artefacts sémiotiques, quel qu’en soit par ailleurs le type.

Ensuite, rappelons-nous l’optique adoptée par la philosophie pragmatique des sciences : elle invitait à approcher des projets de type scientifique grâce à la construction de modèles, qui plus est, de plusieurs modèles complémentaires. Pour les projets incluant l’informatique, nous en avons déterminé au moins quatre types potentiels. La LATAO montre qu’en pareil cas, la philosophie peut être très active. Mais du coup, il apparaît évident que d’autres paradigmes, en l’occurrence cognitivistes, linguistiques ou littéraires, peuvent aussi contribuer à la construction du modèle conceptuel de lecture et d’analyse. Et, dans ces situations, la philosophie est amenée à travailler de manière interdisciplinaire, tout en conservant sa signature propre, ce qui, il faut l’avouer, constitue pour elle un défi important, car elle doit alors mieux se définir et négocier sa place dans le dialogue créé par la communauté épistémique autour de ces projets. Ainsi, dans le cas de la LATAO, bien que les paradigmes philosophiques de type herméneutique ou analytique soient très spécifiques, ils se sont influencés de manière très féconde, et il est clair que le dialogue avec les autres paradigmes s’avère très riche. En conséquence, un projet qui inclura l’informatique profitera largement de la portée épistémique d’une conceptualisation philosophique dialoguant avec d’autres paradigmes, et vice versa.

Un troisième point touche le rôle d’un modèle conceptuel. Idéalement, il doit préciser les données, les énoncés, les paramètres reliés aux multiples tâches à réaliser, afin de faciliter la modélisation formelle et computationnelle. Mais le formalisme et la computation ont leurs propres contraintes et ils ne peuvent pas accommoder tout ce que draine le modèle conceptuel. On doit donc nécessairement effectuer un choix parmi ses opérations et ses constituants. Autrement dit, seuls certains aspects du modèle conceptuel peuvent devenir des intrants acceptables des modèles formels et computationnels. Certes, la philosophie peut participer à sa construction, mais il ne s’ensuit pas que toutes les tâches qu’elle identifie seront retenues. C’est ce que l’on a constaté dans le cas des activités de lecture et d’analyse.

Enfin, même si la philosophie peut déterminer et conceptualiser des opérations très pertinentes qui seront éventuellement retenues dans de tels projets, il n’est aucunement assuré que toutes seront pour autant formalisables en des fonctions calculables, c’est-à-dire computables. Autrement dit, le travail philosophique peut conceptualiser diverses dimensions d’un problème, mais rien ne garantit qu’elles seront traduisibles dans un modèle formel ou computationnel. Et c’est là, nous semble-t-il, que la philosophie peut aider à interpréter des tâches complexes, par exemple en LATAO. Elle offrira des horizons originaux de compréhension qui iront souvent au-delà de ce qui est formalisable et computable.