Corps de l’article

1. Introduction

Le traitement automatique des langues (TAL) et l’ingénierie des langues sont devenus, au cours des dernières années, des domaines clés pour répondre aux besoins de notre société en termes d’analyse et d’exploitation de gisements d’information, le plus souvent sous forme textuelle, et aujourd’hui largement disponibles, en particulier sur le Web (Pierrel 2000). Une analyse de l’évolution de la linguistique au cours du dernier demi-siècle montre que sa confrontation avec l’informatique et les mathématiques lui a permis de se définir de nouvelles approches. C’est ainsi qu’au delà d’une simple linguistique descriptive s’est développée une linguistique formelle, couvrant aussi bien les aspects lexicaux que syntaxiques ou sémantiques, qui tend à proposer des modèles s’appuyant sur une double validation, explicative d’un point de vue linguistique, opératoire d’un point de vue informatique. C’est elle aussi qui a permis l’émergence d’une véritable linguistique de corpus (Habert, Nazarenko et Salem 1997) permettant au linguiste d’aller au delà de l’accumulation de faits de langue et de confronter ses théories à l’usage effectif de la langue. Parallèlement, les besoins applicatifs ont conduit à de nombreux travaux en traitement automatique des langues. Aujourd’hui, traitement automatique des langues et linguistique de corpus structurent un nouveau champ disciplinaire aux finalités multiples, en particulier : 1° modélisation de la langue, de sa structure et de son usage conduisant la linguistique à des exigences d’opérationnalité effective sur les formes d’usage de la langue, par opposition aux exemples construits, encore trop souvent utilisés en linguistique; 2° mise en place d’applications concrètes : indexation et accès à l’information, résumé de textes, extraction de connaissances, dialogue homme-machine, par exemple.

Ces études et recherches en traitement automatique des langues et en linguistique de corpus nécessitent de plus en plus l’usage de vastes ressources linguistiques : textes et corpus, si possible annotés (Véronis 2000), dictionnaires, outils de gestion et d’analyse de ces ressources. Le coût de réalisation de telles ressources justifie pleinement des efforts de normalisation (Bonhomme 2000) et de mutualisation pour permettre à la communauté de recherche de bénéficier, pour le français, de ressources comparables à celles existant pour d’autres grandes langues telle l’anglais. Dans cet article, nous avons choisi de présenter les ressources (bases de données textuelles, dictionnaires et outils d’exploitation) mises au point dans notre laboratoire dont les caractéristiques sont d’une part leur qualité proprement linguistique, d’autre part leur disponibilité via le Web à l’adresse : www.atilf.fr.

2. Quelles ressources linguistiques informatisées pour l’étude du français?

2.1 Corpus textuels

Le premier type de ressources, indispensables pour le développement de nombreuses études sur la langue, son analyse et son traitement, concerne les corpus textuels et les corpus d’exemples. Leur rôle est en effet central pour permettre la construction de modèles. Cette activité de modélisation a comme objectif premier de proposer, de parfaire et d’évaluer des modèles opératoires ou des théories linguistiques représentatifs de l’usage effectif de la langue. Il s’agit le plus souvent de faire émerger des invariants ou, au contraire, des comportements particuliers d’entités linguistiques. Si, pendant longtemps, ce type d’activité a pu se satisfaire des connaissances intrinsèques sur la langue qu’a le chercheur, les besoins de validation objective du monde scientifique nécessitent de plus en plus le maniement de vastes ensembles d’exemples attestés. La question fondamentale est alors de savoir comment recueillir des données fiables sur l’usage effectif de la langue. Le Web est aujourd’hui une source importante d’extraction de corpus, mais on peut à juste titre s’interroger sur la fiabilité des ressources textuelles qu’on y trouve. Deux travers de taille caractérisent les textes disponibles sur le Web : 1° leur qualité est souvent très discutable. Sans parler des nombreuses fautes qui demeurent dans bien des textes disponibles sur la toile, on y retrouve un mélange de textes, de formes, de genres, de niveaux de langue et d’époques très disparates; 2° la pérennité de leur disponibilité n’est pas toujours assurée. Le propre du Web est de fournir des informations en constante évolution et, dans le cadre de projets de recherche, leur durée de vie est souvent inférieure à la durée de vie des projets qu’elles sous-tendent.

La question de la qualité et de la disponibilité des corpus reste donc importante pour notre domaine de recherche et, pour s’en convaincre, il suffit d’analyser certains projets nationaux ou internationaux. Ainsi, en France le projet «technolangue»[1], lancé par le ministère français de la recherche et des nouvelles technologies, indiquait parmi ses quatre thèmes d’appel de propositions un volet sur les ressources linguistiques dont l’objectif était «de stimuler la production, la validation et la diffusion de ressources linguistiques pour répondre aux besoins minimaux pour l’étude de la langue française, favoriser la réutilisabilité de ces ressources et diminuer le coût du ‘ticket d ’entrée’ dans le secteur»[2]. Le nombre de projets soumis sur ce volet, en association entre des chercheurs et des industriels, montre l’importance de ce thème. Les besoins sont en effet très diversifiés : que ce soit pour les types de textes (littéraires, scientifiques ou techniques, monolingues et multilingues), ou pour les usages (industriels, professionnels ou grand public), la nécessité de vastes corpus normalisés, annotés et validés s’impose.

2.2 Dictionnaires et lexiques

Le second type de ressources concerne les dictionnaires et les lexiques. Bon nombre des arguments développés ci-dessus peuvent aussi s’appliquer dans ce domaine. Or, aucun traitement automatique de la langue ne peut se passer du niveau lexical, et la disponibilité de ressources de ce type est unanimement reconnue comme indispensable pour la plupart des traitements. Là encore les besoins sont très divers dans un contexte monolingue ou multilingue : dictionnaires spécialisés et dictionnaires généraux de langue, lexiques techniques ou bases terminologiques, par exemple.

Si, une fois de plus, la toile offre des réponses diversifiées à ce besoin, nombre de questions demeurent concernant tout à la fois la qualité, la richesse, la couverture et la disponibilité de telles ressources. Il suffit pour s’en convaincre d’analyser les réponses qu’on peut obtenir après une interrogation de la toile à partir, par exemple, de «dictionnaire + langue française».

2.3 Des outils de traitements partagés

Un troisième type de ressources, complément des deux précédents, concerne les outils de traitement de la langue. Deux types d’outils méritent une attention toute particulière : 1° les outils de gestion et d’exploitation des ressources textuelles, lexicales ou dictionnairiques. Que seraient en effet des ressources textuelles ou dictionnairiques du type de celles envisagées ci-dessus sans les logiciels d’exploration de ces ressources? 2° les outils de base de traitement de la langue. Indispensables pour permettre à une équipe de recherche ou de développement de proposer des avancées sur tel ou tel point spécifique, ils doivent devenir disponibles pour notre langue, ce qui évitera de sans cesse réinventer la roue dans des domaines tels que la lemmatisation, la conjugaison ou l’étiquetage morphosyntaxique.

Une fois de plus on ne peut que noter, tout en le regrettant, le manque de disponibilité d’outils fiables et généraux de ce type. Faute de cette disponibilité aujourd’hui, la première tâche d’une équipe de recherche ou de développement travaillant sur des ressources linguistiques et plus généralement sur la langue consiste souvent à redévelopper de tels outils.

En conclusion de ce paragraphe introductif, je voudrais faire partager ma conviction de la nécessité de disposer, pour la communauté francophone, de ressources de références (corpus textuels, dictionnaires et lexiques, outils d’exploitation de ces ressources) pour la construction de modèles linguistiques ou modules de traitement, pour leur validation et pour leur comparaison. Ainsi l’évaluation de nos productions de recherche, de plus en plus indispensable, nécessite, pour des besoins de comparaison, la disponibilité de ressources de référence (corpus textuels, corpus d’exemples sur un phénomène de langue, ressources dictionnairiques) accessibles et clairement identifiables.

3. Un ensemble de ressources de référence : dictionnaire et données textuelles

Le laboratoire atilf offre un ensemble de ressources informatisées (Bernard et coll. 2001) composé de bases textuelles et lexicologiques. Dans cet ensemble de ressources, on distingue essentiellement la base frantext et le Trésor de la Langue Française informatisé (tlfi).

3.1 Le tlfi ou Trésor de la Langue Française Informatisé : www.atilf.fr/tlfi

3.1.1 Présentation générale 

Le tlfi s’appuie sur Le Trésor de la Langue Française, dictionnaire de langue réalisé entre le début des années soixante et le milieu des années quatre-vingt-dix (cnrs 1976-1994), par l’Institut National de la Langue Française. Dans son récent ouvrage sur les dictionnaires de la langue française, Pruvost 2002 présente ainsi cet ouvrage :

Ce projet, qui correspond à une entreprise publique ayant requis une centaine de chercheurs pendant 30 ans, avec un dépouillement de plus de 3 000 textes littéraires, scientifiques et techniques, a bénéficié des compétences nationales et internationales les plus éminentes […] Il en résulte, au delà de la très grande qualité scientifique des articles, une description du fonctionnement de la langue qui ne manque pas d’être impressionnante : 23 000 pages, 100 000 mots, 450 000 entrées, 500 000 citations précisément identifiées. Le tlf relève pleinement d’une lexicographie philologique et historique, recourant aux citations-attestations qui permettent de fonder toutes les analyses morphologiques et sémantiques.

Le tlfi (Dendien 1996, Dendien et Pierrel 2003) se présente à la fois comme une base lexicologique et une base de connaissances dont l’accessibilité est immédiate via Internet. Il se distingue des autres dictionnaires électroniques par la finesse de la structuration des données en «objets» interrogeables selon divers critères, et par une interface simple et conviviale qui offre trois niveaux de consultation via le logiciel stella : 1° consultation simple du dictionnaire, article par article, avec mise en évidence ou non de tel ou tel type d’information (définition, exemple…); 2° consultation transversale, par une requête élémentaire utilisant certains critères (définitions dans le domaine de la cuisine…); 3° consultation plus complexe croisant plusieurs critères. Ces requêtes peuvent être élémentaires ou multiples (par exemple extraire tous les mots se terminant par le suffixe –âtre et extraire de cette liste ceux qui ont un sens péjoratif). Elles peuvent inclure ou exclure un contenu, etc.

3.1.2 Spécificités du contenu

Le tlfi se distingue aussi par la richesse de son matériau et la complexité de sa structure : 1° originalité de sa nomenclature (incluant préfixes, suffixes et autres éléments de formation) : c’est en tout 100 000 mots avec leur étymologie et leur histoire, et 270 000 définitions; 2° richesse des objets métatextuels (vedettes, codes grammaticaux, indicateurs sémantiques ou stylistiques, indicateurs de domaines, définitions, exemples référencés…); 3° richesse des 430 000 exemples, tirés de deux siècles de production littéraire française; 4° diversité des rubriques : une rubrique synchronie couvrant la période de 1789 à nos jours, une rubrique étymologie et histoire, et une rubrique bibliographie pour les principaux articles.

3.1.3 Spécificités du balisage

Un des principaux avantages d’un dictionnaire informatisé est de permettre d’effectuer des recherches transversales «plein texte» à travers la totalité de son contenu. Cependant, chaque occurrence du texte cherché a une signification qui dépend essentiellement du type de l’objet textuel dans lequel elle est localisée. Restreindre une recherche «plein texte» à tel ou tel type donné permet donc de diminuer le bruit et d’accroître la précision des recherches. Afin de rendre les interrogations du tlf plus précises et significatives, on a procédé à un balisage textuel xml de tout le texte du dictionnaire en y injectant des balises repérant le début, la fin et le type de chaque objet textuel rencontré. Une quarantaine de types d’objets différents a ainsi été introduite à l’aide d’automates experts, alors que bien des dictionnaires informatisés s’arrêtent à quelques types essentiels (souvent définitions et/ou citations). Il est ainsi possible de limiter une recherche «plein texte» à l’un de ces types.

Afin d’introduire encore plus de précision dans les requêtes, il convenait d’ouvrir une nouvelle dimension : celle de la structure hiérarchique de chaque article. En effet, un article de dictionnaire (à l’exception des articles les plus élémentaires) introduit une structure explicitée dans le tlf (comme dans bien d’autres dictionnaires) par des sigles de structure hiérarchisés (I, II, …; A, B,…; 1, 2, …, a, b,…). Une indication de domaine technique «mécanique» apparaissant au niveau B, par exemple, signifie clairement que les éventuelles subdivisions hiérarchiques du B traitent de la mécanique. Et une définition trouvée dans le paragraphe b) appartenant au paragraphe 2) qui appartient au B introduit nécessairement un sens usité dans le domaine de la mécanique. De manière générale, il est donc possible d’introduire systématiquement une relation entre deux objets X et Y, X étant hiérarchiquement inférieur, égal ou supérieur à Y.

Il est possible d’effectuer des requêtes comportant N objets, chaque objet ayant un contenu textuel imposé, et les liens relationnels entre objets étant imposés. Pour que la requête ait un sens, il suffit que le graphe dont les sommets sont les objets et dont les arcs sont les relations hiérarchiques imposées soit connexe. Par exemple, soit une requête spécifiant qu’un objet A de type catégorie grammaticale contienne le mot «verbe», qu’un objet B de type indication de domaine technique contienne le mot «marine», qu’un objet C de type définition contienne le mot «voile» ou «voiles», que A soit hiérarchiquement supérieur à B (ce qui signifie que l’indication «marine» est afférente à un verbe), et enfin que B soit hiérarchiquement supérieur à C (ce qui signifie que la définition est trouvée dans une section d’article traitant de marine) : une telle requête revient de toute évidence à rechercher tous les verbes utilisés dans la marine pour la manoeuvre des voiles.

La richesse du balisage du tlfi (plus de 36 millions de balises xml) permet l’identification de nombreux types d’objets et leur mise en relation hiérarchique, et contribue à obtenir des résultats d’un degré de pertinence très élevé, chaque contrainte hiérarchique contribuant à filtrer le bruit. L’interface utilisateur permet d’exprimer de telles requêtes avec la plus grande facilité.

3.2 Une base de données textuelles : frantextwww.atilf.fr/frantext

3.2.1 Présentation générale

frantext (1992) peut se définir comme un doublet constitué d’une part d’un vaste corpus de textes de langue française et d’autre part d’un logiciel offrant une interface Web permettant son interrogation et sa consultation.

Historiquement (Bernet et Pierrel 2003), le but premier du corpus textuel était de permettre la constitution de «dossiers de mots» destinés aux rédacteurs du dictionnaire tlf. Un rédacteur ayant à écrire l’article du tlf consacré au mot briquet, par exemple, se trouvait ainsi doté d’une concordance systématique de ce mot, triée suivant différents critères. D’autre part, le corpus textuel servait également, en phase finale de rédaction, à sélectionner le texte des exemples fournis dans le tlf. On peut estimer que ce corpus textuel a fourni environ 90 % des quelque 430 000 exemples cités dans le tlf.

La constitution des dossiers de mots, ainsi que les extractions des exemples finalement retenus, étaient assurées par de lourds logiciels non interactifs procédant par traitement séquentiel du corpus. Vers les années quatre-vingt, le laboratoire a réalisé une plateforme de type base de données textuelles qui a permis un gain de productivité spectaculaire grâce à un accès direct aux mots du corpus. Surtout, cette plateforme a permis d’envisager la réalisation d’une première interface utilisateur, avec une exploitation télématique par les moyens de l’époque.

Progressivement, la raison d’être initiale de frantext (au service du tlf) a été supplantée par le souci de mettre à la disposition de la communauté scientifique un corpus textuel de plus en plus élaboré et doté d’un outil d’interrogation de plus en plus efficace.

3.2.2 État actuel du corpus

Le corpus actuel comporte 3665 textes dont les dates s’échelonnent de 1507 à 1998. Le corpus textuel de frantext vient prolonger un corpus de français médiéval et de moyen français (environ 300 textes couvrant les années 847 à 1502), offrant ainsi l’une des plus grandes ressources disponibles sur toutes les époques de la langue française. Il devrait être enrichi dans l’année à venir par un ensemble important de textes scientifiques contemporains. À ce jour, le corpus de frantext contient environ 80 % de textes littéraires (texte intégral) et 20 % de textes techniques représentatifs des principales disciplines scientifiques.

Une veille permanente est assurée sur ce corpus avec plusieurs objectifs : 1° qualité de la saisie : une partie du corpus actuel est encore dans l’état de la saisie initiale (début des années soixante). Ces textes ont quelquefois été victimes d’avatars liés à la technologie de l’époque. Cette partie du corpus fait l’objet d’une campagne intensive de correction; 2° qualité des éditions saisies : l’une des originalités de frantext est de se référer à des éditions dûment référencées (on regrettera à cet égard qu’il en soit rarement de même pour les nombreuses sources textuelles communément trouvées sur Internet); 3° complémentation du corpus : notre politique veut d’une part rééquilibrer les différentes époques et les différents genres, d’autre part faciliter des opérations précises de recherche ou d’enseignement telle la mise à disposition, chaque année, de la totalité des textes inscrits au programme de l’agrégation.frantext est disponible sur Internet, par abonnement, sous deux formes : la totalité du corpus (3665 textes) qu’on peut interroger sur les formes graphiques du texte, et la partie du corpus en orthographe «moderne» (1940 textes), entièrement étiqueté en catégories grammaticales par un logiciel de catégorisation réalisé par l’ atilf. Cette version peut être interrogée à la fois sur les formes graphiques et sur les catégories grammaticales.

3.3 Une intégration de l’ensemble grâce à un même outil d’exploitation : le logiciel stella

stella est le logiciel qui anime la base de données frantext ainsi que le tlfi. Il a été intégralement développé à l’atilf. Ce logiciel peut s’appliquer à tout ensemble de données textuelles, structurées ou non. Outre frantext et le tlfi, on trouvera sur Internet des versions informatisées du dictionnaire de l’Académie française, gérées elles aussi par stella : 8e édition de 1935 www.atilf.fr/academie8 et 9e édition (en cours) www.atilf.fr/academie9.

Le logiciel stella se présente comme une boîte à outils (C++) comportant différents volets : d’abord, divers utilitaires incluant des tris, le traitement des expressions régulières, et surtout une base de données fondée sur la nomenclature du tlf permettant des opérations de flexion ou de lemmatisation. Ensuite, une interface Web permettant la mise en oeuvre facile d’interfaces utilisateur, des fonctions de gestion de «sessions utilisateur» ainsi qu’une solution permettant une hypernavigation entre les différentes applications gérées par stella, qu’elles résident ou non sur un même serveur. L’hypernavigation permet une liaison dynamique entre les différentes ressources textuelles : il est ainsi possible, en cliquant sur n’importe quel mot d’une page affichée par l’une des bases gérées par stella, de déclencher l’apparition d’un menu déroulant proposant de le rechercher dans n’importe laquelle des autres bases. Par exemple, le fait de cliquer sur le mot aimerions permet d’afficher l’article «aimer» du tlfi ou des 8e ou 9e édition de l’Académie. Enfin, un système complet de gestion de base textuelle assurant à la fois les fonctions de stockage et d’accès à l’information.

La conception de stella, en tant que logiciel de gestion de base textuelle, repose sur des principes mathématiques rigoureux (Dendien 1991) et intègre un nombre important de fonctionnalités.

3.3.1 Fonctions de «bas niveau»

Les fonctions de bas niveau permettent de construire et de gérer les structures de stockage de l’information. Elles reposent sur un système d’indexation garantissant un stockage optimal des données en termes d’encombrement. Il est mathématiquement démontré que ce système a des performances égales à celles prévisibles par la théorie de l’information, avec cette propriété remarquable que la quantité d’information nécessaire pour coder l’emplacement d’une occurrence d’un mot est indépendante de la taille du corpus (en ne dépendant que de la probabilité de ce mot), ce qui rend ce système apte à gérer des corpus de taille considérable. Qui plus est, la compacité du système d’indexation assure des performances optimales en minimisant les échanges entre mémoire de masse et mémoire centrale.

3.3.2 Fonction de «haut niveau»

De même que les fonctions de bas niveau  permettent une localisation rapide des occurrences d’un objet textuel élémentaire (mot) au sein du corpus, les fonctions de haut niveau permettent de traiter le même problème pour la localisation d’objets textuels beaucoup plus complexes. Elles reposent sur une théorie des objets textuels dont les principes sont les suivants : 1° tout objet textuel est manipulable par des méthodes-standard (méthodes virtuelles d’une classe de base) permettant d’implémenter son moteur de recherche; 2° un ensemble de lois de composition (dont les plus simples sont les listes et les séquences) permet de fabriquer des objets textuels nouveaux, dits objets composites, à l’aide d’objets élémentaires ou d’autres objets composites. Les méthodes-standard de manipulation d’un objet composite se déduisent des méthodes des objets ayant servi à le fabriquer.

De ces principes, on peut déduire les conséquences suivantes : 1° il est possible de fabriquer des objets composites d’une complexité arbitrairement élevée en appliquant successivement les lois de composition autant de fois que l’on veut; 2° tout objet composite est automatiquement muni de son moteur de recherche, qui se déduit des moteurs de recherche de ses composants, et, par récursivité, des moteurs de recherche des objets élémentaires à l’origine de sa construction; 3° il est possible de fabriquer des objets élémentaires nouveaux, dits objets natifs, de manière tout à fait arbitraire : il suffit pour cela de les doter des méthodes-standard. Ces objets natifs pourront à leur tour entrer comme éléments de fabrication d’objets composites. Par exemple, si on définit un objet «joker» muni de méthodes de localisation (particulièrement faciles à implémenter, car elles expriment que ce joker est un objet situé n’importe où), il devient possible de définir un objet composite de type séquence comportant successivement le mot un, le joker, et le mot homme pour localiser toutes les occurrences de «un XX homme», dans laquelle XX désigne un mot quelconque. Un autre exemple de constructeur d’objet natif admettant en paramètre l’infinitif d’un verbe consiste à fabriquer la liste composée des objets élémentaires correspondant à chacune de ses formes fléchies. Le moteur de recherche de cet objet localisera l’ensemble de formes fléchies du verbe donné en paramètre.

Ce mécanisme de création d’objets composites ou natifs confère à stella une architecture totalement ouverte à bien des égards. Premièrement, l’ensemble des lois de composition est ouvert, l’implémentation de lois nouvelles permettant la création d’objets composites nouveaux. Par exemple, si un texte a été segmenté et étiqueté à l’aide d’un analyseur morphosyntaxique, il est possible de créer (comme dans frantext) un objet composite représentant à la fois le contenu textuel et les attributs grammaticaux associés (p. ex. contenu «tire-bouchon» et attribut «substantif»). Deuxièmement, l’ensemble des objets natifs peut s’enrichir à l’infini. Tout nouvel objet natif peut entrer dans la fabrication d’objets composites, démultipliant ainsi leur combinatoire. Enfin, les objets natifs nouveaux permettent d’introduire facilement un «savoir linguistique». Par exemple, rien n’est plus facile que d’introduire, si on le désire, les déclinaisons latines.

4. Exemples d’exploitation de nos ressources sous stella

4.1 Recherche dans le tlfi

Bien que le logiciel stella soit doté d’un compilateur de langage de requête très avancé, le tlfi présente un certain nombre de spécificités qui nous ont conduits à définir un langage de requête spécifique au tlfi et à réaliser son compilateur. Le langage de requête définit un vocabulaire associant un mot clé à chaque élément xml. Par exemple, le mot clé définition est associé à l’élément DEF de la DTD. Cette association est réalisée à l’aide d’un simple fichier de correspondance, très facile à mettre à jour avec un simple éditeur de texte. Il est ainsi très aisé, par exemple, de réaliser un jeu de mnémoniques adaptés à des utilisateurs anglophones ou hispanophones, et aussi de permettre ou d’interdire la visibilité de tel ou tel élément xml.

4.1.1 Principes du langage de requête

Le principe du langage de requête du tlf est extrêmement simple. En voici un exemple.La requête :

“X:domaine(agriculture);Y:définition(instrument);
Y i (X);Z:source(Académie);Z i Y;”

s’interprète de la manière suivante :

  • soit X un indicateur de domaine technique contenant le mot agriculture;

  • soit Y une définition contenant le mot instrument;

  • Y est inclus dans la portée de X (on remarquera la notation “Y i (X)” qui signifie que l’élément X est inclus dans la portée de l’élément Y, alors que “Y i X” signifie que l’élément X est inclus dans l’élément Y). Cette clause (cf. la notion de portée des objets) implique que la définition est valable dans le domaine de l’agriculture;

  • soit Z une source (bibliographique) contenant le mot Académie;

  • Z est inclus dans Y (cette clause implique que la définition est empruntée au dictionnaire de l’Académie française).

Cette requête va déclencher la recherche de tous les triplets (X, Y, Z) respectant le système de contraintes énoncé. Elle peut se paraphraser ainsi : «Chercher, dans le domaine de l’agriculture, les définitions relatives à un instrument et empruntées au dictionnaire de l’Académie».

On remarquera l’aspect non procédural du langage de requête qui permet de décrire un système de contraintes à résoudre, mais pas les opérations nécessaires pour y parvenir. On voit dans cet exemple que le langage de requête met en jeu à la fois le type des objets textuels, leur contenu textuel éventuel, et les relations entre les objets de la requête. La différence entre les deux types de relation (inclusion et dépendance hiérarchique) est fondamentale et constitue le seul point délicat à appréhender pour une bonne manipulation du langage de requête.

Pour conclure cette présentation rapide du langage de requête du tlfi, il convient de comprendre la notion de connexité d’une requête : toute requête introduit un ensemble d’éléments ({X, Y, Z} dans notre exemple) muni d’une relation binaire, et peut donc être considéré comme un graphe G. Si le graphe G est non connexe, cela signifie que la requête demande de rechercher au moins deux sous-ensembles d’éléments sans aucun lien logique l’un avec l’autre. Une telle requête n’a évidemment aucun sens, et sera rejetée par le compilateur.

4.1.2 Les différentes possibilités d’exploitation du langage de requête

Comme nous venons de le voir, une requête permet de décrire ce qu’il faut chercher. Il reste encore à exprimer la manière dont les différents résultats trouvés doivent être restitués à l’auteur de la requête. Ce dernier point dépend du contexte dans lequel la requête a été élaborée : exploitation à distance via un serveur de requêtes ou exploitation sous contrôle d’une interface pour le Web.

4.1.2.1 Exploitation à distance via un serveur de requêtes

Ce mode consiste à utiliser Internet pour poster une requête à une application résidant sur le serveur gérant le tlfi. La requête est empaquetée dans une coquille xml. Il est nécessaire de compléter la requête proprement dite avec des clauses exprimant quelles informations on veut obtenir.Exemple de requête à poster au serveur :

<TLFquery>
 <query>
 X:domaine(agriculture);Y:définition(instrument);
 X i(Y);Z:source(Académie);Z i Y;
 </query>
 <extract>
 Y
 </extract>
</TLFquery>

Réponse du serveur :

<TLFanswer>
 <sol n=“1”>
 <Y>
 texte de la première définition
 </Y>
 </sol>
 <sol n=“2”>
 <Y>
 texte de la seconde définition
 </Y>
 </sol>
 --------etc.---------
</TLFanswer>

4.1.2.2 Exploitation sous contrôle d’une interface pour le Web

Dans ce mode, l’utilisateur ne manipule pas directement le langage de requête. En effet, l’interface graphique lui propose différents formulaires de recherche. Lors de la soumission du formulaire, les données de l’utilisateur sont collectées et automatiquement transformées en une expression de requête. On trouvera dans Bernard et coll. 2002 une présentation explicitant les divers usages possibles de cette interface web.

L’interface offre des possibilités graduées : 1° recherche simple : elle consiste à rechercher les articles concernant le mot tapé par l’utilisateur; 2° recherche assistée : elle propose un formulaire de recherche permettant à l’utilisateur d’imposer des contenus textuels à des types d’objets donnés, le logiciel prenant en charge de manière transparente les relations hiérarchiques entre objets; 3° recherche complexe : elle propose un formulaire permettant d’exprimer une requête avec une puissance comparable à la manipulation directe du langage de requête.

L’utilisateur peut explicitement spécifier les types des objets recherchés, leurs contenus textuels éventuels et leurs relations hiérarchiques. Dans tous ces cas, lors de la soumission du formulaire, le logiciel collecte les informations, les transforme en une requête qui est soumise au compilateur, puis exécutée.

Les résultats de la recherche peuvent être affichés suivant deux modes différents : 1° mode global : supposons qu’une recherche mette en jeu N objets textuels. Chaque résultat est donc constitué d’un multiple N d’objets. Le mode global consiste à afficher tous les résultats. Pour chaque résultat est affiché le contenu textuel de chaque objet du multiple, ou éventuellement, au choix de l’utilisateur, le sous-ensemble du multiple, constitué par les objets qui l’intéressent le plus; 2° mode «en contexte» : il consiste à afficher les résultats un par un. Le texte de l’article dans lequel le multiple a été trouvé s’affiche intégralement. Le début et la fin du texte correspondant à chaque objet du multiple sont matérialisés par de petites images colorées et numérotées de 1 à N. Dans le cas où toute la totalité de l’article n’est pas visible à l’écran (ceci arrive fréquemment en raison de la taille importante des articles du tlf), l’utilisateur dispose de boutons de navigation lui permettant de centrer l’affichage immédiatement sur l’objet du multiple qui l’intéresse le plus particulièrement.

4.2 Les recherches complexes dans frantext

4.2.1 Principes de base du travail sur frantext

On peut distinguer deux phases fondamentales dans le travail : choix des textes qu’on veut étudier, puis série d’études portant sur les textes choisis. La recherche débute donc par la création du corpus de travail. Il est ensuite possible de le visualiser, d’effectuer des recherches puis de télécharger les données.

La première étape est la sélection du corpus de travail. Elle peut s’effectuer sur l’ensemble des textes de la base, un ou plusieurs auteurs, une oeuvre ou un ensemble d’oeuvres, un ou plusieurs genres littéraires, une tranche chronologique ou la combinaison de plusieurs de ces critères.

La deuxième étape consiste en requêtes sur le corpus de travail. Certaines sont simples à mettre en oeuvre, d’autres plus compliquées. Une aide en ligne accompagne chaque service.

Recherches simples d’une graphie, d’une phrase ou de plusieurs graphies en cooccurrence dans une ou plusieurs phrases.Recherches plus complexes, dont voici une liste non exhaustive :

  • les formes fléchies d’un verbe, d’un substantif ou d’un adjectif;

  • des formes tronquées : mots suffixés en –ette, par exemple;

  • des listes de mots;

  • des expressions à choix multiples en une seule requête. Par exemple «maison (blanche | verte | jaune)» recherchera maison blanche, maison verte ou maison jaune;

  • des statistiques sur la fréquence des mots;

  • des études de vocabulaire autour d’un mot pivot (p. ex. le vocabulaire employé dans les phrases contenant le mot abeille);

  • des phénomènes linguistiques complexes tels que la quantification, les constructions pronominales, les temps composés, etc.; ce type de recherche est rendu possible grâce à l’écriture de grammaires formelles constituées de règles paramétrables. Ces grammaires permettent de rechercher des contextes arbitrairement complexes sur le corpus.

Il est possible au terme de sa recherche de télécharger les résultats. Les résultats sont encodés suivant la norme ISO 8859-1, compatible avec les usages en vigueur sur les principaux systèmes (MS-Windows, Unix, Mac-OS…). La longueur des contextes obtenus dans la base frantext est limitée à trois pages pour les textes libres de droits, et à une courte citation de 300 signes pour les textes protégés par des droits d’auteur ou d’éditeur.

4.2.2 Les principes de recherche

Les critères de recherches peuvent être saisis au cours d’une session (recherche simple avec saisie d’«expressions de séquence») ou saisis dans une liste préparée avant d’effectuer une recherche grâce aux outils «création/ édition de listes de mots», ou aux «grammaires» prédéfinies.

4.2.2.1 Les règles de saisie d’une expression de séquence

Une expression de séquence a pour but de rechercher des contextes contenant une suite de mots consécutifs (d’où le terme séquence). La saisie d’une expression de séquence est effectuée sur le formulaire disponible sous l’option «recherche dans les textes». La saisie d’une séquence consiste à saisir une suite de mots consécutifs. Une expression de séquence est constituée de N sous-expressions :

  • opérateur ET, matérialisé par la juxtaposition de deux mots, p. ex. maison blanche;

  • opérateur OU, matérialisé par la barre verticale | et les parenthèses : (maison |palais) d’un (blanc |bleu) sale va chercher maison d’un blanc sale,maison d’un bleu sale, palais d’un blanc sale, palais d’un bleu sale;

  • verbe fléchi &c : &caimer ira chercher toutes les formes du verbe aimer, conjuguées ou non;

  • substantif ou adjectif fléchi et m : &m bocal va chercher bocal bocaux, &m grand va chercher grand, grande, grandes, grands;

  • sous-expressions optionnelles & ? : un& ?grand homme cherchera un homme ou un grand homme et un & ?(très grand) homme, un homme ou un très grand homme;

  • mot quelconque &q introduisant une discontinuité dans la séquence : un &q homme cherchera une séquence un (…) homme avec un mot entre un et homme; un &q(0,2) homme cherchera une séquence avec 0, 1 ou 2 mots entre un et homme;

  • la négation ^ : homme ^très grand qui est une expression de séquence qui va chercher tous les contextes du genre homme XXX grand qui tels que XXX ne soit pas égal à très; &carriver ^&e(g=A) à est une expression de séquence qui va sélectionner des contextes tels que arriveront vite à, mais pas un contexte tel que arrivaient en même temps à. En effet, ^&e(g=A) désigne une graphie qui n’est pas un adjectif.

4.2.2.2 Exemples d’utilisation de grammaires dans stella

La possibilité, offerte dans stella, de fabriquer des objets arbitrairement complexes a pour seule limite la puissance de description de ces objets offerte dans l’interface utilisateur. Dans ce domaine, frantext va bien au delà de ce qui est habituellement offert par les autres systèmes d’expression de requêtes en permettant à l’utilisateur d’exprimer ses requêtes grâce à des répertoires de règles réutilisables et paramétrables appelés grammaires. Pour aborder cet aspect, nous proposons d’examiner un exemple, l’étude des utilisations pronominales d’un verbe.

Si on se propose de rechercher, dans un corpus donné, les utilisations pronominales d’un verbe donné, on se trouve confronté à une difficulté due au caractère multiforme de ces utilisations (tournures affirmatives, interrogatives, négatives, interrogatives négatives, temps simples ou composés). Cette difficulté rend une telle recherche illusoire avec la quasi-totalité des systèmes existants. On trouvera ci-dessous un exemple (simplifié) de grammaire permettant de détecter la plupart des occurrences des usages pronominaux du verbe laver, hormis les tournures interrogatives. Les commentaires sont spécifiés en italique et entre crochets, ex : [commentaire], et les lignes en gras correspondent à des déclarations de règles de grammaire. Une règle XXX peut être invoquée dans une autre règle par la syntaxe &rXXX. Toute règle invoquée doit être déclarée (que ce soit en amont ou en aval de son invocation).

[Règle décrivant le discours trouvé devant le verbe dans les tournures affirmatives.]
preambule_affirmatif : je (me |m’) | tu (te |t’) | (se|s’) | nous nous | vous vous
[Régle décrivant une tournure affirmative à un temps simple (&claver désigne une forme fléchie du verbe «laver»)]
temps_simple_affirmatif : &rpreambule_affirmatif &claver
[Idem pour une tournure affirmative à un temps composé. &cêtre désigne une forme fléchie du verbe «être»]
temps_compose_affirmatif : &rpreambule_affirmatif &cêtre &rparticipe_passe
participe_passe : lavé | lavée | lavés | lavées
[Règle décrivant le discours trouvé devant le verbe dans les tournures négatives.]
preambule_negatif : je ne (me|m’) | tu ne (te|t’) | ne (se|s’) | nous ne nous | vous ne vous
[Description d’une tournure négative, temps simple.]
temps_simple_negatif : &rpreambule_negatif &claver &rfin_negation
[Description d’une tournure négative, temps simple.]
temps_compose_negatif : &rpreambule_negatif &cêtre &rfin_negation &rparticipe_passe
[Seconds termes possibles d’une négation]
fin_negation : pas|plus|jamais|guère|mie|point
[La règle usage_pronominal ci-dessous réunit les différents cas.]
usage_pronominal : &rtemps_simple_affirmatif | &rtemps_compose_affirmatif | &rtemps_simple_negatif | &rtemps_compose_negatif

Cette grammaire peut être utilisée dans une requête en invoquant l’une de ses règles : «&rtemps_simple_negatif» invoque la règle permettant de localiser les usages pronominaux à un temps simple dans une tournure négative, «&rusage_pronominal» invoque la règle permettant de localiser tous les usages pronominaux.

Voici, à titre d’exemple, un extrait des résultats obtenus par l’application de cette grammaire sur un sous-corpus de frantext, donnant ainsi un ensemble diversifié d’exemples tirés de la littérature (frantext fournit directement la référence de chaque exemple) :

Bien entendu, cette grammaire peut être complétée pour les tournures interrogatives et interrogatives négatives. Il est également possible de la rendre paramétrable pour fonctionner avec un verbe quelconque.

4.3 Autres exploitations possibles

Outre cette possibilité d’écriture et d’exploitation de grammaires, frantext et le tlfi offrent de nombreux services qu’il serait fastidieux d’énumérer et de décrire ici. En un mot, les possibilités d’interrogation s’articulent autour des axes suivant :

4.3.1 Recherche de cooccurrences et collocations

La taille du corpus fait qu’on dispose d’une couverture linguistique importante. frantext offre différents services, notamment l’étude du vocabulaire au voisinage des occurrences d’un mot donné, ce qui est très utile dans des études thématiques ou des recherches de collocations. Les résultats rendus par ce service sont constitués de la liste des mots trouvés au voisinage du mot donné, triés au choix par ordre alphabétique, ordre croissant ou décroissant des fréquences. Dans le tlfi, il est possible de rechercher également les collocations ou les locutions si on est intéressé par un travail sur la phraséologie.

4.3.2 Extraction de sous-lexiques

Dans frantext, le logiciel permet de constituer un sous-corpus en sélectionnant à l’intérieur de la base un ensemble de textes sur des critères variés pouvant se combiner entre eux, auteurs, dates, périodes ou genres.

Dans le tlfi, le logiciel permet une interrogation par domaine ou tout autre type d’objets : code grammatical, indicateurs sémantiques ou stylistiques… Par exemple, on peut y rechercher des graphies particulières, mais aussi des proverbes, des locutions. On peut aussi créer des lexiques de domaines techniques particuliers (la marine, mais aussi la mythologie ou l’oenologie) pour peu que les indicateurs correspondants figurent dans les articles du tlf papier.

4.3.3 Études morphologiques

Dans frantext, on peut vouloir rechercher des exemples de dérivation ou de composition de mots. Par exemple, les éléments homme- ou femme- en composition, pour les comparer à des séquences moins figées (sans traits d’union), tant au plan de leur environnement contextuel que de leurs fréquences d’attestation dans la littérature. On peut aussi, par exemple, exploiter des listes de fréquence concernant certaines formes verbales : est-ce que assied est plus fréquemment utilisé que assoit?

Dans frantext catégorisé, comme dans le tlfi, on peut rechercher la liste des verbes en –er, mais avec des visées différentes. Dans le tlfi, on pourra coupler la requête avec la notion de transitivité, par exemple : tous les verbes en –er qui sont indiqués transitifs (au niveau du code ou au niveau d’un indicateur). On pourra aussi s’intéresser aux rubriques Étymologie et Histoire de ce mot, et/ou à toutes les Remarques associées à l’emploi de ce mot, par une visualisation simple de l’article.

La consultation de ces deux outils permettrait d’éviter d’avancer brutalement des théories non étayées par les faits ou, plus positivement, de suggérer des hypothèses nouvelles sur des faits de langue bien attestés.

4.3.4 Études de syntaxe locale

Pour repérer des motifs récurrents, des différences syntaxiques ou d’autres phénomènes linguistiques pertinents, cet ensemble de ressources est d’une grande importance. Par exemple, il est possible de repérer les constructions différentes autour d’un même mot (travailler son style, travailler à sa thèse, travailler du chapeau…). Il est de même possible, dans le tlfi, de rechercher les syntagmes contenant en début un verbe infinitif suivi de la préposition en, ou bien encore tous les verbes du premier groupe intransitifs (plus de 1200 solutions) pour étudier leur environnement à partir des exemples correspondants présents dans l’article.

La consultation systématique de frantext et du tlfi est riche d’enseignements pour approfondir la connaissance du comportement de comme et de sa classification selon les parties du discours. C’est un bon outil pour repérer les différences de positionnement des mots dans un syntagme (adjectifs antéposés / postposés) ou leur combinatoire grammaticale.

4.3.5 Études de sémantique

Dans le tlfi, par exemple, il est possible de rechercher les mots contenant un suffixe –esque ou un préfixe re- pour repérer les éléments auxquels ils sont accrochés, mais aussi dans le but de définir plus précisément les sens de ces affixes et leur portée. Ou encore, on peut souhaiter trouver toutes les entrées dont la définition contient le mot «outil» en tout début de définition. Une recherche complexe amène plus de 240 réponses. Une requête plus fine, sur les entrées en –oir dont la définition contient le mot «outil», sera un peu plus compliquée (Gestion de listes/Création à partir des graphies du TLF/critère= .*oir. Puis il faut un travail sur cette liste, pour y repérer l’association d’un de ses éléments avec une définition contenant «outil»). Cette requête amène plus de 50 réponses. On peut aussi exploiter le tlfi comme une riche base de synonymes… On pourra trouver dans Martin 2001 divers autres exemples d’exploitation possible du tlfi pour des études en sémantique.

4.3.6 Études de stylistique

Le tlfi permet également de demander tous les exemples de Colette contenant une forme conjuguée du verbe aimer dans le corps de l’exemple. Et frantext est un outil performant pour les études des vocabulaires spécifiques à un auteur. Le TLF a pris en compte les néologismes et les hapax (à la date de sa constitution) : on peut les chercher dans le TLF informatisé, et ainsi avoir une idée de l’évolution de la langue en ce qui les concerne.

4.3.7 Autres possibilités

frantext, tlfi et les dictionnaires de l’Académie informatisés sont des outils interconnectés, avec des liens d’hypernavigation. Ce qui ajoute une richesse supplémentaire. Dans le tlfi, on peut retrouver les origines et premières attestations des mots dans les domaines tant médical que philosophique, technique ou autre. Les étymologistes peuvent donc être intéressés par sa consultation, de même que des phonéticiens et phonologues par les rubriques Prononciation. Certains articles, particulièrement ceux concernant les mots grammaticaux, sont riches de remarques concernant les indications d’emploi.

5. Conclusion

frantext, tlfi et le logiciel stella forment un ensemble de ressources de référence, mais ne sont pas fermés sur eux-mêmes. Cet ensemble de corpus, ouvert à toutes sortes d’utilisations dans tous les domaines, ne représente qu’une partie des richesses de l’atilf (Bernard et coll. 2001).

Ces ressources, mises à la disposition de la communauté scientifique, peuvent être le fondement de projets divers, en particulier la constitution de lexiques dérivés, à partir d’études portant sur les synonymes, ou sur les collocations. Plusieurs projets de collaboration sont à l’étude, entre l’atilf et des partenaires intéressés, visant de nouveaux objectifs scientifiques à partir des ressources offertes. Conscient que ces ressources constituent un patrimoine important financé essentiellement par le cnrs, nous avons le souhait de les mettre le plus possible à disposition de la communauté scientifique à travers des projets coopératifs de recherche.