Corps de l’article

La traduction automatique, on en parle depuis longtemps. Qu’elle s’apprête à remplacer les traducteurs professionnels (le masculin est utilisé comme neutre), c’est aussi depuis longtemps qu’on le dit[1]. Les développements récents, avec l’arrivée de la traduction automatique neuronale, bouleversent le marché, avec une modification des méthodes de travail et du modèle économique[2], et les discours affirmant l’inutilité de la traduction professionnelle se font de nouveau entendre chez les non-spécialistes. Et pourtant, le marché ne s’est jamais aussi bien porté, comme le montrent différentes études : ainsi, le secteur des services linguistiques continue de se développer sur le plan international, avec en 2019 une croissance de 6,62 % par rapport à 2018[3]. L’une des explications de ce paradoxe est que les outils de traduction automatique, accessibles en ligne facilement et gratuitement, ont aujourd’hui trouvé leur place au sein des activités quotidiennes du grand public, en particulier lors de déplacements dans des pays étrangers, par le biais de sites internet ou d’applications pour téléphone. La facilité d’utilisation de certains de ces outils laisse entendre que, ça y est, la machine est désormais capable de fournir l’équivalent dans une langue donnée d’un texte rédigé dans une autre langue, et que l’intervention humaine n’est plus nécessaire. Une telle vision des choses sous-entend que les utilisateurs peuvent faire confiance aux résultats affichés par les outils de traduction automatique de la même manière qu’ils peuvent faire confiance aux résultats affichés par une calculatrice, sans remise en question. Les spécialistes du sujet savent qu’il n’en est rien, tout en reconnaissant que la traduction automatique offre aujourd’hui des perspectives nouvelles et qu’il s’agit là d’un outil qu’il convient de s’approprier comme outil d’aide à la traduction.

C’est avec cet objectif qu’a été rédigé par Lynne Bowker et Jairo Buitrago Ciro le très intéressant ouvrage Machine Translation and Global Research : Towards Improved Machine Translation Literacy in the Scholarly Community, publié en 2019 chez Emerald Publishing. Rédigée dans un anglais clair et parfaitement accessible, cette monographie ne s’adresse pas aux professionnels de la traduction, mais à la communauté scientifique au sens large du terme et propose une réflexion sur une utilisation raisonnée des outils de traduction automatique dans le cadre de la recherche scientifique. Elle s’adresse également aux bibliothécaires, qui sont perçus comme étant les professionnels les plus à même de former à cette utilisation raisonnée.

L’ouvrage est organisé de façon on ne peut plus claire et efficace, avec une division en cinq chapitres parfaitement équilibrés, systématiquement accompagnés d’un résumé des points essentiels en fin de chapitre, et de recommandations de lecture organisées pour qui souhaiterait aller plus loin. La qualité de la rédaction, jamais jargonnante sans être simpliste, en fait par ailleurs un ouvrage très agréable à lire.

Le premier chapitre est consacré à la communication scientifique, avec pour point de départ le constat indiscutable que la diffusion de la connaissance est aujourd’hui devenue un véritable enjeu pour les non-anglophones puisque la langue anglaise sert aujourd’hui de lingua franca. Chiffres à l’appui (par exemple p. 20, un article rédigé en anglais sera cité trois fois plus qu’un article rédigé en allemand ou en français)[4], les auteurs expliquent cet état de fait actuel par la montée en puissance des États-Unis sur la scène internationale depuis la Seconde Guerre mondiale, mais aussi par la mise en place du processus de Bologne en Europe et la présence de plus en plus forte d’enseignements donnés en anglais dans les établissements non anglophones, façon habile de rappeler que l’hégémonie de la langue anglaise comme langue scientifique internationale est aussi le résultat de choix politiques. La communauté scientifique a certes exploré un certain nombre de solutions (formations spécifiques ou encore services de traduction proposés par les éditeurs eux-mêmes ou accessibles par des plateformes « ubérisantes » où tout un chacun peut proposer ses services), mais elles s’avèrent insuffisantes, pour des questions de coût ou de qualité. C’est là que les outils de traduction automatique (TA) peuvent selon les auteurs de l’ouvrage jouer un rôle important et représenter une forme de solution. Si la TA est de toute façon déjà utilisée comme outil d’aide à la rédaction mais aussi pour l’accès à l’information et à la connaissance, elle n’est pas sans poser problème, et c’est pour cette raison que les auteurs prônent le besoin d’une machine translation (MT) literacy, que nous traduisons ici par utilisation raisonnée des outils de traduction automatique[5]. L’accessibilité, la gratuité, mais aussi l’ergonomie des outils génériques en ligne font de la TA un outil de tous les jours, mais il importe de connaître les enjeux et les limites de cette technologie. Il s’agit là selon les auteurs d’un véritable enjeu de société.

Le deuxième chapitre est consacré à un rappel utile de l’historique des outils de TA et de leur fonctionnement : systèmes à base de règles (RBMT) pendant plusieurs décennies, avec les limites que l’on connaît, puis systèmes exploitant des données linguistiques réunies en corpus, qu’il s’agisse de systèmes fondés sur l’exemple (EBMT) ou sur une approche statistique (SMT), pour finalement aboutir à la révolution actuelle que représente la TA neuronale (NMT). Les auteurs souhaitent mettre l’accent non pas sur la compréhension du fonctionnement de la technologie elle-même, mais plutôt sur la façon d’optimiser, de sécuriser son utilisation. Pour cela, ils nous rappellent que les ambiguïtés, lexicales et structurelles, sont très mal gérées par la machine, et explorent les avantages de l’utilisation d’une langue contrôlée, à savoir l’utilisation d’une langue qui réduise notamment les ambiguïtés, bien que cela ne soit pas toujours possible (activité chronophage, requérant une certaine expertise et pouvant mener à une simplification excessive) et difficilement applicable à la communication scientifique, comme le reconnaissent d’ailleurs les auteurs.

Plutôt qu’une langue contrôlée, les auteurs prônent alors dans le troisième chapitre une stratégie de rédaction qui rende les textes plus faciles à lire, et in fine plus faciles à traduire par la machine (translation-friendly). Il s’agit là d’un véritable appel aux auteurs de la communauté scientifique : il convient d’écrire de façon plus claire (toute une série de recommandations concrètes est formulée, à appliquer en premier lieu dans le cadre de la rédaction d’abstracts), en pensant aux non-natifs, à l’instar de ce qui se fait déjà dans certaines entreprises ou organisations indépendantes comme Cochrane[6]. Ceci n’est pas sans rappeler la campagne How to Write Clearly de la Commission européenne[7]. Ces recommandations, à observer lors de la rédaction et non dans le cadre d’une pré-édition, ne manqueront pas de déclencher des objections et de susciter un véritable débat, ce dont les auteurs ont bien conscience puisqu’ils mentionnent eux-mêmes les écueils possibles (p. 56, p. 63), comme la simplification ou le manque de style des textes ainsi rédigés. Malgré de telles précautions pour produire des textes plus faciles à traduire par la machine, les auteurs reconnaissent que le recours à la post-édition s’avèrera toujours nécessaire et que pour que celle-ci soit efficace, une bonne connaissance des erreurs typiques apparaissant dans les traductions effectuées grâce à des outils de TA est requise. Sur ce sujet, dans la mesure où ces erreurs varient en fonction des langues de travail mais aussi des outils de TA utilisés, les auteurs ne fournissent que très peu d’exemples et ne formulent pas de recommandations concrètes (p. 76-77), ce que le lecteur avide de mise en pratique pourra regretter, d’autant que la littérature scientifique sur le sujet est abondante (par exemple Castilho, Moorkens et al. 2017 ; Isabelle, Cherry et al. 2017 ; Lapshinova-Koltunski 2015 ; Macketanz, Avramidis et al. 2017 ; Loock 2018) et a mis au jour un certain nombre d’erreurs récurrentes ou de biais à corriger lors de la post-édition de textes traduits automatiquement. Un tel développement constituerait d’ailleurs un prolongement naturel de la lecture de l’ouvrage.

Le quatrième chapitre se penche sur des questions éthiques : utiliser la TA pour accéder à l’information est une chose, mais pour la diffusion de travaux de recherche, il convient d’être prudent. Les auteurs évoquent ainsi le risque du « tout monolingue » (comprendre à l’heure actuelle le « tout anglais »), qui pourrait déboucher sur une forme d’uniformisation de la pensée scientifique. Ils sensibilisent également le lecteur au fait qu’il s’agit de l’utilisation d’outils exploitant des ressources qui ne sont pas naturelles mais le fruit d’un travail humain (les corpus parallèles exploités par les outils de TA contiennent des traductions rédigées par des professionnels du secteur). Enfin, les questions de confidentialité à ne pas négliger, surtout dans le cadre de recherches scientifiques, sont abordées.

Le cinquième et dernier chapitre vient naturellement formuler une définition opérationnelle du concept de MT literacy, soit l’aptitude à utiliser de façon raisonnée la traduction automatique. Les auteurs proposent alors un exemple de formation qui pourrait selon eux être donnée notamment par les bibliothécaires, sous forme d’une série d’ateliers.

La thèse défendue par l’ouvrage est on ne peut plus convaincante : les outils de traduction automatique sont présents dans notre vie quotidienne, et ne pas les utiliser dans le cadre de la communication scientifique constituerait un rendez-vous manqué. En revanche, utiliser ces outils sans en connaître les limites et les enjeux qu’ils posent, y compris éthiques, serait risqué, voire contre-productif. L’ouvrage fournit donc un certain nombre de réflexions à prendre en compte pour une utilisation en toute connaissance de cause, utilisation qui relève d’une compétence nouvelle en ce début de xxie siècle. Il ne manquera pas de provoquer le débat chez les professionnels du secteur comme chez les traductologues, mais son approche est avant tout résolument pragmatique : tout comme l’ouvrage ne remet pas en question l’hégémonie de la langue anglaise dans le cadre de la recherche scientifique, il fait le constat que les outils de traduction automatique sont là, qu’ils sont très fréquemment utilisés par de nombreux types d’utilisateurs, dont les scientifiques, et qu’il importe donc d’être formé à leur utilisation raisonnée. Nous ne pouvons personnellement qu’être d’accord, puisque c’est la même approche que nous défendons pour la formation des futurs traducteurs.

Il est enfin important de noter que la publication de cet ouvrage est en lien avec un projet de recherche, The MT Literacy Project[8] et qu’il ne s’agit là aucunement d’un point final aux réflexions sur le sujet.