Corps de l’article

There is a broad continuum of ways in which man and machine can share the translation responsibility. It ranges from Bar-Hillel’s FAHQT (Fully Automatic, High Quality Translation) to Kay’s HTLGI (Human Translation Like God Intended).

(Merle D. Tenney, « Machine Translation, Machine-aided Translation, and Machine-impeded Translation », Tools for the trade: Translating and the Computer 5, 1985, p. 105)

En 1997, quand Alta Vista fournit son application gratuite de traduction automatique, elle la baptise BabelFish, en référence au poisson du même nom imaginé par Douglas Adams[1]. L’étonnant symbiote jaune n’est que l’une des innombrables incarnations du mirage de la traduction automatique, que l’on conçoit à tout coup sans intervention humaine. Tant dans la littérature qu’au cinéma, les exemples pullulent : des puces « microsoft » de l’univers de Gibson à C3PO, l’aimable diplomate cybernétique, en passant par le traducteur universel de Star Trek, les auteurs de science-fiction rivalisent d’imagination pour expliquer comment un tel exploit pourrait devenir réalité, mais sans jamais vraiment en livrer le mécanisme.

Ceci dit, l’idée d’éliminer l’élément humain de la traduction, puisque subjectif, lent ou encore encombrant, ne se limite pas au domaine de l’imaginaire, et ne date pas d’hier. On recense, en Allemagne au XVIIe siècle, la première tentative de produire des traductions mécaniquement, à l’aide de tables de calcul. Johannes Becher, un moine de Speyer, avait conçu un métalangage mathématique décrivant le sens de nombreux mots dans plusieurs langues. Il s’agissait, en quelque sorte, d’une tentative de formalisation des langues naturelles et de leurs relations complexes, tentatives qui seront reprises plus tard avec quelque succès. Ainsi, une phrase dans n’importe quelle langue incluse dans le système de Becher pouvait être traduite mécaniquement en fonction de formules préétablies[2]. Il faudra évidemment attendre que s’écoule la première moitié du XXe siècle, avec la naissance des supers calculateurs et autres cerveaux mécaniques, avant de voir de réelles percées (même si elles restent timides) dans le domaine du traitement automatique des langues, et particulièrement de la traduction automatique (TA).

Je propose donc de revenir sur les grandes étapes de la recherche en TA en vue de souligner quelques-uns des écarts entre réalité et fiction, entre possibilités et attentes, et de montrer ainsi que les maladresses et l’inadéquation que l’on reproche encore souvent aux systèmes de TA les plus sophistiqués n’ont d’autres sources que cet imaginaire grandiose, qui ne peut que décevoir une fois ramené à hauteur du réel.

L’âge d’or

Le milieu du XXe siècle, qui voit la naissance de la TA comme nous la connaissons aujourd’hui, est effervescent à bien des égards. D’une part, pour la première fois de l’histoire, les ordinateurs, ces « cerveaux électroniques », sont suffisamment puissants pour répondre aux rêves d’automatisation des scientifiques. D’autre part, la Guerre Froide engendre un besoin impérieux pour les Américains d’être au fait des activités des Russes et vice-versa. Ainsi, les années 50 et 60 se voient le théâtre d’une course effrénée à qui pourra le premier maîtriser à la fois la machine et le langage. Les prédictions des principaux intéressés font preuve, avec le recul, d’un optimisme bon enfant qui paraît friser la naïveté.

On s’accorde généralement pour attribuer la paternité de la recherche en traduction automatique à Warren Weaver, alors à l’emploi de la Rockefeller Foundation[3]. Dès 1947, Weaver se demande, dans sa correspondance[4] avec Norbert Wiener, le premier cybernéticien, s’il est concevable que les ordinateurs puissent servir à la traduction de textes rédigés en langues naturelles (par opposition à des textes codés dans une « langue artificielle »). Wiener lui répond par la négative[5], mais sa réflexion se poursuit néanmoins, et en 1949, il rédige un mémo qui passera à l’histoire et jettera les bases de la recherche en TA, pour le meilleur et pour le pire. De cette première correspondance, on cite généralement le passage suivant :

I have a text in front of me which is written in Russian but I am going to pretend that it is really written in English and that it has been coded in some strange symbols. All I need to do is strip off the code in order to retrieve the information contained in the text.[6]

L’analyse acceptée généralement est que le mémorandum influencera la traduction automatique pour les décennies à venir, lui donnant une saveur résolument (et négativement) cryptographique, surtout en regard des approches subséquentes. J’ai aussi fait mienne cette analyse dans mes recherches précédentes[7], jusqu’à ce qu’une lecture plus attentive me permette de remarquer que Weaver n’était pas aussi ignorant des difficultés intrinsèques au traitement automatique des langues (comme la traduction automatique) que l’on a bien voulu le rapporter. Mathématicien et conseiller scientifique, Weaver souligne d’emblée son ignorance des subtilités du jeune domaine de la linguistique computationnelle et de l’automatisation des langues naturelles. Il fait néanmoins preuve d’une vision remarquable, décrivant avec une justesse étonnante les trois générations de systèmes de TA[8] qui nous sont aujourd’hui familières. Qui plus est, il esquisse aussi l’idée, qui sera reprise par de nombreux chercheurs par la suite, que les langues restreintes et les vocabulaires contrôlés pourraient constituer une piste non négligeable[9]. Enfin, il est important de souligner, à notre avis, que Weaver avait vu juste en se demandant si viser un système parfait ne relevait pas de l’utopie et en proposant plutôt de viser une performance acceptable pour un nombre tolérable de cas[10]. En somme, alors que la position de Weaver semble nuancée et que ce dernier recommande en toutes lettres une approche statistique[11], ses contemporains et les historiens n’ont retenu du mémorandum que les aspects cryptographiques et mathématiques au détriment du reste; les premiers, probablement en raison des limites de l’informatique de leur temps, les seconds, puisque c’est cette approche qui a tenu le devant de la scène jusque dans les années 70.

Ainsi, stimulés en grande partie par l’impulsion de Weaver, de nombreux chercheurs des années 50 s’emploient à décoder le langage, en vue de dégager une structure universelle qui s’appliquerait à toutes les langues. Rapidement, la première tentative réussie de traduction automatique[12] a été réalisée, le 7 janvier 1954, du russe vers l’anglais, à l’aide d’un dictionnaire de 250 mots et de six règles de transfert syntaxique, dans les laboratoires de l’Université Georgetown (en collaboration avec des chercheurs d’IBM)[13].

La réaction est immédiate et euphorique : les titres de journaux laissent entendre que le processus est sans effort et que les ordinateurs sont d’ores et déjà prêts à prendre la relève : « Russian is turned into English by a fast electronic translator », peut-on lire en première page du New York Times le lendemain[14]. Le Christian Science Monitor, rapporte le 11 janvier que « The brain didn’t even strain its superlative versatility and flickered out its interpretation with a nonchalant attitude of assumed intellectual achievement. »[15]

Cependant, la démonstration de Georgetown présentait quelques caractéristiques qui continuent jusqu’à aujourd’hui d’accabler les chercheurs. En effet, le grand public a rarement conscience que les conditions de laboratoire sont très strictes lors de ces démonstrations. Par exemple, dans le cas de Georgetown-IBM, on a rigoureusement sélectionné 49 phrases à traduire, qui devaient respecter certains critères précis. En effet, toutes les phrases étaient déclaratives et simples et tous les verbes étaient à la troisième personne[16]. Par ailleurs, comme le remarque Melby, les systèmes de traduction automatique doivent toujours être ajustés, ce qu’il compare à l’auditeur qui manipulerait les boutons de sa radio pour améliorer la réception. De la même façon, explique-t-il, les systèmes de TA sont ajustés en fonction des phrases qu’on leur demande de traduire[17]. Il va sans dire que les scientifiques de Georgetown-IBM avaient consciencieusement entraîné leur système pour le grand jour, ce qui a certainement contribué à impressionner à la fois le public et les bailleurs de fonds, alors que la nature même du système rendait difficile la reproduction de ces exploits à grande échelle. Il n’en reste pas moins que, dès lors, les équipes de recherche en TA ont le vent dans les voiles et les subventions affluent[18].

Rapidement, toutefois, l’approche directe laisse entrevoir quelques-unes de ses faiblesses. Tout d’abord, le nombre de règles nécessaires au traitement de textes généraux dépasse rapidement les capacités des linguistes et des ordinateurs qu’ils utilisent. L’ambigüité, notamment, est un problème très criant pour l’approche directe. La traduction d’expressions imagées ou de métaphores donne souvent des résultats pour le moins cocasses[19]. Par ailleurs, cette approche produit des systèmes qui ne fonctionnent qu’avec une seule paire de langues, souvent dans une seule direction. On peut tout de suite constater le casse-tête potentiel lorsque l’on s’attaquera à un marché du calibre de celui de l’Union européenne puisque, comme le souligne plus tard Pierre Isabelle : « pour traduire entre n langues on a besoin de n*(n-1) modules de règles (CE : 23*22 = 506!) »[20][21]. Tous ces désagréments, cependant, n’ont été pleinement constatés et reconnus que bien des années plus tard, et les systèmes à approche directe ont tout de même régné sans compétition pendant près de trois décennies.

Un coup dur

Dans la foulée du succès de Georgetown-IBM, on croyait bien avoir trouvé la clé permettant de réduire en poussière la tour de Babel et de voir l’avènement d’un monde où la traduction n’aurait plus besoin d’intervention humaine. Les réjouissances allaient être de courte durée. En effet, les efforts de toute une génération de chercheurs allaient se voir presque anéantis par le rapport de l’ALPAC (Automatic Language Processing Advisory Committee) en 1966. Ce rapport, aussi connu sous le nom de « Black Book on Machine Translation », allègue, en somme, que la TA est inefficace, inadéquate et trop couteuse[22]. L’impact, que l’on peut expliquer par la grande différence entre les attentes des bailleurs de fonds et la réalité de la recherche, fait trembler le monde de la traduction automatique et sonne le glas de nombreuses initiatives dans le domaine. Dès lors, les subventions de recherche et de développement pour la TA se voient réduites presque à néant, particulièrement en Amérique du Nord.

Ce que les historiens relèvent rarement, c’est que le Black Book ne condamne pas d’emblée toute recherche sur l’automatisation de la traduction, mais bien les efforts qui visent à atteindre la traduction entièrement automatique de haute qualité (TAEHQ) sur texte général sans intervention humaine. Ainsi, si peu d’équipes visent cette dernière (il se trouve tout de même quelques irréductibles, particulièrement hors des États-Unis), on commence à explorer partout dans le monde de nouvelles voies comme les systèmes à langue restreinte, ou alors des systèmes ne fonctionnant qu’à l’intérieur de domaines de spécialité.

The Quiet Decade

En fait, si les militaires américains abandonnent pour le moment la recherche en TA, les gouvernements européens, canadien et japonais, eux, sont toujours de la partie. Hutchins[23] et Somers[24] s’accordent pour dire qu’en raison de facteurs sociopolitiques et culturels, la demande en traduction dans ces pays n’a jamais diminué. En Europe, les échanges multilingues entre les différents pays motivent des entreprises adaptées à cette réalité. La Commission européenne rachète SYSTRAN, un système américain de deuxième génération et en poursuit le développement[25]. D’autres projets voient le jour en France, en Allemagne et en Italie. Au Canada, c’est le bilinguisme législatif qui motive la recherche. Au Japon, ce sont les avancées informatiques réalisées par les chercheurs en vue de manipuler le système d’écriture qui aiguillonne les chercheurs : les succès sont si probants que les universités et le secteur privé décident d’appliquer leurs découvertes à la traduction automatique Anglais-Japonais[26]. De l’approche cryptographique mot-à-mot des premières années, on passe à une approche linguistique qui est caractérisée par la formalisation des langues naturelles, soit via une interlangue, soit à l’aide de grammaires formelles et de métalangages informatiques. Une passation des pouvoirs, en somme, des cryptographes et mathématiciens vers les spécialistes de la linguistique computationnelle.

Cependant, ces approches de deuxième génération ont aussi leurs faiblesses. Tout d’abord, il faut supposer que le texte source est grammaticalement correct. Pour des essais contrôlés en laboratoire, la question est peu pertinente, mais si le système vise la commercialisation et sera utilisé pour des textes généraux, il est impossible de garantir un résultat à tout coup. En outre, les modules d’analyse ont du mal à traiter des ambigüités grammaticales qui ne ralentiraient pas un traducteur humain. L’exemple par excellence[27] pour illustrer les faiblesses de cette génération est « Time flies like an arrow », dont la structure pour une machine est très difficile à analyser hors contexte et pourrait ainsi être traduit par quelque chose comme « Les mouches du temps aiment la flèche ».

Il nous faut rappeler que les équipes de recherche en TA se sont tournées vers les spécialistes de la linguistique computationnelle pour résoudre les problèmes de l’automatisation de la traduction et ont délaissé au même rythme les cryptographes qui avaient fait leur succès. De plus, à la fin des années 70 et au début des années 80, les progrès en informatique permettent aux chercheurs de concevoir des systèmes de plus en plus complexes et de traiter des volumes de données sans commune mesure avec les précédents.

Ainsi, la « Quiet Decade » est dominée par les approches par interlangue et par les formalismes linguistiques. On expérimente aussi avec les langues restreintes, les vocabulaires contrôlés et les sous-domaines. Les systèmes gagnent en complexité et deviennent modulaires. La recherche en TA est principalement influencée par les domaines de la linguistique structurelle et de l’informatique. Par ailleurs, de plus en plus de chercheurs ont abandonné l’idée de la traduction complètement automatique : l’interactivité, avec en bonne place la postédition, fait son apparition comme partie intégrante des processus de traduction automatique.

Au cours des années 80, c’est l’approche indirecte par transfert qui règne sans conteste sur le paysage de la TA[28]. En effet, les approches par interlangue ne semblent pas remporter les succès attendus, et l’on préfère en conséquence plancher sur des approches moins ambitieuses[29], mais plus réalistes. Les universités et les organismes gouvernementaux sont toujours au premier plan de la R et D à travers le monde, mais le rôle du secteur privé commence à prendre de l’ampleur que l’on n’avait pas vue jusqu’alors.

En d’autres mots, force est de constater que la « Quiet Decade », même si elle laissera sa marque dans l’imaginaire de la recherche en TA et dans celle des principaux commanditaires, notamment en rendant presque taboue l’appellation « traduction automatique »[30], n’aura pas été stérile sur le plan de la recherche, mais aura plutôt été un passage obligé pour en arriver aux systèmes dont nous profitons aujourd’hui.

Une révolution statistique

Le domaine de l’informatique subit aussi des transformations importantes qui auront des répercussions sur la TA et la TAO. En effet, la fin des années 70 voit la naissance des premiers ordinateurs personnels et au cours des années 80, ces derniers se répandent à grande échelle dans les milieux professionnels. Les avancées en micro-informatique transforment en profondeur le monde de la traduction : la standardisation des plateformes, le développement des interfaces-utilisateurs et l’apparition des périphériques de stockage de données plus performants sont autant de facteurs qui ont facilité l’adoption des outils de traduction assistée par ordinateur (TAO) chez les traducteurs[31], outils qui, comme leur nom l’indique, ne permettent pas de traduire de façon automatique, mais qui assistent les traducteurs dans leur travail.

Ainsi, l’automatisation grandissante du monde du travail (phénomène qui ne se limite pas à la traduction, bien sûr) fait naître de nouveaux besoins. En conséquence, observe Hutchins, « MT was coming out of the laboratory onto the marketplace and into the office »[32]. Au cours de cette décennie, explique-t-il, les faiblesses des systèmes de TA sont obligeamment reconnues et l’on propose ces derniers, non plus comme un moyen de remplacer les traducteurs, mais bien comme des aides à la traduction[33]. Il n’est donc pas surprenant de constater que nombre de chercheurs s’emploient à développer la TAO et que nombre d’institutions et de grandes organisations qui œuvrent en traduction cherchent à l’implanter. Qui plus est, les premiers systèmes commerciaux font leur apparition sur le marché. ALPS et Weidner sont les fers de lance du mouvement, mais plutôt que de les promouvoir comme de la TA, on les commercialise comme des aides à la traduction puisqu’ils ont besoin de beaucoup d’intervention humaine pour produire des traductions acceptables[34]. Ces conditions sont essentielles au changement de paradigme qui nous mènera à la TA contemporaine.

Le prochain grand virage de la traduction automatique est amorcé à la fin des années 80, sur les chapeaux de roues, par Fred Jelinek, chef du groupe de recherche d’IBM sur la reconnaissance vocale, à l’occasion de la Fourth International Conference on Theoretical and Methological Issues in Machine Translation : « Each time I fire a linguist, my performance goes up »[35]. La traduction automatique statistique (TAS) est une méthode empirique qui s’affranchit complètement des modèles linguistiques rigides et s’appuie sur un ensemble de données organisées, le corpus bilingue ou multilingue aligné. Il s’agit d’aligner des phrases, des groupes de mots et des mots individuels de deux textes parallèles pour ensuite calculer la probabilité que n’importe quel des mots dans une phrase donnée en langue source corresponde avec un ou des mots qui font partie de la phrase qui lui est liée dans le texte en langue cible. L’hypothèse qui sous-tend la TAS est la suivante : une phrase (S) de langue source peut avoir un grand nombre de traductions (T) et chacune de ces traductions a une probabilité plus ou moins grande d’être adéquate; en théorie, il n’y a pas de traduction « correcte » ou « incorrecte »[36]. C’est l’approche qu’utilisent aujourd’hui Google et Microsoft, notamment, avec modifications à l’avenant, bien sûr, et avec le succès que l’on connaît.

En d’autres mots, le concept de n-grammes est la solution de Jelinek au problème du modèle de langue, solution qui lui permet en fait d’éviter la formalisation linguistique[37]. Les chercheurs en TAS l’ont plus tard adapté à leurs besoins, car Jelinek s’était plutôt concentré sur les trigrammes (séquence de trois mots)[38]. Néanmoins, le principe reste inchangé. Il s’agit simplement de segmenter automatiquement le corpus unilingue de langue cible aligné en séquences de n-mots. Ces séquences sont ensuite compilées et après analyse statistique, le système attribue à chacune d’elles une probabilité basée sur sa fréquence d’occurrence. Les séquences, ainsi analysées et associées à leur « score » de probabilité forment le modèle de langue, qui fournira la sortie en langue cible[39]. Le corpus bilingue aligné subira le même sort, mais les séquences seront enregistrées dans la table des segments du système de TAS en fonction de la probabilité que le segment source soit traduit par un ou des segments cibles donnés. Cette table est gage de la fidélité de la traduction[40].

La TAS offre de nombreux avantages, mais a aussi certains inconvénients. D’une part, il est facile d’entraîner les systèmes : il suffit d’ajouter des textes à leur corpus pour les renforcer. Il en découle aussi qu’ils sont facilement adaptables à un domaine en particulier : plus on fournit des textes précis et spécialisés au corpus (qui présentent donc moins d’ambigüités), mieux le système apprendra le nouveau domaine et pourra fournir de bonnes traductions. Ce type d’apprentissage a aussi pour conséquence qu’il est relativement peu coûteux (notamment en ce qui concerne les ressources humaines) d’entraîner et de modifier ces systèmes. Par ailleurs, la TAS traite admirablement les expressions idiomatiques et offre des traductions beaucoup plus agréables au lecteur que ce que pouvaient offrir certains systèmes à base de règles. Cependant, les systèmes de TAS ont des inconvénients à l’avenant. Par exemple, ils n’ont aucune connaissance sémantique ni pragmatique et les registres de langue restent un mystère pour eux. Plus grave, puisqu’ils n’ont recours à aucune grammaire, ils commettent parfois des fautes d’accord qu’un système à base de règles n’aurait jamais perpétrées[41].

Le tableau suivant, dont les données ont été tirées de Kuhn (2010), illustre les forces et les faiblesses de la TAS, avec des traductions tirées de Google Translate. Nous y avons ajouté la traduction qu’offrait récemment Google Translate en comparaison.

1

Anglais

Traduction GT (09/2010)

Traduction GT (07/2013)

That’s another kettle of fish

C'est une autre paire de manches

C’est une autre paire de manches

The girl is attractive

La jeune fille est jolie

La jeune fille est attrayant.

The girl who arrived last Wednesday is attractive.

La jeune fille qui est arrivé mercredi dernier est attrayant.

La jeune fille qui est arrivé mercredi dernier est attrayant.

Tableau comparatif de traductions fournies par Google Translate à trois ans d’intervalle (données 2010[42])

-> Voir la liste des tableaux

On remarque tout de suite le changement qui a eu lieu dans les résultats obtenus. Le premier exemple reste inchangé et confirme la remarque de Kuhn sur la maîtrise des expressions idiomatiques par les systèmes de TAS. Le dernier exemple reste lui aussi inchangé et illustre bien les catégories d’erreur d’accord typiques de la TAS qui surviennent lorsque l’adjectif qui qualifie un nom est placé trop loin dans la phrase pour que système puisse « comprendre » qu’il doit être accordé. La même remarque explique la traduction boiteuse d’« attractive » dans le troisième exemple. Cependant, la construction du deuxième exemple ne devrait pas poser problème à Google Translate, puisque le nom et l’adjectif qu’il qualifie sont très proches l’un de l’autre. Kuhn indique qu’« un système TABR aurait probablement omis jeune et mis attrayante », mais que puisque la traduction de Google Translate est moins littérale, « La TAS a bien marché ici [sic] »[43]. Que s’est-il passé en trois ans? La jeune fille est restée, mais elle devenue « attrayant », le système commettant une erreur qu’il n’avait pas faite au départ. Évidemment, il y a peu de chance qu’une telle chose se produise avec un système à base de règles, puisque les ressources que requiert un changement dans ce type de système sont très élevées. Ce désagrément illustre bien le prix à payer si l’on veut profiter des avantages qu’offre un système malléable : les modifications peuvent aller trop loin. Bien sûr l’exemple présenté ici est extrême, puisque Google Translate s’appuie en partie sur les modifications proposées par ses utilisateurs, mais la situation peut facilement se reproduire dans un système implanté en entreprise si des mesures ne sont pas prises pour assurer une certaine qualité au corpus d’entraînement. Il n’en reste pas moins, que malgré ces accrocs, la TAS reste une approche fiable dont l’efficacité n’est plus à prouver.

Un malentendu qui perdure

Qu’en est-il du traducteur, dans tout cela? Depuis les années 50, nous avons vu défiler cryptographes, mathématiciens, linguistes, informaticiens, statisticiens, mais pas de traducteurs. Puisqu’il s’agissait d’ailleurs au départ de les éliminer, il ne faut donc pas se surprendre de constater que la majorité se soit tenue loin de la recherche en traduction automatique. Dans « The Proper Place of Men and Machines in Language Translation », Martin Kay montre bien le calvaire que les traducteurs, et leurs textes, doivent subir aux mains des machines à traduire :

There was a long period—for all I know, it is not yet over—in which the following comedy was acted out nightly in the bowels of an American government office with the aim of rendering foreign texts into English. Passages of innocent prose on which it was desired effect this delicate and complex operation were subjected to a process of vivisection at the hands of an uncomprehending electronic monster that transformed them into stammering streams of verbal wreckage. These were then placed into only slightly more gentle hands for repair. But the damage had been done. Simple tools that would have done so much to make the repair work easier and more effective were not to be had presumably because of the voracious appetite of the monster, which left no resources for anything else. In fact, such remedies as could be brought to the tortured remains of these texts were administered with colored pencils on paper and the final copy was produced by the action of human fingers on the keys of a typewriter. In short, one step was singled out of a fairly long and complex process at which to perpetrate automation. The step chosen was by far the least well understood and quite obviously the least apt for this kind of treatment. [44]

Il faut malheureusement avouer que la situation a perduré jusqu’à tout récemment. Pour illustrer ce que j’entends par là, je vous propose deux exemples relativement récents dont j’ai été personnellement témoin.

Au cours du congrès de l’OTTIAQ en 2008, où Pierre Isabelle, pionnier de la recherche en traduction automatique au Canada, venait présenter les résultats d’un banc d’essai du tout dernier système de traduction automatique qui s’est tenu au Bureau de la traduction (BT). Portage, qui depuis a gagné nombre de compétitions internationales, avait très bien performé chez les traducteurs du Bureau de la traduction, lesquels ont une réputation de puristes à peu près inégalée. Ces derniers se voyaient agréablement surpris de l’idiomaticité des traductions produites par le système, vantant son efficacité et sa facilité d’utilisation et certains ont même demandé à continuer à utiliser la bête. En dépit de tout cela, le pauvre conférencier a dû essuyer les attaques qui fusaient de toutes parts lors de la période de questions. Pourtant, les traducteurs présents dans la salle, en 2008, je vous le rappelle, pour la plus grande partie des pigistes, ne pouvaient évidemment prétendre dédaigner l’ordinateur, Internet et autres outils informatiques. Notre erreur à tous, traducteurs, informaticiens, donneurs d’ouvrage, confondus, est d’avoir espéré (ou craint) ne serait-ce qu’un instant, que la machine remplacerait l’humain dans la délicate (et mystérieuse) opération qu’est la traduction. Des représentations fictionnelles, comme le BabelFish, que j’ai mentionné en introduction, ainsi que des promesses telles que celles rapportées par les journalistes à l’occasion de la démonstration de Georgetown-IBM contribuent à perpétuer cette méprise.

Quelques années plus tard, en 2011, j’ai recueilli les commentaires de quelques traducteurs du BT sur la question des technologies en traduction dans le cadre de ma scolarité de maîtrise. Ces traducteurs se sont tous montrés très conscients de la différence entre « traduction automatique » (traduction faite entièrement par un ordinateur) et « traduction automatisée » (traduction faite par un agent humain aidé d’un ordinateur). Le premier traducteur remarque à ce sujet que « [l]a traduction automatique donne des textes de très mauvaise qualité » tout en mentionnant que « [l]a traduction automatisée est un outil très précieux pour les traducteurs. »[45] La peur de se faire remplacer par une machine reste néanmoins très préoccupante, comme le remarque un deuxième intervenant, qui nuance cependant ses propos pour conclure que « la traduction automatique pourrait nous permettre de nous "débarrasser" de textes répétitifs en [sic] ennuyeux et de nous concentrer sur de réels défis. »[46] L’avis d’un troisième traducteur est encore plus tranché. Bien qu’il ne s’oppose pas à l’utilisation de la traduction automatisée, la traduction automatique le rebute. Il explique : « Tant que ce procédé en sera encore à ses balbutiements, cela ne m’intéresse pas et, au contraire, je dois le combattre et m’opposer à son utilisation, voire son développement, si je veux sauvegarder mon gagne-pain pour quelque temps encore. »[47]

Si ce type de prise de position sans équivoque tend lentement à disparaître, c’est surtout parce que les professionnels de la traduction n’ont plus le choix et doivent s’adapter. En effet, plus que l’informatisation du poste de travail, qui a débuté dans les années 70 pour les grands cabinets, puis qui s’est répandue chez les pigistes avec la montée de l’informatique personnelle, c’est l’apparition d’une culture numérique à laquelle ils ne peuvent plus se soustraire qui met en branle un changement profond dans l’univers de la traduction. Car la localisation, soit « the linguistic and cultural adaptation of digital content to the requirements and locale of a foreign market, and the provision of services and technologies for the management of multilingualism across the digital global information flow »[48], change la donne. Michael Cronin explique bien le changement que cela implique :

As a result of the digital revolution of the late twentieth century, text has become part of digital content […] Underlying the informatics revolution is the convertibility, the ultimate translatability, of all content to the binary code of machine language. Computers, which initially only received text, now receive sound and images (both static and animated). At one level, the problem for the translator schooled in written and printed textual traditions is how to deal with these multi-modal textual objects.

En somme, il s’agit de considérer la traduction à l’ère numérique, non plus comme une étape d’un processus à automatiser, mais plutôt comme un processus à intégrer dans un contexte numérique. Il y a un peu plus de dix ans, Doug Robinson proposait un virage en ce sens : « it may be more fruitful to shift the discussion of human-machine interfaces in the translation field from the MT/CAT/HT triad into the realm of cyborg translation. The motto of this new approach would be: all translators are cyborgs. »[49]

Le traducteur et la machine, dit-il, forment une entité traduisante complexe et organisée. Il ne s’agit pas de simple collaboration, mais de symbiose, l’un tirant profit des enseignements de l’autre. « The machine is one of the human’s limbs or organs. Together they are a cyborg. »[50]

 (Re)Construire l’imaginaire du traducteur-cyborg

Si l’imaginaire du cyborg paraît trop connoté aux yeux de certains, je propose néanmoins de chercher du côté des récepteurs de la traduction et des technologies, particulièrement en ce qui concerne la production culturelle « atypique » pour recadrer la traduction dans un contexte numérique.

Le cas de deux fansubbers d’animés japonais, que j’ai examiné dans des travaux précédents[51], peut mettre en lumière de nouvelles dynamiques d’appropriation et de distribution culturelle qui sont soutenues par une relation à la technique exempte des préjugés de leurs contreparties professionnelles. La traduction d’un animé peu connu, Berserk, est passée dans ce cas précis dans les mains de deux enthousiastes français, qui ont fait preuve d’une ingéniosité et d’une créativité surprenante quant à l’utilisation des ressources techniques à leur disposition. Passant d’un « raw » déjà sous-titré en portugais, ils utilisent Google Translate et leur connaissance de l’univers berserkien (qui compte un manga de plusieurs volumes et une série animée) pour produire la version française, et Subtitle Edit pour intégrer les sous-titres au film. Constatant que la version anglaise se faisait elle aussi attendre, ils utilisent le même principe pour la langue de Shakespeare.

Ce que l’exemple de Berserk démontre par ailleurs c’est que les fans membres de ces communautés agissent à la fois comme commanditaires (même si l’échange d’argent est plutôt l’exception), producteurs, traducteurs, distributeurs, critiques et consommateurs de « nouveaux » animés, en s’appropriant non seulement toutes les étapes de production, mais aussi le produit en soi, l’adaptant selon une éthique qui leur est propre.

En somme, si l’imaginaire traditionnel lié à TA, tant sur le plan de la recherche fondamentale, de la recherche appliquée et de l’utilisation professionnelle est « frelaté » comme j’ai tenté ici de le démontrer, il est urgent, pour favoriser la poursuite des avancées technologiques et pour assurer la survie de la profession de traducteur, de recadrer l’utilisation des technologies de traduction automatique et automatisée à l’aide de nouvelles représentations plus positives. La figure du cyborg, comme manifestation de l’appropriation de composantes technologiques par l’humain, ou encore, celle des fansubbers, comme figures rebelles, voire romantiques, transgressant les frontières établies de la profession, pourraient toutes deux servir de hérault/héros pour une nouvelle ère de la traduction à l’ère de la culture numérique.

Note finale : Cet article reprend en grande partie mes travaux précédents, mais les revisite à la lumière de nouvelles réflexions. Je remercie les éditeurs de m’avoir permis de partager ces dernières. Voir la bibliographie pour les références complètes.