Corps de l’article

“Vivre, s’égarer, tomber, triompher, recréer la vie avec la vie”.

James Joyce, Portrait de l’artiste en jeune homme (1916)

En juillet 2013, exactement soixante-dix ans après qu’Erwin Schrödinger ait donné sa fameuse conférence au Trinity Collège de Dublin, Craig Venter a repris son titre “What Is Life?” pour une autre conférence, en lui ajoutant un sous-titre évocateur : “Une perspective du vingt-et-unième siècle”. Dans le même amphithéâtre, quarante minutes lui suffirent alors pour lancer ce qu’il appelle “l’âge numérique de la biologie”. Pendant cette conférence, Craig Venter a expliqué comment, avec son équipe, il avait synthétisé, “à partir de rien” [from scratch], leur première entité convergente.

Il s’agit d’un virus, nommé Phi X 174. Venter et sa troupe ont choisi ce virus en particulier, car c’est avec lui que l’histoire de l’ADN avait commencé, puisqu’il s’agit du premier virus à ADN dont le génome fut séquencé, en 1977, par Fred Sanger et son équipe. En lisant à l’envers l’histoire de la biologie moléculaire à partir de leur exploit, Venter en vint à sa conclusion logique : dorénavant, la vie est code, et cette nouvelle entité est là pour nous en convaincre. Le virus synthétisé par Venter est son équipe (Smith, Hutchinson, Pfannkoch & Venter 2003) n’est cependant pas exactement le virus originel : c’est bien Phi X 174, les mêmes 5386 nucléotides qui composent son génome, mais c’est aussi, potentiellement, un autre organisme, une étape vers un autre devenir.

En effet, le but de Venter et de son équipe n’était pas de produire un virus : ils voyaient plus grand. C’est sur un “véritable” organisme que s’arrêta leur choix : une bactérie en fait, Mycoplasma genitalium, suivi d’une autre, M. mycoides, pour aboutir finalement à leur véritable création, Mycoplasma laboratorium, aussi baptisée “Synthia”. Phi X 174 n’était donc qu’une étape dans le projet démiurgique de synthétiser en laboratoire un génome minimal. Il possédait cependant déjà une caractéristique qui serait ensuite actualisée dans la série des Mycoplasma : c’était un produit de synthèse, résultant d’un design humain.

Venter et ses collègues ont d’ailleurs par la suite matérialisé cette caractéristique dans la série des Mycoplasma, à l’aide de l’encodage de quelques messages supplémentaires dans les génome de M. laboratorium : en “filigrane” [watermarks], les 46 noms des scientifiques ayant participé à sa synthèse, une adresse sur le World Wide Web, et trois citations résumant leur philosophie. Venter et ses collègues ont donc signé leur création. À cheval entre la culture de l’imprimé, avec ce recours à la citation, et à la culture de la programmation, où code et commentaires se succèdent sans couture dans le même langage binaire, ils ont ainsi manifesté la convergence qui m’intéresse ici.

Ainsi est née, déjà virtuellement surchargée d’annotations et de connotations plus ou moins signifiantes, la première entité convergente, ou plutôt, comme le premier terme de passage, dit Venter, vers “la première entité à avoir un ordinateur comme parent”. Phi X 174 : un virus biologique et numérique, le premier designer virus convergent, la première entité de l’ère de la biologie synthétique (Bardini 2015).

De la convergence : des techniques aux media, des modes aux codes

Selon le dictionnaire Larousse, “converger” signifie “tendre vers un même point (…) vers un même but ou un même résultat (…) présenter des analogies, des points communs”. L’anglais, selon sa coutume, le signifie encore plus directement, en considérant la convergence comme “the fact that two or more things, ideas, etc. become similar or come together” (selon le Cambridge Dictionnary). Quelle que soit la langue, “convergence” un terme très équivoque, qui est utilisé dans un vaste ensemble lexical, pincipalement dans le domaine des sciences et des techniques : en médecine, géologie, météorologie, biologie, mathématiques, informatique, etc. L’Académie Française considère en 1986 que le mot apparaît au dix-septième siècle, en provenance du latin scientifique convergencia. Dans sa définition de 1798, elle en donnait déjà deux sens principaux, en géométrie, où elle signifie “la position réciproque de deux lignes qui vont en s’approchant” et en optique, “la disposition des rayons d’un corps lumineux, qui vont en s’approchant, jusqu’à ce qu’ils se réunissent tous en un point”.

À la fin du vingtième siècle, le concept de convergence, affublé de l’adjectif “médiatique”, devient un véritable point de passage obligé dans les discours sur les médias. La réapparition de ce concept dans son nouvel usage est souvent attribuée à Nicholas Negroponte du MIT Medialab qui, dès 1979, construit un modèle du devenir médiatique basé sur la convergence de trois industries : audio-visuelle, imprimé et informatique. Selon Stewart Brand, qui a écrit l’histoire officielle du Medialab, la vision de Négroponte part du principe que “toutes les technologies de la communication souffrent d’une métamorphose conjointe, qui ne peut être correctement comprise que si elle est traitée comme un seul sujet, et ne peut progresser que si elle est traitée comme un seul art” (Brand 1987 : 11).

Henri Jenkins, qui a étendu la notion de convergence au point de la considérer à l’origine d’une culture (Jenkins 2006), appelle Ithiel de Sola Pool “le prophète de la convergence”. Ce qui me semble justifié, mais pas forcément trivial. Dès 1983, de Sola Pool décrit ce qu’il appelle “la convergence des modes”, “un processus qui brouille les lignes entre les médias, y compris entre les communications de point à point, comme la poste, le téléphone et le télégraphe et les communications de masse, comme la presse, la radio, et la télévision”. Selon ce processus, continue Pool, “un seul support physique – que ce soit des fils, des câbles ou des ondes hertziennes – peut porter des services qui étaient autrefois offerts de manières différentes” (de Sola Pool 1983 : 23).

Selon L’Encyclopédie canadienne, “la convergence des médias” combine les sens liés de la convergence technologique et de la convergence économique, dans la mesure où elle se réfère à : “1) la fusion des nouvelles technologies et des médias traditionnels résultant de la numérisation et des réseaux informatiques; ou à 2) une stratégie économique qui consiste pour des entreprises de communication à profiter du fonctionnement en synergie des divers médias qu’elles possèdent”. Au total, cette notion réfère donc aujourd’hui à deux sens du mot medium/média : au sens de support (comme en art ou en biologie) et au sens d’industrie (comme on dit maintenant “media d’information”). Dans les deux cas cependant, et pour la plupart des auteurs qui ont suivi Negroponte et de Sola Pool, le moteur de ce mouvement de rapprochement est de nature technologique : c’est la convergence des supports qui permet aux media de converger. En fait, pour être plus précis, de plus en plus, c’est l’informatisation des supports qui appraît comme cruciale, dans la mesure où elle marque les passage des médias au transmedia.

Lev Manovich a exposé ceci particulièrement clairement dans son livre The Language of New Media, où il affirme que “les nouveaux media représentent la convergence de deux trajectoires historiques : l’informatique et les technologies médiatiques”. Cette “convergence” au sens anglais vu précédemment, rend les nouveaux media similaires à l’informatique, dans la mesure où la synthèse de ces deux trajectoires produit “une traduction de tous les media existants en des données numériques accessibles par des ordinateurs” (Manovich 2001 : 20). Manovich appelle “cultural transcoding” “la conséquence la plus substancielle de l’informatisation des media”, qui fait en sorte que cette “traduction” affectent les différentes cultures médiatiques et les englobe dans une nouvelle culture informatique.

Mark Hansen a repris ce point en l’étendant : selon lui, “la possibilité d’une convergence totale des media dans le ‘super-medium’ du code numérique nous permet de reconsidérer l’histoire de manière extrêmement constructive (…) plutôt que former une forme de stockage universelle, à proprement post-médiatique, le code numérique représente la plus récente, et certainement la plus complexe, étape de l’évolution des techniques; dans ce sens, il transforme les humains non pas de l’extérieur (comme les fantasmes posthumanistes de Kittler le suggèrent), mais bien plutôt comme une extension de l’extériorisation qui est constitutive de l’humain, qui se tient au coeur même de l’humain en tant que forme du vivant” (2006 : 301). Cet argument, issu des intuitions de Leroi-Gourhan developpées par Bernard Stiegler, est fondamental pour mon propos. Il renvoie finalement à des media compris comme des milieux de vie (environments for life) : “ tout ce que les media médient”, écrit Hansen, “c’est la vie, et la vie (humaine) n’est que médiation, c’est-à-dire l’actualisation du vivant via son extériorisation dans un environnement, dans un medium” (ibid.). Ce sens du medium, comme environnement ou milieu d’une forme de vie, le rapproche bien évidemment de son sens biologique, comme un milieu de culture (en englobant ainsi le transcodage culturel dont parlait Manovich).

À partir de là, il ne restait plus qu’à inclure la vie même au sein de la convergence. Ce qui fut fait, ou presque, lorsque Deborah Lynn Steinberg et Stuart J. Murray ont dirigé, à quatre ans d’intervalle (2011, 2015), deux numéros de la revue en ligne MediaTropes sur le thème de la bioconvergence. Sans jamais réellement définir ce qu’ils entendaient par “bioconvergence”, Steinberg et Murray ont néanmoins introduit le corps dans la série des “choses” qui convergent, avec les media et le technologies, dans une série problématique de la biopolitique contemporaine. Certains biologistes, et non des moindres, ont cependant été beaucoup moins prudents, et ont poussé le raisonnement de Hansen, Manovich et Cie, jusqu’à son ultime conclusion. Pour le dire abruptement, comme J. Craig Venter : la vie même converge dans le code [code is life]. Voici, de manière plus détaillée, ce mouvement ultime de la convergence, selon lui :

Toutes les cellules vivantes tournent sur des logiciels ADN qui dirigent des centaines voire des milliers de protéines robots. Nous numérisons la vie depuis des dizaines d’années, depuis que nous avons découvert comment déchiffrer le logiciel du vivant en séquençant l’ADN. Nous pouvons maintenant aller dans l’autre direction : commencer par un code numérique informatisé, élaborer une nouvelle forme de vie, synthétiser son ADN par voie chimique puis l’initialiser comme un logiciel pour produire l’organisme réel.

Venter 2014 : 19

Sur ces quelques mots s’ouvrent en fait une nouvelle ère dans notre rapport au vivant, l’ère synthétique. Mais avant de prendre toutes ces affirmations, voire ces promesses, pour argent comptant, il convient probablement de revenir un peu sur ce qui les fonde, de l’avis même de Venter : l’équivalence entre ADN et logiciel, la vision cybernétique du vivant qui sous-tend les discours actuels de la (bio)convergence.

Une (très brêve) histoire du code génétique[1]

Il faut commencer par dissiper un malentendu : la cybernétique n’a pas directement influencé la biologie moléculaire, ou du moins pas dans un premier temps, et certainement pas en ce qui concerne une influence qui ferait de la seconde une application des théories de la première. Comme en témoigne cette opinion sur la cybernétique de Max Delbrück, un des rares biologistes à être invité aux fameuses rencontres de la fondation Macy : “c’était extrêmement vide de sens et positivement inepte. La génétique ne pouvait pas du tout y trouver sa place” (Heims 1991 : 95).

Malgré les dangers d’une histoire par trop individuelle, la première influence provient plutôt des reflexions d’un physicien, Erwin Shrödinger, dans le livre issu de la conférence mentionnée au début du présent article : What is Life? (1944). La plupart des historiens de la discipline s’accordent en effet aujourd’hui pour voir dans les théories et intuitions de la physique (quantique) les origines conceptuelles de la biologie moléculaire. Si Shrödinger avait envisagé dès 1944 l’existence d’un “Morse-like code script” pour l’hérédité, les notions connexes d’“information”, “programme”, “alphabet”, “message”, ou “texte” n’ont cependant pas été employées par les premiers biologistes moléculaires avant 1953.

L’usage de la notion centrale de code dans le contexte scientifique et culturel de l’immédiat après-guerre militait pourtant pour une telle convergence à court terme. Le vocabulaire de l’information est en effet déjà virtuellement présent sous la forme de la notion de transcription dès le texte fondateur de la biologie moléculaire du gène, le fameux article de Crick et Watson (1953) annonçant leur modèle de structure pour l’ADN. Mais c’est probablement la notion de “dogme central” qui entérina définitivement l’ancrage de la biologie moléculaire dans le vocabulaire cybernétique de “l’information”. Le concept de base de ce “dogme central” établit en effet qu’il existe un transfer d’information à sens unique de l’ADN vers les protéines (Crick 1958). Ce modèle informationnel prévaut finalement dans le décryptage du code génétique proposé par Marshall W. Nirenberg et J. Heinrich Matthaei du National Institute of Health (NIH) à Bethesda, au Maryland en 1961.

Cependant, si la compréhension textuelle ou linguistique du code génétique comprenait en son coeur la notion d’information génétique depuis l’instauration du dogme central, elle l’entendait probablement sur un mode métaphorique. En fait, les relations entre la biologie moléculaire naissante et la cybernétique doivent être envisagées à partir de leur utilisation concurrente de la notion d’information, entendue dans des sens fondamentalement différents, pour ne pas dire opposés. Comme l’a si bien dit Lily Kay, “de manière à concevoir les acides nucléiques comme seule source de l’information génétique, il fallait tacitement subvertir la définition scientifique de l’information” (2000 : 175).

Pour la cybernétique et la théorie de l’information, toutes deux synthétisées en 1948, l’information est une quantité statistique : l’information conduite par un symbole donné est en relation avec la probabilité de son occurrence dans un message et non pas avec une quelconque signification du symbole. Comme l’a résumé Warren Weaver dans son célèbre article pour Scientific American (Pellissier & Tête 1995 : 220), “le mot information est en rapport non pas tant avec ce que vous dites qu’avec ce que vous pourriez dire”. Bref, la notion d’information de cette théorie ne comprend pas de dimension sémantique, pire, elle excluait toute dimension sémantique : en fait il aurait mieux fallu parler de quantité d’information, entendu dans un sens probabiliste, que d’information à proprement dite. Dans ce sens la théorie de l’information, si elle était effectivement “appliquée” à la compréhension du vivant, excluerait tout recours à une quelconque notion de signification.

Il convient de rappeler ici que dans le schéma original de Claude Shannon, un signal, résultat de l’encodage d’un message, est transmis par un canal ou médium à un receveur qui le décode pour retrouver à destination le message initial. L’encodage est donc la traduction d’un message en un signal. Le message y est défini comme toute séquence discrète ou continue d’événements mesurables distribués dans le temps, et le signal est une modulation ordonnée du médium (carrier). Le “code” est donc, dans ce cadre théorique, le principe (l’ensemble des règles) qui permet de transformer une séquence discrète d’événements en une modulation (un mouvement ordonné) du médium. Ce mouvement ordonné apparaît comme un ensemble déterminé de variations du médium, i.e. comme la transmission de différences. L’information est la mesure de la capacité du canal, une mesure probabiliste des choix entre ces alternatives.

Après sa relecture de la linguistique à la lumière de la théorie de l’information (et particulièrement de la version du théoricien britannique Colin Cherry), l’apport de Roman Jakobson permit de boucler la synthèse d’un code génétique “verbal” ou “textuel”. Cette convergence se matérialisa effectivement lors d’un débat télévisé (“Vivre et Parler”) en septembre 1967, ou Jakobson participa à une discussion avec Claude Lévi-Strauss et les biologistes François Jacob et Philippe L’Héritier. En cette occasion, et malgré les réticences de Lévi-Strauss et de L’Héritier, Jakobson affirma que l’utilisation en biologie moléculaire de termes linguistiques était totalement légitime, puisque les deux ont en commun une “même architecture, les mêmes principes de construction” (dans Kay 2000 : 309). Jakobson excluait donc la possibilité d’un usage métaphorique des référents linguistiques en biologie moléculaire… à l’aide d’une métaphore architecturale!

Cependant, quelques années plus tôt, les rares chercheurs qui avaient tenté d’opérer une application stricte de la théorie de l’information à la biologie moléculaire et aux mécanismes de l’hérédité en étaient arrivés à des conclusions pour le moins mitigées. En témoigne par exemple Henry Quastler, qui fut invité à la rencontre de 1952 de la Fondation Macy, et qui disait que “la théorie de l’information est très forte d’un point de vue négatif, c’est-à-dire pour démontrer ce qui ne peut être fait” (dans Kay 2000 : 126). En 1961, à l’heure même du triomphe du décryptage du code, Martynas Ycas, un autre chercheur impliqué dans cette entreprise concluait pareillement “qu’aucun usage explicite de la théorie de l’information, et en particulier sur un mode quantitatif, n’a été fait en pratique” (ibid.).

Il semble donc qu’il faille en conclure, comme Lily Kay, et quoi qu’en disait Roman Jakobson, à l’usage métaphorique des notions de la théorie de l’information, et particulièrement de celle de “code génétique”. Dans son livre intitulé La logique du vivant. Une histoire de l’hérédité, François Jacob concède lui aussi ce point. Tout en insistant sur le fait que “c’est aux algorithmes du monde vivant que s’intéresse aujourd’hui la biologie” (1970 : 321), il conclut en disant que “enfermée dans son système d’explications, la science ne peut s’en évader. Aujourd’hui le mode est messages, codes, information. Quelle direction demain disloquera nos objets pour les recomposer en un espace neuf?” Jacob mettait ici le doigt sur la contingence des explications scientifiques vis à vis de cadres rhétoriques englobant, et, plus précisément, sur le rôle structurant que prennent certains concepts dans “l’air du temps”. Comme l’écrivait si bien Lily Kay, “le code génétique est une ‘oeuvre d’époque’ [a period piece], une manifestation de l’émergence de l’âge de l’information” (2000 : 2).

De l’information au signe

Pour Jacob, le noeud problématique se situe au niveau du mode de référence de la métaphore, c’est-à-dire des relation entre signifiant et signifié qu’elle autorise : “il en est du code génétique comme d’une langue : même si elles sont dues au hasard, dès lors qu’elles sont instaurées, les relations entre ‘signifiant’ et ‘signifié’ ne peuvent changer”, écrivait-il (1970 : 327). Ainsi, il affirmait qu’“une fois établi un système de relations, celles-ci ne peuvent se modifier sous peine de faire perdre toute signification à ce qui en possédait déjà, de brouiller ce qui avait déjà valeur de message” (ibid.). En fait, Jacob semble ici hésiter entre deux alternatives : 1) la référence est absolue, son interprétation est univoque, et toute remise en cause la détruit complètement, ou 2) la référence est relative, son interprétation est équivoque, et une remise ne cause apparaît comme une source de bruit qui “brouille” la signification.

Cette deuxième alternative me semble très porteuse, dans la mesure où il est alors envisageable d’introduire par ce fait un dynamisme dans l’explication qui échappe complètement à la première alternative. En effet, opter pour un mode de référence fermé conduit à envisager un fonctionnement statique d’un code analogue à celui d’une langue morte (c’est-à-dire qui n’est plus parlée). À l’inverse, insister sur le “brouillage” n’interdit pas de penser qu’un autre ordre, un nouveau mode de référence peut émerger du bruit. Dans une langue vivante, les mots changent de sens avec leur usage. Oublier ce fait conduit à figer la référence en convention, où le mot devient la chose, la carte le territoire.

C’est bien dans ce sens qu’ont abondé les récentes analyses de l’histoire de la biologie moléculaire, en se centrant sur la question de la performativité des représentations conceptuelles et/ou discursives. Lily Kay, par exemple, considérait que le choix d’une représentation conceptuelle particulière lui confère en retour la capacité d’habiliter et de contraindre certaines pensées et actions. Richard Doyle (1997) a décrit, quant à lui, ce même type de phénomène sous le nom de “logiciel rhétorique”. Il semble donc que la question centrale se situe au sujet du mode de référence de la métaphore. Insister sur sa limite ne nous informe pas beaucoup sur sa performativité : en rester à une simple dénonciation de la métaphore dans le cadre d’une épistémologie positive ne permet certainement pas de poser la question de la performativité métaphorique, c’est à dire de comprendre ce que fait la métaphore.

En fait, c’est un pas plus loin que j’aimerais franchir ici, en remettant fondamentalement en cause le type de sémiotique mobilisé par François Jacob : tout le problème à l’origine de son hésitation provient à mon avis du fait qu’il utilise un cadre de référence hérité de Saussure. Comme le proposent les biosémioticiens contemporains, le passage à la sémiotique de Peirce pourrait permettre de régler définitivement ce problème. Selon Jesper Hoffmeyer (2016), “la biosémiotique propose d’étudier les systèmes vivants en tant que systèmes sémiotiques à part entière. Cette idée est fondée sur la croyance selon laquelle la pauvreté du discours sur l’information dans les sciences biologiques résulterait de la négligence, dans la réduction, de l’aspect interprétatif de l’information biologique”. Pour le dire rapidement, ce n’est pas d’information dont il faut nous préoccuper ici, mais bien de signe, ou mieux encore, de sémiose, que Peirce définit comme “une action ou influence qui est ou implique la coopération de trois sujets, tels qu’un signe, un objet et son interprétant” (Peirce 1978 : 133).

Pour Peirce, dans son acceptation la plus large, “un signe, ou representamen, est quelque chose qui tient lieu pour quelqu’un de quelque chose sous quelque rapport ou à quelque titre” (Peirce 1978 : 121). Gérard Deledalle insiste cependant dans son commentaire sur le fait que “Peirce n’emploit pas indifféremment le mot ‘signe’ et le mot ‘representamen’. Le signe est ‘tout ce qui communique une notion définie d’un objet’, le representamen est tout ce à quoi l’analyse s’applique quand on veut découvrir ce qu’est essentiellement le signe (1.540)” (ibid. : 216). Le signe est en fait une relation triadique entre le representamen (aussi appelé le fondement ou le véhicule du signe, et malheureusement aussi parfois, le signe), son objet et un troisième appelé son interprétant.

C’est par la présence de ce troisième terme que la sémiotique de Peirce se distingue de la sémiologie de Saussure. Pour Peirce, un signe “s’adresse à quelqu’un, c’est-à-dire crée dans l’esprit de cette personne un signe équivalent ou peut-être un signe plus développé” (1987 : 121), l’interprétant. Pour Peirce, l’interprétant est le véritable signifié (“le signifié propre”), sans pour autant être la signification du signe. La signification est en fait un processus, tout aussi ouvert et potentiellement infini que la sémiose peut l’être : l’interprétant d’un signe est lui même un autre signe, et ainsi de suite, ad infinitum. La compréhension du caractère infini de la sémiose, selon Thomas Sebeok (1979 : 26), le précurseur de la biosémiotique contemporaine, ne fournirait rien de moins que la définition de la vie même. Voyons maintenant comment ces biosémioticiens ont développé la conception Peircienne du signe pour la compréhension des phénomènes génétiques moléculaires.

Signes génétiques

Commençons tout d’abord par dire que l’ajout de l’interprétant que permet la sémiotique de Peirce paraît tout à fait en phase avec des conceptions plus récentes de l’information génétique que celle du dogme central et des débuts de la biologie moléculaire. Comme l’écrit Jesper Hoffmeyer, nous n’en sommes plus à l’époque où l’on pouvait croire à un déterminisme direct du génotype sur le phénotype, dans la mesure par exemple où le développement différentiel de cellules dotées du même partimoine génétique montre bien que l’information génétique y est interprétée différemment (Hoffmeyer 2010 : 368).

Comme Hoffmeyer, la plupart des biosémioticiens qui ont tenté de développer une problématisation de la biologie moléculaire de l’hérédité n’ont pas visé à la débarrasser complétement de la notion d’information génétique. À l’inverse, certains ont plutôt considéré comme Griffiths (2001) que “l’information génétique est une métaphore à la recherche d’une théorie”, et que la biosémiotique est un moyen plus adéquat que la théorie cybernétique de l’information pour construire cette théorie. Il n’est pas dans mon propos de synthétiser l’ensemble de ces tentatives, ce qui dépasserait, et de loin, la portée du présent article. Je me pencherai donc sur une seule d’entre elle, celle de Claus Emmeche, João Queiroz, et Charbel Niño El-Hani, publiée dans une série d’articles (Queiroz, Emmeche & El-Hani 2005, 2008; El-Hani, Queiroz & Emmeche 2006; Queiroz, Emmeche, Kull & El-Hani 2011) et éventuellement dans une monographie qui fait autorité à mes yeux (El-Hani, Queiroz & Emmeche 2009).

Pour ces auteurs, l’information génétique est un processus plutôt qu’une quantité, une chose ou une substance – d’ailleurs la forme même du mot “information” permet cette caractérisation, dans la mesure où le suffixe -tion réfère autant à une action qu’au résultat de cette action. Ce processus est un processus sémiotique, dans le lequel les gènes sont conçus comme des signes au sens de Peirce, c’est-à-dire comme des representamen impliqués dans une cascade de relation triadiques (une sémiose). Plus précisemment, l’information génétique est donc pour eux “le processus au moyen duquel une forme d’un objet dynamique (une protéine fonctionnelle) est communiquée à un interprétant (la reconstruction d’une séquence spécifique d’acides aminé dans une cellule) via des signes dans l’ADN”. Cette phrase se retrouve dans tous leurs papiers depuis le papier original (Queiroz, Emmeche & El-Hani 2005) jusqu’à la dernière version (Queiroz, Emmeche, Kull & El-Hani 2011 : 113). Le schéma suivant, lui aussi présent dans toutes les versions de leur papier, représente leur modèle triadique du gène comme signe :

Figure 1

-> Voir la liste des figures

La relation entre des signes dans l’ADN (gènes comme representamen) et les séquences d’acides aminés d’une protéine est donc entendu comme la communication d’une forme (in-formation) qui nécessite des mécansimes complexes d’interprétation, que la théorie standard de la biologie moléculaire appelle “transcription” et “traduction”. Ces mécanismes nécessitent divers sites d’interprétations, divers interprètes, comme, par exemple, les polymérases impliquées dans la transcription, ou les ribosomes, impliqués dans la traduction. Au total, pour ces auteurs, ces différents sites sont autant de sous-systèmes de la cellule comme interprète global : au final, c’est bien l’ensemble de la cellule qui participe au réseau nécessaire à l’interprétation de l’information génétique.

Jesper Hoffmeyer insiste sur l’importance de ce point : “les gènes ne correspondent pas – comme il était supposé antérieurement – à des fonctions spécifiques dans l’organisme. Ils fonctionnent plutôt comme des signes dans les interactions dynamiques entre eux et le réseau de protéines et de membranes de l’embryon en croissance. Ce ne sont pas les gènes qui comptent, mais bien leur interaction et leur interprétation dans la cellule” (Hoffmeyer 2008a : 131).

Cette compréhension sémiotique du vivant permet donc de considérer d’autres sites et d’autres acteurs que ceux que sur-valorisait le simpliste modèle antérieur de la biologie moléculaire. Je pense ici en particulier à toutes les séquences rapidement qualifiée de non-codantes (ou même de junk), auxquelles je me suis particulièrement intéressé dans un ouvrage récent (Bardini 2011). Depuis les modèles originaux de la régulation des gènes des années 1960 et 1970 et la découverte des introns (ces portions d’un gène qui sont transcrites en ARN, pour être ensuite éliminées par un processus d’excision programmé, et qu’on ne retrouve donc pas dans l’ARN mature), il semble évident que le dogme central et le paradigme standard de la biologie moléculaire a trop longtemps ignoré ces autres sites et acteurs, au point probablement de mettre même en péril sa notion de gène. Dans le cadre de la perspective sémiotique ici introduite, au contraire, ces différents sites et acteurs enrichissent la vision globale de l’hérédité et du développement cellulaire, en introduisant d’autres formes de codes, et en particulier de “meta-code” (voir Neuman 2008 : 55-74).

L’essentiel ici est donc la non-univocité, ou même l’équivocité de l’interprétation dans la sémiose vivante. Une conséquence fondamentale de ce point est qu’il implique l’inclusion de signes non-génétiques dans une perspective rénovée de l’onto-morphogenèse vivante. Le fonctionnement du méta-code auquel je faisais allusion antérieurement pourrait par exemple inclure la participation de certaines protéines (comme les histones, par exemple) ou même de composés chimiques (comme des groupes methylés) dans la sémiose vivante, en l’ouvrant ainsi ce que l’on appelle généralement les processus épigénétiques. Un pas de plus dans l’ouverture de la liste de signes potentiellement fondamentaux irait ensuite dans le sens de l’inclusion de facteurs environnementaux (comme des indicateurs de stress, par exemple), interprétés selon différents processus génétiques et épigénétiques – comme dans le cas des processus de transposition originellement décrits par Barbara McClintock. Finalement, si les intuitions précédentes d’une sémiose vivante générale s’avèrent correctes, ou même partiellement correctes, elles mèneront nécessairement à un modèle révisé de la nature et de la fonction des acides nucléiques, par delà l’ADNisme (Hoffmeyer 2008a : 130) ou ce qu’Ionat Zurr et Oron Catts (2005) appellent “le genohype”. Ce modèle sera nécessairement un modèle écologique, où de nombreux réseaux, certains locaux et isolés des autres, d’autres coordonnés, en coopération ou en compétition, connecteront tous les sites et acteurs de la sémiose vivante, qu’ils soient à proprement parler génétiques ou non. Ces processus d’information inter-connectés, aussi désordonnés qu’ils puissent paraître, décriront alors, comme dans l’intuition originelle de Sebeok, la vie même, dans toute sa complexité, sa contingence et ses aspects paradoxaux.

De la convergence et de la dualité du code

Il est maintenant de temps revenir à la question de la convergence qui fait l’objet du présent article. Ma thèse est que le contexte contemporain d’une convergence généralisée, qui conduit actuellement à un transcodage numérique de l’ensemble des modalités de la vie même, de ses aspects moléculaires et molaires, rend nécessaire le recours à une approche biosémiotique héritée de Charles Sanders Peirce. Si nous entrons actuellement dans l’ère de la biologie synthétique qu’annoncent Craig Venter et ses collègues, il convient d’expliciter les passages entre le code de la vie (le ou les codes génétique(s)) et le code informatique, et plus généralement, entre les modalités analogues et digitales de l’existence. C’est ici que la synthèse biosémiotique apparaîtra finalement dans toute son efficacité. Pour cela, il me faut encore introduire un concept fondamental qui s’y rapporte : celui qui oppose et subsume éventuellement (Bruni 2012) l’analogique et le digital dans la synthèse qui porte le nom de “dualité du code”.

Dans cette perspective, je commencerai par rappeler que “digital” ne doit pas être confondu avec “numérique”. Si Wikipedia et d’autres sources officiellement plus autorisées (comme l’Académie Française) considèrent que le mot “digital” en français n’est rien qu’un (vilain) anglicisme “auquel le terme numérique doit être substitué”, ce n’est pas du tout mon point de vue ici. Contrairement à l’Académie Française, qui soutient que “c’est parce que l’on comptait sur ses doigts que de ce nom latin [digitus] a aussi été tiré, en anglais, digit, ‘chiffre’, et digital, ‘qui utilise des nombres”, je ne conçois pas du tout “digital” et “numérique” comme des synonymes dans cette langue. Leur distinction provient, entre autres, du travail de l’anthropologue anglais Gregory Bateson, qui est d’ailleurs une grande influence sur les biosémioticiens dont je parle depuis le début de ce papier (voir Hoffmeyer 2008b).

Gregory Bateson opposait en effet la communication digitale, qui “repose sur l’existence d’un certain nombres de signes purement conventionnels (…) [sans] rapport simple (rapport de grandeur, par exemple) avec ce qu’ils désignent”, à la communication analogique, qui “utilise des grandeurs réelles, qui correspondent à des grandeurs réelles au niveau de l’objet du discours” (Bateson 1980 : 127). Pour Bateson, le langage est digital, tandis que la communication para-linguistique (dite aussi non-verbale ou kinésique) est analogique. Voici comment Jesper Hoffmeyer reprend cette distinction :

Le mot digital vient du mot latin pour doigt, digit – et un code digital est générallement un code basé sur des symboles qui, comme les doigts, sont discontinus : par exemple, les nombres 1, 2, 3, 4, 5... ou les lettres de n’importe quel système d’écriture alphabétique. Les longues chaînes de 0 et de 1 qui constituent les algorithmes dans le “langage” informatique binaire en sont venus récemment à valoir pour la quintessence de la digitalité – mais l’invention antérieure du livre était déjà basée sur un code digital (de lettres). La distinction moderne entre les supposés media électroniques numériques et les livres démodés est donc dangeureusement trompeuse quand il s’agit de comprendre ce qu’est un code. L’alternative au code digital est un code analogique, une sorte de code basé sur le principe de l’analogie.

2008a : 78-79

Un code digital n’est donc pas nécessairement numérique, même si tous les codes numériques sont, eux, nécesssairement digitaux. Cette distinction essentielle me conduit à une remarque qui aurait pu paraître absurde a priori : dans quelle mesure le code génétique est-il, à proprement parler, un code digital? Si l’on considère sa description usuelle, la question est loin d’être aussi absurde, cependant. Voici par exemple ce qu’en dit Wikipedia :

Lors de l’expression des protéines à partir du génome, des segments de l’ADN génomique sont transcrits en ARN messager. (…) L’ARNm est composé de l’enchaînement de quatre types de bases nucléiques, A, C, G et U, qui constituent les “lettres” avec lesquelles est écrit le code génétique. Ce dernier est constitué de “mots” de trois lettres appelés codons. Dans les régions codantes de l’ARN message, chaque codon est traduit en l’un des 22 acides aminés protéinogènes dans la protéine à synthétiser. Le nombre de mots de trois lettres pris dans un alphabet de quatre lettres étant de 43, le code génétique comporte 64 codons différents, codant directement 20 acides aminés dits standards ainsi que le signal de fin de la traduction.

En effet, tout le vocabulaire métaphorique, employé entre guillemets ou non (transcription, traduction, lettres, mots, alphabet), correspond bien à un code digital au sens de Bateson. Les molécules qui sont ainsi représentées, par contre – acides nucléiques, ADN et ARN; bases nucléiques, adénine, cytosine, guanine, thymine et uracile; acide aminés – sont bien des entités analogiques. En fait, c’est exactement cette prouesse que la métaphore accomplit : traduire des processus analogiques en processus digitaux (comme la compression sonore le fait, par exemple). Et c’est ici que j’en arrive à mon dernier argument qui correspond, en fait, à introduire dans mon raisonnement un des premiers concepts de la synthèse biosémotique : la dualité du code.

Si l’on croit Jesper Hoffmeyer et Claus Emmeche, deux des fondateurs de l’école de biosémiotique de Copenhague, la dualité du code est en effet une caractéristique fondamentale du vivant. Dans leur papier séminal consacré à ce concept (Hoffmeyer & Emmeche 1991 : 126), ils écrivaient qu’un caractère essentiel des systèmes vivants qui leur rend possible l’auto-référence, et donc la capacité de sélectionner et de répondre à des différences dans leurs environnements, est justement cette capacité de se représenter dans deux codes différents, l’un digital et l’autre analogique. Ils ajoutaient que symboliquement, ce concept pouvait être représenté par la relation entre l’oeuf et la poule. Des années plus tard, Hoffmeyer (2008a : 80) a précisé ce concept en écrivant que “les échanges récursifs et infinis de messages entre des surfaces de codage analogiques et digitales” caractérisaient la vie de la manière la plus fondamentale qui soit. Par “surfaces de codage” [coding surfaces], j’imagine qu’il voulait dire en fait media, comme l’ADN (l’oeuf) et les protéines (la poule) sont les media du vivant.

Aujourd’hui, à l’heure de la bioconvergence des media et de la numérisation de la vie, cette distinction est encore plus efficace : les codes digitaux ont en effet encore acquis un degré de sophistication et d’efficacité supérieure en se dédoublant en codes verbaux et en codes numériques. L’accomplissement bioinformatique de l’idéal leibnizien d’une caractéristique universelle a éventuellement donné raison à son intuition selon laquelle un codage binaire en serait la clé. Le code digital de tous les codes digitaux n’est pas seulement un code numérique, mais bien le plus simple d’entre eux : le code binaire, à l’origine de ce que d’aucuns appellent encore, comme pour en manifester la suprême origine métaphorique, le langage machine. À défaut de prendre cette métaphore pour la chose elle-même, il convient en effet, comme Hoffmeyer et Emmeche le disaient depuis le début, de ne pas confondre forme et substance : les gènes de constituent pas l’information génétique comme une substance le ferait, ils permettent plutôt des processus sémiotiques composés d’interprétations équivoques, où une forme est communiquée. In-formation et non information.

Conclusions

La sémiotique moderne, cependant, a aboli la conception du code comme ‘un simple mécanisme d’appariement du concept à sa référence’. Récemment, l’accent a plutôt été mis sur la compréhension du concept de code comme véhicule pour la création d’activités signifiantes. De ce point de vue, un code est une ressource sémiotique qui nous permet de créer et d’exprimer certaines significations, mais pas d’autres”.

Hoffmeyer 2008a : 85

Ces trois phrases de Jesper Hoffmeyer résument mon argument : par delà une sémiotique saussurienne concentrée sur l’adéquation du signifiant au signifié, la biosémiotique doit insister sur l’interprétation. Ceci est d’autant plus nécessaire puisqu’il s’agit d’envisager les passages analogiques et digitaux – qu’ils soient verbaux ou numériques – qui composent aujourd’hui, et composeront encore plus demain, les modalités naturelles et artificielles de l’existence des êtres vivants (Bardini 2016).

Au passage, la notion d’information génétique se trouve redéfinie pour être ouverte à l’interprétation, et devient le nom d’un processus, d’une sémiose. Ce faisant, elle redécouvre “le charme” que Jesper Hoffmeyer évoque lorsqu’il décrit un des problèmes fondamentaux d’une conception substantialiste de l’information génétique : “à la surface”, écrit-il, “l’information génétique est traitée comme s’il ne s’agissait que d’un simple facteur causal, mais le charme profond qu’elle exerce sur notre entendement tient à l’intentionnalité taboue qu’elle connote secrètement” (Hoffmeyer, 2016). L’intentionnalité est en passe de devenir de moins en moins taboue, alors qu’on envisage ingénièrer la vie… Avec la perspective de la biosémiotique contemporaine centrée sur l’in-formation comme sémiose, la cause finale et la cause formelle sont prêtes à faire de nouveau leur entrée dans nos explications. Je gage ici que nous en aurons grand besoin.