Corps de l’article

L’annotation des génomes, notamment sa deuxième étape qui est l’attribution de fonction(s) aux protéines identifiées dans la première étape est, selon les auteurs d’une revue publiée l’année dernière dans médecine/sciences, le « goulet d’étranglement » de la génomique [1]. La difficulté vient en premier lieu de l’existence de protéines qui « travaillent au noir », c’est-à-dire qui ont plusieurs actions, parfois totalement différentes [2]. Elle vient aussi de la difficulté qu’il y a à attribuer une fonction précise à des protéines appartenant à des voies et des réseaux de régulation, recrutées de multiples fois au cours de l’évolution pour des objectifs différents. Quelle fonction donner par exemple à la protéine Notch? On peut, comme le fait le Gene consortium, décomposer le problème. Dans un premier temps, on décrira l’action de cette protéine à l’echelle moléculaire en tant que récepteur membranaire. Quant aux fonctions de Notch dans le développement de l’organisme et sa physiologie à l’état adulte, elles sont trop nombreuses et diverses pour être résumées en une seule phrase. Ce numéro de médecine/ sciences offre, avec les protéines kinases CK2 [4] et FAK [5], deux autres excellents exemples de protéines essentielles, mais dont la (ou les) fonction(s) dans l’organisme reste(nt) difficile(s) à cerner.

Mon objectif n’est pas de discuter la notion de fonction et la place particulière qu’elle occupe en biologie [6]. Plus simplement, j’essaierai de « traiter » la difficulté que représente cette exubérance fonctionnelle. Le vocabulaire utilisé par les biologistes en témoigne. L’expression « jouer des rôles » [7] aremplace ainsi de plus en plus, celle d’« avoir une fonction ». Elle a l’avantage de mieux rendre compte des faits: une protéine participe à la réalisation de nombreux processus; comme au théâtre, l’importance de ces rôles peut être très variable; comme au théâtre aussi, un rôle mineur peut néanmoins être indispensable à la progression de l’intrigue.

Comme cela a déjà été analysé dans ces colonnes par Henri Atlan [8], lorsque les biologistes ont décrit, à partir de la fin des années 1970, cette « insoutenable complexité » de l’être (moléculaire), ils ont, à la suite de François Jacob, fait appel aux concepts de « bricolage » [9], de recrutement et de recyclage. La nature, économe de ses moyens, aurait utilisé au cours de l’évolution les mêmes pièces en les assemblant de manière différente pour inventer de nouveaux dispositifs structuraux ou fonctionnels chez les êtres vivants. Une deuxième manière de voir les choses, un regard autre plus qu’une théorie concurrente, est de considérer que l’évolution de la vie s’est accompagnée d’une complexification, et que celle-ci a essentiellement consisté en l’établissement de relations de plus en plus nombreuses entre les constituants élémentaires du vivant: la multifonctionnalité des protéines en est une des composantes.

L’objectif actuel de bien des biologistes est de faire le tour de cette complexité et d’essayer de décrire aussi précisément que possible ces multiples interconnexions. C’est ce que proposent les techniques de post-génomique, avec la mise en évidence des réseaux de régulation grâce à l’étude du transcriptome, ou celle des interactions protéine-protéine par l’application systématique de la technique du double hybride. À l’opposé, une part importante du travail des biologistes consiste aussi à expliquer en quoi les cas de recyclage et de multifonctionnalité qu’ils ont sous les yeux, dans les systèmes particuliers qu’ils étudient, sont bénéfiques aux cellules et aux organismes.

Les résultats sont-ils satisfaisants? En l’absence d’une quantification des interactions moléculaires souvent hors de portée, les diagrammes qu’élaborent les post-génomistes rappellent trop les figures que les spécialistes des sciences humaines, notamment français, traçaient à la craie dans les années 1960 sur les tableaux noirs, mêlant les concepts de la psychanalyse, la structure des sociétés primitives et les vilenies du complexe militaro-industriel, pour qu’on ne soit pas un peu inquiet de leur « futur radieux ». De même, l’interprétation « locale » n’est pas toujours convaincante: les scénarios justifiant la participation d’un gène et de son produit protéique à la réalisation de tel ou tel processus pourraient souvent être écrits de multiples manières. Dire, pour rendre compte d’observations souvent contradictoires, que la fonction du produit d’un gène est dépendante du contexte - affaiblit considérablement la notion de fonction. Ces schémas interprétatifs ne sont pas falsifiables - aucun fait expérimental ne pouvant les remettre en cause, ce qui leur enlève, selon les critères de scientificité établis par Karl Popper, beaucoup de leur valeur explicative [10]. On se sent parfois submergé par ce « tout est possible » nietzschéen à l’echelle moléculaire, où n’importe quel élément peut interagir avec n’importe quel autre pour donner une chose ou son contraire.

En cette année du 50e anniversaire de la découverte de la structure en double hélice de l’ADN, il est bon de rappeler, comme Vittorio Luzzati le fait avec vigueur dans le numéro de janvier de La Recherche [11], les ambitions des pères fondateurs de la biologie moléculaire: refuser de se complaire dans la complexité évidente du monde biologique, ne pas confondre l’acte de décrire et celui de comprendre, dégager de la masse des faits quelques principes simples, un « ordre caché ».

Il est de bon ton aujourd’hui de critiquer, non sans raisons, le simplisme des premiers biologistes moléculaires; c’est aussi sans doute un moyen d’écarter une certaine nostalgie pour une époque si riche en découvertes, et probablement un sentiment de « jalousie » pour ceux qui virent le monde vivant s’éclairer brutalement sous leurs yeux en découvrant le code génétique ou les mécanismes de contrôle de l’activité des gènes.

Regretter le « bon vieux temps » ne sert cependant à rien: les faits décrits plus haut existent. Devoir par exemple renoncer à la distinction autrefois si tranchée entre effet spécifique et effet non spécifique est le fruit d’une transformation irréversible de notre manière de voir. La protéine kinase CK2 en est un excellent exemple: la multiplicité de ses cibles était autrefois considérée comme la preuve du rôle mineur de cette enzyme, quand elle n’était pas simplement niée et vue comme le résultat de l’incapacité des expérimentateurs à distinguer ce qui était spécifique de ce qui ne l’était pas. Il faut rendre hommage à ceux qui, tels les auteurs de l’article, ont su garder la foi dans l’importance de l’enzyme sur laquelle ils travaillaient.

Une piste est de revenir aux concepts de bricolage et de recrutement, dont la signification n’est pas parfaitement perçue. Un bon bricoleur ne fait pas n’importe quoi, il recycle les pièces et les objets en fonction de leur forme et de leurs propriétés: le mécanicien du sous-marin dirigé par Cary Grant dans Operation Petticoat, en 1959, utilisait, comme courroies pour son moteur, les bas des infirmières réfugiées à son bord, non par perversion sexuelle, mais en raison de la résistance et de la souplesse du nylon! Pour les êtres vivants, ce sont les caractéristiques moléculaires des constituants qui sont « pesées » avant tout recyclage. Et c’est sans doute là que l’on peut espérer voir se dégager, sinon de l’ordre, du moins un peu plus de rationalité qu’aujourd’hui. Je voudrais illustrer cela par l’exemple des liens qui se sont récemment dessinés entre la transcription, les réactions dites d’ubiquitinylation et le protéasome [12, 13], notamment à travers la relation paradoxale existant entre le pouvoir activateur d’un facteur de transcription et son aptitude à être marqué par l’ubiquitine et dégradé [14].

On peut se contenter de vagues réflexions philosophiques sur ce lien entre la première étape de lecture de l’information génétique, la transcription, et la dernière étape, la dégradation des protéines, entre, en quelque sorte, la naissance et la mort. De façon plus rationnelle, on peut remarquer que le processus de transcription implique la succession de multiples interactions protéine-protéine. Elle exige donc une grande adaptabilité de la structure des domaines protéiques impliqués, c’est-à-dire une mobilité moléculaire; or cette mobilité moléculaire est l’une des caractéristiques des protéines mal conformées ou dénaturées, et donc une des marques reconnues aussi bien par les chaperons moléculaires, pour tenter de replier ces protéines, que par les enzymes de conjugaison de l’ubiquitine et le protéasome, pour les éliminer quand la réparation est impossible.

Il n’est donc pas aberrant que la machinerie d’ubiquitination et le protéasome aient été recrutés pour moduler les mécanismes de contrôle de la transcription: le protéasome contient des activités chaperons qui lui permettent de déplier les protéines avant leur coupure. S’il n’y a pas de déterminisme à ce recrutement, il y a néanmoins une rationalité moléculaire sous-jacente à ce qu’il se soit produit. Il faut aller au-delà d’une certaine « vulgate darwinienne », qui justifie les observations sur l’existence de fonctions multiples par l’avantage sélectif qu’elles conféreraient aux organismes, pour tenter de comprendre au niveau structural la rationalité de ce multi-usage.

La leçon à tirer de cet exemple est que, face à la complexité toujours croissante des interactions et des réseaux moléculaires, il ne faut pas négliger les caractéristiques physicochimiques particulières des molécules qui y participent. Sans ces caractéristiques moléculaires, la vie n’aurait probablement ni pu naître, ni se développer [15].