Corps de l’article

L’introduction de l’ouvrage brosse un tableau synthèse de la philosophie des sciences au xxe siècle. Pendant les 20 à 25 premières années, les philosophes, de Bergson à Russell en passant par Mach et Whitehead, travaillent à prendre en considération les changements importants survenus dans les sciences : théories des ensembles, des champs, des quanta et de la relativité, cosmologie scientifique, lois de l’hérédité, logique mathématique. Puis vient un rapprochement entre science et technologie, plusieurs pays se dotant d’outils de politique scientifique, en même temps que se développent la mécanique quantique et la théorie des jeux. La phénoménologie tourne le dos à Husserl en s’éloignant des sciences, mais les gens du cercle de Vienne, traqués par le nazisme, émigrent et donnent un fort élan à la philosophie des sciences, surtout aux États-Unis. Une troisième période commence avec les oeuvres de Kuhn et de Foucault, en même temps que naissent la biologie moléculaire et l’informatique, que la médecine accentue son côté scientifique, que les technologies foisonnent, que la recherche scientifique devient de plus en plus oeuvre collective, et que les sciences psycho-sociales s’évadent de cadres rigides (marxisme, psychanalyse, structuralisme, behaviorisme, relativisme culturel). Le positivisme est critiqué par les sociologues, les historiens et les philosophes postpositivistes. La philosophie de la biologie s’affirme, la physique perd son statut de science modèle, on formule les limites des mathématiques et des formalismes logiques ; l’intérêt des philosophes pour dévoiler l’unité de la science s’amenuise, et cette dernière est prisée tant pour ses retombées technologiques que pour ses théories. La philosophie des sciences renoue avec la philosophie tout court, avec les questions philosophiques fondamentales.

Le but des auteurs est de « dégager les contenus et la dynamique des sciences » (p. 23) en privilégiant une approche internaliste. Ils donnent préséance à l’ontologie sur la méthodologie, non par rejet de la seconde, mais en vertu d’intérêts et de perspectives récentes. L’ontologie comporte trois questionnements : la possibilité d’une philosophie de la nature, incluant la rencontre entre les visions scientifique et commune du monde ; la double unité du réel et de la science, où les auteurs optent pour une interconnexion non réductionniste des sciences et un réalisme modéré, et enfin les entités théoriques qui peuplent les diverses sciences.

Dans la première partie, intitulée Gnoséologie, Bertrand Saint-Cernin examine Les philosophies de la nature comme « vision systématique de la réalité qui soit compatible avec les résultats avérés des sciences et qui donne sens à ce que nous pensons, à ce que nous faisons et, idéalement, à ce que nous sommes » (p. 33), en faisant le pari qu’une connaissance réelle du monde, et non seulement des images cohérentes, est possible. Cela revient à dire que les causes formelle et finale témoignent « de la présence d’un logos dans la nature » (p. 35). Saint-Cernin examine successivement les Natural Philosophies de Newton et Herschel, les Naturphilosophien allemandes (Goethe, Fichte, Shelling et Hegel), les philosophies de la nature de Cournot et de Whitehead. Il conclut que bâtir une philosophie de la nature est une entreprise légitime, aux conditions suivantes : 1) il est impossible de constituer une science unifiée de la nature « qui embrasse tous les phénomènes en un seul système » (p. 122), dont la philosophie de la nature serait une doublure inutile ; 2) la nature est constituée de régions irréductibles les unes aux autres, possédant chacune sa structure et ses lois ; 3) il est possible d’identifier les représentations de la nature « qui restituent l’ordre des choses » (p. 124), en rejetant « celles qui n’ont qu’une valeur verbale ou logique » (ibid.), ce qui est un net pari réaliste. Une philosophie de la nature s’interroge sur les interfaces entre ces diverses régions et entre les disciplines correspondantes, d’autant que l’idée généralisée d’évolution ainsi que le cumul physico-chimique et évolutif que porte tout vivant nous montrent que l’histoire de la nature ne peut être réduite à la science de la nature. S’appuyant sur Cournot et Whitehead, l’auteur juge tenable le pari réaliste : les techniques issues de la science reproduisent des processus naturels et leurs résultats, et produisent des résultats dont on n’a jamais observé que la nature les réalise ; en outre, le savoir scientifique est devenu une oeuvre collective où l’intersubjectivité et le dialogue critique font office de procédure de tri fort sévère. Il conteste donc l’existence d’un fossé infranchissable entre nature et esprit, inclut le second dans la première, et veut utiliser le savoir accumulé sur la première pour comprendre le second, sans cependant nier la possibilité d’un irréductible qui serait l’objet d’une philosophie de l’esprit.

Traitant de La construction intersubjective de l’objectivité scientifique, Anne Fagot-Largeault pose que le sujet qui fait la science est communautaire, ce qui exige coexistence pacifique et interaction entre chercheurs, et que cette communauté n’est compréhensible qu’en relation avec la communauté humaine globale, pour qui elle n’est pas un modèle. De là surgit une question : comment une communauté de chercheurs, qui ne sont pas forcément bons ni parfaitement rationnels, et en rapport avec une communauté humaine qui fonctionne imparfaitement, arrive-t-elle à une science de la nature à peu près cohérente ?

L’objet en cause ici est la nature dont on présuppose qu’elle existe hors de l’esprit, qu’elle est au moins partiellement ordonnée ou pas totalement chaotique, ce qui laisse une place à la contingence, et qu’on peut en avoir une connaissance vraie, i.e. « qui rejoint la réalité » (p. 136), pari réaliste dont les appuis ont été mentionnés plus haut. On teste ces appuis en confrontant les procédés de la nature avec ceux de l’esprit, ce qui nous renvoie aux sciences cognitives, qui examinent les opérations cognitives comme réalités naturelles, donc comme fonctionnement du cerveau considéré non pas isolément, mais en connexion avec le reste de l’organisme et avec l’environnement physique, biologique et humain.

Un premier doute sur la valeur de la science porte sur la capacité des savants à dominer leurs ambitions personnelles et leurs préjugés. Ni la science ni le travail communautaire qui la produit ne rendent nécessairement honnête ou sage. L’amitié selon Aristote présuppose une communauté d’intérêts qui n’est pas forcément présente dans les communautés scientifiques, et ces dernières ne réalisent pas automatiquement l’idéal kantien de l’action et de l’échange réciproque dans une coexistence pacifique. Soutenant, après Condorcet, Herschel et Comte, que les libertés démocratiques favorisent le progrès des connaissances et leur large diffusion, l’auteure se retrouve face à la question toujours ouverte de leur valeur et du tri des « bonnes ». Traitant ensuite d’intersubjectivité empirique, elle fait état des débats concernant la nature de la démarche scientifique et l’histoire des sciences : révolutions périodiques (Kuhn), révolution permanente (Popper), styles scientifiques variés et critères de scientificité changeants au cours de l’histoire (Crombie), désaccords des sociologues des sciences sur l’objet de leur discipline, accord des opinions versus relativisme (Feyerabend). Elle doute ensuite qu’Husserl ait vraiment réussi à passer de l’intersubjectivité empirique à l’intersubjectivité transcendantale, souligne que chez les libertaires (Popper, Feyerabend), l’obligation de liberté intellectuelle et de soumission aux faits passe avant l’obligation de cohérence. Quant au critère pragmatico-transcendantal comme fondement ultime de la rationalité (Apel), il présuppose une communauté communicationnelle capable « de comprendre adéquatement le sens de ses arguments et de juger définitivement de leur vérité » (p. 196). C’est selon une éthique de la cohérence rationnelle, d’inspiration kantienne : est vrai ce qui résiste à la discussion critique ; mais il y a décalage entre communauté réelle et communauté idéale, certains mentent ou trichent.

L’auteure s’interroge finalement sur l’apport de l’intersubjectivité à la science. Cette dernière peut être argumentative et discutatoire, la libre discussion et la critique étant des gages de précision et de rigueur : le sujet qui a d’abord travaillé en solitaire est confronté à des points de vue qui stimulent sa créativité, lui font voir des aspects qui lui ont échappé. Cela suppose l’acceptation de certaines règles rationnelles, bien que l’argumentation n’empêche pas la tricherie ou l’anarchisme. Des compromis entre rationalité scientifique et rationalité politique ou économique sont toujours possibles, bien que pas forcément souhaitables. L’intersubjectivité peut aussi s’inspirer de l’idéal husserlien du passage du je au nous sans sacrifice de transparence. C’est « la vigilance de la conscience présente à ses actes, sensible à la diversité phénoménologique de l’expérience, résistant à la robotisation du travail de recherche, insistant pour rester sujet vivant apte à relativiser ses propres tentatives de formalisation du réel naturel » (p. 221), ouverte aux réactions des autres. Une autre forme d’intersubjectivité se manifeste quand on fait appel à un groupe de personnes de compétences variées et complémentaires, et où personne ne maîtrise à lui seul toutes les connaissances pertinentes. Les jargons techniques sont traduits en langage ordinaire aux fins de la communication, qui vise la coordination des activités en vue de l’objectif visé.

L’auteure conclut que les communautés scientifiques ont des exigences de rationalité incarnées dans des règles méthodologiques et déontologiques qui n’ont rien de transcendantal mais sont des faits observables. La tâche du philosophe des sciences est de formuler clairement ces normes et de comprendre les relations entre normes et pratiques : ces dernières peuvent valider les premières, ou inviter à les nuancer ou à les rejeter complètement ; et les normes doivent être adaptées au contexte de leur application, car elles sont forcément colorées par ce contexte.

Dans Processus cognitifs Daniel Andler se demande si une science de la connaissance, notamment de la connaissance scientifique, est possible. Il rappelle la thèse quinienne de l’épistémologie naturalisée, qui utilise les acquis de diverses sciences. Il en découle un cercle qui évite d’être vicieux par une renonciation à toute prétention fondationnaliste absolue. Les successeurs de Quine, profitant des avancées récentes des connaissances, rejettent le dualisme corps-esprit, tiennent que toute connaissance est un phénomène naturel qui appelle une théorie de la connaissance forcément externaliste, i.e. qu’une croyance est une connaissance si, et seulement si, elle résulte d’un processus d’acquisition fiable. La philosophie est pour eux en continuité avec les sciences : elle travaille à clarifier les procédés et résultats de la science, à leur donner une cohérence d’ensemble. La philosophie est alors, comme la science, frappée d’incomplétude, ne pouvant se présenter comme une métaphysique close prétendant dire la totalité du monde. Cette incomplétude valant aussi pour le naturalisme, ses tenants ne doivent pas en faire seulement une défense théorique mais doivent aussi examiner les « indices que fournit la science en marche » (p. 250), en fait s’intéresser à ce que suggèrent, sur la valeur du naturalisme, les réponses qu’apporte la science aux questions sur la connaissance. Ce naturalisme (l’esprit est un phénomène naturel) implique le rejet de la distinction diltheyenne entre sciences de la nature et sciences de l’esprit, entre expliquer et comprendre. En outre, les naturalistes règlent comme suit la difficile question du passage de l’être aux normes. Ou bien ils naturalisent directement les normes, comme l’ont fait entre autres les pragmatistes et les utilitaristes, en arguant qu’elles sont nécessairement identiques à des lois ou dispositions naturelles, ou qu’elles leur sont contingentement identiques, en tant que cheminement d’un processus naturel vers un optimum. Ou bien ils arguent que les normes sont compatibles avec le naturalisme, en les décrivant comme des faits irréductibles de la nature humaine, ou comme logiquement ou génétiquement dérivables d’autres propriétés de l’esprit humain.

Abordant le projet des sciences cognitives, Andler les définit comme une réunion des ressources de plusieurs disciplines pour étudier toutes les facettes de l’esprit humain. Issues de trois mouvements disciplinaires (psychologie expérimentale, neurologie scientifique, logique symbolique et philosophie du langage combinées), elles sont fondées sur une hypothèse naturaliste : la pensée, la conscience et le libre arbitre sont des phénomènes biologiques relevant des neurosciences. Du point de vue logique, les fonctions mentales ont une autonomie conceptuelle et constituent des univers informationnels régis par des transformations algorithmiques qui se prêtent à des combinatoires. Cette hypothèse cognitiviste est associée au naturalisme, sans pourtant y être indissolublement liée. Les sciences cognitives recherchent les constituants fondamentaux des processus de pensée, l’esprit étant vu comme un système de traitement de l’information. Du point de vue psychologique, on prend des distances par rapport aux intuitions de la pensée spontanée préscientifique, car pensées, perceptions et émotions ne sont pas instantanées mais prennent du temps, un temps maintenant mesurable. Nous sommes conscients des résultats de ces processus cognitifs, mais pas de leurs étapes. Il ne s’agit pas ici d’inconscient freudien, mais de constituants élémentaires qui conduisent aux résultats conscients et constituent le champ d’investigation d’une psychophysique. La distinction conscient/inconscient est ainsi renouvelée, et un pont jeté entre le psychique et le neurophysiologique. L’appareil mental est vu comme un système de traitement de l’information, et la psychologie cognitive détrône le behaviorisme. Les phénomènes d’illusion perceptive étudiés par les gestaltistes sont vus autrement et sont une seconde source de données.

Du côté de la biologie, le fonctionnalisme affirme que les sciences de l’homme peuvent être pratiquées indépendamment des neurosciences, et la thèse réductiviste prétend que le langage de la psychologie est en principe réductible à celui des neurosciences. Andler note que de nombreuses théories se sont avérées fécondes pour expliquer des phénomènes d’un certain niveau sans qu’existe une connaissance des mécanismes sous-jacents à ces phénomènes. Par ailleurs, la découverte de ces mécanismes a permis de corriger, nuancer, et parfois rejeter certaines des explications en cause. La psychologie cognitive, par ses représentations générales de l’esprit, guide la recherche neurologique ; et les progrès empiriques de ces dernières peuvent remettre en question ces représentations. En outre, des techniques relativement récentes permettent d’associer activités neurologiques et états mentaux. Tout événement de pensée implique un événement cérébral, et d’autres progrès sont possibles et souhaitables en vue de préciser cette association. Discutant ensuite de la pertinence et des limites du modèle de l’ordinateur pour comprendre la cognition humaine, l’auteur conclut que les sciences cognitives ne sont pas solidaires de ce modèle, pas plus qu’elles ne sont liées aux thèses et aux programmes de l’intelligence artificielle. Il existe d’ailleurs un autre modèle appelé réseaux de neurones. La tentative des sciences cognitives consiste à « élaborer des modèles informationnels des capacités cognitives de l’esprit » p. 294.

Se demandant si les sciences cognitives nous obligent à renouveler nos conceptions sur la connaissance, particulièrement la connaissance scientifique, l’auteur considère d’abord la théorie modulaire de l’esprit, qui tente de relier des modules ou « parties » de l’esprit avec les parties du cerveau, comme la voie la plus prometteuse en ce sens. Il doute comme Fodor de la possibilité d’une théorie des processus mentaux face au nombre et à la complexité qualitative des données. Les progrès sont d’ailleurs beaucoup plus lents dans la connaissance des processus mentaux propres aux humains, d’où le ralentissement des activités en intelligence artificielle.

L’auteur passe ensuite en revue les apports des sciences cognitives en divers domaines de la connaissance : la vision, le langage (innéisme chomskien et théories rivales), le développement des connaissances dès les premiers mois de l’existence, les pathologies cognitives (dyslexie, syndromes de Capgras et de la vision aveugle, autisme, dysphasie), théories naïves pré-scientifiques en physique, en biologie, en psychologie et en sociologie. Il note que les approches cognitives de la science sont encore trop embryonnaires pour avoir révolutionné la science. Les progrès dans la connaissance des fonctions supérieures sont d’ailleurs très lents, et la science est une oeuvre collective et sociale, où l’interaction entre les chercheurs est aussi importante que leurs capacités cognitives individuelles. C’est moins par leur travail à l’intérieur des sciences que par les changements qu’elles introduisent dans nos conceptions de la pensée et du fonctionnement de l’esprit que les sciences cognitives changeront éventuellement nos conceptions de la science et de ses méthodes.

Dans la seconde partie de l’ouvrage, Les ordres de la nature, Bertrand Saint-Cernin décrit L’ordre physico-chimique tel qu’il se présente à la fin du XXe siècle. Il y a d’abord les théories dites sublimes de par leur perfection interne et leurs capacités prédictives : géométrie d’Euclide, statique d’Archimède et de Stévin, mécanique newtonienne, théories électromagnétiques, relativité restreinte et générale, physique quantique et électrodynamique quantique. On cherche une théorie unifiée qui éluciderait les liens entre gravitation, électro-magnétisme et interactions nucléaires fortes et faibles. En outre, la chimie a révélé graduellement la structure de la matière, ceci à partir d’un nombre fini d’éléments donnant lieu à un foisonnement de combinaisons. Il en est de même du vivant puisque les mêmes processus chimiques s’y déroulent ; et la non-saturation de la nature s’est manifestée par la production artificielle de particules et de matériaux dont certains sont aussi des productions naturelles, et d’autres pas : tout cela a permis les récentes prouesses de la biotechnologie. Le déterminisme rigide de Laplace a cédé devant les théories du chaos et des jeux, donnant ainsi raison à Cournot : l’univers n’est pas une unité parfaitement homogène, mais il est fait de régions relativement autonomes les unes par rapport aux autres, et le hasard y a une place. On a en outre découvert que l’univers n’est pas stable, mais en évolution, voire en expansion, ce qui a amené la théorie du Big Bang. Les diverses régions susmentionnées ont, à leurs interfaces, des échanges et interactions complexes et variées, ce qui nous force à tenir compte des inexactitudes et marges d’erreur des lois physiques et chimiques, formulées comme si elles décrivaient le comportement de systèmes parfaitement isolés. Ces réactions d’interface produisent des états d’équilibre ou des crises, des ruptures. Il existe des cas où une petite variation d’une seule variable produit un effet de rupture dans tout le système, ce qui révèle des seuils que la science n’arrête pas de découvrir. Cela soulève une multitude de questions sur la nature et l’évolution de cette diversité structurale où l’inorganique privilégie l’uniformité, et l’organique la diversité et la nouveauté.

Complexe par son organisation et par la grande quantité de processus et de produits chimiques qu’il recèle, le vivant accomplit sans penser des actions qui demandent la raison de la part de l’homme. Cela soulève la question du quand et du comment du passage de l’inorganique à l’organique, et nous rend impossible une séparation tranchée entre le physico-chimique et le biologique. Une nouvelle philosophie de la nature visant à comprendre ces phénomènes peut suivre deux voies : ou bien voir les processus et les actions comme soumis au hasard et à la nécessité (naturalisme matérialiste), ou bien, par la théorie des jeux, traiter les agents comme utilisant le dessein et la ruse dans des contextes déterminés, sans forcément parler d’intention ou afficher une attitude spiritualiste, mais en faisant une place au logos dans la nature.

Une philosophie physico-chimique implique plusieurs choix : usage exclusif de concepts empiriques ou aussi de concepts théoriques, ce qui entraîne une scission entre monde vécu et monde pensé ; la nature comme faite d’individus isolés, ou d’individus reliés entre eux ; une causalité exclusivement efficiente et matérielle ou bien aussi des causes formelles et finales, surtout dans l’organique, et aussi dans l’inorganique en raison de principes d’extrémalité et de l’insertion facile des productions humaines au sein de la nature ; le hasard comme reflet de notre ignorance, ou comme un fait dans le monde ; la nature comme saturée, ou comme acceptant harmonieusement certaines productions humaines ; le rejet ou l’acceptation d’une responsabilité éthique et politique envers les générations futures, vu les transformations irréversibles que l’homme impose à la nature. L’auteur estime que pour faire de ces choix un ensemble cohérent, un pari réaliste s’impose : nous créons des représentations qui reflètent, bien ce que très imparfaitement, les processus naturels, que nous reproduisons à volonté dans certains cas. Ce réalisme admet des nuances variées selon les disciplines en cause, et l’auteur invoque en sa faveur nos succès dans la reproduction de certains processus naturels, ainsi que le contrôle des représentations par l’expérience partagée, et l’intersubjectivité entre chercheurs. Mais est-ce applicable à la mécanique quantique, dénuée de ressemblance avec les phénomènes publiquement perceptibles ? L’auteur maintient ici le réalisme, en invoquant d’abord les expériences qui ont contredit les inégalités de Bell et confirmé la physique quantique : il est impossible d’attribuer une réalité physique locale à chaque photon. Il invoque aussi, à la suite du paradoxe du chat de Shrödinger, les expériences montrant que des systèmes microscopiques, quand ils sont isolés de leur environnement, obéissent aux lois quantiques. Cela ne rend pas le réalisme incontestable, mais crée une responsabilité de chercher à trier, parmi nos pensées cohérentes, celles qui nous renseignent sur le monde extérieur. L’auteur souligne en terminant la solidarité de la science et de la philosophie, l’intérêt pour la science et la philosophie à transformer « une interrogation abstraite en une question précise à laquelle la nature puisse répondre » (p. 481) comme le montre le cas exemplaire du paradoxe EPR.

Dans L’ordre vivant, Anne Fagot-Largeault rappelle la recherche, au xixe siècle, des lois de l’organisation vitale et fait le point sur plusieurs débats : mécanisme pur versus finalité et différentes formes de vitalisme, possibilité de réduction éventuelle de la biologie à la physique versus spécificité et irréductibilité du vivant, monisme matérialiste versus dualisme matière-forme, possibilité ou non d’une vie extraterrestre. Elle propose ensuite une réflexion philosophique sur quatre points. Elle souligne d’abord les difficultés que le devenir incessant de la vie donne aux classificateurs et aux tentatives de définition du terme « espèce » et expose brièvement les postulats et les limites des classifications phénétique et phylogénétique. Traitant en second lieu de l’explication en biologie, elle déplore l’absence de lois assez précises pour autoriser des prédictions probabilistes fiables, sauf les lois de Mendel. À propos de la macroprédictibilité finaliste des phénomènes microbiologiques d’embryogenèse, elle opine que la biologie ne peut se passer d’hypothèses téléologiques, souvent sources de découvertes, et dont la réductibilité au déterminisme causal n’est pas évidente, malgré l’inexistence d’une conscience rattachée aux organismes. Le modèle de Hempel-Oppenheim est à son avis boiteux en biologie, en raison de « lois » qui ne sont que des truismes, et suggère que la causalité, en raison du nombre et de la complexité des causes interreliées en biologie, soit tout aussi métaphysique que la finalité. Pour les mêmes raisons, les récits historiques utilisés par la biologie et la médecine ne sont pas forcément très explicatifs, et leur capacité de prévision est très limitée. Le troisième point est que les théories sont rares en biologie, où l’on trouve plutôt des modèles et de grandes généralisations, tous précaires. La plus importante des théories biologiques, la théorie synthétique de l’évolution, suscite de nombreuses interrogations. Non vérifiable par un retour dans le passé, elle a été parfois qualifiée de tautologique. Il y a controverse à propos de l’objet direct de la sélection naturelle : organismes individuels, gènes, espèces, phénotype ou modules de l’organisme. Les faits de symbiose cadrent mal avec la théorie, qui présuppose divergence et compétitivité. Il existe d’autres théories bien moins connues : théorie neutraliste de Kimura, équilibres ponctués de Gould, mutations dirigées. Il faut y adjoindre de nombreux ajouts ou variantes, notamment le bottleneck, et divers modèles mécaniques, dynamiques et abstraits.

En quatrième et dernier lieu, les possibilités de manipulations génétiques révèlent le pouvoir humain de modifier les organismes, voire de créer des formes de vie autres. Ici encore l’homme peut imposer à la nature des transformations permanentes. Cela soulève des questions ontologiques sur la nature profonde de la vie, et aussi des questions éthiques. Saurons-nous éviter des dommages ou dérapages dont feront les frais les générations futures, envers qui nous avons une responsabilité morale incontestable ?

Dans L’ordre humain, Daniel Andler aborde en premier lieu la thèse selon laquelle les sciences de l’homme (nommées SH ci-après) dépendent des sciences de la nature (SN) ou leur sont subordonnées. Mais d’autres disciplines, notamment la biologie, se sont affirmées, et la philosophie des sciences est devenue plus descriptive que normative, cessant de privilégier la physique comme modèle. Les frontières entre les disciplines sont devenues plus floues en raison d’un affaiblissement de leurs caractéristiques distinctives et de modifications survenues dans leurs contenus, leurs méthodes et la délimitation de leurs domaines, et de la difficulté de regrouper les microspécialités en « espèces » naturelles. La notion de discipline reste quand même un outil heuristique essentiel, mais la thèse susmentionnée en sort affaiblie. D’autre part, la thèse opposée déclare l’indépendance des SH envers les SN, en s’appuyant sur les raisons suivantes : les objets des SH sont distincts de ceux des SN en tant qu’individus doués de conscience, porteurs d’intentions et sensibles aux significations, et qui entretiennent entre eux des relations spécifiques en fonction de buts et d’actions collectifs. D’autre part, les SN ont pour but la formulation de lois et théories universelles dont elles peuvent déduire les événements singuliers, alors que les SH visent le sens d’activités et d’institutions situées à un moment précis de l’histoire. Pour ce qui est de la question de méthode, les SN parlent d’objets clairement circonscrits dans l’espace et le temps, alors que les SN parlent d’ensembles qui ne sont pas aussi précisément circonscrits, et dont l’unité ne s’impose pas d’emblée mais tient seulement au sens que lui donnent les sujets. Les significations susmentionnées font partie du vécu personnel et subjectif des agents, qui est fort différent des causes externes du comportement, et avec lesquelles il a souvent peu de rapport. Les systèmes sociaux sont des touts organiques non réductibles à une juxtaposition de parties et ont des propriétés collectives dont leurs membres sont privés. La méthode des SH serait donc la compréhension, opposée à l’explication. Enfin, le rapport du sujet à l’objet est plus complexe en SH, car le théorique et le pratique y sont très intriqués, les valeurs et les actions faisant essentiellement partie de l’objet.

À titre d’arguments en faveur de la seconde thèse, l’auteur invoque la liberté et l’intentionnalité de l’action. Cela soulève un débat sur le déterminisme, la valeur du sentiment personnel d’agir librement, ainsi que sur la distinction entre des actions extérieurement identiques mais faites avec des intentions différentes. On invoque aussi le caractère non scientifique de l’interprétation, en oubliant qu’il y a aussi interprétation dans les SN. Un autre argument est l’historicité des SH, qui ne traitent que d’objets singuliers. Mais l’individualité est aussi le fait de la Terre, du système solaire, des diverses étapes des évolutions biologique et géologique. Cela soulève en outre le problème de la distinction entre action individuelle et action sociale, entre temps neutre des SN et temps signifiant des SH, entre l’histoire comme fondement absolu ou comme paradigme des SH, et comme ensemble cohérent et doué de sens, ou comme purement contingente.

L’auteur entrevoit cependant de possibles rapprochements. Kuhn montre que l’interprétation a sa place dans les SN, de même que l’approximation et une certaine précarité, en contraste avec la solidité que leur prêtait le Cercle de Vienne. Les clauses ceteris paribus, bien que plus souvent implicites dans les SN, ne constituent pas selon l’auteur un critère de différenciation découlant d’une plus grande complexité. L’individualisme méthodologique reconnaît l’existence de causes dans les événements humains. Les cognitivistes situent la nature humaine dans les processus mentaux, i.e. neurologiques, et identifient raison et cause comme étant la même chose vue de points de vue différents. À l’opposé d’une distinction tranchée entre nature et culture, ils voient les faits de culture comme le produit de l’appareil cognitif humain, lui-même un produit de la sélection naturelle. Le langage serait donc pour l’essentiel inné et naturel, et l’esprit humain un assemblage de sous-organes relativement indépendants, résultats de l’évolution par sélection naturelle, et dotés chacun d’une fonction spécifique. La culture, notamment le langage, le choix du partenaire sexuel, l’engagement social, l’altruisme, la moralité et la religiosité, serait en bonne partie formée à partir de ces sous-organes. L’auteur souligne le danger de telles extrapolations, et leur faible plausibilité. Il commente ensuite la thèse de Nelson, pour qui il faut désolidariser la psychologie des sciences sociales : les conséquences des actions individuelles sont souvent sans rapport avec les motivations individuelles, et, en économique, par exemple, les orientations comportementales moyennes sont souvent loin des orientations individuelles. Il faut donc cesser de dire que « la transmission par l’individu opère nécessairement au niveau mental » (p. 784) et penser à un autre niveau. L’auteur commente aussi le nouveau courant cognitif en économique, où il s’agit de remplacer l’homo oeconomicus classique, automate rationnel, par le modèle plus riche d’un système de traitement de l’information capable d’apprentissages et de révision critique de ses croyances, préférences et décisions. Abordant ensuite l’ontologie du social et ses mécanismes, il analyse brièvement les éléments suivants : la communication qui implique nécessairement inférence et interprétation, le savoir mutuel et ses conditions de possibilité, les actions conjointes, l’absence de certitude sur les intentions des autres et sur ses propres intentions toujours changeantes, le sujet pluriel de Gilbert. Il préconise finalement un naturalisme heuristique non ontologique, conscient de ses limites, prêt à admettre le caractère partiel de ses victoires, ainsi que ses défaites. Il rejette ainsi la survalorisation des SN et la dévalorisation des SH, le dualisme antinaturaliste ontologique et rigide proclamant l’irréductibilité de la différence entre SN et SH, et aussi l’idée que les SH doivent être à l’image des SN parce que tous les vivants sont faits de matière. Ce naturalisme heuristique comporte trois principes de parcimonie : parcinomie ontologique d’entités théoriques, parcimonie des méthodologies et parcimonie pratique des moyens en vue d’un but déterminé.

L’ouvrage est complété par une troisième partie sur trois Concepts transversaux : la causalité, l’émergence et la forme. En ce qui concerne La causalité, Bertrand Saint-Cernin souligne d’abord les difficultés que suscite cette notion en raison de situations complexes où un effet a des causes multiples et interreliées, du manque d’information dans lequel se trouve souvent celui qui veut assigner des causes, et des rapports entre causalité et imputabilité. Il fait ensuite état des critiques de la notion réaliste de cause efficiente : critique humienne, réduction à un rapport entre phénomènes chez Kant, substitution des notions de loi (cause formelle) et de corrélation à la notion de cause efficiente, le tout manifestant une tendance à l’abandon de cette dernière. Mais il existe des raisons pratiques (politiques, technologiques, industrielles, médicales) en faveur du maintien de cette notion. Il consacre ensuite deux sections aux doctrines de Cournot et de Whitehead qui, chacun à sa façon, rejettent le déterminisme absolu, affirment la réalité du hasard et de la finalité, nommée par Whitehead « rationalité stratégique »  et « causalité intelligente ». Il montre ensuite les choix sous-jacents à toute théorisation de la causalité : idéalisme acausal ou réalisme causal ; déterminisme absolu ou déterminisme partiel faisant place au hasard ; la nature comme système unique et homogène soumis aux mêmes lois universelles ou comme faite de secteurs hétérogènes et n’obéissant pas aux mêmes lois ; stabilité ou devenir foncier de la nature ; mécanisme pur ou mécanisme complété par la finalité dans les phénomènes biologiques, humains et sociaux ; le caractère sui generis (liberté) ou non de la causalité humaine. Interrogeant l’unité de la notion de cause et la classification des causes, il soutient que la science classique a réduit les quatre causes d’Aristote à la cause formelle, mais que la science contemporaine réhabilite les causes matérielle, efficiente et finale, puis propose une classification des causes : causes linéaires avec variantes continue et discontinue, et causes concourantes parfois probabilistes, homogènes ou hétérogènes. Il souligne la différence de vision entre le biologiste moléculaire et le naturaliste observateur des animaux : l’un ramène la cause finale aux causes efficientes et matérielles, et voit que la nouveauté est une combinaison nouvelle d’éléments préexistants ; pour le second, l’animal fait des choix à l’intérieur d’une situation aux paramètres multiples. Enfin, il se demande si l’ordre humain peut être ramené à une science unique, si on peut relier ensemble les multiples causalités dans les actions humaines. L’examen du comportement humain nous laisse une multitude de comportements et de cultures extrêmement variés, bien que comparables. Le pari est entre l’unité de la nature humaine ou, au contraire, une irréductible diversité de cultures. Bien que la théorie des jeux puisse éclairer l’interconnexité entre agents, l’auteur conclut que le domaine des activités humaines n’est pas suffisamment unifié et unifiable pour permettre la création d’une seule science de l’homme. Il est inévitable que subsistent plusieurs disciplines, dont certaines ont une forme scientifique et d’autres pas, comme l’histoire. Les actions humaines sont trop variées, nombreuses et complexes pour qu’il soit possible d’y démêler et différencier clairement les diverses causalités qu’on y trouve. La cause regagne son crédit, mais perd dans une certaine mesure son identité.

L’émergence se dit de composés dont les propriétés sont différentes de celles de ses éléments, et aussi d’effets qui ne sont pas la somme des effets des diverses causes concourantes. Cela soulève, dit Anne Fagot-Largeault, le problème de la création du nouveau non à partir de rien, mais à partir de peu, d’un trop peu pour que le résultat soit explicable. L’émergentisme s’oppose évidemment au réductionnisme et au déterminisme absolu, plaidant pour le hasard, la liberté et la finalité. L’auteur rappelle l’oeuvre des Français Ravaisson, Boutroux, Lachelier, Renouvier, et Bergson sur l’opposition ou la conciliation entre déterminisme et contingence, déterminisme et liberté, mécanisme et finalisme, et en fait autant pour les Anglais Alexander, Whitehead, Broad et Morgan. Elle rappelle que dès les années 40 et 50, les cybernéticiens ont parlé de comportements téléologiques de systèmes dotés de mécanismes à rétroaction, comportements qualifiés d’objectivement orientés, mais non intentionnels et non liés à la subjectivité, analysables dans les termes de la mécanique statistique et de l’informatique, et non dans ceux de la mécanique classique. En morphogenèse, plusieurs scientifiques et philosophes pensent que des propriétés émergentes existent au niveau macroscopique, et qu’on ne peut en rendre compte par une simple étude du génome. Il faut, selon Thom, ne pas s’intéresser seulement à la matière, mais aussi à la forme. L’auteure qualifie d’émergentes des maladies comme le sida, qui n’ont pas toujours existé et semblent venir de virus mutants, distinguant ainsi entre émergence épistémique (expansion de la maladie) et émergence ontologique. À propos du développement embryologique, elle oppose une théorie faible de l’émergence à une théorie forte : ou bien l’émergent est un épiphénomène résultant de causalités microscopiques, ou bien il est « un être nouveau, capable d’exercer un pouvoir causal sur ses propres constituants » (p. 1033). C’est la notion d’intégration qui est ici en cause. La question est de savoir comment et pourquoi des unités individuelles s’unissent pour former un tout dans le sens d’une complexité et d’un niveau d’intégration grandissants. La sélection naturelle explique l’élimination de certaines formes de vie, mais non la création de formes nouvelles. Pour Chaisson, le mouvement vers la complexité intégrée ne viole aucune loi physique et sera peut-être expliqué par la thermodynamique. Pour Ruyer, les systèmes ouverts n’expliquent en rien leur constitution, cette dernière impliquant « une activité formatrice » (p. 1036), mais sans forces vitales spécifiques au vivant ; il existe aussi des émergences atomiques et moléculaires, et toute émergence est le fait d’une activité structurante de la matière, qui « ne se présente jamais que formée » (p. 1037) et serait plus précisément due à des interrelations entre les parties constituantes du tout émergent. Dans cette veine, Sunny Auyang utilise une analogie avec la théorie économique néokeynésienne pour dire que l’émergence présuppose l’hétérogénéité et l’interaction des constituants. Un émergent (baguette de métal devenant supraconductrice sous un certain seuil de température) a, par rapport à ses constituants interreliés, des caractères nouveaux et relativement indépendants d’eux, alors qu’un résultant (la même baguette, simple conductrice d’électricité) est qualitativement homogène à des constituants indépendants les uns des autres ou faiblement connectés. L’auteure rapporte ensuite très brièvement d’autres résultats qui vont dans la même direction : interactions entre espèces dans un système écologique, interactions entre mutations géniques, non-compositionnalité des langues naturelles et de possibles logiques hyperclassiques, emergent computation en informatique.

Parler de La forme nous renvoie à plusieurs termes de signification parente : structure, pattern, configuration, figure, etc., nous dit Daniel Andler. En divers domaines et disciplines, on les utilise pour désigner des propriétés d’objets matériels ou de constructions théoriques, d’où la clarification qu’entreprend ici l’auteur. La forme est toujours opposée à un in-forme : matière, fond, substrat, contenu, sens. On peut concevoir l’in-forme comme non pleinement existante, comme potentiel n’existant pas sans une forme : c’est l’héritage aristotélicien, où la forme est à la fois origine, dynamique (eidos, par exemple la dynamique embryologique de l’oeil), et aboutissement, configuration stable (morphè, la fonction optique de l’oeil). L’auteur propose une justification, à notre avis abstraite et peu claire, de la réunion de ces deux schèmes en un dispositif unique. Il examine ensuite diverses acceptions du terme « forme », notamment celles de la psychologie gestaltiste, dont il se refuse à dire, contrairement à certains cognitivistes, que l’échec de ses hypothèses neurobiologiques la rend périmée, estimant que le globalisme d’emblée de la perception reste valable, bien que des questions restent encore sans réponse. Il critique l’usage kuhnien de la gestalt, puis traite de l’usage du concept de forme en logique formelle, en linguistique et philosophie du langage, en sciences cognitives. Il discute de la tendance récente à identifier des formes dans la nature (théories des systèmes dynamiques, des catastrophes et du chaos), là où on ne voyait auparavant que discontinuité, irrégularité, instabilité. Il estime, par la théorie des catastrophes, et dans une démarche pas plus claire que celle mentionnée précédemment, compléter la jonction entreprise plus haut des deux schèmes de la forme et résoudre ainsi la difficulté que soulève la matière prime d’Aristote, « suspendue entre être et non-être » (p. 1125). Il résiste cependant à l’idée de voir dans les théories des formes naturelles, dont l’intérêt ne fait aucun doute, des conquêtes durables fondant une nouvelle philosophie de la nature : leur acceptation n’est pas universelle et leur efficacité ne fait pas consensus ; et la science actuelle n’est pas en crise de cohérence au point d’avoir besoin de théories salvatrices.

En conclusion, les auteurs énoncent trois raisons qui justifient la recherche en philosophie des sciences. D’abord, la curiosité scientifique est authentiquement philosophique en ce qu’elle s’interroge sur ce que le monde est réellement. Ensuite, les progrès incontestables de la science au xxe siècle ont posé à la philosophie de nombreux défis sur les plans ontologique, épistémologique, éthique et politique, défis qu’elle doit relever sous peine de s’enfermer dans une tour d’ivoire frileuse, stérile et sclérosée. Enfin, et pour la même raison, la philosophie ne doit pas refuser de confronter ses conclusions à celles de la science et de procéder aux ajustements qui s’imposent, mais sans soumission servile, car le monde et la vie sont plus que ce que nous en dit la science. C’est alors qu’elle remplit son rôle de « respiration de la science » (p. 1135) et que le philosophe des sciences satisfait à son obligation « de maintenir une liaison vivante entre les sciences et la philosophie » (p. 1129).

***

Cet ouvrage comporte deux dimensions. D’une part, il nous présente un bilan synthèse intéressant, bien que forcément très succinct, des représentations du monde que nous proposent les sciences contemporaines. C’est d’autre part un authentique essai de philosophie de la nature, qui fait le point sur les engagements ontologiques, les ontological commitments dirait Quine, inhérents à ces représentations. Les auteurs indiquent les limites de ces engagements, rapportent les controverses qu’ils suscitent ainsi que les questions restées sans réponse. Ils le font sans chercher à déguiser en vérités démontrées ce qui n’est que pari ou conclusion toujours en principe révisable à la lumière de faits et d’arguments nouveaux, y compris quand il s’agit de leurs propres positions concernant le réalisme, la finalité, la contingence et la division de la nature en secteurs distincts et relativement indépendants, où ils font valoir des arguments sérieux, bien qu’on puisse regretter qu’ils n’aient pas davantage étoffé ces positions, notamment le finalisme et la contingence. Nous sommes ici loin de l’épistèmè que recherchaient Platon et Aristote, loin de la science et de la philosophie certaines que voulait édifier Descartes, loin de toute prétention à décrire une fois pour toutes les caractères généraux du monde, et tout aussi loin d’un positivisme étroit. Il y a dans ce travail un effort de lucidité, un effort pour penser librement qui tient compte des acquis de la science contemporaine sans les transformer en dogmes, sans non plus se laisser embrigader exclusivement par une école philosophique particulière, mais en puisant librement dans les concepts et catégories que proposent ces écoles. Tous munis d’une double formation en sciences et en philosophie, les auteurs ont choisi de travailler en équipe pour combiner des expertises et des orientations diverses. C’est un exemple qu’il faut saluer en souhaitant qu’il se généralise de plus en plus chez les philosophes.

On ne saurait reprocher aux auteurs de s’être penchés sur les questions ontologiques que suscitent les sciences. Mais on peut regretter qu’ils n’aient pas étoffé davantage leurs positions concernant aussi le traité en détail des controverses épistémologiques où s’affrontent les disciples de Kuhn, Popper, Feyerabend, Quine, Putnam et bien d’autres. Après tout, ces controverses ont elles aussi leurs paris ou présupposés ontologiques, qui ne sont sans doute pas sans rapport avec ceux que nous venons de mentionner, et l’analyse conjuguée des deux groupes pourrait bien apporter des lumières nouvelles. Sans doute aurait-il fallu, pour le faire, un ouvrage de dimension encore plus imposante. C’est une tâche pour l’avenir.