Corps de l’article

Introduction

L’analyse musicale porte sur le sens et la signification en musique. Elle est toutefois amenée, notamment dans le cadre de démarches informatisées, à recourir à des mesures quantitatives pour appréhender son objet d’étude. L’analyse constitue à ce titre un point de cristallisation intéressant et complexe des défis épistémologiques que pose l’articulation entre quantitatif et qualitatif en sciences humaines et sociales, à commencer par la musicologie.

Cet article examine les possibilités offertes par l’informatique pour l’étude d’unités sémiotiques musicales et de leur organisation. À cette fin, il dresse une cartographie des logiciels et projets d’analyse musicale assistée par ordinateur qui ont été réalisés au cours des dernières décennies.

Ces logiciels comportent essentiellement deux données d’entrée dont le statut sémiotique diffère profondément : d’une part, la notation musicale qui repose sur une représentation symbolique des données et implique, ce faisant, une réduction des informations, de l’autre, le signal audio qui laisse le champ ouvert à une plus grande variété d’informations mais ne se prononce pas sur la pertinence sémiotique de celles-ci. Cette cartographie donne lieu, en un second temps, à une étude de différents aspects sémiotiques qui ont trait à la représentation des unités. Sur ces bases, j’entame alors une réflexion sur les enjeux épistémologiques, heuristiques et méthodologiques du numérique dans l’appréhension du sens et de la signification en musique.

Cartographie des logiciels et projets dédiés à l’analyse

La cartographie proposée ici ne prétend pas à l’exhaustivité. Elle fait volontairement l’impasse sur l’histoire de l’analyse musicale assistée par ordinateur et sur les nombreux projets qui jalonnent cette histoire à compter des années 1950[1]. L’état des lieux qui va suivre recense et étudie les seuls logiciels et projets accessibles aujourd’hui ou dont la trace subsiste encore sur Internet.

L’identification de ces outils s’est effectuée à partir d’une conception spécifique de l’analyse : celle d’une activité focalisée sur l’étude des faits musicaux dans leur aspect symbolique. Plus précisément, cet article défend l’idée que l’essence de la démarche analytique consiste à décomposer et à recomposer les éléments musicaux dans l’optique d’identifier et/ou d’étudier des unités et des catégories sémiotiques et d’en exprimer les relations formelles et combinatoires (voir aussi Nattiez 1975, p. 63-128, 239-278 ; et Meeùs 1993, p. 306, 308-310).

Les outils informatiques ont été sélectionnés en raison de leur aptitude à soutenir cette activité et, selon leur ambition, à l’assumer partiellement, voire entièrement dans certains cas. Dans le cadre d’une démarche prospective toujours en cours, cette perspective a conduit, au stade actuel, à recenser environ 70 logiciels et projets reportés dans une base de données[2]. Cette dernière constitue le terrain de l’exploration entreprise à partir des questions suivantes : quel est le point de départ de la procédure analytique ? Quelles sont les unités identifiées à l’issue du processus ? Quelles sont les opérations analytiques effectuées ? Enfin, quel est le statut du logiciel dans la mise en oeuvre de ces opérations ?

Le nombre significatif de logiciels identifiés conduit immanquablement à une présentation sélective. Cette sélection est liée au contexte dans lequel cette première synthèse rédigée en langue française a été réalisée : la rencontre inaugurale du réseau international Épistémuse en septembre 2018 à l’Université de Montréal[3]. La thématique de cette rencontre (« Musicologies francophones : nouvelles frontières disciplinaires et nouvelles technologies ») a conduit à retenir essentiellement des logiciels et projets issus de la recherche francophone pour fin de discussion et de présentation détaillée. Pour autant, ce choix ne remet pas en cause l’importance centrale des productions issues d’autres traditions musicologiques. Sa seule motivation est de mieux faire connaître, au-delà de leurs frontières géographiques et linguistiques, les outils issus de la recherche francophone et la réflexion méthodologique, épistémologique et sémiotique qui les caractérise en partie.

Contextes géographiques et chronologiques

L’animation de l’extrait vidéo 1 situe les logiciels et projets dans leurs contextes géographiques et chronologiques entre 1990 et 2018. Elle montre que le développement des outils suit une courbe en cloche avec un pic entre 2005 et 2010. Les institutions françaises, à commencer par l’Ina-grm, jouent un rôle central dès le début des années 1990 dans ce développement, par exemple avec l’Acousmographe[4] mis à disposition en 1991. Les universités britanniques prennent, elles aussi, une part active à ce développement qui débouche, au début des années 2000, sur le logiciel d’analyse harmonique et contrapuntique Tonalities d’Anthony Pople[5]. L’évolution se poursuit ensuite à travers une multitude de projets dont certains – comme la boîte à outils Music21, conçue et développée au mit sous la direction scientifique de Craig Sapp[6] – connaissent une postérité importante. Si un ralentissement de la production se fait sentir à compter de 2010, celui-ci ne reflète pas nécessairement un désintérêt pour l’analyse musicale assistée par ordinateur : les outils d’ores et déjà disponibles font l’objet de réagencements et d’extensions afin de répondre aux problématiques particulières des chercheurs individuels[7]. En outre, les nouveaux développements atteignent un haut niveau de sophistication technique. C’est le cas, par exemple, de la gestion du multimédia dans le logiciel de représentation musicale EAnalysis de Pierre Couprie, mis à disposition à compter de 2012[8].

La représentation spatio-temporelle met en évidence l’implication particulière des institutions françaises dans la production d’outils à visées analytiques. Sans aucun doute, l’Ircam – de par son rôle, ses orientations et ses missions en matière d’innovation technologique et de création musicale – joue un rôle essentiel dans ce contexte. Mais le nombre et les orientations des logiciels produits dans l’hexagone reflète aussi les spécificités de la musicologie francophone (non seulement française mais aussi québécoise et belge), notamment dans son rapport particulier à l’analyse. Il est le résultat indirect de l’influence exercée par la sémiotique et les méthodologies de la linguistique sur l’appréhension des objets musicaux, notamment à travers la mise en série des données[9] dans le cadre de l’analyse de corpus[10].

forme: 2132367.jpg

Extrait vidéo 1 : Contexte géographique et chronologique de la production des outils d’aide à l’analyse.

Données d’entrée

La figure 1 regroupe les différents logiciels selon leurs données d’entrée : signal audio/vidéo et/ou représentations symboliques. En raison de leurs statuts sémiotiques fondamentalement différents, ces sources d’informations conditionnent en profondeur les procédures analytiques et exercent une incidence forte sur les résultats produits.

Les représentations symboliques impliquent des catégories (hauteurs, durées, indications métriques, etc.) qui servent de point de départ à l’exploration analytique, comme par exemple l’étude de patterns mélodiques à partir des hauteurs notées. Toutefois, ces représentations impliquent nécessairement une réduction des informations, réduction qui tient d’une part à la discrétisation du continuum musical – par exemple la réduction des fréquences aux sept noms des notes de la notation occidentale – et, de l’autre, à la réduction des paramètres considérés – par exemple la perte d’informations relatives au timbre au profit d’une focalisation exclusive sur les hauteurs et les durées.

Le signal audio ou vidéo est, au contraire, complètement vierge de ces catégories et ne comporte que des données quantitatives dont le séquençage s’effectue a priori indépendamment de considérations qualitatives. Il présente l’avantage d’une exploration d’éléments qui se seraient soustraits aux catégories symboliques, mais pose le défi considérable d’une catégorisation sémiotique effectuée a posteriori soit par le dispositif informatique, soit par l’analyste.

A priori, le midi, en tant que langage de contrôle, se situe à la charnière entre ces deux régimes : il a recours aux catégories symboliques de l’échelle chromatique pour les hauteurs tout en procédant à un codage des durées qui renonce aux unités de la notation occidentale au profit d’un dispositif on/off. Il reste toutefois d’essence symbolique.

Certains logiciels tentent de conjuguer différents types de données d’entrée. C’est le cas par exemple d’OpenMusic, environnement de programmation graphique consacré à la composition musicale assistée par ordinateur[11]. Mais, dans la grande majorité des cas, et malgré les demandes d’une partie de la communauté scientifique (voir Dahlig-Turek et al. 2012, p. 18), les frontières entre les types de données restent imperméables, tant les points de départ sémiotiques et souvent aussi les méthodologies ainsi que les objectifs analytiques sont différents, voire incompatibles.

Malgré ces différences, il me paraît important d’insister sur la nature plus complémentaire qu’antagoniste des rapports entre données acoustiques (quantitatives) et représentations symboliques (qualitatives). Le processus analytique est indissociable de la représentation symbolique : toute analyse exprime, en effet, ses résultats sous forme symbolique. Mais rien ne s’oppose à ce que la sémiose prenne son point de départ dans des données acoustiques pour accéder – telle une spirale sémiotique – à des paliers symboliques de plus en plus élevés.

Figure 1

Regroupement des logiciels selon leurs données d’entrée.

-> Voir la liste des figures

Catégories identifiées ou étudiées par les outils informatiques

À l’autre bout du processus analytique, il est possible d’identifier une trentaine de catégories sur lesquelles portent les logiciels et projets. Ces catégories sont reportées par ordre alphabétique dans le tableau de la figure 2. Il montre à quel point les objets d’étude et résultats censés être produits par les outils informatiques sont variés et hétérogènes. Les unités et catégories relèvent tantôt de niveaux de complexité bas – par exemple les durées –, tantôt élevés – par exemple, les patterns contrapuntiques. Elles touchent la microstructure – par exemples les attaques –, la mesostructure – par exemple les patterns mélodiques – ou la macrostructure – par exemple, l’organisation formelle. Dans certains cas, elles dépassent les oeuvres individuelles et concernent l’agrégation d’oeuvres. Les unités et catégories peuvent être très spécifiques, comme par exemple l’identification de patterns dissonants, ou hautement génériques et concerner toute unité et toute catégorie identifiées par l’analyste. Enfin, elles peuvent être fortement sémiotisées, comme c’est le cas pour les cadences, ou ne pas nécessairement l’être selon les répertoires, comme il en va pour le timbre.

Cet état de fait explique pourquoi les critères du timbre et des nuances n’ont pas été spécifiquement pris en compte dans cette étude consacrée au statut du numérique dans l’appréhension du sens et de la signification. Au stade actuel, l’appréhension informatisée de ces critères reste essentiellement axée sur l’analyse acoustique à l’aide de descripteurs audio ou de filtrages sonores. Si ces approches quantitatives sont indiscutablement en mesure d’apporter des éléments de réponses à des questions qualitatives sur le timbre et les nuances, elles ne permettent pas de se prononcer directement sur le statut de ces critères en tant que catégories sémiotiques.

Figure 2

Unités et catégories identifiées ou étudiées par les outils informatiques.

-> Voir la liste des figures

Les catégories identifiées dans la figure 2 s’organisent dès lors qu’elles sont mises en rapport avec les logiciels et, indirectement, avec leurs données d’entrée. C’est le cas dans l’animation de l’extrait vidéo 2 qui associe les programmes informatiques, représentés par des cercles bleus, aux unités identifiées ou étudiées, représentées par les rectangles aux contours rouges. Si ce graphe, dans sa globalité, n’est pas plus clair étant donné la foule de données et de relations représentées, il permet d’identifier six sous-ensembles qu’il s’agit d’explorer séparément à présent.

forme: 2132370.jpg

Extrait vidéo 2 : Outils informatiques et catégories.

Le premier groupe, très important, concentre des logiciels qui débouchent sur une extraction d’unités et de catégories majoritairement élémentaires, comme les pulsations, les durées, les tempos ou les attaques. C’est le cas, par exemple, du logiciel Aubio développé à la Queen Mary University de Londres par Paul Brossier en 2003[12], ou encore de la Midi-Toolbox conçue par Petri Toiviainen et Tuomas Eerola[13].

Un deuxième ensemble rassemble des projets focalisés en grande partie sur l’identification d’échelles, de modes, ou encore de patterns mélodiques, rythmiques ou contrapuntiques. Ces projets peuvent avoir une portée ethnomusicologique, comme le logiciel Music22 d’Anas Ghrab[14], nommé en référence à la boîte à outils Music21 (voir précédemment) et ayant pour ambition d’analyser la musique modale à partir d’enregistrements sonores en exploitant les outils du Music Information Retrieval (mir)[15]. Il en va de même aussi pour le logiciel Monika[16], conçu et écrit par Nicolas Meeùs en réaction à une recherche doctorale menée à l’Université Paris-Sorbonne aux débuts des années 2000 (voir Stern 2002). Bon nombre de ces projets portent sur des répertoires médiévaux ou renaissants, par exemple la bibliothèque de partitions Carnet de notes, conçue par Alice Tacaille à l’Institut de Recherche en Musicologie (IReMus)[17] ou le projet Citations. The Renaissance Imitation Mass mis en oeuvre au Centre d’Études Supérieures de la Renaissance (cesr) et au Haverford College par David Fiala et Richard Freedman[18].

Un autre ensemble d’outils, de proportion beaucoup plus restreinte, rassemble les projets qui implémentent des théories génératives. Ces logiciels, comme par exemple gttm Analysis Tool développé à l’Université de Kyoto[19], visent à cerner l’articulation hiérarchisée des structures musicales en faisant le lien entre élaboration de surface et structure profonde.

Le groupe suivant porte de manière ciblée sur l’analyse harmonique. Il s’agit d’identifier des accords, des progressions harmoniques, des modulations et des centres tonals. C’est le cas par exemple du projet Polyphonic Music Information Retrieval (Polymir)[20], en cours d’implémentation dans la bibliothèque de partitions neuma[21].

Un cinquième groupe, aux visées et aux approches très différentes des précédents, est axé sur l’agrégation de corpus similaires. Il s’agit, par exemple dans la Music Analysis Toolbox développée en 2004 au Österreichisches Forschungsinstitut für Artificial Intelligence (ofai ; « Institut autrichien de recherche sur l’intelligence artificielle »), de proposer des mesures de similarité des oeuvres dans l’optique d’effectuer des classifications automatiques au sein de vastes collections[22].

Le dernier groupe, quant à lui, se distingue par son caractère générique. Sans limiter leur champ d’investigation à une catégorie particulière, les logiciels représentés ici offrent un cadre propice à l’annotation soit de la partition, comme iAnalyse[23], soit du signal audio-vidéo, comme le permettent l’Acousmographe ou EAnalyis. Ceci ne veut pas dire que des catégories préétablies ne puissent pas être retenues : EAnalysis propose, notamment, une annotation à partir des unités sémiotiques temporelles (ust)[24]. Mais ces catégories constituent autant de grilles de lecture facultatives et alternatives. Elles sont susceptibles de guider l’analystes dans ses choix et ses annotations, mais ne s’imposent pas à lui et ne font pas l’objet d’une automatisation.

forme: 2132371.jpg

Extrait vidéo 3 : Données d’entrée, catégories analytiques et répertoires.

Un examen global des six groupes apporte des conclusions supplémentaires mises en évidence dans l’animation de l’extrait vidéo 3. La première concerne le rapport entre les données d’entrée et les résultats. D’une part, les groupes 1, 5 et 6 – à savoir l’extraction d’unités élémentaires, l’agrégation de collections similaires et l’annotation analytique – font majoritairement usage de données d’entrée audio-vidéo (en jaune dans l’animation). D’autre part, les groupes 2, 3 et 4 – constitués de logiciels relatifs à l’analyse des patterns, à l’analyse harmonique et aux théories génératives – se situent, quant à eux, du côté des données symboliques (en bleu). Ces catégories ne sont possibles, en effet, qu’à partir de descriptions sémiotiques des données, parce que les logiciels qui les produisent opèrent de bout en bout sur des éléments sémiotiques.

Il est à noter par ailleurs que les regroupements et les procédures analytiques qui s’y rattachent reflètent des répertoires distincts. Le groupe 6, qui comporte des logiciels génériques, englobe l’ensemble des répertoires avec un focus particulier sur les répertoires électroacoustiques. Les groupes 1 et 5 touchent de manière très large la musique occidentale tonale avec hauteurs et durées discrétisables. Les groupes 3 et 4 sont axés sur les répertoires harmoniques pré-tonals ou tonals. Enfin, le groupe 2 concerne des répertoires plus spécifiques : la polyphonie de la Renaissance, les corpus monodiques ou encore les corpus ethnomusicologiques.

Statut des logiciels dans le processus analytique

Un examen du statut des logiciels et projets dans le processus analytique permet d’identifier trois rôles distincts : d’une part, l’identification d’unités musicales, à savoir le processus analytique qui consiste à segmenter le continuum musical en des unités chargées de sens ; d’autre part, la représentation de ces unités, c’est-à-dire, leur manifestation sémiotique sous forme d’indices, d’icônes ou de symboles ; enfin, la génération d’unités, soit la production, par les logiciels, de fragments musicaux. Ces rôles peuvent se combiner de différentes manières (voir figure 3).

Figure 3

Statut des logiciels dans le processus analytique.

-> Voir la liste des figures

Les rares outils qui assument à la fois l’identification, la représentation et la génération d’unités ou de catégories, implémentent soit des grammaires génératives, comme le logiciel legre[25], soit ils sont volontairement génériques, comme Music21, soit encore, leur ambition dépasse celui de l’analyse en faveur de la composition, comme OpenMusic. Une deuxième démarche consiste à confier à la machine à la fois des tâches de représentation et de génération. Il en va ainsi pour l’Acousmo- scribe développé dans l’optique double de représenter symboliquement ce qui est entendu et de générer des sons à partir de ces symboles (voir Desainte-Catherine et Di Santo 2009).

Sans grande surprise, c’est la combinaison de l’identification et de la représentation des unités qui prime et qui correspond au mode de fonctionnement des trois quarts des outils identifiés, qu’il s’agisse du logiciel ASAnnotation, pour l’analyse et l’annotation automatique ou manuelle de fichiers son[26], du Joquin Project[27], ayant pour ambition de faire dialoguer le big data et les méthodes analytiques traditionnelles, ou encore du projet Texture qui tente de formaliser les textures mélodiques ou harmoniques de la musique occidentale[28].

Un nombre relativement conséquent de logiciels est focalisé toutefois sur la seule représentation des résultats, comme par exemple la Bachothèque mise à disposition au début des années 2000 pour l’analyse de l’interprétation[29], just, outil de segmentation audio pour l’identification d’unités sémiotiques temporelles[30], ou encore EAnalysis. Ces projets se distancient à ce titre fortement de l’idéal de l’automatisation du processus analytique qui avait nourri beaucoup d’espoirs au début de la période considérée. Tout l’enjeu réside ici dans l’apport de connaissances qui résulte, d’une part, de la désignation et de l’annotation des éléments par l’analyste et, de l’autre, de leur représentation informatique. Il est à noter enfin qu’à aucun moment les logiciels ne revendiquent le domaine de l’interprétation. Dans aucun des cas observés, l’outil informatique ne se suffit donc à lui-même pour la réalisation d’une analyse.

Modes opératoires

Une exploration des logiciels sous l’angle des mécanismes analytiques mis en oeuvre permet d’identifier cinq modes opératoires : la segmentation, la comparaison, le comptage, la recherche ou l’application de règles et la hiérarchisation[31]. Ces procédures sont combinées la plupart du temps et découlent directement des unités musicales qu’il s’agit d’identifier ou d’étudier. L’histogramme de la figure 4 représente l’utilisation proportionnelle de chacune de ces procédures. S’il n’est pas étonnant que la segmentation – centrale dans la démarche analytique – soit fréquemment représentée, il est très révélateur que les procédés qui reposent sur le comptage d’occurrences (par exemple de hauteurs ou de fondamentales) soient comparativement importantes. Il s’agit en effet d’un mode opératoire relativement aisé à implémenter sur le plan informatique. À l’opposé, les procédures de réduction et de hiérarchisation, beaucoup plus complexes, sont quasiment absentes. La recherche ou l’application de règles ainsi que les procédures de comparaison – qu’il s’agisse de la comparaison de deux segments d’une partition ou d’une mise en regard d’une partition avec le segment audio correspondant à une interprétation, par exemple dans Antescofo[32] – adoptent, quant à elles, une position médiane. L’outil informatique conditionne ainsi les modes opératoires et indirectement l’éventail des procédures analytiques retenues.

Figure 4

Modes opératoires des logiciels.

-> Voir la liste des figures

Représentation et organisation des unités analytiques

Sans pouvoir traiter en détail la vaste question de la représentation des résultats analytiques, il est nécessaire d’aborder ici quelques-uns de leurs aspects sémiotiques.

Sérialisation des unités analytiques et annotation de partitions

Les résultats de la procédure analytique peuvent être sérialisés – c’est-à-dire codés sous la forme d’une suite de sous-unités – par le biais de langages de balises. Au-delà du stockage persistant des résultats, ce balisage permet de hiérarchiser les unités et de les qualifier. C’est le cas dans la figure 5 qui présente le résultat d’une analyse harmonique réalisée par Polymir. Chaque unité de hiérarchie supérieure correspond à une collection de hauteurs, désignée par une balise <pitchColl> dont les attributs renseignent sur la position de la verticalité au sein de la composition (@offset) et sur la fondamentale (@root). La balise <pitchColl> comporte à son tour des hauteurs individuelles, désignées par la balise <analysedPitch> dont les attributs livrent des informations notamment sur l’accentuation, la signification contrapuntique ou encore le degré de certitude de l’analyse.

Figure 5

Analyse des hauteurs et des fondamentales dans Polymir

Johann A. Reincken, Hortus Musicus [1688], Sonata 1, « Adagio »

-> Voir la liste des figures

Un tel balisage est par essence descriptif et orienté données : il permet de dissocier l’organisation sémantico-syntaxique de la manière dont sont affichées les informations par le logiciel informatique ; il est aussi d’essence connotative. Les balises s’inscrivent dans un système sémiotique en prise avec le langage musical, quoique distinct de celui-ci, et doivent faire l’objet d’une transformation en vue de la représentation ou de l’investigation d’autres unités signifiantes (voir Piez 2007, p. 156).

L’un des enjeux d’une telle structuration sémantico-syntaxique est de pouvoir extraire des informations en vue de les comparer et de les traiter en série. Un autre apport, inhérent au langage xml, réside dans le partage des données analytiques. Si l’édition électronique dispose à travers le Musicxml et la Music Encoding Initiative (mei)[33] de standards communs, rien de comparable n’existe à l’heure actuelle pour les données analytiques[34]. Le défi que pose l’établissement d’un tel standard réside à un premier niveau dans la nécessité de créer un consensus autour des concepts et du métalangage employés pour les désigner. À un second niveau, les difficultés sont liées aux contraintes inhérentes au xml dont la structuration spécifique n’est pas sans poser problème lorsqu’il s’agit de gérer simultanément plusieurs types de hiérarchies et lorsque les relations entre les unités ne peuvent être réduites à des relations parent-enfant. Le modèle de données rdf[35] apporte une plus grande souplesse à ce niveau. Mais la modélisation – comme d’ailleurs le métalangage des balises xml – ne doit pas faire oublier que les relations établies sont le résultat d’un processus interprétatif qu’il est indispensable d’expliciter et de soumettre à une appréciation critique. Plus que l’établissement de modèles et de vocabulaires contrôlés, l’enjeu consiste à développer des approches qui mettent en relation ces modèles et leurs vocabulaires à la fois avec les concepts auxquels ils renvoient et les personnes qui les emploient (voir Sowa 2000, p. 58).

Figure 6

Antoine Brumel, Missa pro defunctis (c. 1510), « Dies Irae », mes. 40-51, annotation avec neuma-Polymir.

-> Voir la liste des figures

Le numérique offre des possibilités élargies en matière d’annotation des partitions. L’approche adoptée dans iAnalyse consiste à synchroniser la partition avec le signal audio et à y apporter des annotations (graphismes, textes, images). Une démarche comparable quoique distincte est adoptée dans Dezrann, développé par l’équipe Algomus[36]. La plateforme s’approprie les technologies du Web pour visualiser, éditer et partager des analyses musicales à travers des ensembles d’étiquettes analytiques associées à la partition et au signal audio. Si dans Dezrann, ces étiquettes renvoient à des coordonnées de l’image (voir Giraud, Groult et Leguy 2018, p. 107), le projet neuma-Polymir fait le choix d’associer directement l’information analytique à l’élément musical encodé en mei. Dans la figure 6 sont annotés les patterns dissonants rencontrés aux mesures 40 et suivantes du « Dies Irae » de la Missa pro defunctis (c. 1510) d’Antoine Brumel[37]. La stratégie consiste à réaliser une première analyse automatisée de la partition, matérialisée par des codes couleurs (voir la légende en bas à droite de la figure) et stockée dans une liste de données analytiques. Cette liste peut être enrichie et corrigée par la suite. À titre d’exemple, l’analyse de 2 en tant qu’anticipation à la mesure 40 du bassus a été corrigée par un analyste au profit d’une note consonante. Cette annotation supplémentaire apparaît avec son commentaire dans la liste de données analytiques. Elle est datée, signée et mise en regard avec les autres interprétations. Une telle démarche permet l’automatisation des procédures analytiques tout en gardant la main sur l’analyse. Elle permet aussi de tenir compte des variantes interprétatives et des points de vue circonstanciés des analystes. À ce titre, elle dégage des perspectives vers l’analyse collaborative et conduit à reconsidérer les modalités de production de connaissances analytiques.

Diagrammes musicaux

Les résultats analytiques débouchent aussi sur des histogrammes, tableaux et diagrammes. Ces derniers s’inscrivent dans une tradition particulièrement riche dont les cercles musicaux de Johann David Heinichen, le Tonnetz introduit par Leonhard Euler ou encore les graphes schenkériens constituent des représentants importants. Cette tradition entre en résonance avec l’intérêt de l’informatique pour le raisonnement diagrammatique.

Dans la conception triadique de Charles Sanders Peirce, le diagramme appartient, avec l’image et la métaphore, à la catégorie des signes iconiques : « But while the image represents its object through simple qualities and the metaphor represents it through a similarity found in something else, the diagram represents it through a skeleton-like sketch of relations » (Stjernfelt 2007, p. 90). L’icône se distingue ainsi des autres types de représentations en ce que, par son observation directe, « other truths concerning its objects can be discovered than those which suffice to determine its constructions » (Peirce 1934-58, vol. 2, p. 279).

Le logiciel HexaChord[38] permet la représentation dynamique des hauteurs d’une composition notée dans l’espace diatonico-chromatique d’un Tonnetz. Dans l’animation de l’extrait vidéo 4, cette représentation porte sur Take A Bow du groupe de rock britannique Muse.

Extrait vidéo 4 : Muse, « Take A Bow » (extrait de Black Holes and Revelations, 2006), représentation dynamique par le logiciel HexaChord. Voir la vidéo.

L’apport d’information consiste dans la l’extrait vidéo 4 à mettre en évidence un cheminement harmonique rectiligne qui progresse du côté gauche vers le côté droit du Tonnetz. HexaChord suppose à cette fin un agencement du matériau musical qui est tout sauf trivial sur le plan sémiotique. Il s’agit de « pouvoir associer à une pièce les propriétés musicales intrinsèques d’un espace dans lequel elle est décrite par une trajectoire régulière » (Bigo 2013, p. 118). Cette association se fait par le critère de « compliance » (ibid., p. 38-40), une mesure qui vise à quantifier l’aptitude de la représentation « à révéler les propriétés d’un système » (ibid., p. 116). Le logiciel fait ainsi la triple hypothèse : a) que les trajectoires dans l’espace diatonico-chromatique représentent une propriété d’un « système », b) que les trajectoires les plus significatives sur le plan quantitatif sont aussi les plus signifiantes sur le plan qualitatif, et enfin, c) que les cheminements signifiants puissent tous être représentés par le Tonnetz enharmonique (ici avec sol# = la♭).

Ces présupposés ne sont pas sans impliquer certaines tensions. Dans l’exemple plus haut, l’enharmonie du Tonnetz empêche, d’un côté, d’interpréter la séquence comme un passage rectiligne du côté diésant (-fa#-la) vers le côté bémolisant (♭♭-fa♭-la♭♭-do♭) au profit d’une organisation circulaire – le point d’arrivée (do-mi-sol-si) étant adjacent au point de départ (-fa#-la). Mais, de l’autre côté, l’organisation plane du Tonnetz empêche de mettre en évidence cette circularité au profit d’une représentation rectiligne matérialisée dans l’extrait vidéo 4.

Il n’y a pas lieu de remettre en cause ces présupposés dans l’absolu : c’est précisément d’eux-mêmes que découle le potentiel heuristique d’HexaChord. Ils rappellent toutefois que les diagrammes produits par le logiciel – à l’instar de tout diagramme – sont le résultat de choix méthodologiques, d’hypothèses théoriques et de grilles de lecture interprétatives. Jusqu’à un certain degré, la dimension interprétative est favorisée par l’exploration diagrammatique rendue possible par l’environnement informatique : HexaChord permet le réagencement du matériau et la transformation du diagramme, notamment en changeant la structure intervallique du Tonnetz. Cette réorganisation et l’apport de connaissances qui peut en résulter constituent un trait distinctif du diagramme au sens peircien : « The transformate diagram is the eventual, rational interpretant of the transformand diagram and it has in turn the conclusion, expressed in symbolic terms, as its interpretant » (Stjernfelt 2000, p. 372).

Les conditions sémiotiques changent du tout au tout dans le cas de la représentation du signal audio-vidéo. Dans la transcription dynamique d’« Ondes croisées » de Bernard Parmegiani, réalisée par Pierre Couprie avec le logiciel EAnalysis, les formes géométriques impliquent une discrétisation du continuum sonore et suggèrent, notamment par leurs couleurs, des catégories sémiotiques distinctes (extrait vidéo 5).

Extrait vidéo 5 : Bernard Parmegiani, « Ondes croisées » (extrait de De natura sonorum, 1975), représentation dynamique par le logiciel EAnaylsis. Voir la vidéo.

La transcription repose, ici encore, sur une relation iconique entre la forme et l’objet sonore (ou ce qu’il évoque) : les sonorités aquatiques des secondes 5-6 sont, par exemple, matérialisées par des gouttes bleues dans le graphique[39]. Cette iconicité favorise l’association de l’objet sonore à la forme « en misant sur les analogies entre le visuel et le sonore » (Couprie 2015, p. 28). Toutefois, dans le cas présent, elle ne rend pas explicite ce que les formes, en tant qu’unités sémiotiques, sont censées signifier sur le plan musical : la goutte d’eau bleue, en tant que representamen, renvoie bien à un objet, mais ne fait pas nécessairement connaître cet objet par le déclenchement d’un interprétant – surplus sémiotique qui permet de préciser la mise en relation. Le résultat n’est pas proprement sémiotique parce qu’il ne dit rien sur la signification des formes représentées.

Cet état de fait est lié à la difficulté de formaliser, par le biais de représentations iconiques, le sens qui résulte de la structure interne de l’oeuvre. Les répétitions, transformations et distinctions d’unités, qui sont génératrices de sens, transparaissent en partie à travers la représentation, mais ne sont pas encryptées en elle. La goutte d’eau bleue et sa réverbération caractéristique acquièrent manifestement un rôle structurel en raison de leur saillance, de leur répétition et de leur transformation (voir Couprie 2010), mais le schéma ne se prononce pas sur le statut sémiotique de ces transformations et ne formalise pas les rapports qu’entretient la goutte avec les autres unités.

Si l’on considère avec Peirce qu’un representamen ne peut renvoyer à un objet d’une catégorie sémiotique supérieure (voir Peirce 1934-58, vol. 1, p. 179-180), seuls des légisignes – signes conventionnels et arbitraires – sont d’ailleurs susceptibles de représenter de tels relations symboliques qui se situent au-delà de la morphologie des objets acoustiques. Ceci ne retire rien à la valeur pédagogique et communicationnelle des représentations dynamiques produites par EAnalysis, mais montre que cette approche iconique particulière, axée sur la morphologie sonore – comme d’ailleurs celle qui gouverne les unités sémiotiques temporelles et leur analyse par le logiciel just[40] – a des répercussions fortes sur la nature des significations musicales qui peuvent être investies à partir des outils informatiques développés.

Certaines initiatives essayent d’articuler la représentation iconique avec une approche symbolique. C’est le cas par exemple du logiciel tiaals, développé à l’Université de Huddersfield par Michael Clarke, Peter Manning et Frédéric Dufeu[41]. Axé sur le point de vue de l’analyste, il distingue deux plans distincts. D’une part, des objets qui annotent le sonagramme et qui entretiennent un rapport iconique avec la morphologie sonore (figure 7a). D’autre part, des objets consignés dans un tableau et dissociés de cette morphologie (figure 7b). Cette approche va dans le sens d’une intégration de relations symboliques et d’une formalisation de ces relations.

Les représentations et tout particulièrement les diagrammes – en ce qu’ils rendent intelligible l’intangible par une traduction visuelle fondée sur l’analogie – constituent donc un outil inférentiel puissant, voire même une condition nécessaire au déclenchement de l’inférence (voir Arnheim 1969, en particulier p. 97-134). Elles acquièrent à ce titre aussi un rôle communicatif et pédagogique dont témoignent les logiciels passés en revue. Mais si ces représentations permettent de mieux visualiser certains aspects au détriment d’autres, elles ne constituent ni une interprétation ni une analyse achevée. Pour être pertinent et utile sur le plan sémiotique, un diagramme doit en effet « impliquer un symbole dont il est l’interprétant » (« involving a Symbol of which it is the Interpretant » ; Peirce 1976, p. 31). Ceci revient à dire qu’il doit non seulement représenter plus que l’oeuvre dans sa matérialité mais qu’il doit aussi permettre d’établir un lien entre l’oeuvre et ce à quoi elle renvoie. L’enjeu consiste à s’appuyer sur cette représentation pour pousser plus avant le processus interprétatif afin de dégager d’autres niveaux de signification.

Figure 7

Logicieltiaals, a) sonagramme interactif avec palette, et b) éditeur de tableau avec palette.

-> Voir la liste des figures

Enjeux épistémologiques, heuristiques et méthodologiques

Les développements qui précèdent confirment que l’analyse musicale est susceptible de s’approcher, jusqu’à un certain degré, d’objets culturels à partir d’une interrogation quantitative des objets. Aucun critère ne permet toutefois d’établir que les discrétisations du matériau musical établies sur le plan statistique soient signifiantes sur le plan sémiotique. Il est impossible, par exemple, d’être certain que l’identification des accords à partir d’un traitement automatisé, comme dans le logiciel Aubio, soit pertinente sur le plan analytique. Ceci a deux conséquences majeures : d’une part, l’impossibilité d’interpréter des significations musicales à partir d’une perspective agnostique et sur la base des seuls instruments quantitatifs et automatisés[42] ; d’autre part, la dissociation des traces quantitatives de leurs contextes de production et de réception. Les sections qui suivent explorent les enjeux de ces deux conséquences pour l’analyse musicale assistée par ordinateur.

Quantité et qualité

Depuis Wilhelm Windelband, le fossé abyssal entre quantité et qualité va de pair avec le cloisonnement des sciences de la nature et des sciences de la culture. Alors que les premières sont appelées à déduire des lois et des régularités à partir d’observations objectives, les secondes sont considérées comme idiographiques : leur champ d’action se cantonne à l’interprétation d’observations subjectives à partir d’objets d’étude uniques, singuliers et individuels (Windelband 1904, p. 10-12). Les sciences de la nature sont supposées répondre ainsi à des méthodes généralisatrices et quantitatives, alors que les sciences de la culture sont censées s’approprier des méthodes qualitatives qui visent à l’individualisation (voir Rickert 1926, p. 38-60, 78-101 et 113-126). L’informaticien et historien des humanités Rens Bod (2013, p. 37-43, 109-117, 198-210, 301-310 et 355-356) fait toutefois remarquer que des patterns de pensée axés sur la mesure et visant à identifier des régularités ont toujours coexisté avec la réflexion qualitative en sciences humaines, y compris dans la réflexion sur la musique.

Cette coexistence acquiert une nouvelle dimension dans le contexte d’une musicologie d’essence numérique, axée sur l’appréhension des significations à partir d’un traitement quantitatif des données. L’informatique nous invite en effet à sonder, à partir d’une perspective élargie, les processus inférentiels susceptibles de déboucher sur des connaissances analytiques et musicales. Les logiciels et projets d’analyse musicale qui font l’objet de cette étude autorisent les observations suivantes à ce sujet.

Les approches rigoureusement inductives – c’est-à-dire les approches qui font des déductions générales à partir de l’analyse quantitative d’un échantillon – disent finalement peu de choses sur la signification et le statut des régularités identifiées. À titre d’exemple, l’identification automatisée de tonalités à partir de données statistiques, comme le propose notamment la Midi-Toolbox, ne permet d’aucune manière d’expliquer de l’intérieur le fonctionnement tonal. Le raisonnement déductif qui consiste à établir une conséquence à partir de prémisses, comme c’est le cas par exemple dans l’implémentation de règles de la gttm, porte ses fruits jusqu’à un certain degré. Il se heurte toutefois à deux problèmes majeurs : d’une part, la variété des situations analytiques qui doit être cernée par un nombre nécessairement fini de règles ; d’autre part, la nécessité de définir ces règles en amont et de les projeter sur les données musicales.

L’un des paradigmes fructueux qui se dégage des logiciels consiste à vérifier l’hypothèse qualitative, souvent intuitive, à partir d’une exploration quantitative des données. Il s’agit soit de s’appuyer sur l’informatique pour vérifier une hypothèse – vérifier, par exemple, avec les logiciels Charles ou Telos[43] que la tendance directionnelle de l’harmonie s’accentue entre les xvie et xviiie siècles –, soit d’utiliser l’informatique pour générer puis explorer des hypothèses – formuler, par exemple, des hypothèses sur des structures dissonantes irrégulières dans le cadre de Polymir (voir Bottini et Guillotel-Nothmann 2018). Ces approches qui intègrent l’abduction et qui s’appuient sur un traitement sériel des données visent non seulement à infirmer ou à confirmer l’hypothèse formulée, mais aussi à la nuancer et à la reformuler selon les résultats obtenus. C’est notamment de cet aller-retour entre résultat et interprétation, qui n’est pas sans comporter des affinités avec la spirale herméneutique, que découle le pouvoir heuristique des approches informatisées.

Sous cet angle, le quantitatif et le qualitatif ne s’inscrivent pas dans une relation antagoniste et ne peuvent être assimilés respectivement à la généralisation et à l’individualisation : « Pas plus que le fréquent n’est assimilable au quantitatif, le rare ne se confond avec le qualitatif. Il n’y a pas d’opposition entre quantitatif (positiviste) et qualitatif (élitiste), mais une complémentarité : ainsi, le résultat quantitatif peut confirmer l’hypothèse qualitative » (Rastier 2013, p. 51).

Immanence et intégration contextuelle

Le second ensemble de problèmes – la dissociation des artefacts numériques de leurs contextes de production et de réception – est étroitement lié à la question de l’immanence. L’approche computationnelle comporte en effet des affinités fortes avec la sémiotique interne. Les deux types d’analyse sont strictement immanentes et axées sur les traces matérielles considérées comme autonomes. Elles travaillent exclusivement sur des différences : tout se joue sur l’écart qui permet de différencier une observation d’une autre. À ce titre, elles portent non pas sur le sens – substance et fruit d’une contextualisation maximale par le bais d’un parcours interprétatif dynamique susceptible de transcender le texte – mais sur la signification, c’est-à-dire sur des valeurs essentiellement statiques et structurales qui relèvent de la forme et découlent de la position du signe au sein du système sémiotique[44]. Enfin, elles reposent toutes deux sur la mise en oeuvre systématique des procédures analytiques. Il en résulte souvent l’illusion que les unités sémiotiques identifiées à l’issue du processus informatique sont fondées ontologiquement : inscrites dans l’oeuvre, elles n’auraient besoin que d’être dévoilées par le biais d’une approche formelle et objective.

Mais les logiciels et projets menés en analyse informatisée confirment bien que l’identification d’unités sémiotiques repose toujours sur une lecture située et circonstanciée. Elle est le fruit d’une grille de lecture choisie en amont et d’une sélection des structures signifiantes en aval. Toute unité musicale et ce vers quoi elle renvoie sont ainsi le résultat d’un parcours interprétatif. Le signifiant n’est « ni découvert, ni inventé, mais constitué dans une interaction entre le texte et l’interprète » (Rastier 1994, p. 329).

En 1975, Jean-Jacques Nattiez proclamait la « mort de la structure » et « l’existence du niveau neutre » (Nattiez 1975, p. 404-405). La tripartition apporte une réponse méthodologique efficace à un pan important du problème contextuel et interprétatif. Une grande partie des logiciels recensés pourrait d’ailleurs s’inscrire dans le niveau neutre, parfois même en allant au-delà et en revendiquant un agnosticisme total, comme par exemple Carnet de notes ou Thema[45]. D’autres se situent résolument du côté du niveau poïétique – comme Rekall, un logiciel destiné à analyser et à documenter le processus créatif[46] – ou du niveau esthésique, comme tiaals. La distanciation du niveau neutre est liée en partie aux répertoires analysés et aux questions de recherche posées qui, en se situant souvent « au-delà des notes »[47], impliquent de fortes tensions avec la possibilité même du niveau neutre. Mais le concept de niveau neutre engendre aussi certaines interrogations pour la sémiotique interne. Situé à l’interface entre poïétique et esthésique, il dissocie ces deux niveaux – pourtant inextricablement mêlés dans l’interprétation qui conditionne l’analyse interne – et laisse ouverte la question de l’organisation structurale des signes (voir Lidov 2005, p. 88). Tout en reconnaissant l’apport méthodologique de la tripartition, l’analyse musicale assistée par ordinateur tend à réhabiliter le statut de certaines démarches structurales par rapport à la réponse méthodologique apportée par le niveau neutre : ce n’est pas tant le concept de structure qui s’avère problématique, mais bien la branche spécifiquement ontologique du structuralisme, notamment parce qu’elle exclut une prise en compte des contextes interprétatifs au profit d’un point de vue purement immanentiste (voir Eco 1972 et Rastier 2006).

Ce que nous apprennent donc les logiciels et projets passés en revue, c’est que l’identification d’unités sémiotiques – et notamment l’identification de significations structurales – ne peut se faire indépendamment du point de vue particulier de l’analyste. Le niveau immanent ne se réduit pas à un objet matériel et objectif : il lui incombe toujours une dimension psychologique et « idéelle » (Meeùs 2001, p. 551). Cette dimension, concomitante à la sémiose, est le résultat du point de vue nécessairement orienté et situé de l’analyste. Elle est le fruit de sa connaissance des répertoires, de sa perception des oeuvres, de son étude de contextes socioculturels, de ses savoirs sur les idées théoriques, philosophiques ou esthétiques contemporaines, enfin de la distance qui le sépare de ces éléments et de ses jugements de valeur personnels. S’il est pleinement justifié et salutaire sur le plan méthodologique d’évacuer momentanément ces contextes transcendants en faveur d’une démarche focalisée sur l’organisation interne de la musique, il faut garder à l’esprit que les unités sémiotiques identifiées à l’issue de ce processus sont conditionnées et justifiées par les contextes. D’une certaine manière, ces derniers établissent le lien entre le plan de l’expression et le plan du contenu. Ils assument le rôle d’interprétant au sens peircien en ce qu’ils précisent et définissent la relation entre l’objet et le representamen.

Malgré l’obstacle que présente l’isolement des artefacts numériques – ou plus précisément à cause de cet obstacle –, la musicologie numérique favorise le développement de paradigmes de recherche qui vont dans le sens d’une articulation des structures immanentes et des contextes transcendants.

À un premier niveau, la formalisation par l’informatique force à expliciter les présupposés de l’analyste et de la procédure analytique. Il s’agit ainsi de rendre transparents les présupposés des algorithmes en prenant conscience que les interprétations sont le résultat de prises de positions qui sont tout sauf neutres. Selon ce point de vue, l’objectivité de l’analyse, s’il y en a une, se constitue par la reconnaissance critique de sa part de subjectivité.

À un deuxième niveau, l’informatique se prête à une prise en compte de contextes transcendants par le biais d’une approche intégrative proche des théories de Jacques Fontanille (2015, chapitre premier). Cette conception intégrative consiste à articuler différents paliers d’immanence et niveaux de pertinence, chaque palier distinguant un plan d’immanence (le plan du contenu) et un plan d’expérience (le plan de l’expression). Un plan d’expérience devient un plan d’immanence s’il fait apparaître la possibilité d’une fonction sémiotique, chaque palier d’immanence supposant la prise en compte d’un palier d’ordre supérieur qui est à ce stade encore transcendant. Le projet Citations a, par exemple, pour ambition de cerner la manière dont les messes-parodie du xvie siècle réutilisent le même matériau thématique et dialoguent entre elles par leur traitement contrapuntique particulier. L’étude systématique de ces réseaux intertextuels, rendue possible par l’informatique, fait émerger des patterns compositionnels qui transcendent l’oeuvre et reflètent des contextes de production particuliers. Parce qu’ils contribuent simultanément à éclairer l’organisation interne des oeuvres, ces patterns acquièrent une fonction sémiotique et sont susceptibles, à ce titre, de constituer un palier d’immanence situé au niveau du corpus. D’autres paliers qui dépassent le niveau du texte – ceux des objets, pratiques, stratégies et formes de vie – pourraient alors venir se greffer sur ce palier. L’approche informatique est donc susceptible de contribuer, au moins jusqu’à un certain degré, à l’articulation du sens et de la signification en tant que « moments différents mais complémentaires de la même fonction sémiotique » (Bordron 2011, p. 177).

À un troisième niveau enfin, l’analyse collaborative, via les technologies du Web, est susceptible de conserver différentes analyses tout en faisant émerger des consensus autour des interprétations. Une telle mise en regard, telle qu’elle est expérimentée notamment dans neuma[48], contribue, elle aussi, à réintégrer le point de vue individuel (ou collectif) de l’analyste (ou des analystes) dans la création de connaissances musicales. Elle débouche, dans certains cas, sur une comparaison des analyses qui, par la démultiplication des angles d’attaque, est susceptible de faire apparaître différents « éclats de vérité » (Nattiez 2013, p. 371). Ces démarches favorisent une production de connaissances musicologiques « situées » qui dérivent de pratiques collaboratives et qui bénéficient d’une répartition des tâches tout en articulant les champs disciplinaires. À ce titre, elles favorisent une contextualisation et une subjectivation proche de ce qu’Yves Citton (2015) qualifie, à la suite de David M. Berry, de « subjectivation computationnelle ». Parce qu’elles placent l’accent sur la dimension sociale de la sémiose, elles jouent un rôle clef dans la constitution et l’articulation des paliers d’immanence.

Conclusions et prospectives

En conclusion, cette cartographie des logiciels d’analyse et de leurs enjeux épistémologiques reflète un paysage numérique varié dans lequel les approches structurales, patrimoniales et socioculturelles sont en passe de se rapprocher et de se renouveler. C’est notamment le cas à travers la constitution de corpus numériques, les démarches collaboratives, la mise en réseau géographique et disciplinaire et le renouvellement des méthodes.

Parmi les nombreux défis pour l’avenir, quatre me paraissent essentiels. L’un est technique : pérenniser les données et trouver des standards communs. Si ces standards existent pour l’édition musicale, ils restent à établir pour l’analyse. L’autre défi est méthodologique et réside dans la conception d’outils globalisants, intuitifs et robustes. Les approches sont trop souvent limitées dans le temps, isolées, ou encore éloignées d’une appréhension intrinsèquement musicale de leurs objets d’étude. Le troisième est sociétal, pédagogique et gnoséologique : il s’agit de montrer que les outils et connaissances produites constituent un accès de premier plan à la connaissance des oeuvres. Enfin, le quatrième est épistémologique et consiste à retrouver le qualitatif dans les approches computationnelles en tirant parti notamment des apports de l’herméneutique et de la pragmatique. Il s’agit de développer des paradigmes de recherche qui, tout en s’appuyant sur le numérique, sont susceptibles de déboucher sur des résultats qualitatifs, situés et dotés de sens. C’est notamment cette approche qui permettrait d’articuler l’analyse interne du langage musical et l’appréhension de ses contextes et, plus généralement, de décloisonner l’analyse musicale pour lui conférer une place centrale au sein d’une musicologie d’ordre général. En raison de ses traditions et spécificités, la musicologie francophone est bien placée pour contribuer à relever ce défi et les humanités numériques constituent sans doute une belle avancée – bien que ce ne soit certainement pas la seule – pour ce renouveau.