Une histoire de l’informatique musicale
entre macroforme et microcomposition

 

Luc Rondeleux[1]

 

Depuis le début du siècle, la création paraît de plus en plus tributaire de constructions conceptuelles. Notre environnement subit d’importants bouleversements idéologiques, scientifiques et technologiques. Dans le long terme, ces évolutions modifient bien des systèmes de pensée et conduisent à réviser le champ de l’expérimentation y compris celui de l’expérimentation artistique. Les techniques sont en train de modifier notre appréhension du sensible, prolongeant les possibilités de création ou de perception. Elles deviennent des piliers pour la réflexion artistique et suscitent une nouvelle expérience esthétique. Se servir des découvertes scientifiques pour élaborer un matériau musical peut paraître une idée ancienne. Pourtant, le passage dans les années 50 de techniques électroniques et électro-acoustiques à une représentation numérique, propre à calculer aussi bien l’évolution structurelle de l’œuvre que l’évolution spectrale des sons qui la composent, bouleverse les données de la création musicale. Jamais avant l’ordinateur un outil de composition n’avait réussi à réunir à la fois le niveau global et le niveau élémentaire de la création ! La musique est astreinte à redéfinir sa propre substance. La confrontation ainsi engendrée entre une machine aux possibilités colossales et des esprits créatifs qui ambitionnent d’y puiser un réservoir de possibles sans en être prisonnier, symbolise tout à fait ce que nous avons ailleurs qualifié (avec d’autres) d’art technologique[2].

La transformation des instruments et du matériau accompagne souvent une évolution des formes et des structures. Si elles ne se traduisent pas toujours par des œuvres marquantes, ces évolutions stylistiques opèrent pourtant des modifications que le long terme permet d’apercevoir. Il ne nous revient pas de réécrire l’histoire de l’informatique musicale en offrant un panégyrique de ses œuvres, mais d’analyser les transformations musicales les plus remarquables. Situer l’émergence de l'informatique musicale en tant que telle revient à définir les éléments qui ont permis de franchir une étape en totale rupture avec la période précédente. Ces éléments sont avant tout d’ordre technique, car c’est de la découverte scientifique de nouveaux outils que sont d’abord venues les divergences stylistiques. Ces « révolutions » technologiques ont modifié le concept d’écriture dont la tradition musicale avait depuis des siècles fait sa qualité première. Parallèlement elles ont aussi renouvelé la notion d’instrument.

Outre qu’il est permis de constater que le passage de l’outil ordinateur au concept d’informatique musicale se traduit par une réorientation des moyens, il est notable que cette technique a aussi ouvert de nouvelles voies à des domaines connexes, comme l’acoustique ou la psychologie de la perception. La mise à jour de ces données peaufine l’actualisation du champ de l’expérimentation des musiciens et leur offre d’élargir l’information esthétique[3] à des attributs de perception tels l’espace, travaillés avec toute l’acuité requise. L'ensemble de ces domaines (technologiques, acoustiques et naturellement esthétiques, les théories succédant toujours aux théories) a bâti au cours des années cette forme particulière d’expression artistique, un art technologique à nul autre pareil. L'informatique musicale n'est donc pas née comme ça de l'appropriation d'une nouvelle  technologie. Elle concentre un faisceau d’intérêts sur lesquels il n’est jamais inutile de revenir.

Mise en place des composantes de l’informatique musicale

De l'ordinateur à l'informatique

En 1945, la mise au point par John Mauchly et Prosper Eckert à la Moore School (Philadelphie) du premier ordinateur à structures logiques, est impulsée à partir des travaux de John von Neumann qui se joindra à l’équipe. Cette machine fait suite aux prototypes de calculateurs électroniques, notamment à ceux de John Atanassof et d’Alan Turing. Le projet s’appelle EDVAC pour Electonic Discrete Variable Computer. Il est concrétisé dans l’ENIAC (Electronic Numerical Integrator and Computer : 30 tonnes, 18 000 tubes pour une mémoire vive de 200 bits). En 1946-1947, les travaux sur le transistor[4] entrepris aux Bell Laboratories par John Bardeen, William Shockley et Walter Brattain permettent une amélioration des performances en réduisant l’encombrement. Le transistor sera appelé à détrôner tubes et lampes dont l’invention était pourtant récente[5]. L’accélération des capacités techniques, qui fut par la suite croissante, augmentera sans cesse la rapidité d’obsolescence des machines. Gardons donc à l’esprit que l’UNIVAC et l’IBM 701, commercialisés vers 1951, font aujourd’hui figure de brontosaures face à nos micros. Les premiers ordinateurs à utiliser le transistor n'apparaissent qu'en 1955, et encore, ils ne sont réellement efficients qu’avec la deuxième génération, entièrement transistorisée vers 1959 (IBM 7090 et 7094), soit plus de dix ans après l’invention du transistor. C'est la première véritable révolution, le début d’une ère informatique qui transforme l’interaction avec la machine. Car, les ordinateurs Bull qu’utilise Barbaud dans les années 50 comme l’Illinois Automatic Computer (l’Illiac) d’Hiller et Isaacson, en 1956, pour leur célèbre Illiac Suite, occupent plusieurs pans de mur, chauffent beaucoup, et demandent une patience infinie pour obtenir des résultats.

À partir de 1952, l’ingénieur anglais Dummer propose d'associer sur un bloc de céramique semi-conducteurs et transistors connectés sans le secours de fils électriques. Il enclenche la deuxième révolution informatique, celle des circuits intégrés, plus connus sous le nom de « puce » (en anglais chip). Le prototype sera réalisé par Jack St Clair Kilby en 1958-1959 à la Texas Instrument. Ce premier micromodule, rassemble plusieurs transistors sur une plaque de céramique d’1 cm2. Cette révolution technique annonce l'apparition dans les années soixante de mini-ordinateurs (DEC, Bull, IBM). La troisième révolution a lieu dans les années soixante-dix, lorsque la société Intel Fairchild met au point le microprocesseur Intel 4004, circuit intégré à mémoire qui peut recevoir des instructions et traiter de données. Il est à l’origine d’une troisième génération, celle des micro-ordinateurs (l’Altaïr et le Micral en 1974). Les techniciens qui collaborent aux recherches musicales sont amenés à construire des processeurs spécialisés dans le traitement du signal, dont les plus célèbres sont le Syter de J.-F. Allouis (construit au GRM) et la 4X de G. Di Giugno (IRCAM).

Ces processeurs de son (D.S.P.) ont étés à leur tour miniaturisés, et tiennent aujourd’hui sur une carte de station de travail. Les microprocesseurs ne cessent d'augmenter leurs puissances de travail et le nombre d'éléments intégrés : chaque nouvelle puce qui sort tous les dix-huit à vingt-quatre mois a une capacité double de la précédente. Cette observation prend aujourd’hui force de loi (la fameuse loi de Moore). Elle justifie la course de vitesse engagée, depuis la naissance de l’informatique, contre l’obsolescence du matériel : à peine commercialisé, ce matériel doit prendre en compte une nouvelle donne de la vie scientifique aux implications révolutionnaires.

Vitesse de calcul ne signifie pas capacité de travail ! Seule l’amélioration des formes de langage de communication avec la machine peut véritablement améliorer le rendement. C’est ainsi que de 1953 à 1958 sont apparus les premiers vrais langages de programmation (Fortran, Algol…). Avec eux, l’interfaçage homme / machine s’opère plus aisément. Les programmes se spécialisent, et dans cette mouvance apparaissent des logiciels de synthèse numérique. Notamment, en 1959 aux Bell Laboratories, Music III de Max V. Mathews fut le premier vrai langage opératoire de description des sons. Music I (1957) avait inauguré le premier programme de synthèse sonore, et constitue de ce fait la première véritable synthèse numérique. Le principe de modularité de Music III développe les faibles possibilités de ses prédécesseurs. Music V (1967) sera l’ancêtre de nombre de programmes encore utilisés. Avec ces programmes de synthèse entièrement numérique puis avec la mise en place de systèmes de synthèse hybrides, c'est-à-dire de systèmes analogiques à commande numérique[6], dans les années soixante-dix, l'informatique offre aux musiciens de prolonger leurs recherches sur le phénomène sonore, entamées avec la musique concrète dans les années d'après-guerre.

De cette cohésion entre matériel et logiciels ergonomiques naît l’informatique. Le néologisme, hybride des termes information et automatique, est forgé par le philosophe Philippe Dreyfus.

Musique et intelligence artificielle

En 1957, l’ordinateur évoque surtout un dispositif technique institutionnel très lourd, aux dimensions tellement démesurées qu’à la fois il ne peut qu’être investi de pouvoirs extraordinaires (l’époque suscite un mythe du “cerveau” électronique) mais que, de plus, ces pouvoirs oscillent nécessairement entre Big brother et Le meilleur des mondes. L’informatique tend à s’affirmer dans les années soixante au carrefour des autres sciences, et à soutenir cette nouvelle utopie de l’intelligence artificielle[7]. Elle sert de fondement aux procédés de l’esprit. Le modèle des théories cybernétiques de Wiener (1942) et de la théorie de l’information de Shannon (1949) inspire les musiciens, notamment J. R. Pierce (avec Betty Elizabeth Shannon) dans Music by chance  ou K. Stockhausen (en collaboration avec le Dr H. Eimert) dans ses diagrammes — partitions où la procédure de réalisation de l’œuvre est totalement écrite — pour l’étude électronique n° 2, en 1954. Les techniques de composition assistée par ordinateur (C.A.O.) mises en place au début des années 60 (musique algorithmique, stochastique, cycles équilibrés…) s’emploient à simuler un ensemble de procédures. Mais le  « savoir-faire » qui habite le musicien n’est pas encore pris en charge. Pour constituer véritablement une part de la technique musicale, fondée sur la culture, sur un acquis social, géographique et sur une métaphysique de l’indicible et de l’imaginaire, il faudra attendre que se mette en place une véritable recherche musicale.  Les contours de cet art technologique nouveau se dessinent au fur et à mesure avec le passage de l’ordinateur à l’informatique.

De la musique calculée à l'informatique musicale

La musique de la première moitié du XXème siècle cherche à renouveler son matériau mais hésite encore entre le calcul combinatoire et l'utilisation de sons inconnus, directement issus des nouveaux procédés électroniques. L'informatique musicale permet justement de dépasser le cadre de cette réflexion sur la formalisation. À la fois libération, le matériau devenant vraiment neuf, et contrainte, la connaissance de la réalité du sonore étant en tout point trop restreinte, les nouvelles technologies informatiques permettent une redécouverte du matériau. Au milieu du XXème siècle, vers les années 1947-1950, le noyau fédérateur qui subsiste à l’arrivée du magnétophone et des techniques électroniques, réside dans la manifestation d’un sonore perceptible et construit (musique concrète en France, et Music for Tape aux États-Unis). Le pouvoir offert primitivement par la technologie de l’enregistrement (première transcription spatiale de l’évanescence du sonore), est soudain considérablement amplifié avec la synthèse sonore. La synthèse crée en l’absence de toute source sonore, ex nihilo, et produit des effets sur nos sens découplés de leurs origines physiques. En ouvrant la voie à une création purement abstraite, la technologie numérique ranime donc une vieille utopie musicale. Deux éléments semblent fonder cette promesse :

— une technique qui serait à même de produire tous les sons, de permettre une prise de possession de l’univers sonore dans sa totalité continue.

— la mise à disposition d’un nouvel instrument, parfait, multiple et polyvalent .

Ces axiomes constituent ce que Martin Laliberté appelle le « mythe fondateur » de l’informatique musicale[8]. Ils traduisent une espèce d’inconscient collectif focalisé autour des propriétés créatrices de la « machine univers » [9]. Ce mythe explique en fait les espoirs déçus et les errements des premiers utilisateurs de la synthèse numérique. Les nouvelles technologies numériques doivent donc concentrer leurs efforts sur la mise en place d’une esthétique du fonctionnel, aidée en cela dans les évolutions organologiques : au synthétiseur RCA d’Olson et Belar (1955) succède le premier synthétiseur numérique à modulation de fréquence, le synclavier de J. Appleton (avec l'ingénieur S. Alonso) en 1973. Les programmes d’aide à la composition des années 70-90 (Musica, Esquisses, et surtout Max de Miller Puckette, 1988) fournissent dans un même ensemble, calculs formels et algorithmes de synthèse élaborés.

En partant de ces acquisitions, la recherche tente d’ouvrir plusieurs espaces pouvant servir de cadre à une définition du musical. Ces espaces, qu’ils soient abordés par de praticiens (Hiller, Xenakis, Chowning  ou Risset par exemple) ou par des musicologues (Dalhaus, Molino, Nattiez, Deliège entre autres) se répartissent toujours entre les deux grandes classes prédéfinies : l’approche extrinsèque, fonctionnelle, et l’approche intrinsèque, immanente. Pour les uns, la musique peut avoir une existence simpliciter ; pour les autres, ne fonctionne que ce qui est perçu, et l’informatique doit permettre de construire cette représentation esthétique.

Formalisme et fonctionnalisme

Dans la première tendance, formaliste, les compositeurs privilégièrent la structuration d’événements : d’abord de façon inductive, en se servant des théories musicales (Barbaud, 1950, Xenakis, 1953, Hiller et Isaacson, 1956), puis de façon déductive, en inférant statistiquement les possibilités d’apparition d’un événement, et en utilisant des modèles issus des sciences humaines (Babbitt, dès 1955 avec le synthétiseur RCA, ou Riotte en 1961, et surtout Xenakis, également en 1961, avec la mise en place des programmes ST/10).

Dans la tendance fonctionnelle, les compositions musicales par ordinateur obéissent à une logique différente : les compositeurs préfèrent privilégier des rapports de timbre et d’harmonie (travaux de Mathews et Pierce sur la synthèse sonore, 1957-1959), des virtualités nouvelles (Shepard, 1964, Risset, 1965 ; sons paradoxaux), et catalyser le matériau musical pour en déduire une dynamique de l’œuvre (Risset, Little Boy, 1968). Plus qu’une “organisation des sons”, la musique, au travers de ce matériau sonore qui lui dicte sa forme, son expression, se révèle alors comme une communication construisant son ordre propre. La spécificité des technologies numériques bouleverse le rapport du sonore au musical. L’informatique dans tous ces cas de figure ne reste qu’un outil. Pour la faire accéder au statut d’instrument il lui faut une interaction avec le corps, c’est-à-dire une interface qui produise de l’information à partir de l’énergie, ce qui caractérise en propre l’organologie traditionnelle. C’est le sens des recherches entreprises à partir de 1975 à l’ACROE sur l’établissement d’une synthèse gestuelle[10].

Grâce au renouvellement du lien qui unit les deux questions fondamentales de la recherche musicale depuis le début du siècle, l’esthétique contemporaine de l’informatique musicale marie les questions intéressant la relation entre le temps et l’énergie à celles intéressant le fonctionnement du cerveau humain et les mécanismes cognitifs.

Esthétique de la réception

Une « prise de conscience théorique»[11] des données acoustiques, psycho-acoustiques et musicales modélisables encourage l’informatique musicale naissante à créer un matériau particulier. La découverte d’une évolution temporelle des composantes acoustiques force à découpler paramètres physiques et paramètres perçus. Le rapprochement entre l’étude acoustique du processus d’évolution du son (transitoires, enveloppes) et la construction artistique de la forme de l’œuvre (construction du temps au niveau macroscopique), vient cristalliser l’esthétique de l’informatique musicale autour d’une nouvelle forme d'attention à sa réceptivité. Nourrie des recherches de la psychologie, de la neuropsychologie et de la cognition, cette esthétique s'attache à bouleverser les formes de la perception. Une hiérarchie fonctionnelle de la perception, voire de la pertinence esthétique, se bâtit qui permet à la musique d’intégrer ces données dans des conduites esthétiques neuves. La conception de la musique s’ébauche à l’heure actuelle par cette double modélisation scientifique et artistique. Ce renouvellement rend indispensable aujourd’hui le recours aux technologies numériques (c’est le cas par exemple des œuvres issues de la tendance spectrale de M. Lindberg ou de K. Saariaho), même si toutes les œuvres ainsi créées n’utilisent pas obligatoirement des sons de synthèse. Les compositeurs cherchent à extraire une idée compositionnelle sans s’attacher à un modèle théorique, et recourent à un travail en amont sur la perception de l’œuvre, travail qui concerne à la fois le matériau sonore (induit d’une réalité sensorielle concrète ou déduit des techniques de synthèse) et son agencement musical. Cette appréhension nouvelle, en se dégageant de la connaissance objective (fondée sur le temps linéaire), révèle une structuration de la réalité qui échappe en d’autres circonstances à notre perception immédiate ; elle dévoile une qualification subjective qui permet de restituer au temps toute ses dimensions, et de pénétrer plus avant dans la construction de structures musicales.

Redéfinir l’expérimentation

On notera que l’informatique musicale est née d'un contexte institutionnel, philosophique et scientifique. La mise en avant de la notion de recherche musicale permet une interaction féconde entre technicien et artistes. Ce contexte est favorisé par l’implication croissante des institutions publiques, par des résultats scientifiques et artistiques de plus en plus significatifs dans le domaine de l’analyse/synthèse du son, et enfin par la constitution d’une communauté internationale de l’informatique musicale. Née en France à partir de la fin des années 60 et au début des années 70, cette communauté s’est structurée en un réseau d’acteurs essaimés dans des petites structures : ACROE à Grenoble, GMEM à Marseille, GMEB à Bourges, CIRM à Nice mais aussi dans des structures plus importantes, CEMAMu et IRCAM à Paris[12]. Les compositeurs, en se plaçant dans l’interstice entre les technologies et l’expression musicale, amplifient alors les données qui sont dans l’air du temps. Partant, ils établissent des points de référence pour notre compréhension des phénomènes. Avec la mise en place de l'Internet, les notions d’instruments de musique et d’outil compositionnel sont bien évidemment encore remises en cause. Trois maîtres mots définissent cependant les rapports entre les compositeurs et la recherche musicale : simulation, interactivité, temps réel.

Pour parvenir à cette expérimentation musicale, la confrontation entre le vécu sensible et les lois physiques paraît un point de passage obligé. La simulation d'instrument existant n'a que peu d'intérêt, mais elle permet de mesurer la distance qui nous sépare encore de l'organologie traditionnelle. L'interactivité et le temps réel ont été introduits quand, la technique aidant, le compositeur put faire prendre en charge une partie de sa création, souvent confiée à l'interprétation[13]. L’informatique opère une intermédiation qui démultiplie la puissance créatrice. L’intervention des systèmes informatiques temps réel autorise la création d’œuvres qui, au fur et à mesure de leur déroulement temporel, modifient leur parcours en fonction de l’interprétation. La technologie intervient sur le processus d’élaboration et sur le processus d’interprétation (ainsi l’étonnant Duo pour un pianiste de J.-C. Risset en 1989). Rester réceptif face aux résultats de ces processus demande au compositeur de réorienter sa façon de construire une œuvre.

Temps réel - temps différé

Les progrès des composants électroniques plus performants — accroissement de la vitesse de calcul, diminution du dégagement thermique, de l’encombrement... — sont à l’origine d’une évolution marquante du matériau musical et de la standardisation des instruments de synthèse : c’est l’apport principal du temps réel. La technique passe de l’enregistrement à la musique mixte puis des systèmes de synthèse hybride aux systèmes temps réel. Au fur et à mesure, l’exigence de souplesse et de rapidité se traduit surtout par une impatience devant l’instrument de production. Car le temps réel se révèle être un leurre : en limitant le traitement du matériau au contrôle de quelques paramètres, il limite la marge de manœuvre du musicien. Le processus de synthèse demeure immuable et il ne permet pas d’orienter les formalismes.

La composition se situe hors du temps linéaire ; elle n’a pas à se soucier des réponses immédiates. Seule une limitation de la mémoire auditive impose des écoutes immédiates pour mieux jauger, estimer, comparer… Dans l’absolu, il faut pouvoir prendre le temps de spécifier dans les moindres détails de la microstructure les caractéristiques des sons recherchés. Par conséquent le compositeur se méfie d’un temps figé. Certains ont poursuivi le plus longtemps possible l’expérience de la synthèse en temps différé pour permettre de progresser dans le travail de micro-composition. La musique mixte fut le vecteur privilégié de cette construction. J.-C. Risset, par exemple, dans Inharmoniques pour soprano et bande  et trois moments newtoniens pour sept instruments et sons synthétisés par ordinateur, en 1977, continue à faire de son travail d’expérimentation sur la synthèse le préalable à l’élaboration de son matériau compositionnel. La création musicale s'achemine vers un compromis entre temps réel et temps différé pour conserver les avantages et les qualités de chacun de ces procédés. Le temps réel reste surtout utilisé pour son traitement en direct de l’interprétation, et le temps différé pour sa richesse d’exploitation des sons de synthèse.

Maîtrise du temps et de l’espace

Grâce à l’informatique, le contrôle du « temps dans le son » et celui du « son dans le temps »[14] parviennent à une réalité compositionnelle. Le matériau est littéralement sculpté. C’est dire que la composante temporelle devient un paramètre fondamental, intégré à la composition, et dont on joue à l’infini. La synthèse permet de réguler certaines fréquences et de passer ainsi de fréquences perçues comme des rythmes à des fréquences perçues comme des hauteurs musicales. La limite fusionnelle entre la dimension rythmique et la dimension mélodique peut fonder certaines mixités de perception où la musique s’enrichit de nouveaux attributs. Cette fusion rythme - mélodie se retrouve à l’origine de la pièce de Brian Ferneyhough Time and Motion Study(1976) et elle perdure chez nombre de nos contemporains. Comprendre l’évolution des phénomènes permet d’intégrer la puissance créatrice du temps, et de dépasser les contingences du formalismes. Cette intégration a lieu dans un espace d’écoute, manifestation obligée de la perception de la composition.

La gestion de l’espace devient également une préoccupation poïétique. Du moment que la musique intègre des transducteurs sonores, ces derniers peuvent  se soumettre à un contrôle compositionnel. Le développement apporté à la finesse de ce contrôle renouvelle l’unicité de l’œuvre en concert. L’unité musicale intègre même de nouvelles dimensions, comme l’acoustique architecturale des lieux d’écoute. Intervenir sur l’architecture d’une salle pour en corriger l’acoustique reste très onéreux. L’idée s’est donc fait jour de capter les sons émis à la source pour créer une réverbération et même des réflexions. Les systèmes récents (ACS, SIAP, Lexicon, Eres, Yamaha) prennent le son à proximité de la source puis le traitent et enfin diffusent au travers de haut-parleurs répartis dans toute la salle.

Chowning a lié dès le début de ses travaux sur la synthèse (1964) le problème de la confection du son à celui de son contrôle spatial. Ses compositions relient entre eux les paramètres de perception de l’espace : image et angle de focalisation, distance à la source et réverbération, perception du mouvement. Le programme se charge de frayer n’importe quel parcours décrit sous forme graphique dans un espace à deux ou trois dimensions. Turenas (1972) qui en est l’une des plus brillantes illustrations, réussit à faire passer l’espace de sa fonction figurative à sa dimension fonctionnelle et formelle. L’œuvre ne fait appel qu’à quatre haut-parleurs mais l’espace illusoire créé n’est nullement limité. Les Polytopes (1972) et Diatopes (1978) de Xenakis réunissent les dimensions spatiales avec celles du visuel et de la kinesthésie. Boulez recherche un continuum timbral dans une écriture bien particulière qui utilise les fonctions formelles. Dans Répons (1981) il crée une variété de jeux dans l’espace et avec l’espace.

Les préoccupations stylistiques des compositeurs des années 90 reviennent à un bouleversement conceptuel en situant leurs recherches vers des limites temporelles. Contraints de revisiter certaines notions psycho-acoustiques, ils en viennent à forger de nouveaux matériaux à partir des données de la science cognitive déduites de l’informatique musicale. Une certaine esthétique maximise le contrôle des paramètres de temps et d’espace revêtant pour l’écoute de la musique des fonctionnalités de premier ordre. Ainsi Lituus de José Manuel Lopez Lopez, ou les Miniatures de Philippe Hurel constituent des explorations des interactions entre une recherche sur le timbre des instruments et une macroforme qui évolue dans le temps. La superposition ou la transposition d’un de ces modes de gestion du temps dans l’autre permet de créer des masses sonores gouvernées par des correspondances entre le diachronique et le synchronique. Ce jeu de fractales, où harmonie et timbre obéissent à des règles similaires dans leur construction, amplifie les données immédiates et traduit une prégnance de la forme qui correspond à notre appréciation intuitive de l’équilibre et de l’harmonie du tout.

 

Contrôler la gestion de l’espace et du temps musical revient dès lors à pouvoir manier les grands rythmes, à organiser une écoute dans les contours de l’évolution irréversible du processus musical, et à permettre à la musique de s’inscrire dans le vécu. Toutes ces évolutions stylistiques de la musique ne peuvent s’accommoder d’allégeance à une quelconque notion de progrès ou de régression. Il reste à constater l’apport de tous à chacun et de chacun à tous, les influences de chaque système de composition sur la création musicale tout entière. Cet univers relatif et déconcentré où tous les points de bifurcation de l’information tissent un réseau planétaire de communication est renforcé par l'Internet. L’informatique musicale a rejoint les préoccupations des musiciens en matière de création. Elle réconcilie le code et le message, la structure et l’objet … Elle fait mieux que de rendre désuète la dualité cerveau-ordinateur : elle trace une nouvelle voie et institue un contexte significatif des ambitions créatrices.

Bibliographie

BARBAUD (Pierre), Introduction à la composition musicale automatique, Paris, Dunod, 1966.

BARRIERE (Jean-Baptiste) [collectif sous la direction de], Le timbre, métaphore pour la composition, Paris, Christian Bourgois  IRCAM, coll. Musique/Passé/Présent, 1991.

BATTIER (Marc), Sculpter la transparence  L’écriture, le geste, l’environnement, Les cahiers de l’IRCAM-Recherche et Musique, n° 1, automne 1992, pp. 57-75.

BRETON (Philippe), Une histoire de l’informatique, Paris, Le Seuil, coll. Points, 1990, 1ère éd., Paris, La Découverte, 1987.

DUFOURT (Hugues), Art et science, in : La revue musicale, n° triple 383-384-385, “Varèse  vingt ans après”, Paris, Richard-Masse, 1985, pp. 91-109.

DUFOURT (Hugues), musique, pouvoir, écriture, Paris, Christian Bourgois, coll. Musique/Passé/Présent, 1991.

DURIEUX (Frédéric), Réseaux et création, Les cahiers de l’IRCAM-Recherche et Musique, n° 1, automne 1992, pp. 87-103.

HILLER (Lejaren A.), Music composed with computers : an historical survey, in : Lincoln (Harry B). [éd.], The Computer and Music, New York, Cornelle University Press, Ithaca, 1970, pp. 4296.

HILLER (Lejaren A.), Composing with computers : A progress report, 1ère parution in : Computer Music Journal, Vol.5, n° 4, Hiver 1981, 2de parution in : The Music Machine, Roads (Curtis) éd., Cambridge, Massachussets, London, the MIT Press, 1989.

LALIBERTé (Martin), Informatique musicale : utopies et réalités, Les cahiers de l’IRCAM - Recherche et musique, n°4, “Utopies”, 4ème trimestre 1993, pp. 163-172.

MOLES (Abraham), Théorie de l’information et perception esthétique, Paris, Denoël-Gonthier, 1958, 2de éd. 1972.

RISSET (Jean-Claude), Musique, recherche, théorie, espace, chaos, InHarmoniques n° 8/9, “Musique Recherche Théorie”, 1991, pp. 271-316.

RISSET (Jean-Claude), Synthèse et matériau musical, Les cahiers de l’IRCAM-Recherche et Musique, n° 2, 1er trimestre 1993, pp. 43-65.

RONDELEUX (Luc), Influence des représentations numériques sur l’évolution du langage musical en France et aux états-Unis  1957-1982 : de la première synthèse au protocole MIDI, vingt-cinq années de bouleversements dans l’expérimentation musicale, Thèse de Doctorat de musique et musicologie du XXème siècle, EHESS, 1995.

RONDELEUX (Luc), De la cao à la cmao : l’évolution historique d’un concept de modélisation musicale, Journées d’informatique musicale, JIM’95, Paris, 1995.

RONDELEUX (Luc), LALIBERTÉ (Martin), 1957-1997: quarante années de représentations numériques au service de l’acoustique musicale et de la création artistique, Actes du 4ème Congrès français d’Acoustique (Cfa 97)  Proceedings of the 4th French Acoustics Congress, Marseille, France, 14-18 avril 1997, SFA  teknea, Vol. 1, pp. 633-636.

RONDELEUX (Luc), Quarante années de représentations numériques au service de la création musicale, Alliage, n°33-34, hiver 1997-printemps 1998, pp. 80-91.

VEITL (Anne), Politiques de la musique contemporaine — Le compositeur, la "recherche musicale" et l'Etat en France de 1958 à 1991, Paris, L'Harmattan, 1997, 254 p.

WESSEL (David) et RISSET (Jean-Claude), Les illusions auditives, 1ère parution article ACOUSTIQUE - les illusions auditives in : Encyclopedia Universalis, vol. 1, Paris, 1979, pp. 167-170. 2de parution in : Musique et ordinateur, M. Battier, P. Bernard et G. Charbonneau (eds), Les Ulis - Centre expérimental du spectacle, Université Paris-Sud, 1983, pp. 93-105.


 



NOTES

[1] Luc Rondeleux est docteur en musicologie, spécialiste de la musique du XXème siècle et de l'informatique musicale. Il participe au groupe de travail « histoire de l'informatique musicale » coordonné par Anne Veitl au sein de la SFIM (Société Française d'Informatique Musicale).

[2] Cf. Alliage, n°33-34, « Statut esthétique de l’art technologique », Hiver 1997-Printemps 1998.

[3] Ce concept d’information, issu de la théorie de Shannon, servira à A. Moles pour établir sa Théorie de l’information esthétique (1958) et à de nombreux compositeurs pour construire leur approche de la technologie ; voir par exemple HILLER (Lejaren A.), Informationstheorie und Computermusik, Darmstädter Beiträge zur Neuen Musik, Vol. 8, Mainz, B. Schott’s sohne, 1964. Repris en partie in : WINCKEL (Fritz), Computermusik, Musica, n°19, 1965.

[4] Les premiers spécimens du type à pointes étaient constitués par un cristal de germanium sur la surface duquel étaient appuyés deux pointes métalliques très proches l’une de l’autre. À ce prototype primitif, manquant de stabilité, ont succédé le transistor à jonctions et, plus récemment, le transistor à effet de champ.

[5] La lampe à triode remonte au début du siècle : elle fut mise au point par Lee de Forest en 1907.

[6] Synthi sound de P. Zinovieff, PIPER de G. Ciamaga et surtout le système GROOVE de Mathews et Moore.

[7] Le premier programme d’intelligence artificielle est élaboré en 1956 au M.I.T. par H. A. Simon et A. Newell.

[8] LALIBERTé (Martin), Informatique musicale : utopies et réalités, Les cahiers de l’IRCAM - Recherche et musique, n°4, “Utopies”, 4ème trimestre 1993, pp. 163-172.

[9] LEVY (Pierre), La machine univers, Paris, La Découverte, coll. sciences et société, 1987, 2de éd., Paris, Le Seuil, coll. Points sciences, 1992.

[10] CADOZ (Claude), LUCIANI (Andréa), FLORENS (Jean-Loup), Synthèse musicale par simulation des mécanismes instrumentaux et transducteurs gestuels rétroactifs pour l’étude du jeu instrumental, Revue d’acoustique, n° 59, 1981, pp. 279-292.

[11] DUFOURT (Hugues), Les difficultés d’une prise de conscience théorique (1981) in musique, pouvoir, écriture, Paris, Christian Bourgois, coll. Musique/Passé/Présent, 1991, pp. 191-197.

[12]Cf. VEITL (A.), La vie des musiques électroacoustiques en France et la politique d’aide publique à la recherche musicale : repères historiques (1966-1990) et enjeux actuels, Colloque 50 ans de la musique concrète, Paris, Centre d'Études et de Recherche Pierre SCHAEFFER, 1998.

[13] L'introduction de la norme MIDI en 1982 servit d’aiguillon à cette tendance. Cette notion d'interactivité, apparue chez Boulez et Manoury dans les années quatre-vingt, a été récupérée par l'écriture.

[14] RISSET (J.-C.), 1993, p. 55.