Revue SOLARIS
Décembre 2000 / Janvier 2001
ISSN : 1265-4876
accueil courrier aux éditeurs

 

Une morphogénèse duale entre le visible et le sonore numériques.


Bernard Caillaud

Digital Artist / Physicien.
Tél. et Fax 02 31 79 03 83
Courriel : Bernard.Caillaud@info.unicaen.fr
http://www.station-mir.com/kio/ - http://www.envf.port.ac.uk/illustration/z/the/Caillaud/01.htm

Philippe Caillaud

Musicien / Ingénieur du son.
Tél 02 31 79 79 34
Courriel : cyber-tension@mail.cpod.fr
http://association.herouville.net/admh/cv/Caillaud.html

logo Solaris
Résumé

On examine, dans cet article, certaines relations entre le domaine des formes sonores et celui des formes visuelles.

Un objet sonore peut conduire à son image, affichée sur l'écran du computer, et, réciproquement, un objet graphique peut conduire à une image sonore. On assiste donc à une transduction bi-univoque génératrice de formes que nous nommerons morphogenèse duale.

Le musicien et le plasticien sont partie prenante dans cette morphogenèse.

Mots-clés : transformée de Fourier, sonagramme, spectrogramme, bio-sources, instruments musicaux, typologie sonagraphique, génération photo-électrique, trivariance visuelle, création paramétrique, "Visual Music", "Sonagraphic Art"

 
Abstract

In this article some connections between the field of sound forms and that of visual forms will be closely examined.

Sound objects can lead to their own images displayed on a monitor and vice versa graphical objects can lead to sound images.Thus a bi-univocal transduction can be seen which may generate forms we will call dual morphogenesis.

Both musicians and digital artists are parties to this morphogenesis.

Key words : Fourier Transform, "Sonagramme", Spectrogram, "Bio-sources", Musical Instruments, Sonagraphic Typology , Photo-electric Production, Visual Trivariance, Parametric Creation , Visual Music, "Sonagraphic Art"







top I - Introduction


a - situation

On s'intéresse, dans un premier temps, au codage d'un signal complexe par un processus qui le transforme en une suite d'informations simples dont on pourra déduire des renseignements sur le signal initial. La méthode la plus connue est celle dite de Fourier (on utilise aussi parfois la transformée de Laplace) qui s'appuie sur des lignes trigonométriques.

Nous ferons un rappel simple de cette méthode dont l'exposé n'a pas sa place dans cet article.


b - transformée de Fourier

Suivant que l'on s'intéresse à une information temporelle ou à une information spatiale la ligne trigonométrique utilisée (le plus souvent un sinus et/ou un cosinus) sera fonction du temps ou de coordonnées d'espace.

Dans le cas d'une forme temporelle on sait, avec Fourier, que toute fonction complexe du temps (correspondant à l'énergie véhiculée par le signal) peut être reconstituée, pour peu quelle soit périodique, par une somme de sinus (de la forme : a.sin(2pNt+f) ) ou de cosinus (de la forme : a.cos(2pNt+f)).

L'exemple présenté correspond à l'expression : xx=x1+x2+x3+x4+x5+x6+x7+x8+x9+x10

avec :

x1=(a).cos((2pNt)+f1) 	
x2=(a/2).sin((4pNt)+f2)	
x3=(a/3).cos((6pNt)+f3) 
x4=(a/4).sin((8pNt)+f4)	
x5=(a/5).cos((10pNt)+f5)	
x6=(a/6).sin((12pNt)+f6)
x7=(a/7).cos((14pNt)+f7)	
x8=(a/8).sin((16pNt)+f8)	
x9=(a/9).cos((18pNt)+f9)
x10=(a/10).sin((20pNt)+f10)

On constate que les fréquences successives (harmoniques) sont dans un rapport simple avec la première, N, (parfois nommée fondamentale).

Les valeurs des amplitudes sont ici décroissantes de a à a/10 et les valeurs des phases à l'origine (fi) sont telles que :

f1=p/2: f2=p/3: f3=p/4: f4=p/5: f5=p/2: f6=p/3: f7=p/4: f8=p/5: f9=p/2: f10=p/3: 
Dans ce cas précis, la forme temporelle résultante correspond à la figure 01. À partir du moment où cette synthèse est opérante, on peut admettre, moyennant certaines précautions mathématiques, pouvoir décomposer toute fonction du temps en une somme de sinus dont on saura préciser les fréquences, les amplitudes et les phases à l'origine.

On s'accorde surtout à définir les deux premières sous la forme d'un tableau qui donne les fréquences constitutives du signal associées à leur amplitude.

Dans le cas d'une forme spatiale, définie dans un espace à deux dimensions, les expressions sont un peu plus délicates à écrire mais le problème reste globalement le même. Pour ces questions de transformation spatiale de Fourier, on pourra se reporter aux sites ci-après [1].




top II - Graphie des sons


a - rappels

 
Comme, à l'évidence, le phénomène sonore se manifeste dans le temps, toute représentation va privilégier cet axe de développement. L'oscillogramme est l'image (voir figure 02) la plus simple connue qui correspond à l'évolution de la tension instantanée associée, par le capteur, au signal.

Dans le cas d'objets sonores particuliers, on tend à lui substituer la courbe enveloppe qui décrit l'évolution de l'énergie moyenne du phénomène (voir figure 03).

On peut aussi tracer sur une même figure les amplitudes de chaque harmonique en fonction du temps. Ce sont des courbes enveloppes analytiques (voir figure 04) telles que les ont utilisées Jean Claude Risset et Max Mathews.

La partition musicale, quant à elle, se définit également suivant cet axe, mais apporte une information structurelle sous la forme de notes, qui, étagées verticalement, qualifient les hauteurs successives relatives de la phrase musicale. On sait qu'elle est de moins en moins apte à représenter la création musicale contemporaine et que de nombreux compositeurs ont à inventer leur propre notation.

On citera ici les notations personnelles de Guy Rebel, Karlheinz Stockhausen, Alain Savouret, W. Kotonski, Yannis Xenakis... parmi beaucoup d'autres.

On insistera ci-dessous sur le sonagramme qui sert de base à un enrichissement de la notation.

 
On peut vouloir, à un instant donné, examiner la structure du son en terme de fréquences ; on trace alors le spectre qui donne, pour chaque fréquence, l'intensité sonore associée (voir figure 05) : on parle despectrogramme.
 
Si on s'intéresse à la perception des sons, on doit, dans le cas général, ramener sa description à un espace à trois dimensions, comme l'a montré Abraham Moles dès le début des années cinquante et comme l'a repris Pierre Schaeffer. La figure 06 précise l'axe des temps, celui des hauteurs (on aimera plutôt parler des fréquences) et celui des intensités perçues, données ici en terme de niveau (exprimé en décibels). Ces trois axes définissent respectivement un plan dynamique (plan 1 : niveau d'intensité sonore-temps qui correspond bien à l'oscillogramme), un plan des timbres ou plan spectral (plan 2 : niveau d'intensité sonore-fréquence qui correspond bien au spectrogramme) et un plan mélodique ou sonagraphique (plan 3 : fréquence-temps) qui va, maintenant, nous intéresser sous le terme de sonagramme (ou représentation temps-fréquence).


b - image sonagraphique

Le terme "image", ici employé, est associé à "objet" sonore. Cette image que l'on obtient actuellement dans le cadre d'un logiciel fut, en ses débuts, réalisée de façon électromécanique.
 
Il représente, suivant l'axe (conventionnellement horizontal) des temps, l'évolution spectrale de l'objet sonore et constitue la meilleure représentation qualitative de ce dernier (voir figure 07) même si on semble minimiser l'intensité sonore qui est cependant présente sous forme d'un code de valeurs (exprimé en gamme de gris ou en gamme chromatique).

Il faut noter que, si le sonagramme est une image fortement pertinente de la perception d'un son, elle n'est pas rigoureusement suffisante pour reconstituer le son (synthèse sonore) puisqu'elle ne prend pas en compte les indications de déphasage entre les diverses fréquences constitutives (voir I-b). En fait, la question de la perception de la phase reste posée bien que pratiquement l'oreille ne puisse faire de différence sensible entre deux sons par ailleurs identiques mais déphasés (il semble néanmoins que, même dans ces conditions, certains sujets puissent établir une discrimination si les deux sons sont en opposition de phase : écart angulaire de 180 degrés).

Une façon de tenir compte de la phase est de compléter le sonagramme par un phasogramme [2].

 
Le sonagraphe semble trouver son origine dans des travaux menés dès les années trente et liés à des recherches sur la synthèse vocale dont l'origine est beaucoup plus lointaine. On peut, pour s'en persuader, rappeler, en quelques dates, les jalons de cette recherche [3] :

On peut arrêter ici cette énumération puisqu'avec le VODER et le VOCODER, on rencontre une partie analytique qui sera à la base du sonagraphe : le signal en entrée passe à travers un banc de filtres (de bande passante 300 Hz) couvrant un segment fréquentiel qui va de 300Hz à 3000Hz.

Les deux appareils de H. Dudley se distinguent néanmoins du sonagraphe dans leur finalité : ils ont pour fonction de faire, après analyse, la synthèse d'un signal injecté en entrée alors que le sonagraphe se donne pour tâche de visualiser, dans un plan fréquence-temps, le signal d'entrée.

Les travaux sur le sonagraphe commencent aux Bell Telephone Laboratories dans l'état de New York, avant la seconde guerre mondiale et deviennent "secret-défense" durant cette dernière, ce qui explique la date (1945) de la première communication sur le sujet [10].

En 1946, un numéro de The Journal of the Acoustical Society of America (vol.18, nº1) fait le point sur l'état de l'art ; nous nous en inspirons directement ici.

Les premiers sonagraphes, identiques dans leur module d'analyse, se distinguent par leur principe d'affichage.

Le modèle décrit par Potter en 1945 et repris en 1946 dans le J.A.S.A. cité ci-dessus [11] est du type à cylindre recouvert d'un papier électro-sensible sur lequel un stylet provoque un noircissement s'il reçoit un signal électrique.

Citons la description que donnera Emile Leipp d'un appareil très voisin :

"Autour d'un cylindre de métal, on enroule une feuille de papier à étincelage. Il s'agit d'un papier recouvert d'un enduit spécial qui en fait une véritable résistance. Lorsqu'on provoque une étincelle entre la pointure et le cylindre, celle ci traverse le papier dont la couche superficielle est 'brûlée' : on a un point noir. Les séries de points successifs donnent des lignes ; des séries de points contigus donnent des surfaces : on peut donc obtenir des graphismes quelconques par ce procédé" (Leipp 1971). La figure 08 schématise, de façon plus concrète, le dispositif (elle est reprise de l'ouvrage d'Emile Leipp).

La figure 09, quant à elle, précise l'allure du document que l'on obtient avec ce dispositif. Il s'agit d'un sonagramme de 1972 qui, sur environ deux secondes, présente l'enregistrement de la phrase : "sonagramme d'acoustique et musique". L'analyse se développe sur un intervalle fréquentiel de 8000 Hz. On peut rappeler ici que le professeur Leipp fut l'un des premiers en France (notamment avec sa classe du Conservatoire National Supérieur de Paris et son bulletin le GAM) à introduire des notions modernes d'analyse des sons avec le sonagraphe. Pour achever de concrétiser cet appareil, on peut montrer (voir figure 10) le modèle qui existe dès 1946, puis l'un de ceux développés par la Kay-Electric Company [12] depuis 1951 (il s'agit du Sona-graph 6061A de 1965 : figure 11) et qui resteront longtemps la norme des appareils dédiés à ce type d'analyse.

Le second modèle, décrit à l'époque (voir ci-avant : The Journal of the Acoustical Society of Americade 1946), propose un affichage temporaire par un jeu d'ampoules qui laissent une trace sur un papier enduit d'une substance phosphorescente.

On ne peut ici mieux faire que de citer Frederick Saunders : "Un analyseur de fréquence (un "spectrographe acoustique") donne une analyse continue de la parole (le sonagramme), dont le résultat est appelé, à juste titre, 'parole visible'. On parle devant le micro de l'appareil et les vibrations de la parole passent par 12 filtres électriques dont chacun ne laisse passer qu'une étroite gamme de fréquence. Une fois amplifié, chaque ensemble d'oscillations filtrées allume une des 12 petites lampes disposées verticalement. Le fondamental de la parole allume une lampe, le premier harmonique en allume une autre située au-dessus et ainsi de suite. Ces lampes qui s'allument aux fréquences vocales ne donnent que des indications instantanées. Pour l'enregistrement en continu, on dirige la lumière émise par les lampes sur un ruban phosphorescent qui se déplace horizontalement ; chaque lampe allumée trace sur le ruban une ligne lumineuse distincte" (Saunders 1980).

Le troisième modèle décrit à l'époque se distingue encore une fois des précédents par son système d'affichage qui se fait sur l'écran cylindrique d'un oscilloscope.

La durée de vie de l'image est directement dépendante de la rémanence de la substance recouvrant intérieurement l'écran : il faut donc prendre une photographie de ce dernier.

Les modèles suivants seront essentiellement dédiés à l'affichage en temps réel du sonagramme sur écran d'oscilloscope ; les méthodes d'acquisition et de traitement sont toujours de nature analogique. La dernière étape sera celle des systèmes à traitement numérique : ils apparaissent dans les années quatre-vingt.

 
À partir du signal analogique donné par un microphone et numérisé en entrée d'un ordinateur, un logiciel adéquat découpe, pas à pas, le signal en tranches temporelles qui sont, chacunes, soumises à une analyse par transformée de Fourier : la composition fréquentielle de chaque tranche apparaît et la concaténation de l'ensemble constitue le sonagramme de l'objet sonore initialement enregistré. C'est essentiellement sur de telles images que va porter la suite de cet article.

On peut citer deux logiciels spécialement dédiés à ce type de traitement sur Macintosh : il s'agit de Soundscope (software américain [13]) et de Praat (software hollandais [14])

 
Cette représentation sonagraphique, si intuitive pour le musicien, a influencé certains compositeurs dans leurs notations et plus largement dans leurs créations (musique spectrale).

L'INA-GRM a, en particulier, mis au point un logiciel (L'Acousmographe [15]) qui à partir d'un sonagramme peut établir une représentation symbolique du morceau musical. On peut citer, entre autres, ici, certains travaux de François Bayle ou de George Ligetti [16]). On pourra, par ailleurs, rappeler la représentation "Piano-roll" du logiciel OpenMusic de l'IRCAM.


c - exploration du monde sonore

On présente quelques exemples-images pour donner un aspect de la diversité de ce monde mais le plan proposé ne prétend en rien à l'exhaustivité..!
 
Elles couvrent aussi bien les productions humaines (parole et chant) que les signaux émis par les animaux. Sur le plan logiciel, on pourra se reporter à Software for bioacoustics [17].

-- humain
Voici trois exemples-images :

-- animal
On donne deux exemples très différents. Celui du moustique, d'abord, dont le spectre est très riche en fréquences (figure 15) puis celui du phoque dont l'aboiement passe d'une structure à partiels vers une structure de bruit pour des fréquences croissantes (figure 16).

La suite est consacrée aux oiseaux (on pourra se reporter également au site sur les chants des oiseaux [19]). On a retenu quatre exemples pour leur apparente diversité :

 

-- instruments acoustiques
On garde la subdivision traditionnelle en cordes, vents et percussions avec les sonagrammes suivants :

# cordes

# tuyaux # percussion # synthétiseurs

Sans faire de distinction entre systèmes analogiques et numériques, on a sélectionné trois sonagrammes pour leur évidente richesse graphique qui seront utilement comparés aux figures précédentes. On notera en particulier les variations continues de fréquence donc de hauteur et les associations horizontale / verticale.

 

En 1984, Robert Cogan (1984) publie un ouvrage dans lequel il s'intéresse, en particulier, aux formes sonagraphiques orchestrales. "Voir sonagraphiquement" un morceau de Mozart ou de Berlioz ou de Debussy ou de Berg (...) permet au moins de lire des différences visuelles que l'on peut associer à des différences dans les structures musicales. On a voulu ici reprendre le morceau (présenté dans l'ouvrage) d'Edgar Varèse : Hyperprism dans lequel on distingue parfaitement les glissandi de sirène et les avalanches de percussion qui firent scandale à l'époque (1923). Les figures 32, 33, 34 et 35 donnent la totalité de l'œuvre, par séquences de 30 secondes (soit 4 minutes environ).

L'auteur développe ensuite une "théorie des oppositions" relative aux formes musicales qui sort du propos de cet article. Nous avons voulu, pour notre part, associer (opposer) à Varèse, trois exemples musicaux relatifs à des formes plus récentes de musiques électroniques avec un extrait de Diamorphoses -1957- de Iannis Xenakis en figure 36, un extrait de El Encante de la Noche Tropical I:El Yunque -1993- de Carlos Vasquez en figure 37 et un extrait de Memorias -1992- de Ricardo Dal Farra en figure 38 [20].

 

-- avertisseurs
Les avertisseurs sonores sont légion. On a choisi deux structures très différentes ; celle, complexe, du téléphone (figure 39) : en fait il s'agit de deux sonneries simultanées de caractère différent --ce que ne peut, a priori, montrer le sonagramme-- et celle d'un sifflet (figure 40) qui donne une image proche du sifflement humain.

-- outils
Ici encore les exemples abondent. On a choisi un outil, familier à un bon nombre, sur l'image (figure 41) duquel on reconnaît parfaitement, sur un fond de bruit, le démarrage et l'arrêt, tant attendu, de la fraise du dentiste.
 
Les deux sonagrammes retenus sont des structures très fortement bruitées. Le premier (écoulement d'un rapide : figure 42) se confond pratiquement avec un bruit blanc, sans accidents, avec une microstructure chaotique dans les hautes fréquences, alors que le second (blizzard : figure 43 affiche des formes macroscopiquement très tourmentées : les "hurlements" du vent.




topIII - Proposition de typologie sonagraphique formelle

On se place dans la surface rectangulaire associée au sonagramme et on se propose de classer les formes élémentaires qui peuvent intervenir suivant l'axe horizontal des temps. On n'examinera pas les sous-classes qui pourraient apparaître du fait de l'emploi de la couleur. Dans le cas général, cette entreprise est vouée à l'échec, car la complexité peut varier de façon continue, mais compte-tenu de l'axe horizontal des temps, on peut proposer un ordre par complexité croissante qui reprend le plan de W. Kandinsky dans son ouvrage : Point, Ligne, Surface.


a - sons-points

(On pourrait parler de synthèse granulaire).
 

Ces "points de son" peuvent être alignés de façon régulière ou non, et les diverses droites correspondantes peuvent être disposées parallèlement (de façon régulière ou non) ou suivant toutes directions (figure 44). Les diverses dispositions de ces grains de sons peuvent déjà conduire à une grande variété sonore.

 

On peut, dans le cas le plus simple, envisager une distribution en réseau et à l'opposé une distribution aléatoire. On pourrait également introduire une autre subdivision qui tiendrait compte de la forme surfacique associée à cette distribution (figure 45).


b - sons-lignes

Les subdivisions suivantes peuvent être appliquées à des segments ou à des éléments de courbes.
 
Les unités sont disposées de façon régulière ou aléatoire. Si la direction principale est l'horizontale, on est dans le cas où on peut décrire un bon nombre de sons issus des instruments de musique : sons à partiels ou sons harmoniques (figure 46).
 
On pourrait, dans cette catégorie, introduire une subdivision qui tiendrait compte de la forme surfacique associée à ces distributions (figure 47).


c - sons-surfaces

Plus l'information graphique est importante, plus le son est riche en fréquences constitutives ; et plus il tend vers un bruit. Les formes suivantes participent toutes à des degrés divers de ce cas.
 
On peut considérer une forme géométriquement simple ou une forme complexe ; et il peut être intéressant d'examiner dans les deux cas des formes non pleines (voir figure 48), donc percées de trous qui joueront le rôle de filtre (cas de la synthèse soustractive).
 
On pourra supplémentairement dans ce cas, examiner, entre surfaces, des relations d'homothétie ou de symétrie (voir figure 49).


d - associations de formes de base

Les combinaisons possibles correspondent aux subdivisions suivantes qui permettent un grand nombre de déclinaisons (voir figure 50) : celles des points-lignes, des points-surfaces, des lignes-surfaces et celles des points-lignes-surfaces.

Cette typologie est une proposition a priori. Elle peut être utile quand on a précisément à dessiner des sons (voir IV), mais elle ne sera pertinente que pour autant qu'elle conduira, le plus souvent, à des sons inouïs. Ainsi elle ne peut en aucun cas prétendre se substituer aux propositions de "solfège sonagraphique" au sens d'Abraham Moles (1960 p 117), ni à celles d'Emile Leipp qui sont basées sur l'observation des images de sons réels : "Le sonagramme est le seul document qui permette de reconnaître instantanément les sons, de les identifier avec toutes leurs qualités, comme nous le faisons 'à l'oreille' " (Leipp 1971). À titre d'exemple, on reprend la classification des bruits de fond proposée par Emile Leipp (1965) avec les bruits amorphes --même s'ils comportent une micro-structure-- (voir figure 51), les bruits horizontaux (voir figure 52), les bruits verticaux, quadrillés et erratiques (voir figure 53).




top IV - Génération sonore par objets graphiques


a- rappels

 
C'est un des premiers modes de synthèse graphique. On inscrit des formes d'onde sur un support transparent. Ces formes sont lues par un dispositif optique : la lumière transmise génère une tension par l'intermédiaire d'une cellule photoélectrique. Cette tension analogique est transformée en son. On procède par rotation avec des disques ou par translation avec des films. Le premier brevet déposé sur ces techniques date de 1925 ; et le premier instrument construit sur ce type de génération semble dater de 1929. Pour souligner la floraison des inventions de cette époque, on a voulu citer un certain nombre de créateurs.

-- disques (en rotation)
Pierre Toulon : Cellulophone - 1927 (disque percé de fentes). Voir le site [21].

Ivan Eremeef et L. Stokowski : Syntronic Organ - 1934.

Ivan Eremeef : Photona - 1935. Voir le site [22].

E. Welte : Licht-Ton Orgel - 1936 (disque en verre portant des impressions de formes d'onde). Voir le site [23].

A. Lesti et F. Sammis : Radio Organ of a Trillion Tones - 1931.

A. Lesti et F. Sammis : Polytone Organ - 1934. Voir le site [24].

Eugene Murzin : ANS Synthetizer - 1958 (Kreichi 1995).

J'ai voulu, à propos du synthétiseur de Murzin, conçu et réalisé sur une vingtaine d'années (1937-1957), donner une longue citation de Gleb Anfilov extraite d'un petit livre plein de détails et d'humour paru aux éditions Mir (1969) :

"Imaginez que vous êtes assis devant un bureau garni le long de son bord opposé d'une longue fente horizontale qui s'illumine d'éclats lumineux intermittents. En y regardant de plus près, vous remarquez que la fente comporte une multitude d'ouvertures (il y en a 576). Dans l'ouverture d'extrême gauche la lumière s'allume et s'éteint 40 fois par seconde. À mesure qu'on se déplace vers la droite, cette fréquence s'accélère de façon rigoureusement uniforme jusqu'à atteindre 11 000 éclats de lumière par seconde dans la dernière ouverture à droite.
Des scintillations aussi rapides sont évidemment imperceptibles à la vue. Avant de parvenir aux ouvertures, les rayons de lumière traversent des disques animés d'un mouvement de rotation et présentant une alternance ondulatoire d'opacité et de transparence : ceux-là même dont nous avons déjà dit à quel point ils avaient été difficiles à fabriquer
[25].

La longue fente horizontale est l'essentiel de l'appareil de Murzin. Elle constitue une réserve silencieuse de sons. Bien que les scintillations soient muettes, il n'est guère difficile de les faire chanter. Pour transformer les oscillations lumineuses en vibrations sonores, il suffit de placer, au-dessus de la fente, des cellules photo-électriques reliées à un haut-parleur par l'intermédiaire d'un bon amplificateur. Évidemment, si toutes les ouvertures se mettaient à chanter en choeur, elles produiraient un bruit infernal dont, pour l'instant, nous n'avons que faire. Ce qui nous intéresse, c'est d'obtenir des sons musicaux : nous les extrairons du bruit, ce qui ne présente aucune difficulté.

Il suffit de couvrir la fente d'une plaque opaque percée d'un petit trou. Si le trait se trouve au-dessus de l'ouverture qui scintille 440 fois par seconde, les oscillations de cette fréquence sont les seules à parvenir aux cellules photo-électriques.Traduites en son, elles donnent le la de la troisième octave.

Le son manque d'éclat ? Qu'à cela ne tienne. Perçons encore quelques trous dans la plaque, de façon qu'ils entrouvrent légèrement d'autres endroits de la fente, de préférence ceux qui correspondent aux fréquences des harmoniques naturels du la. Au ton fondamental s'ajouteront alors des harmoniques ; le son gagnera en plénitude et en clarté. Nous aurons ainsi atteint notre but qui était d'obtenir un son vraiment musical, et nous l'aurons fait en synthétisant les harmoniques naturels.

Combinés de façon appropriée, plusieurs orifices de ce genre produiront des accords aussi complexes que l'on voudra, avec un nombre de notes illimité. Les sons pourront en être arrangés aussi bien selon la gamme chromatique traditionnelle du tempérament égal à 12 demi-tons (comme dans le cas du piano, de l'orgue, de l'accordéon) que selon les intervalles purs naturels inaccessibles à notre notation et aux instruments ordinaires.

L'appareil de Murzin utilise une échelle de sons bien plus riche que celle du système musical actuel. L'octave est divisée non en 12 mais en 72 parties, soit six fois plus. Le synthétiseur permet les modifications de ton les plus minimes, à peine perceptibles à l'oreille. On a atteint le but visé qui était de synthétiser des timbres naturels, des consonances inconnues à ce jour, et d'accéder à l'échelle harmonique naturelle qui est altérée et appauvrie par le système musical européen. La division de l'octave en 72 parties avait été suggérée dès avant la guerre par Yankovski. Selon lui, elle permettrait d'obtenir des timbres et des accords d'un éclat et d'une richesse incomparables.

En principe, l'appareil est capable de produire tout ce dont avait rêvé dans sa jeunesse le bouillant Sholpo : n'importe quels accords, des timbres d'une richesse inouïe, des consonances naturelles, des effets de polyphonie extrêmement variés, des dissonances encore jamais entendues. Murzin se crut donc en droit d'appeler son invention ANS, d'après les initiales de son compositeur favori Alexandre Nikolaïevitch Scriabine. Le texte d'Anfilov ne précise pas concrètement ici la structure de la plaque qui recouvre la fente lumineuse. Il s'agit d'une plaque de verre rectangulaire recouverte d'une matière opaque que l'on peut gratter à certains endroits pour faire apparaître des "vides" au travers desquels pourra passer la lumière. Le compositeur dispose donc d'un sonagramme potentiel sur lequel il peut dessiner sa partition. On peut signaler la parution d'un CD qui regroupe des morceaux d'artistes divers réalisés sur ce synthétiseur [26].

-- film (en translation)
Y.A. Sholpo : Le Variophone - 1932 Voir le site [27].

F. Sammis : Singing Keyboard - 1936 Voir le site [24].

Daphne Oram : Oramics - 1959. Voir le site [28].

Norman Mc Laren, réalisateur en cinéma d'animation, dessine directement sur pellicule la piste son et la piste image. Ses films les plus connus sont réalisés entre 1939 et 1970 environ. Voir le site [29].

 

Dans ce cas, on peut directement dessiner sur une tablette et l'image numérisée sera directement lue par un ordinateur puis transformée en sons. L'UPIC (Unité Polyagogique Informatique du CEMAMu) créée par Iannis Xénakis est la principale représentante de ce système de génération. La première version date de 1977, mais les idées de base sont posées vers les années 1953-1954 à l'époque où Xenakis utilise des notations graphiques à l'usage de l'orchestre pour spécifier des effets musicaux non représentables par la notation traditionnelle.


b- génération par logiciels

Il s'agit bien d'évoquer ici les possibilités de création directe par action graphique. On n'évoquera donc pas les logiciels qui présentent une interface graphique au sens général (comme un bon nombre de logiciels de l'IRCAM) et qui sont donc des systèmes beaucoup plus ouverts. On se limitera aux systèmes suivants.
 
Une version en temps réel du système précédent est développée en 1987, puis portée sur PC en 1991.

"Le système UPIC est un outil musical spécialement flexible puisqu'il intègre de nombreux niveaux de composition à l'intérieur d'une interface utilisateur commune. Les fonctions graphiques créées sur l'écran peuvent être traitées indifféremment comme enveloppes, comme formes d'onde, comme partitions hauteur-temps, comme courbes de tempo ou comme trajectoires d'interprétation" (Road 1998).

 
"Phonogramme est un programme permettant de créer, de transformer, de composer des sons et des formes musicales. Ce logiciel a été développé de 1993 à 1996 au GAIV (Groupe Art et Informatique de Vincennes à St Denis, Université Paris 8) par Vincent LESBROS.

La base du système est la représentation graphique du son dans l'espace temps/fréquence des phonogrammes, les amplitudes étant figurées par les niveaux de gris. La résolution de l'échelle logarithmique est le 32-ième de ton, obtenue par l'entrelacement de 16 échelles chromatiques.

Phonogramme effectue en synthèse directe (synthèse additive) ou mixte (via MIDI) la production de son. Il peut également importer et exporter des sons au format AIFF, des fichiers MIDI et des images bitmap au format PICT.

Des outils graphiques spécialisés facilitent le dessin des sons : par exemple, une option du pinceau permet de dessiner directement les harmoniques.

Phonogramme inclut également la possibilité de construire et de simuler des réseaux de couplages élastiques et de ressorts permettant la production (synthèse modale) et le filtrage de sons, ainsi qu'une méthode de synthèse directe basée sur la représentation graphique de trajectoires élastiques de mobiles virtuels" (texte de présentation du logiciel sur le site [30]. On se reportera à la figure 54.

 
Ce logiciel, créé par Éric Wenger, permet de passer rapidement d'une image à un son. L'image peut être importée ou créée directement sur l'écran (figure 55). Elle peut être traitée de diverses manières (zoom, rotation...). Il y a un grand nombre de technologies sonores intégrées à Metasynth comme, par exemple, la synthèse par table d'onde, la modulation de fréquence, la synthèse granulaire et de nombreux effets en temps réel. Les processus en temps différé incluent le morphing et la convolution des sons. On peut importer et exporter un son et le traiter directement dans le logiciel [31]).
 
Ce logiciel de l'Ircam permet notamment d'importer des fichiers sons, de les travailler graphiquement en agissant sur leur sonagramme et de les réécouter après modification. "Les traitements applicables sont la transposition (modification de la hauteur avec correction de la durée), la dilatation/compression, le filtrage et la synthèse croisée. Audiosculpt offre d'autres types d'analyse comme la détection du fondamental ou la mesure des partiels" [32].


c- formes spatiales et création sonore

Les exemples présentés ci-dessus insistent, pour un certain nombre, sur les qualités directement manuelles de l'interactivité ; ce qui demande à l'évidence un certain apprentissage pour que la transduction sonore soit jugée satisfaisante. Le tracé de ces formes libres peut être remplacé par des formes mémorisées, qui joueront le rôle de cartes mémoires (ou partitions graphiques), ou plus généralement par des photographies sans aucun rapport, a priori, avec des formes musicales. On aborde ici une phase d'exploration graphique de la réalité sonore.

Dans cet esprit, on peut vouloir offrir au synthétiseur musical des formes visuelles conçues de façon algorithmique pour tester ainsi l'ambivalence du programme comme créateur de formes. Les domaines sont alors nombreux qui construisent des images ; citons les fractales, les automates cellulaires, les attracteurs étranges et de façon générale les systèmes dynamiques... Ces procédures ne doivent pas être confondues avec celles qui, au niveau de la programmation, prennent en compte les algorithmes générateurs de fractales (de nombreux travaux existent sur la musique fractale [33] ou d'automates cellulaires (comme, par exemple, Chaosynth [34]).

On a, dans ce survol fragmentaire, examiné comment une image pouvait être transposée dans le monde des sons pour peu que l'un des axes de cette image se voit relié au temps par le logiciel "examinateur". Une exploration du monde des sons devient alors une exploration du monde des formes visuelles ou plutôt une exploration des formes qui se révéleront musicalement pertinentes. On serait tenté de se demander si l'ensemble des formes visuelles est en relation biunivoque avec l'ensemble des formes sonores ; la question semble en fait mal posée puisque l'image sonagraphique ne prend pas en compte le paramètre phase ; elle renvoie donc à un élément et à un seul d'une classe sonore dont la variable interne serait précisément la distribution en terme de phases. On pourrait alors imaginer que l'on repasse du sonagramme à un espace de la figuration sonore qui comporte trois dimensions (c'est bien la trivariance qui a été rappelée ci-dessus) et même quatre dimensions si on veut effectivement réintégrer cette variable phase : il faudrait alors entreprendre l'exploration d'un hypermonde "visible" à quatre dimensions (cette situation peut être fructueuse mais on peut imaginer qu'elle pose d'entrée de ... sérieux problèmes perceptifs).

Nous allons maintenant examiner la situation du côté du plasticien ... numérique.




top V - Création plastique associée

Dans un article de 1993, j'examinais les diverses approches de l'image scientifique faite par l'artiste (Caillaud 1993) et distinguais trois cas :

"Le premier semble bien consister en une appropriation de certaines images scientifiques par le peintre qui les intègre à son travail par collage, numérisation, recouvrement partiel...
Le second concerne non plus directement l'image elle-même mais les techniques qui concourent à son élaboration.
Un troisième aspect concerne plus directement la visualisation des mathématiques et donc les images sans objet (si l'on exclut du monde des objets les algorithmes qui leur donnent naissance)"
. Ce rappel peut servir partiellement de cadre aux remarques suivantes.


a - "Visual Music" : introduction

Il faudrait un livre pour décrire les démarches des auteurs qui se sont tournés vers la musique pour trouver des équivalences dans le monde visuel et surtout dans les espaces chromatiques [35]. On passe des tentatives les plus poético-allusives à des essais de codage, parfois intéressants, à l'aide de valeurs colorées. J'ai voulu me limiter, dans la mesure du possible, à des travaux qui gardent une adéquation forte avec l'axe temporel de la perception musicale en distinguant le travail des artistes plasticiens et celui des musiciens. Dans chaque catégorie, le travail de quelques chercheurs sera présenté.
 
Barbara Hero est une artiste qui a une formation en mathématiques. Elle est également engagée dans la composition musicale. Elle a particulièrement travaillé sur la "lambda matrice" attribuée à Pythagore (figure 56 ) qui lui permet d'établir des relations entre les rapports fréquentiels qui définissent les notes musicales et le domaine visuel (que ce soit dans celui des formes ou dans celui des couleurs). Elle entreprend, à partir des années 70, de concrétiser son Lambdoma Art puis travaille à l'élargissement du concept avec le Lambdoma Harmonic Keyboard. Comme l'axe temporel n'intervient pas toujours explicitement, ce travail peut être considéré comme très périphérique dans le cadre de cet article, mais on a voulu néanmoins le citer pour son importance théorique globale [36].

Stephen Jablonsky travaille directement à partir de partitions musicales qu'il découpe en éléments plastiques. Ces éléments deviennent les unités de ses compositions visuelles nommées Musigraphs. Il relie les bases de son travail au Musicalisme avec Henri Valensi, et aux recherches de Barbara Hero [37].

Jack Ox cherche à résoudre les problèmes liés à la visualisation de la musique et passera progressivement d'un travail en deux dimensions à des environnements en 3D liés au CAVE, théâtre de réalité virtuelle développé par l'Electronic Vizualisation Lab à l'Université de Chicago. Elle ne prétend pas trouver un système général de translation des compositions musicales vers la peinture, mais des solutions particulières suivant les musiques abordées. Elle part d'images substrat, paysages désertiques, architectures ou partitions musicales sur lesquels elle construit ses compositions et accorde une grande importance, d'une part, aux relations entre notes musicales et couleurs et, d'autre part, aux représentations physiques des sons (notamment à celles des voyelles) et donc aux timbres [38].

Lynn Pocock-Williams établit une correspondance temporelle entre musique et modules animés par l'analyse de la mélodie. La bande son est découpée en tranches temporelles de 10 secondes et une étude statistique de la succession des notes sur chaque tranche va décider du caractère ascendant (up), stationnaire (flat), descendant (down) ou alterné (alt) de la mélodie. Ces quatre possibilités (alt, up, down, flat) sont liées à des types d'animation qui engendrent une suite formelle (enregistrée sur bande vidéo) en adéquation avec la suite mélodique initialement enregistrée [39].

Les compositions de Pierre Y. Karinthi sont fondées sur une description objective du phénomène musical avec la prise en compte du temps -- au sens de la mesure puis au sens de la dimension d'écoute -- et de l'espacement "vertical" des notes suivant leur rapport fréquentiel. Ses compositions peuvent présenter le déroulement temporel suivant des lignes droites ou curvées et comporter plusieurs parties suivant la longueur de l'œuvre [40].

 
Theo Goldberg [41] a une formation de musicien et s'intéresse aux relations entre formes musicales et sonores. Il cherche, à l'aide du computer, une matrice numérique qui puisse générer à la fois du visuel et du sonore. Il appuie sa recherche sur des représentations fréquence-temps et sur des courbes enveloppes. Il expérimente le "Patterned Surfaces Creation System" dont la partie traitement d'image est centrée sur la notion de point de vue qui, dans le domaine musical, trouverait son pendant dans la notion d'interprétation. Il a créé un certain nombre de pièces [42] avec Barry Truax.

Bruce Wands [43] bénéficie d'une formation très ouverte (musicien, photographe, artiste du visuel) ; il s'interroge sur les translations possibles entre les différents arts et notamment entre le musical et le visuel. Il expérimente les fichiers sonores à travers une interface MIDI qui lui permet de nombreuses mutations et récupère des images sonores en deux ou trois dimensions (propositions pour des sculptures) qu'il retravaille chromatiquement et qu'il anamorphose (changement de point de vue).


b - création paramétrique

Elle concerne les solutions possibles obtenues en faisant varier les valeurs des paramètres qui gouvernent le travail du logiciel d'analyse sonore. On utilise le logiciel Soundscope. Le signal initial est, ici, un signal carré dont l'image sonagraphique la plus exacte (en terme de composition fréquentielle) correspond à la figure 57.

On peut procéder à plusieurs types de variations paramétriques. Celles, d'abord, qui portent sur le dimensionnement des fenêtres : anamorphose temporelle et anamorphose fréquentielle ; celles, ensuite, qui portent sur le code chromatique utilisé pour visualiser les intensités; celles enfin qui définissent les réglages de la transformée de Fourier à l'œuvre dans le logiciel. Il s'agit donc d'un travail antérieur à l'apparition de l'image et qui ouvre un vaste champ d'apparitions visuelles. Pour ne pas alourdir l'article par des précisions trop techniques, les exemples cités (figures 58, 59, 60, 61, 62, 63 et 64) ne sont pas reliés au type de variation paramétrique mis en œuvre dans chaque cas.

Cependant on doit préciser que, dans ces exemples, seul le deuxième type de variations paramétriques n'a pas été employé. Sa mise en œuvre ouvrirait encore le champ des possibles.


c - "Sonagraphic Art"

J'ai voulu, sous ce terme, désigner le travail de création libre réalisé à partir de variations paramétriques sur des fichiers son initialement choisis par mes soins. Les images précédentes peuvent, en effet, être reprises dans des logiciels de traitements d'image qui les conduiront vers certaines mutations plastiques.

"On peut alors s'interroger sur le bien fondé des modifications correspondantes qui, si elles gardent trace des grandes lignes formelles du document d'origine, n'en conduisent pas moins à une réduction de l'information initiale au regard des règles de lecture qui sont attachées à ce type d'image.

- Une première réponse consistera à affirmer que ces documents, une fois réalisés, font partie du sous-ensemble "artefactuel" des objets du monde et peuvent, de ce fait, être annexés, manipulés, modifiés, photographiés, peints... ou directement traités numériquement.

- Une deuxième réponse tendra à insister sur l'objet en amont (la réalité sonore) de ces documents-image, ces derniers n'étant que des traces qui peuvent alors servir de propositions formelles pour un travail plastique sur le son initial, ce qui laisserait penser à l'existence possible d'une correspondance, non objective, entre ces deux domaines (celui du son et celui de la couleur-forme) qui a déjà été, avec plus ou moins de rigueur, explorée par certains depuis des siècles.

- Une troisième réponse consiste à souligner que le déplacement d'information réalisé par le plasticien, s'il détruit partiellement l'information initiale qui était dirigée du visuel vers le sonore, établit un nouveau dialogue avec le visuel qui n'est plus, lui, passible d'interprétation et prend, de ce fait, statut de création visuelle autonome.

- Une quatrième réponse pourra être formulée dans la perspective des questions liées à la synthèse musicale numérique: on sait qu'actuellement des logiciels permettent, à partir d'une représentation sonagraphique de repasser des images aux sons. On peut alors envisager le présent travail comme une proposition de mutations sonores potentielles à partir d'objets sonores initialement choisis par le peintre.

Mais la seule réponse de ce dernier est bien, peut-être, d'exprimer son désir de créer de nouvelles images qui, issues du numérique, puissent affirmer, sans discours en amont, leur présence dans le champ analogique de la perception visuelle" [44].

J'aimerais présenter quelques exemples-images de ce travail (figures 65, 66, 67, 68, 69, 70 et 71) sans aucun commentaire sur les traitements mis en jeu.

Un certain nombre d'artistes se sont intéressés au sonagramme comme source première d'inspiration. Citons, par exemple, Aage Justesen [45] et Alan Peevers [46].




top VI - Éléments de conclusion

Le panorama qui vient d'être balayé peut inspirer quelques remarques.

Deux types de transductions ont été réalisés : passage du son vers l'image et passage de l'image vers le son ; mais on aurait pu envisager le passage du son au son par l'image et celui de l'image à l'image en passant par le son (voir ci-dessous). Ceci pose donc la question d'un isomorphisme entre les deux domaines (que certains auteurs supposent) et donc celui de l'estimation de cet isomorphisme, donc celui de sa perception. Si les images sonagraphiques sont, dans la pratique, très "parlantes", il ne s'agit que d'une corrélation partielle qui permet une lecture orientée vers une certaine problématique mais en aucun cas d'un isomorphisme au sens strict du terme puisqu'on ne pourra pas reconstituer exactement le son à partir du sonagramme. On peut illustrer la chose dans le domaine visuel. Un portrait (figure 72 ) est importé dans Métasynth : le logiciel génère un son à partir de cette image et ce fichier son est repris dans Soundscope qui en fait le sonagramme (figure 73). Si l'information générale "passe" assez bien, on estime cependant la distance entre les deux images et on pourrait boucler le processus pour mesurer la dégradation de l'information. On a cependant peut-être, ici, une façon de coder une information visuelle, peu fragile, dans un signal sonore.

Par ailleurs la recherche d'un isomorphisme pourrait poser la question de l'existence d'un isomorphisme entre les processus de perception visuelle et sonore ; ce qui ne semble pas être une réalité dans l'état de nos connaissances.

Dans la mesure où les processus de transduction sont actuellement numériques, on peut envisager des structures mathématiques (voir Theo Goldberg) qui génèrent à la fois, d'une part, du visuel et, d'autre part, du sonore, la question de l'isomorphisme n'étant plus posée au niveau de la perception mais au niveau des logiciels qui assurent les transductions. Ces logiciels pourraient devoir travailler dans des espaces de dimension supérieure à deux (voir IV-c). On serait alors en présence de "générateurs" produisant des structures jugées ou non pertinentes par l'utilisateur-créateur.

Cette question de l'isomorphisme peut, par ailleurs, être évacuée si on se place résolument dans une optique d'expérimentation. Elle apparaît essentiellement au niveau du traitement du signal. Ce traitement a évidemment deux aspects : soit celui relatif au son, soit celui relatif à l'image. Et il n'appartient pas à cet article d'en développer les diverses facettes. Ainsi, que ce soit pour le musicien engagé dans la direction image / son (ou dans la boucle son / image / son) ou, pour l'artiste du visuel, engagé dans la direction son / image (ou dans la boucle image / son / image), le champ expérimental est quasiment infini.

On peut alors, en présence de ces liens numériques actuellement si puissants, imaginer l'émergence de nouveaux artistes qui pourraient (en temps différé ou en temps réel) réaliser un "morphing" créateur entre ces deux domaines qui s'observent et se parlent depuis si longtemps.

Septembre 2000
Bernard Caillaud & Philippe Caillaud




top Notes

1
-- Kevin Cowtan's Book of Fourier : <http://www.yorvic.york.ac.uk/~cowtan/fourier/fourier.html>.
-- John H. Krantz : <http://psych.hanover.edu/Krantz/fourier/index.html>

2
- Les Cahiers de l'Ircam (1993). La synthèse sonore. Paris : Ircam-Centre Pompidou, p. 68.
On trouvera par ailleurs une importante bibliographie sur l'acoustique, l'acoustique musicale et l'analyse sonagraphique dans :
B. CAILLAUD (1995). L'analyse sonagraphique dans l'enseignement. CNDP-CRDP Caen
et sur le site : <http://www.inrp.fr/Acces/JIPSP/phymus/accueil.htm>.

3
Ces notes sont extraites de l'article de J.S. LIENARD (1970). "La synthèse de la parole; historique et réalisations actuelles". In Revue d'acoustique, nº11, pp. 204-213. On pourra également consulter : Aperçu historique sur les appareils de synthèse de la parolepar Madame METTAS (1965). Paris : Éditions Klincksieck.

4
<http://www.physik.uni-halle.de/Fachgruppen/history/kratz.htm>

5
- "Mécanicien français, né vers 1730, mort en 1789. Pourvu d'un bénéfice et de quelques revenus personnels, il consacra tous ses instants à la mécanique, et construisit d'abord des automates joueurs de flute, puis des têtes parlantes. En juillet 1783, il présenta, à l'Académie des sciences de Paris, deux de ces dernières qui articulaient assez distinctement, quoique très imparfaitement, de petites phrases. L'appareil vibratoire se composait essentiellement de glottes artificielles sur des membranes et traversées par l'air qui frappait ensuite les membranes" : extrait de La grande encyclopédie , 1885-1902.

6
<http://www.ling.su.se/staff/hartmut/kemplne.htm>.

7
<http://mambo.ucsc.edu/psl/smus/smus.html>.

8
<http://macserver.haskins.yale.edu/Haskins/HEADS/SIMULACRA/riesz.html>.

9
<http://americanhistory.si.edu/scienceservice/037001.htm> <http://americanhistory.si.edu/scienceservice/newsletters/39019p.htm>.

10
Ralph K. PORTER (1945)."Visible Patterns of Sound". In Science, vol.102, nº2654.
Le premier ouvrage d'importance sur le sujet est, à ma connaissance :
R.K. POTTER, G.A. KOPP, H.G. KOPP (1947). Visible speech. New-York : over publications.

11
"The Sound Spectrograph" par W. KOENIG, H.K. DUNN et L.Y. LACY (1946). pp.19-49.

12
Kay Electric Company : <http://www.kayelemetrics.com/comphist.htm>.

13
Soundscope : <http://www.speech.cs.cmu.edu/comp.speech/Section1/Labs/soundscope.html>.

14
Praat : doing phonetics by computer : <http://www.fon.hum.uva.nl/praat/>.

15
Acousmographe : <http://www.ina.fr/GRM/RECHERCHE/DEV/ACOUSMO/Acousmographe.fr.html>

16
Voir le CD-Rom "Les Musicographies" de Dominique Besson-INA-GRM-1995.

17
Software for bioacoustics : <http://eebweb.arizona.edu/faculty/hopp/sound.html>.

18
Speech on the web : <http://fonsg3.let.uva.nl/Other_pages.html>.

19
Oiseaux : <http://eebweb.arizona.edu/faculty/hopp/song.html>.

20
Référence pour la figure 36 : CD "Xenakis / Electronic Music". EMF-INA. GRM-1997.
Référence pour les figures 37 et 38 : CD "Musica Electroacustica de Compositores Latinoamericanos". Leonardo Music Journal CD Series, vol. 4, 1995.

21
<http://www.obsolete.com/120_years/machines/cellulophone/index.html>.

22
<http://www.obsolete.com/120_years/machines/syntronic_organ/index.html>.

23
<http://www.obsolete.com/120_years/machines/light_tone_organ/index.html>.

24
<http://www.obsolete.com/120_years/machines/trillion_tone_organ/index.html>.

25
- "Il fallait recouvrir quatre disques de verre identiques d'un dessin extrêmement fin comportant 150 cercles concentriques dont la transparence et l'opacité variaient périodiquement de façon continue. Le moindre déplacement, fût-ce de quelques centièmes de millimètre, la plus petite irrégularité de teinte étaient inadmissibles. Murzin décida d'appliquer ce dessin par un procédé photographique sur une plaque sensible".

26
CD Archive -- Synthesiser ANS (1964-1977)-- Electroshock Records ; avec des œuvres de Oleg Buloshkin, Sofia Gubaidulina, Edward Artemyev, Edison Denisov, Alfred Schnittke, Alexander Nemtin, Schandor Kallosh et Stanislav Kreitchi : <http://progressor.net/articles/electroshock.htm>.

27
<http://www.obsolete.com/120_years/machines/variophone/index.html>.

28
<http://www.obsolete.com/120_years/machines/oramics/index.html>.

29
<http://www.cex.gouv.qc.ca/ordre/86/86_47.htm>.

30
<http://www.gmeb.fr/SoftwareCompetition/Softs96/phonogramme1.html>.

31
Metasynth : <http://uisoftware.com/PAGES/ms_presentation.html>.

32
<http://www.inrp.fr/Acces/JIPSP/phymus/m_log/audioscu/audioscu.htm>.

33
<http://www.fractalmusiclab.com/default.asp.

34
<http://www.sonicspot.com/chaosynth/chaosynth.html> - <http://www.nyrsound.com/chaosynth.htm>.

35
Visualizing Music & Sound - An Annotated Bibliography : <http://www.paradise2012.com/visualMusic/leobib.html>.

36
"Paintings Based on Relative Pitch in Music". In Leonardo,vol. 8, pp. 13-19.
<http://members.aol.com/bhero/HomePage.html>
<http://members.aol.com/Lambdom/Art/HeroArt.htm>.

37
"Graphic Artworks based on Music : Musigraphs". In Leonardo, vol. 12, pp. 308-310, 1979.

38
"The Systematic Translation of Musical Composition into Paintings" (avec Peter Frank). In Leonardo, vol. 17, nº3, pp.152-158, 1984.
- "Creating a Visual Translation of Kurt Schwitter's Ursonate" . In Leonardo Music Journal, vol. 3, 1993.
<http://www.bway.net/~jackox/>.

39
"Toward the Generation of Visual Music". In Leonardo, vol. 25, nº1, pp. 29-36, 1992.

40
"A Contribution to Musicalism : An Attempt to Interpret Music in Painting". In Leonardo, vol. 24, nº4, pp. 401-405, 1991.

41
Theo GOLDBERG et Günther SCHRACK. "Computer-aided Correlation of Musical and Visual Structures". In Leonardo, vol. 19, nº1, pp. 11-17, 1986.

42
- Divan (1985) 11 min. - Wings of Nike (1987) 16 min.

43
<http://www2.sva.edu/~bruce/bio.html>.

44
Ce texte correspond partiellement à un article : Bernard CAILLAUD (1997). "Sonagraphic Art". In Leonardo, vol. 30, nº 1.

45
"Pictures Based on Voice Graphs : Pictonoms". In Leonardo, vol. 11, pp. 205-206, 1978.

46
<http://cnmat.cnmat.berkeley.edu/~alan/MS-html/MSv2_ToC.html>.




top Bibliographie

retour
ANFILOV, Gleb (1969). Physique et Musique. Moscou : Editions MIR.

retour
CAILLAUD, Bernard (1997). "Sonagraphic Art". In Leonardo, vol. 30, nº 1.

retour
CAILLAUD, B. (1995). L'analyse sonagraphique dans l'enseignement . CNDP-CRDP Caen

retour
CAILLAUD, Bernard (1993). " Imagerie scientifique et création plastique". In Bulletin de l'ADASTA, nº27-28.

retour
COGAN, Robert (1984). New Images of Sound. Harvard University Press.

retour
DUNN, H.K.; KOENIG, W. & LACY, L.Y. (1946). "The Sound Spectrograph".

retour
GOLDBERG, Theo & SCHRACK, Günther (1986). "Computer-aided Correlation of Musical and Visual Structures". In Leonardo, vol. 19, nº1

retour
KOPP, G.A.& KOPP, H.G. & POTTER, R.K.(1947). Visible speech. New-York : over publications.

retour
KREICHI, Stanislav (1995). "The ANS Synthetizer : Composing on a Photoelectric Instrument". In Leonardo, vol. 28, nº1.

retour
LEIPP, Emile (1971). Acoustique et musique. Paris : Masson.

retour
LEIPP, Emile (1965). "Le problème de la perception des signaux acoustiques par effet de contraste. Les signaux d'avertissement, les sifflets". In Cahiers d'acoustique, nº133.

retour
LIENARD, J.S. (1970). "La synthèse de la parole; historique et réalisations actuelles". In Revue d'acoustique, nº11

retour
METTAS (1965). Aperçu historique sur les appareils de synthèse de la parole . Paris : Éditions Klincksieck.

retour
MOLES, Abraham (1960). Les Musiques expérimentales. Paris, Zurich, Bruxelles : Editions du cercle d'art contemporain

retour
PORTER, Ralph K. (1945)."Visible Patterns of Sound". In Science, vol.102, nº2654.

retour
ROAD, Curtis (1998). L'Audionumérique (version française de Jean de Reydellet). Paris : Dunod.

retour
SAUNDERS, Frederick (1980). "Physique et musique". In Sons et Musique. Paris : Pour la science - Ed. Belin.

retour
- Les Cahiers de l'Ircam (1993). La synthèse sonore. Paris: Ircam-Centre Pompidou, p. 68.


© "Solaris", nº 7, Décembre 2000 / Janvier 2001.

sommaire du dossier