Musique électronique et conception sonore | Origines technologiques et trajectoires esthétiques

Les années 50-60
Au début de cet article, je veux vous convaincre rapidement que l'histoire générale de la musique électronique a beaucoup de pertinence pour le design sonore. En fait, vous avez peut-être déjà été convaincu, mais dans le cas contraire, voici quelques informations supplémentaires.

Tous les médias s'interpénètrent abondamment, une condition appelée Remédiation :
Un guide de contenu complet pour le son et le design
L'idée centrale du livre est le concept de remédiation. Ce que les auteurs entendent par là, c'est la tendance par laquelle un médium en vient à être représenté dans un autre. Ce n'est pas particulièrement nouveau car cela vient plus ou moins directement de McLuhan qui a soutenu que le contenu d'une forme de média est toujours une autre forme de média - le contenu de l'imprimé est l'écriture, le contenu de la radio est la parole, etc. La notion de remédiation de Bolter et Grusin est essentiellement une mise à jour de cela pour l'ère des médias numériques où ils voient toutes les formes de nouveaux médias comme réaffectant ou refaçonnant les formes plus anciennes d'une manière ou d'une autre. ( source )
La plupart des outils que nous utilisons aujourd'hui dans la conception sonore proviennent de deux principaux domaines d'activité pratique et créative : les studios de musique électronique des années 1950 et 1960, et le domaine de la production et de la post-production sonore associées à la musique, au cinéma et à la télévision. Dans le film, les "effets sonores" étaient généralement soutenus à l'origine, par exemple en secouant une tôle pour simuler le tonnerre, ou en utilisant des moitiés de noix de coco pour le galop des chevaux, etc.

Mais il y avait aussi un développement riche en équipements électroniques analogiques conçus pour enregistrer, éditer et mélanger tous les sons ensemble, que ce soit sous forme de piste musicale, d'émission de radio ou de bande sonore de film, généralement basée sur une bande magnétique ou un film optique.
Dans la musique électronique, des oscillateurs, des filtres, des générateurs de fonctions, des amplificateurs et toutes sortes de dispositifs techniques ont été développés pour expérimenter et repousser les limites de la manipulation du son afin d'exploiter au maximum sa plasticité - sa capacité à être façonné.
Ici, je vais passer en revue quelques-uns des « premiers jours » — et juste effleurer les premiers jours — de la musique électronique. Pour mettre un peu d'ambiance à cette discussion, regardez les premières minutes de cette vidéo sur Berna 3 , une suite logicielle qui émule les studios de musique électronique des années 50 et 60 en tant qu'environnement logiciel. Les instruments de musique électroniques de cette période étaient à l'origine des équipements de test utilisés dans les stations de radio et les contextes scientifiques.
Ce type d'émulation logicielle numérique d'équipements analogiques est un autre exemple de remédiation. Regardez les premières minutes, puis parcourez un peu la vidéo pour découvrir certains des différents modules de Berna 3.
Dans ce contexte du milieu du 20e siècle, il y avait deux écoles de musique électronique concurrentes en Europe - française et allemande - qui représentaient des approches très différentes. L'école française mettait l'accent sur la composition avec des sons enregistrés, tandis que l'école allemande utilisait des signaux électroniques générés par des équipements comme principale source.
Évidemment aujourd'hui une telle rivalité esthétique peut sembler idiote et elle est certainement dépassée, mais ces premières approches ont conduit à de nombreux développements ultérieurs. Cette histoire de la pratique créative est certainement pertinente car toutes les pratiques d'aujourd'hui ont émergé de ce contexte historique.

L'approche allemande s'appelait Elektronische Musik et l'approche française Music Concrète. Vous pouvez peut-être utiliser une sorte de métaphore sportive et la décrire comme une rivalité franco-allemande entre micros et oscillateurs ! (cela pourrait vous aider à vous souvenir de ce moment historique grâce à l'association d'images).


Il y avait bien sûr beaucoup d'expérimentations avec la musique électronique avant ces approches des années 50-60. Ce qui a vraiment lancé la musique électronique à cette époque, cependant, c'est la bande magnétique, qui a vu le jour dans les années 1940 comme technologie de communication militaire de la Seconde Guerre mondiale. Ainsi, une chose que les approches française et allemande avaient en commun était le support audio de la bande magnétique. Ils ont tous deux produit ce qu'on appelle de la « musique sur bande » ou de la musique sur bande.



Étant donné que les noms des hommes sont généralement associés aux débuts de la musique sur bande, voici une courte entrée sur l'une des pionnières :
Le BBC Radiophonic Workshop a produit des effets et des thèmes pour le diffuseur britannique, y compris des sons emblématiques pour les programmes de télévision et de radio de science-fiction Doctor Who et The Hitchhiker's Guide to the Galaxy , en utilisant des oscillateurs électroniques et des boucles de bande des décennies avant que les synthétiseurs ne soient courants. Que beaucoup de ses ingénieurs soient des femmes était, et est toujours, une rareté. La semaine dernière, deux d'entre elles, Daphne Oram et Delia Derbyshire , ont été à nouveau célébrées dans Synth Remix, une série de concerts de performances live et de sets de DJ en tournée en Grande-Bretagne….
Dans les années 1950, Oram est devenu intrigué par le potentiel de l'enregistrement sur bande pour transformer la musique en faisant exploser l'espace et le temps. Elle était fan de musique concrète , restant régulièrement debout toute la nuit pour mixer ses propres morceaux. En 1958, après des années à harceler la BBC pour moderniser sa musique, Oram et son collègue Desmond Briscoe ont reçu une chambre avec du vieux matériel. Ainsi commença l'atelier. ( source )
Nous allons opposer ces deux approches esthétiques — les Oscillateurs vs les Microphones ! — avec les deux exemples ci-dessous.


Il existe généralement trois manières de produire des sons : par synthèse (son d'origine mathématique, qu'il soit intégré dans des circuits analogiques ou dans le code d'un logiciel numérique), enregistrement (capturer des sons se produisant dans le monde réel et travailler sur le support stocké) et traitement (effets audio qui modifient les sons synthétisés ou enregistrés).
Les premières approches allemandes et françaises ont produit une grande variété d'œuvres de musique sur bande, et les deux écoles ont utilisé diverses formes de traitement pour modifier les sons électroniques ou enregistrés. En outre, il existe des œuvres de musique sur bande françaises contenant des sons électroniques et des œuvres de musique sur bande allemandes contenant des sons enregistrés, il ne faut donc pas créer une division trop stricte entre ces approches générales de la création de musique sur bande.

Digression : Avant les années 50-60
Cela vaut la peine de discuter brièvement de ce que nous pouvons appeler l'ère pré-bande de la musique électronique. Voici comment les instruments électroniques étaient présentés au public vers 1907 dans Scientific American .

Il s'agit du Telharmonium de Thaddeus Cahill, également appelé Dynamphone, breveté à l'origine en 1895 et qui était une sacrée bête électrique !


Le Telharmonium peut être considéré comme le premier instrument de musique électronique important et était une méthode de synthèse électro-magnétique et de distribution de musique sur les nouveaux réseaux téléphoniques de l'Amérique victorienne… La vision de Cahill était de créer un « instrument parfait » universel ; un instrument capable de produire des sons absolument parfaits, contrôlés mécaniquement avec une certitude scientifique. Le Telharmonium permettrait au joueur de combiner le sustain d'un orgue à tuyaux avec l'expression d'un piano, l'intensité musicale d'un violon avec la polyphonie d'une section de cordes et le timbre et la puissance des instruments à vent avec la capacité d'accord d'un orgue. Ayant corrigé les "défauts" de ces instruments traditionnels, le Telharmonium supérieur les rendrait obsolètes. ( source )

L'instrument s'inspire en partie d'inventions bien antérieures, comme le télégraphe musical de Soemerring (1809).


Cahill a également fabriqué des instruments électroniques beaucoup plus petits, tels que l'Alectron.


Les Ondes Martenot (1928) de Maurice Martenot ont connu une période faste :
Les tubes radio oscillants produisent des impulsions électriques à deux fréquences d'ondes sonores supersoniques. Ils produisent à leur tour une fréquence inférieure dans la plage audible qui est égale à la différence de leurs taux de vibration et qui est amplifiée et convertie en son par un haut-parleur. De nombreux timbres, ou couleurs tonales, peuvent être créés en filtrant les harmoniques supérieures, ou tonalités composantes, des notes audibles.
Dans la première version, la main du joueur s'approchant ou s'éloignant d'un fil faisait varier l'une des hautes fréquences, modifiant ainsi la fréquence inférieure et modifiant la hauteur. Plus tard, un fil a été tendu sur un clavier modèle; le joueur touchait le fil pour faire varier la fréquence. Dans une autre version, les changements de fréquence sont contrôlés à partir d'un clavier fonctionnel. Les œuvres pour les ondes martenot comprennent celles du compositeur suisse d'origine française Arthur Honegger, du compositeur français Darius Milhaud et du compositeur américain Samuel Barber. ( source )

Le dernier instrument électronique ancien que je m'en voudrais de ne pas mentionner est le Theremin de Leon Theremin ( comme de nombreux inventeurs, il a donné son nom à son invention : )
Il se compose d'une boîte avec des tubes radio produisant des oscillations à deux fréquences d'ondes sonores au-dessus de la plage d'audition ; ensemble, ils produisent une fréquence audible inférieure égale à la différence de leurs taux de vibration. Le pas est contrôlé en déplaçant la main ou un bâton vers ou loin d'une antenne à l'arrière droit de la boîte. Ce mouvement modifie l'une des fréquences inaudibles. Les harmoniques, ou tonalités composantes, du son peuvent être filtrées, permettant la production de plusieurs couleurs de tonalité sur une plage de six octaves. Le compositeur américain Henry Cowell et le compositeur franco-américain Edgard Varèse ont écrit pour le thérémine. L'instrument a été utilisé dans les enregistrements du groupe de rock américain les Beach Boys et dans les bandes sonores de plusieurs films de science-fiction. ( source )
L'électro d'avant-garde dans le son des films
Pour faire le lien entre la musique électronique du milieu du XXe siècle et la culture populaire dans le domaine du son de film ( pas encore appelé design sonore ), le meilleur exemple à des fins d'illustration est le film Forbidden Planet (1956) composé par Bebe et Louis Barron. Comme l'écrit Rebecca Leydon dans son chapitre d' Off the Planet ,

Dans cet excellent chapitre se trouve une excellente citation de Philip Brophy,

L'approche des Barrons était quelque peu unique en ce sens qu'ils ont conçu des circuits à base de tubes qui s'autodétruiraient fréquemment pendant la production sonore. L'« agonie » de la fonte des composants électriques surchauffés était en fait, dans de nombreux cas, un résultat sonore souhaitable. Plutôt que d'utiliser des ondes sinusoïdales pures que les équipements de test électroniques ultérieurs pourraient générer,

Vous trouverez ci-dessous quelques extraits de Forbidden Planet et également de Staney Kubrick's 2001: A Space Odyssey (1968) qui fournit une illustration supplémentaire du point de Brophy sur l'atonalité dans le film signalant souvent la présence d'une altérité cosmique extraterrestre.

Musique Concrète
La musique concrète , l'approche française de la musique sur bande ancienne, utilisait des outils d'enregistrement associés à l'origine aux stations de radio et mélangeait des sons naturels, électroniques et instrumentaux. Il y avait deux Pierres associés au développement de la musique concrète, Pierre Schaeffer - ingénieur radio, animateur et écrivain - et Pierre Henry, qui était un compositeur de formation classique.
La première composition de musique concrète date en fait de 1948, l' Etude aux Chemins de Fer du Shaeffer Pierre (la vidéo est montrée ci-dessus), est considérée comme la première pièce électroacoustique sur bande et utilise des platines :
Le collage bruitiste « Études aux chemins de fer » est perçu comme la première œuvre musicale à organiser les bruits selon une esthétique entièrement musicale. Sa première représentation publique dans le cadre du « Concert de bruits » diffusé à Paris le 5.10.1948, ainsi que trois autres collages bruités, marquent la naissance de l'école française de la « musique concrète », qui puise sa matière dans les sons concrètement disponibles, en déduire des règles créatives spécifiques dans chaque cas.
Les «Études aux chemins de fer» sont basées sur des enregistrements que Schaeffer a réalisés à la gare des Batignolles à Paris avec l'aide de six conducteurs de locomotive «improvisant» selon ses instructions. En travaillant sur ceux-ci en tant que compositeur, Schaeffer visait entre autres à utiliser des techniques d'aliénation pour effacer les composants sémantiques des bruits et souligner leurs valeurs musicales comme le rythme, la couleur du ton et la hauteur. ( source )
Schaeffer est reconnu comme étant l'inventeur de l'échantillon sonore en tant que boucle audio répétitive, une technique largement utilisée dans la musique populaire et la conception sonore d'aujourd'hui. Dans le passage ci-dessus, j'ai mis en gras un concept très clé dans la musique électroacoustique, à savoir l'idée d'éliminer les associations conceptuelles avec les sons afin d'émanciper leur potentiel compositionnel.
Traditionnellement, la composition est passée de l'abstrait au concret - du concept et des notes écrites aux sons réels. L'approche de Schaeffer a inversé le processus, commençant à la place avec des fragments de son - des enregistrements sur le terrain d'origine à la fois naturelle et mécanique - qui ont ensuite été manipulés à l'aide de techniques de studio.
Insatisfait de l'état de la musique à l'époque, Schaeffer a cherché à créer un nouveau langage musical qui divorçait les sons de leurs sources, réduisant ainsi la musique à l'acte d'entendre seul - ce qu'il appelait «l'écoute réduite». Prenez, par exemple, un enregistrement sur le terrain d'un train se déplaçant le long de ses voies. À première vue, vous noteriez simplement le bruit d'un train; au-delà de cette réalisation, les auditeurs n'y penseraient pas beaucoup plus. Schaeffer, cependant, s'est rendu compte qu'il y avait une riche veine de musicalité cachée dans ces sons apparemment banals : des extraits de rythmes complexes, des caractéristiques timbrales uniques, des particularités tonales, des textures étranges et intéressantes. Notre perception de ces qualités, a-t-il reconnu, était entravée par les associations et les références que portent les sons.( source )
L'approche de Schaeffer était de commencer par un son, pas par une idée de composition. La composition émergerait du travail avec le matériau sonore, plutôt que de rendre les sons conformes à des concepts structurels préexistants. Ceci est analogue à une autre approche associée à la production documentaire française, Cinema Vérité, qui est peut-être mieux définie par la maxime : "Tirez d'abord, posez des questions plus tard". En d'autres termes, une approche de vérité commence par accumuler des séquences captivantes, puis découvre l'histoire plus tard lors des phases de montage.

Phénoménologie sonique
L'école concrète de composition a introduit dans la terminologie générale l'idée de L'Objet Sonore ou de l'objet sonore . Comme les archives Sonic Studio de l'Université Simon Fraser définissent le terme dans son entrée riche en liens hypertexte :
Pierre Schaeffer, auquel la version française de ce terme ( l'objet sonore ) est le plus associée, le décrit comme un « objet acoustique pour la perception humaine et non un objet mathématique ou électroacoustique pour la synthèse ». L'objet sonore peut être défini comme le plus petit élément autonome d'un SOUNDSCAPE , et est analysable par les caractéristiques de son SPECTRUM , LOUDNESS et ENVELOPE .
Voir aussi : GRAIN , DYNAMIQUE INTERNE , MASSE , TIMBRE , VOLUME .
Bien que l'objet sonore puisse être référentiel (par exemple une cloche, un tambour, etc.), il doit être considéré avant tout comme une formation sonore phénoménologique, indépendamment de ses qualités référentielles en tant qu'ÉVÉNEMENT SONORE . Schaeffer : « L'objet sonore ne doit pas être confondu avec le corps sonore par lequel il est produit », car un corps sonore « peut fournir une grande variété d'objets dont la disparité ne peut être conciliée par leur origine commune ». De même, l'objet sonore peut être considéré indépendamment des contextes sociaux ou musicaux du paysage sonore dont il est isolé. Les objets sonores peuvent être classés selon leur MORPHOLOGIE et leur TYPOLOGIE .
L'enregistrement et le traitement d'un objet sonore est souvent le point de départ de la composition musicale ELECTROACOUSTIQUE .
Voir aussi : MUSIQUE CONCRETE , TAPE LOOP . Comparez : EFFET SONORE , SIGNAL SONORE , SYNTHESE SONORE . ( source )
L' objet sonore est une idée importante qui définit une grande partie de la musique électroacoustique - le traitement des sons comme des objets de perception à part entière, et non liés par nos pensées quant aux origines de leur production dans des événements réels. Notre écoute naturelle est généralement « à la recherche de sources ».
Faire de la musique avec l'idée de rompre nos associations entre les sons et leurs sources n'est pas très différent de la façon dont nous écoutons normalement de la musique.
Lorsque vous écoutez de la musique instrumentale, telle que jouée par un piano ou un violon, imaginez-vous constamment le bois, les cordes et les doigts actionnant ces sons ? Ces associations d'images peuvent s'imposer de temps en temps, mais les sources physiques des notes de piano et de violon ne sont pas vraiment au centre de notre attention. Au contraire, nous laissons la musique être de la musique et nous nous perdons dans le jeu des tonalités comme existant dans leur propre domaine perceptif, pour ainsi dire, et pas simplement les effets acoustiques causés par les doigts sur les touches ou les archets sur les cordes.
La musique électroacoustique qui prend l' objet sonore comme principale référence esthétique est parfois appelée musique acousmatique. Voici une brève conversation sur Schaeffer, les objets sonores et la musique acousmatique pour approfondir,
Comme indiqué dans l'interview ci-dessus, les deux Pierre ont établi le concept d'échantillonnage et d'échantillonneurs, qui sont devenus un pilier de la pratique audio d'aujourd'hui. Pour donner une idée de l'évolution des techniques d'échantillonnage au cours des 70 dernières années, des platines dans un studio de radio aux plugins dans un DAW, regardez ce court extrait sur l'échantillonneur Iris2 d'Izotope pour une tournure spectrale intéressante sur le concept.

Articles Liés
Mouvement sonique | Texture et geste
Esthétique Audiovisuelle | Une vue de 10 000 pieds (ou plus) Partie 1
Esthétique Audiovisuelle | Une vue de 10 000 pieds (ou plus) Partie 2
Alors, qu'est-ce que le design sonore ? Une brève introduction à son contexte
Dry-Fi (ou, votre chanson a besoin de plus de synthé de corne de brume)
Outils, fils et son : l'histoire de la bande originale d'un camion rempli de vieux pianos
Esthétique du traitement du signal audiovisuel
Esthétique Audiovisuelle | postes interprétatifs et expérientiels
Musique visuelle et esthétique audiovisuelle