Remastering digital et révisionnisme


Le contenu qui suit a été repris du site http://gaite-lyrique.net. Il s’agit d’un article de Paul Purgas pour Audimat consultable dans son contexte à l’adresse http://gaite-lyrique.net/article/remastering-digital-et-revisionnisme


Depuis que le CD s’est imposé au cours des années 80 comme le support digital standard de l’industrie du disque, celle-ci n’a cessé de s’intéresser aux possibilités commerciales de ce qu’on a baptisé le remastering, ou remasterisation. Rappelons rapidement l’histoire de cette pratique. Un master, c’est littéralement la matrice, par définition unique, à partir de laquelle vont être industriellement fabriqués CD, vinyles ou cassettes. La séance de mastering a lieu une fois qu’un disque est intégralement composé, enregistré, mixé et tracklisté, et doit exclusivement optimiser son rendu sonore en fonction du support choisi – aujourd’hui, lorsqu’un artiste sort par exemple un album à la fois en vinyle, CD et digital, il doit consacrer une séance spécifique à chacun des trois formats. Le terme de remastering, lui, est né au moment où apparaissaient les premiers masters spécifiquement conçus pour être ensuite gravés en format digital, par opposition aux toutes premières rééditions CD, qui se contentaient elles de proposer un simple transfert du master analogique d’époque, initialement optimisé pour cassette ou vinyle, et souvent endommagé par une mauvaise conservation. L’acte de remasteriser un album en CD impliquait donc une sorte de traduction sonore : partir d’une langue-source – l’enregistrement d’archive « brut » pré-masterisé ou le master analogique, selon les cas – pour la restaurer et l’amener vers la langue-cible, le digital.

Mais progressivement, l’expression a fini par recouvrir un ensemble hybride de pratiques, mêlant à la pure restauration cosmétique un travail de ré-égalisation et de modernisation interprétative de la musique traitée. Dans le vocabulaire actuel de l’audio « commercial », le remastering se situe d’ailleurs à mi-chemin entre le mastering lui-même – c’est-à-dire l’acte de préparer et paramétrer la finalisation industrielle d’un produit audio – et le remix – qui lui consiste à activement manipuler la matière et la structure sonores d’une chanson ou d’une composition afin d’en offrir une lecture nouvelle. Le public, en revanche, entend communément par remastering la restauration bienveillante d’un enregistrement d’archive, qui s’attacherait à préserver la caractère et l’intégrité de l’original, tout en s’adaptant au nouveau support sur lequel il est gravé. Au fil des années, cette définition fondatrice a pourtant été mise à mal, tant par les « pièges » esthétiques qu’elle a pu rencontrer que par les différences d’interprétation dont elle a été l’objet.

Au cours de la première vague de production des CD, les maisons de disques demandaient aux ingénieurs de concevoir des masters digitaux en se servant directement des masters analogiques pour cassettes ou vinyles : ayant recours à une égalisation « plate », ces techniciens produisaient ainsi de pures copies digitales d’enregistrements analogiques, des masters au rabais, en quelque sorte. Et ces premiers albums réédités en CD subissaient souvent de sévères critiques sur le plan sonore : les masters qu’ils prenaient pour modèles étant optimisés pour le format analogique, le passage pour ainsi dire forcé au digital engendrait forcément des pertes de qualité et une fidélité approximative. Et il n’était d’ailleurs par rare de lire à l’époque dans les livrets de rééditions CD l’avertissement suivant :

« La musique disponible sur ce Compact Disc a été initialement enregistrée avec un équipement analogique. Nous avons tenté de préserver aussi fidèlement que possible le son de cet enregistrement original. Mais du fait même de sa haute définition, le Compact Disc révélera parfois certaines limitations inhérentes à la bande source. »

Cette affirmation reconnaissait que le niveau de bruit du vinyle et des bandes analogiques se faisait encore plus audible avec le passage au CD, dont la gamme dynamique plus large et la présence de silence absolu entre les plages ne pouvait que faire ressortir la « saleté » des enregistrements originaux. Mais l’avertissement permettait aussi aux labels de ruser pour, par exemple, faire porter le chapeau à la haute résolution du CD alors qu’eux-mêmes se servaient de copies cassettes d’albums. Autre écueil de la course au digital entamée à l’époque par les majors du disque : les maisons qui, avides d’inonder le marché de leurs CD, cherchaient à limiter les coûts au maximum en produisant des objets de piètre qualité qui, associés à des lecteurs CD eux-mêmes encore peu performants, ne donnaient à entendre qu’un son souvent blâmé pour son caractère « creux » et « friable ». Il faudra donc attendre la maturité de la technologie digitale et de son marché pour qu’au milieu des années 80 l’industrie musicale commence à faire produire de nouveaux masters, spécialement conçus pour le format CD. Ce sera à cette époque précise que la composition d’un master digital à partir d’un enregistrement d’origine, et non une copie cassette, commencera à s’afficher sous la forme de la mention « digital remastering » sur les rééditions d’albums en CD, qui continue aujourd’hui d’apparaître régulièrement.

Les maisons de disques cernèrent rapidement le significatif potentiel commercial d’une édition remasterisée. Constatant les gigantesques succès réalisés par un certain nombre de rééditions pendant les premières années du CD, les majors comprirent que ces disques du passé pouvaient concurrencer les nouveautés sur le marché. Toujours à partir du milieu des années 80, elles cherchèrent toutes à capitaliser sur leurs back catalogues, ressortant à tour de bras des albums classiques de Kiss, des Beatles, de Led Zeppelin ou des Rolling Stones, proposant ainsi aux fans l’opportunité de vivre une expérience d’écoute supérieure à celle offerte par les rééditions de « première génération ». Les nouvelles rééditions, disait-on, résultaient d’un travail de restauration des masters analogiques permis par un enregistrement haute définition beaucoup plus précis, et d’une attention particulière accordée à la réduction du bruit et au nettoyage « cosmétique » du son en général.

Cependant, alors que la pratique du remastering tendait à se standardiser au sein de l’industrie, on sentit progressivement le public exiger des sorties remasterisées qu’elles justifient leur existence en présentant des développements et des améliorations nettement audibles par rapport aux versions originales, ainsi qu’aux remasters première génération, quand il en existait déjà. Dans ce contexte, les ingénieurs du son se virent donc obligés de trouver des moyens de prouver qu’en somme, on ne les payait pas pour ne rien faire. Ainsi démarra une nouvelle phase de l’évolution du remastering, qui dépassa vite sa vocation originelle de fidèle restauration pour se transformer peu à peu en une méthode interprétative de re-traitement du son, destinée à générer des résultats esthétiquement plus probants.

L’un des aspects les plus controversés à avoir émergé de cette nouvelle méthode reste l’usage, et surtout l’abus de la compression audio. Ces dernières années, le principe de la compression est régulièrement employé comme un moyen d’augmenter la puissance générale « ressentie » d’un enregistrement en compressant littéralement le signal audio : la compression aplatit la forme d’onde du master, tout en en accroissant comparativement la puissance du son. Celui-ci gagne ainsi en volume ce qu’il perd en dynamique. Si l’on a aujourd’hui recours à une compression excessive dans la pop, c’est pour produire un maximum d’impact auditif sur les auditeurs lorsqu’ils écoutent un morceau sur leur chaîne ou leur baladeur mp3. L’influence de cette technique sur le travail de remasterisation s’est notamment manifestée par l’arrivée sur le marché de rééditions intensément compressées, comme celles d’albums de Nirvana, des Stooges ou de Metallica, albums qui se virent drastiquement transformés dans le but de pouvoir concurrencer le son généralement plus puissant des disques pop et rock contemporains. Evidemment, cette tendance s’est montrée d’autant plus prévalente dans les rééditions de disques privilégiant un son frontal et intense, propres à des genres tels que le metal, le punk, le hard rock, l’indus ou le hip-hop. Un des exemples les plus connus de cette remise à niveau – voire de remise « aux niveaux », comme un ingé son peut parler des « niveaux » de ses pistes – reste la version remasterisée sortie en 1997 de Raw Power (l’album mythique des Stooges initialement édité en 1973) dont le spectre, suite à un impitoyable travail de compression, affichait une forme presque totalement plate. Les fans considèrent toujours cette réédition comme l’un des disques les plus assourdissants jamais sortis – sauf que ce n’est pas là le fait du groupe ou de ses producteurs de l’époque, mais bien des ingénieurs chargés du remastering une vingtaine d’années plus tard.

D’un point de vue technique, la compression fonctionne comme un outil permettant d’augmenter les niveaux d’un enregistrement. Seulement, en contrepartie, elle amoindrit le spectre dynamique du mix, à savoir l’espace qui sépare les éléments les plus bas des éléments les plus hauts. Le signal audio est écrasé – comme on écraserait une bouteille en plastique pour la glisser tant bien que mal dans une poubelle déjà bien pleine – et montre une forme d’onde aplatie qui donne une plus puissante impression d’ensemble, mais qui possède des propriétés dynamiques beaucoup plus pauvres. On constate régulièrement qu’une compression excessive donne naissance à des rééditions au son moins multidimensionnel que leurs originaux, moins profond. Il suffit d’écouter, à volume identique, un enregistrement original d’un album en vinyle, puis sa version remasterisée en CD pour s’en rendre compte : la perte d’espace sonore est indéniable.

L’autre problème majeur posé par le remastering réside dans le recours abusif à la ré-égalisation. Initialement employée pour réduire le bruit et le souffle des masters analogiques, cette méthode a plus récemment été utilisée pour adapter des enregistrements anciens aux goûts et à l’esthétique d’aujourd’hui. C’est à l’ingénieur chargé du remastering qu’appartient la possibilité de réinterpréter ou non le master qu’on lui soumet. Et c’est donc à lui que revient en définitive la décision de franchir ou non la frontière ténue qui sépare la simple restauration cosmétique de la manipulation sonore proprement dite. Et ce n’est donc pas un hasard si certaines décisions prises par ces ingénieurs, comme la façon excessive ou injustifiée de réégaliser et d’apporter de la « brillance » au son des originaux, ont pu déclencher une forte hostilité chez les fans de groupes tels que – pour ne citer quelques exemples marquants – New Order, The Cure ou Black Sabbath. Certains ont regretté la perte du « feeling » propre aux premières versions, quand d’autres ont tout bonnement reproché aux ingénieurs et aux directeurs artistiques de labels d’avoir délibérément favorisé un son stérile et homogénéisé. Et en effet, lorsqu’on constate que certaines fréquences originales se retrouvent extrêmement amoindries sur la réédition, ou au contraire nettement intensifiées, on ne peut s’empêcher de se dire qu’un tel geste porte forcément atteinte à la signature sonore de l’original, ainsi qu’à son équilibre intrinsèque. C’est donc bien ce type d’égalisation « sauvage » qui vient entamer l’intégrité de l’original.

En comparaison au rock et à la pop grand public, la dance music électronique avait jusqu’à récemment été peu inquiétée par le problème du remastering. On y repressait essentiellement des maxis vinyle, le support longtemps exclusivement employé par les DJ, en se contentant d’en augmenter le volume souvent considéré trop bas par les DJ lorsqu’ils en jouaient la version originale en club. Les tout premiers 12 pouces de house et de techno n’ayant en effet pas toujours été pressés dans les meilleures conditions, leur volume s’avérait parfois insuffisant pour la fonction dansante qui leur incombait, et il s’était ainsi mis en place une demande importante, de la part des DJ, de rééditions au son plus fort, et donc de maxis plus « jouables ». De ce côté-là, donc, un certain consensus régnait : l’ingénieur chargé du remastering du vinyle original sur le vinyle réédité se contentait d’augmenter le volume général du master à represser et envoyait directement le nouveau master à l’usine de pressage sans toucher à rien d’autre, ou presque.

Mais depuis quelques années se sont développées simultanément une nostalgie (chez les auditeurs les plus âgés) et une curiosité (chez les plus jeunes) pour les débuts de la dance music, notamment pour la house de Chicago et la techno de Detroit. Historiquement, les enregistrements propres à ces deux scènes avaient été jusqu’ici appréciés pour leur usage idiosyncrasique des machines et leur esthétique très brute, un son « sale », entre autres favorisé par une mise en avant des fréquences moyennes par rapport aux basses. Or, la volonté de ressortir ces disques mythiques s’est heurtée au passage du temps et aux mutations qu’a connues la scène club dans son ensemble. Le cas, par exemple, de l’anthologie Rush Hour : House of Trax, rassemblant des versions remasterisées de morceaux du légendaire label Trax de Chicago, a déclenché une controverse parmi les fans, mettant du même coup en évidence la complexité d’entreprendre un tel projet au sein d’une culture musicale à l’évolution accélérée, et aujourd’hui fondée sur des sound systems surpuissants et des producteurs obsédés par les fréquences graves. Cette réédition Trax a en effet procédé à une vaste réégalisation des fréquences d’origine, allant jusqu’à définir un son qui n’existait tout simplement pas sur les premières versions des morceaux : les aigus y sonnent ainsi beaucoup plus nets, tandis que les basses s’y montrent plus pleines, plus denses. Bien que présentée commercialement comme une réédition, cette anthologie n’en révise donc pas moins les enregistrements initiaux du point de vue des standards actuels de la dance music, tels que les respectent en tout cas la plupart des ingénieurs spécialistes du genre. Quand on écoute le disque en question, on se rend ainsi compte que la nouvelle égalisation prend tellement de libertés par rapport à l’ancienne qu’elle pratique finalement une sorte de re-présentation radicale du matériau d’origine, lui ôtant sans manières tous ses attributs « lo-fi » pour le soumettre aux contraintes du modèle de haute précision machinique qui fait marcher la house music contemporaine.

Cet exemple identifie particulièrement bien les interactions complexes qui lient la conservation du passé et le désir d’injecter une dose plus ou moins forte de modernité technologico-esthétique dans le processus du remastering. Dans ce cas précis, ces méthodes de transformation viennent peut-être des exigences sonores pour le moins extrêmes des producteurs, DJ et auditeurs, ainsi que de la vitesse supérieure de progression qui caractérise la dance music contemporaine et le cadre où elle se vit – on songe notamment aux clubs berlinois et à leurs monstrueux sound systems. Et certes, les paramètres sonores de la pop commerciale d’aujourd’hui évoluent pour le moment moins rapidement que ceux de la house ou de la techno actuelles. Mais cela n’empêche que, comme on le sait, les tendances qui émergent d’abord de scènes relativement confidentielles finissent tôt ou tard par se manifester au cœur de la culture mainstream. Et bien qu’il reste pour l’instant cantonné à des genres musicaux relativement peu populaires, ce niveau de remastering sauvage pourrait bien ouvrir dans le futur la voie à d’autres techniques de révisionnisme sonore, appliquées à des champs plus grand public. On dirait bien que la relation que le présent entretient avec le passé se montre sans cesse plus flottante, plus relâchée : on envisage aujourd’hui l’histoire musicale de façon exponentiellement liquide et interprétative, et son rapport à l’idée d’intention artistique originale semble toujours plus négligée. Les objets hybrides que sont devenus les archives musicales remasterisées entretiennent un dialogue avec des domaines qui dépassent le strictement musical : ils doivent composer avec les modes culturelles, l’esthétique médiatique et les avancées technologiques. Profondément éloignée de sa vocation initiale de restauration, la pratique du remastering se rapproche aujourd’hui toujours un peu plus de ce avec quoi elle finira peut-être par se confondre irrémédiablement un jour : le remix.

Remastering digital et révisionnisme

Post navigation


Laissez un commentaire
(celui-ci sera publié en ligne sitôt que le modérateur en aura pris connaissance)