Équilibrer les bandes de fréquences audio et les volumes des instruments pour une qualité audio constante dans des environnements, logiciels et matériels très variables?

Aug 18 2020

J'utilise GarageBand pour écrire de la musique, mais en théorie, cette question pourrait s'appliquer à n'importe quel flux de travail de composition et d'enregistrement.

Un problème que je rencontre souvent est que différents lecteurs audio semblent avoir leur propre "saveur" de sortie. Par exemple, tout ce que j'écris ressemble évidemment à ce que je voulais dans GarageBand. Lorsque je l'exporte au format MP3 et que je l'écoute dans QuickTime Player, même résultat.

Lorsque j'importe le même fichier dans iTunes, il semble appliquer une sorte de booster d'aigus qui rend toute la piste sonnante. Idem sur mon iPhone (où le lecteur de musique par défaut est essentiellement un sous-ensemble d'iTunes). En pratique, je "corrige" ce problème avec un amplificateur de basse ou un réducteur d'aigus dans le menu Musique -> Égaliseur. Je m'attendrais à ce que les lecteurs multimédias par défaut sur Windows, Android et Linux aient leurs propres particularités.

Mon approche actuelle consiste à tester sur une petite sélection de matériel et de logiciels que j'ai chez moi, bien qu'il m'est évidemment impossible de tester sur tous les équipements possibles sur lesquels ma musique pourrait fonctionner.

Cela devient encore plus difficile si je dois tenir compte de différents types d'écouteurs et d'équipements audio. Certains casques et haut-parleurs sont bien équilibrés, certains peuvent être amplifiés par les basses et d'autres peuvent avoir un son de mauvaise qualité. La quantité et le type de rembourrage entre les oreilles et les trous des haut-parleurs sur une paire d'écouteurs entraîneront évidemment une sorte de distorsion ou de polarisation basée sur la fréquence. Je voudrais pouvoir entendre les basses fréquences sur ma musique fort et clair sur mon casque sans jeter d'égaliseur dans le mix. J'aimerais également que d'autres personnes, dont certaines pourraient utiliser des écouteurs lourds améliorant les basses ou antibruit, puissent écouter la même musique sans annuler la garantie sur leurs tympans dans la plage 20-100Hz. Ce n'est pas aussi simple que de «rendre tous les instruments de basse plus forts».

Différents écouteurs ont également des profils de fuite audio différents - par exemple, ceux que j'utilise fuient beaucoup de bruit de l'extérieur. Je considère que c'est une caractéristique plutôt qu'un inconvénient car cela me tient au courant de mon environnement. Pendant ce temps, quelqu'un d'autre pourrait utiliser un casque antibruit qui bloque tout sauf la musique.

En plus de cela, j'aimerais construire ma musique pour qu'elle puisse être raisonnablement écoutée dans des environnements très variables. À l'intérieur ou à l'extérieur, ainsi que sur les transports en commun avec beaucoup de bruit de moteur possible polluant le spectre de fréquences audibles inférieur. NE supposez PAS que l'auditeur utilise un suppresseur de bruit. Mon expérience jusqu'à présent est qu'un amplificateur de basse ou un réducteur d'aigus est un must pour écouter sur un train bruyant, par exemple. Un moyen de résoudre ce problème sans causer le problème inverse lorsqu'il n'y a pas de moteur de train bruyant qui bourdonne bruyamment en arrière-plan?

La question principale: existe-t-il un moyen standard de calculer la distribution de fréquence et les volumes des instruments pour une qualité audio optimisée sur une large gamme de matériels, logiciels et environnements? De préférence, un flux de travail conçu pour un DAW, mais tout ce qui est raisonnable doit être adaptable.

EDIT: Ecrire de la musique est un passe-temps pour moi. Mon budget de production correspond uniquement au temps que j'y consacre, au coût de mon ordinateur et du matériel associé (pour être honnête, j'utilise cet ordinateur pour une tonne d'autres choses; GarageBand est livré gratuitement avec un Mac), et l'électricité sur laquelle il fonctionne . Je n'ai certainement pas le budget pour faire venir un ingénieur du son à bord, sauf en tant que bénévole.

Réponses

3 dissemin8or Aug 18 2020 at 22:24

iTunes a une fonction appelée "Sound Check" qui scanne toute la musique nouvellement importée et effectue un ajustement automatique de l'égaliseur et du volume afin que toutes les chansons de votre bibliothèque jouent à peu près au même volume et aient des profils d'égalisation similaires. Cela peut être votre problème. Si vous ne voulez pas qu'il le fasse, c'est une case à cocher dans les préférences de l'application.

Au-delà de cela, je suis d'accord avec les autres réponses concernant une bonne paire de moniteurs de studio ou d'autres enceintes à réponse plate de haute qualité pour garantir que ce que vous entendez correspond à ce que vous enregistrez.

Vous pouvez également vérifier vos préférences iTunes pour vous assurer qu'il ne convertit pas automatiquement l'audio importé en un MP3 de qualité inférieure par défaut pour économiser de l'espace.

2 ToddWilcox Aug 18 2020 at 03:22

La question principale: existe-t-il un moyen standard de calculer la distribution de fréquence et les volumes des instruments pour une qualité audio optimisée sur une large gamme de matériels, logiciels et environnements?

Oui: embauchez des ingénieurs de mixage et de mastering compétents et expérimentés. C'est la norme de l'industrie.

Comment ces ingénieurs s'assurent-ils que les mélanges se traduiront bien? Surtout, ils connaissent leur métier. Ils ont travaillé pendant des années à développer leurs oreilles et leurs connaissances sur la façon dont un mixage doit sonner s'il veut bien se traduire. Et ils savent également tester leurs mix et masters dans leurs environnements d'écoute personnalisés et un nombre limité d'autres environnements pour corréler les données recueillies par leurs oreilles et effectuer les ajustements nécessaires.

Jusqu'à présent, aucun algorithme, logiciel, matériel ou processus simple n'a été inventé qui puisse remplacer le travail de bons ingénieurs.

Comme dans presque tous les domaines de l'activité humaine, l'amateur ne doit pas s'attendre à opérer au même niveau que le professionnel. Ayant été un ingénieur professionnel semi-pro / bas niveau pendant plusieurs années dans le passé, je m'attendrais à prendre une dizaine d'années d'enregistrement, de mixage et de mastering quotidien à temps partiel pour atteindre le niveau auquel j'étais dans la fleur de l'âge, quand je a pu être embauché localement pour enregistrer et mixer. Si vous préférez principalement être musicien et / ou compositeur, je vous suggère de concentrer votre temps sur cela et de faire de votre mieux du côté de l'ingénierie tout en recherchant des personnes qui apprécient suffisamment votre musique pour payer l'ingénierie professionnelle ou qui sont des ingénieurs. eux-mêmes et sont heureux de travailler avec vous sur les spécifications.

2 user1079505 Aug 18 2020 at 08:34
  1. Si vous exportez le son d'un programme et qu'il sonne clairement différemment dans un autre programme, il y a quelque chose qui ne va pas. Peut-être avez-vous un égaliseur fonctionnant tout le temps dans l'un de vos programmes? Bien sûr, il y a une certaine saveur ajoutée par le format MP3 lui-même, mais à des débits élevés, il devrait être plutôt petit. Si vous observez un effet important, il y a un problème ailleurs. Normalement, cela ne devrait pas arriver.
  2. Un "standard de l'industrie" pour l'écoute dans la production audio est appelé moniteurs de studio . Ce sont des haut-parleurs destinés à avoir une réponse en fréquence plate et à reproduire le son de manière neutre, sans colorer le son, comme le font généralement les équipements grand public. Mais pour que cela fonctionne, vous devez également faire fonctionner correctement votre logiciel (point 1.)
  3. C'est un bon exercice pour vérifier le son de votre mix sur divers types d'équipement grand public, écouteurs, haut-parleurs d'ordinateur portable, radio mono, haut-parleurs de voiture - mais cela ne peut que compléter l'écoute sur de bons moniteurs.
2 PeteCon Aug 18 2020 at 20:43

Connaissez votre équipement.

Achetez un ensemble décent de moniteurs de référence et découvrez comment ils sonnent par rapport à d'autres environnements et équipements. Utilisez-les de manière cohérente et régulière, afin de savoir comment ils fonctionneront avec la musique que vous enregistrez.

N'oubliez pas que les personnes qui aiment beaucoup de basses verront déjà l'égalisation des basses à des niveaux ridicules sur leur équipement, vous n'avez donc pas à vous en soucier. Si cela sonne bien sur les moniteurs de référence, les écouteurs intra-auriculaires et un autoradio, vous êtes aussi proche que possible sans payer un ingénieur de mixage expérimenté pour tout refaire.

1 user1258361 Sep 17 2020 at 10:41

Apparemment, le mixage automatique alimenté par l'IA existe depuis quelques années maintenant. Comme vous vous y attendiez probablement, c'est un compromis. Si vous «sous-traitez au robot», vous économisez de l'argent tout en renonçant à la personnalisation et à la flexibilité que vous auriez autrement avec un ingénieur du son professionnel. Je ne m'attends pas à ce que "le robot" démette bientôt les ingénieurs du son de leur travail, mais le mixage automatique offre définitivement une option "bien meilleure que rien" pour les musiciens indépendants à très petit budget.

https://www.theverge.com/2019/1/30/18201163/ai-mastering-engineers-algorithm-replace-human-music-production

Landr est l'un des services de ce type les plus populaires, hébergé en tant que service Web. Vous pouvez télécharger la chanson que vous voulez masteriser, laisser l'algorithme de Landr l'analyser, choisir entre 3 options pour la force avec laquelle vous voulez que les effets soient appliqués, puis exporter le résultat. C'est une approche fourre-tout, et ce n'est pas vraiment flexible.

La société de logiciels iZotope a abordé l'IA avec un objectif éducatif. La société fabrique déjà une suite populaire de plug-ins appelée Ozone, et a ajouté un «Master Assistant» intelligent en 2017. L'assistant ne fait pas tout le travail pour vous. Au lieu de cela, cela vous donne un point de départ que vous pouvez modifier. De cette façon, les producteurs peuvent prendre des décisions éclairées en fonction des choix de l'IA.