Bilanciamento delle bande di frequenza audio e dei volumi degli strumenti per una qualità audio costante in ambienti, software e hardware altamente variabili?
Uso GarageBand per scrivere musica, ma in teoria questa domanda potrebbe applicarsi a qualsiasi composizione e flusso di lavoro di registrazione.
Un problema in cui mi imbatto spesso è che diversi lettori audio sembrano avere il loro "sapore" di output. Ad esempio, qualunque cosa scriva ovviamente suona come quello che intendevo in GarageBand. Quando lo esporto in formato MP3 e l'ascolto in QuickTime Player, lo stesso risultato.
Quando importa lo stesso file in iTunes, sembra applicare una sorta di amplificatore degli acuti che rende l'intera traccia metallica. Idem sul mio iPhone (dove il lettore musicale predefinito è fondamentalmente un sottoinsieme di iTunes). In pratica, lo "aggiusto" con un amplificatore di bassi o un riduttore di acuti nel menu Musica -> Equalizzatore. Mi aspetto che i lettori multimediali predefiniti su Windows, Android e Linux abbiano le loro peculiarità specifiche.
Il mio approccio attuale è quello di testare su una piccola selezione di hardware e software che ho a casa, anche se ovviamente è impossibile per me testare su ogni possibile apparecchiatura su cui la mia musica potrebbe funzionare.
Diventa ancora più difficile se devo tenere conto di diversi tipi di cuffie e apparecchiature audio. Alcune cuffie e altoparlanti sono ben bilanciati, alcuni potrebbero essere potenziati dai bassi e altri potrebbero avere un audio metallico di bassa qualità. La quantità e il tipo di imbottitura tra le orecchie e i fori degli altoparlanti su un paio di cuffie causerà ovviamente una sorta di distorsione o polarizzazione basata sulla frequenza. Mi piacerebbe essere in grado di ascoltare le basse frequenze della mia musica forte e chiaro sulle mie cuffie senza lanciare un equalizzatore nel mix. Vorrei anche che altre persone, alcune delle quali potrebbero utilizzare cuffie con bassi pesanti o con cancellazione del rumore, fossero in grado di ascoltare la stessa musica senza invalidare la garanzia sui loro timpani nella gamma 20-100Hz. Non è così semplice come "rendere tutti gli strumenti bassi più forti".
Cuffie diverse hanno anche diversi profili di dispersione audio, ad esempio quelle che uso perdono molto rumore dall'esterno. Considero questa una caratteristica piuttosto che uno svantaggio poiché mi tiene consapevole di ciò che mi circonda. Nel frattempo, qualcun altro potrebbe utilizzare un auricolare con cancellazione del rumore che blocca tutto tranne la musica.
Inoltre, vorrei costruire la mia musica in modo che possa essere ragionevolmente ascoltata in ambienti altamente variabili. Al chiuso o all'aperto, e anche durante i trasporti di massa con molti possibili rumori del motore che inquinano lo spettro di frequenze udibili inferiori. NON dare per scontato che l'ascoltatore stia utilizzando un dispositivo di cancellazione del rumore. La mia esperienza finora è che un amplificatore di bassi o un riduttore di acuti è un must per l'ascolto su un treno rumoroso, ad esempio. Qualche modo per risolvere questo problema senza causare il problema inverso quando non c'è un treno rumoroso che ronza rumorosamente in sottofondo?
La domanda principale: esiste un metodo standard del settore per calcolare la distribuzione della frequenza e i volumi degli strumenti per una qualità audio ottimizzata su un'ampia gamma di hardware, software e ambienti? Preferibilmente un flusso di lavoro creato per una DAW, ma qualsiasi cosa ragionevole dovrebbe essere adattabile.
EDIT: Scrivere musica è un hobby per me. Il mio budget di produzione è solo il tempo che ci dedico, il costo del mio computer e dell'hardware associato (per essere onesti, uso quel computer per un sacco di altre cose; GarageBand viene fornito gratuitamente con un Mac) e l'elettricità con cui funziona . Sicuramente non ho lo stanziamento di budget per portare a bordo un tecnico del suono, tranne che come volontario.
Risposte
iTunes ha una funzione chiamata "Sound Check" che analizza tutta la musica appena importata e fa un po 'di equalizzazione automatica e regolazione del volume in modo che tutti i brani nella libreria vengano riprodotti all'incirca allo stesso volume e abbiano profili di equalizzazione simili. Questo potrebbe essere il tuo problema. Se non vuoi che lo faccia, è una casella di controllo nelle preferenze dell'app.
Oltre a ciò, sono d'accordo con le altre risposte riguardanti una buona coppia di monitor da studio o altri altoparlanti a risposta piatta di alta qualità per garantire che ciò che senti corrisponda a ciò che stai registrando.
Potresti anche voler controllare le tue preferenze di iTunes per assicurarti che non stia convertendo automaticamente l'audio importato in un MP3 di qualità inferiore predefinito per risparmiare spazio.
La domanda principale: esiste un metodo standard del settore per calcolare la distribuzione della frequenza e i volumi degli strumenti per una qualità audio ottimizzata su un'ampia gamma di hardware, software e ambienti?
Sì: assumere ingegneri di missaggio e mastering capaci ed esperti. Questo è lo standard del settore.
In che modo questi ingegneri assicurano che i mix si traducano bene? Soprattutto, conoscono i loro affari. Hanno lavorato per anni sviluppando le loro orecchie e la loro conoscenza di come dovrebbe suonare un mix se si traduce bene. E sanno anche come testare i loro mix e master nei loro ambienti di ascolto personalizzati e un numero limitato di altri ambienti per correlare i dati raccolti dalle loro orecchie e apportare le modifiche necessarie.
Finora non è stato inventato alcun algoritmo, software, hardware o processo semplice che possa sostituire il lavoro di bravi ingegneri.
Come in quasi tutti i settori dell'attività umana, l'hobbista non dovrebbe aspettarsi di operare allo stesso livello del professionista. Essendo stato un ingegnere professionista semi-professionista / di basso livello per diversi anni in passato, mi sarei aspettato circa dieci anni di registrazione, missaggio e mastering part-time giornalieri per raggiungere il livello a cui ero nel mio apice, quando ho è stato in grado di essere assunto localmente per registrare e mixare. Se preferisci principalmente essere un musicista e / o un compositore, ti suggerisco di concentrare il tuo tempo su questo e di fare del tuo meglio dal lato ingegneristico mentre cerchi persone che apprezzino la tua musica abbastanza da pagare per l'ingegneria professionale o che siano ingegneri se stessi e sono felice di lavorare con te su spec.
- Se esporti il suono da un programma e suona chiaramente in modo diverso in un altro programma, c'è qualcosa che non va. Forse hai un equalizzatore in esecuzione tutto il tempo in uno dei tuoi programmi? Ovviamente c'è un po 'di sapore aggiunto dal formato MP3 stesso, ma a bitrate elevati dovrebbe essere piuttosto piccolo. Se osservi un grande effetto, allora c'è un problema altrove. Normalmente non dovrebbe accadere.
- Uno "standard industriale" per l'ascolto nella produzione audio è chiamato monitor da studio . Si tratta di altoparlanti che intendono avere una risposta in frequenza piatta e riprodurre il suono in modo neutro, senza colorare il suono, come fanno tipicamente le apparecchiature di consumo. Ma per farlo funzionare è necessario che anche il software funzioni correttamente (punto 1.)
- È un buon esercizio per verificare come suonerà il tuo mix su vari tipi di apparecchiature di consumo, cuffie, altoparlanti per laptop, radio mono, altoparlanti per auto, ma questo può solo integrare l'ascolto su buoni monitor.
Conosci la tua attrezzatura.
Acquista un set decente di monitor di riferimento e impara come suonano in relazione ad altri ambienti e apparecchiature. Usali in modo coerente e regolare, in modo da essere consapevole di come funzioneranno per quanto riguarda la musica che registri.
Ricorda che le persone a cui piacciono molto i bassi avranno già l'equalizzazione dei bassi alzata a livelli stupidi sulla loro attrezzatura, quindi non devi preoccuparti di questo. Se suona bene su monitor di riferimento, cuffie in-ear e un'autoradio, sei il più vicino possibile senza pagare un ingegnere esperto di mix per rifare tutto.
Apparentemente, l'auto-missaggio basato sull'intelligenza artificiale è una cosa da alcuni anni. Come probabilmente ti aspettavi, è un compromesso. Se "esternalizzi il robot", risparmi denaro rinunciando alla personalizzazione e alla flessibilità che altrimenti avresti con un tecnico del suono professionista. Non mi aspetto che "il robot" rimpiazzi gli ingegneri di registrazione professionisti dal loro lavoro in qualunque momento presto, ma l'auto-missaggio fornisce sicuramente un'opzione "molto meglio di niente" per i musicisti indipendenti con un budget estremamente basso.
https://www.theverge.com/2019/1/30/18201163/ai-mastering-engineers-algorithm-replace-human-music-production
Landr è uno dei servizi di questo tipo più popolari, ospitato come servizio web. Puoi caricare la canzone che desideri masterizzare, lasciare che l'algoritmo di Landr la analizzi, scegliere tra 3 opzioni per la forza con cui desideri applicare gli effetti e quindi esportare il risultato. È un approccio catchall e non è esattamente flessibile.
La società di software iZotope si è avvicinata all'intelligenza artificiale con un obiettivo educativo. L'azienda produce già una popolare suite di plug-in chiamata Ozone, che nel 2017 ha aggiunto un "Master Assistant" intelligente. L'assistente non fa tutto il lavoro per te. Invece, ti dà un punto di partenza che puoi modificare. In questo modo, i produttori possono prendere decisioni informate in base alle scelte fatte dall'IA.