Ci sono alcuni processi fondamentali che rimangono saldamente in "categoria gergo" per alcuni principianti. Sebbene la normalizzazione è disponibile come funzionalità di DAW quasi tutti (e software di editing audio), alcuni utenti potrebbero ancora non sapere quando usarlo.
Hopefully this Quick Tip will go some way to clarifying when to apply normalization techniques to your music.
Che cos'è normalizzazione?
Dato che questa è solo una breve descrizione del processo che non sarà approfondire troppo pesantemente nella matematica. Essenzialmente, la normalizzazione è un processo che aumenta il livello di tutto l'audio di un pre-definito il massimo senza clipping.
Quando l'audio viene normalizzato il software cercherà il file per un livello di picco e spostare questo al livello massimo definito. Il resto del file sarà poi portato allo stesso livello relativo. Questo è il modo di ritaglio zero è raggiunto.
Molte applicazioni semplificare il processo di normalizzazione e utilizzo 0dB come valore massimo predefinito, mentre altri si permettono all'utente di pre-definire il livello. Potrai trovare di solito quella dedicata, editori campione professionali come Peak Pro (OSX) e Wavelab (Windows) sarà sport un set di funzionalità più completa.
Quando Normalizza
La normalizzazione può essere un grande strumento per aumentare rapidamente il livello di un campione o di registrazione, senza preoccuparsi di clipping. Ricordate che questa è solo una spinta parente del segnale, in modo che nessun elaborazione vera e propria si svolge. L'audio dovrebbe uscire suona lo stesso che è andato in!
Il palcoscenico ideale per applicare la normalizzazione è solo dopo aver applicato alcune elaborazioni ed esportato il risultato. Compressione, effetti di modulazione o di qualche altro processo potrebbe aver ridotto il vostro guadagno. La normalizzazione può aiutare qui.
Naturalmente si potrebbe semplicemente aumentare il guadagno più tardi, ma applicando la normalizzazione può essere una soluzione rapida e vi darò un buon livello di guadagno sano diritto alla fonte. Questo spesso può aiutare a mescolare un suono dinamico e vi darò un segnale bello caldo entrare in ulteriori processori.
Procedendo con cautela
Ci sono situazioni in cui si potrebbe desiderare di pensare due volte prima di normalizzazione come opzione. La ragione principale di questo è che quando si aumenta di guadagno con qualsiasi tecnica, non è solo il livello del segnale che è aumentata, ma anche il livello di rumore o difetti presenti nel vostro audio.
Con questo in mente, se si sceglie di normalizzare una registrazione molto tranquilla che ha un rumore abbastanza alto, il rumore sarà aumentata con il segnale. Questo sarà solo portare ad un livello di rumore più elevati e che non è mai una buona cosa.
In queste situazioni è probabilmente una buona idea di tornare al tavolo da disegno o pensare di restauro o di strumenti di riduzione del rumore. In molti casi però, la normalizzazione può essere uno strumento estremamente utile e certamente un processo per essere a conoscenza.
Dai un'occhiata a queste guide per ulteriori Studio e tecniche di registrazione!
Discussion
It might be worth mentioning that if the final mix is heading to a mastering house, they prefer it not be normalized and like their track levels left with at least 6-9dbs of headroom.
and Harmonik, yep you can normalise in the bounce section. This is exactly the same as normalising using any other method.
Logic has so much headroom it is quit literally impossible to overload it internally. If any track were hitting 0db or higher, the beauty of Logic is you can simply lower the level, even at the output. If the level is goin into a plug in, that is another story and clipping or overload can occur. Logic is able to Handel incredibly diverse levels. Normalizing works well to balance up tracks in the mixing stage without leaning on compressors. I liked the part in this article where Mo points out, the ideal time for normalizing is after putting some processing on the track. That is a great tip to keeping you mix in "homeostasis"... So to speak.
When recording music (as I understand it) there's three phases (recording, mixing and mastering). You guys have plenty of tutorials on each of these, but I'm not sure how one blends into the other. Victor mentioned that mastering engineers like a few db of headroom. This was news to me, but obviously, a very important bit of info. Any thoughts on a tutorial where you follow a song from microphone to iTunes (or CD)? Just a thought. Thanks for all the great content!
Alan
Want to join the discussion?
Create an account or login to get started!