Es gibt einige grundlegende Prozesse, die fest in den "Jargon der Kategorie" bis zu einem gewissen Anfänger bleiben. Obwohl Normalisierung ist als Feature in fast jeder DAW (und Audio Editing Software) einige Nutzer vielleicht noch nicht wissen, wann es zu benutzen.
Hopefully this Quick Tip will go some way to clarifying when to apply normalization techniques to your music.
Was ist Normalisierung?
Da dies nur eine kurze Beschreibung des Prozesses werden wir nicht zu stark vertiefen sich in die Mathematik. Im Wesentlichen ist die Normalisierung ein Prozess, der das Niveau eines jeden Audio-raist auf eine vordefinierte maximale ohne Clipping.
Wenn Audio normiert ist Ihre Software wird die Datei für einen Spitzenpegel suchen und verschieben Sie diese auf den definierten Maximalwert. Der Rest der Datei wird dann bis zu der gleichen relativen Niveau gebracht werden. Dies ist, wie Null-Clipping erreicht wird.
Viele Anwendungen vereinfachen die Normalisierung verarbeiten und nutzen 0db als Standardwert für die maximale, während andere dem Benutzer zu ermöglichen vordefinieren der Ebene zu tun. Sie werden in der Regel feststellen, dass engagierten, professionellen Sample-Editoren wie Peak Pro (OSX) und Wavelab (Windows) wird ein umfassender Feature-Set Sport.
Wenn zu normalisieren
Die Normalisierung kann ein großes Werkzeug für die schnelle Steigerung der Wert einer Probe oder Aufnahme ohne sich Gedanken über Clipping werden. Denken Sie daran, dies ist nur eine relative Steigerung des Signals, so dass keine wirkliche Verarbeitung stattfindet. Ihr Ton sollte herauskommen klingende die gleiche wie in ging!
Die ideale Bühne, um eine Normalisierung gelten nur, nachdem Sie einige Verarbeitung angewandt und exportiert das Ergebnis. Compression-, Modulations-Effekten oder ein anderer Prozess kann Ihr Gewinn reduziert haben. Die Normalisierung kann Ihnen dabei helfen.
Natürlich könnte man einfach erhöhen den Gewinn später aber die Anwendung Normalisierung kann eine schnelle Lösung und geben Ihnen einen guten gesunden Pegel direkt an der Quelle. Dies kann oft helfen, einen dynamischen Sound-Mix und geben Ihnen einen schönen heißen Signal auf weitere Prozessoren.
Fortschreitende Vorsichtig
Es gibt Situationen, in denen Sie sich gut überlegen, Normalisierung als Option könnte. Der Hauptgrund dafür ist, dass bei einer Erhöhung des Kanals mit einer Technik, es ist nicht nur das Signal, dass eine erhöhte Ebene, sondern auch die Höhe eines etwaigen Störungen oder Defekte in Ihre Audio.
In diesem Sinne, wenn Sie eine sehr ruhige Aufnahme, die eine relativ hohe Grundrauschen hat normalisieren wählen, wird das Rauschen mit dem Signal erhöht werden. Dies wird nur zu einem höheren Lärmpegel führen und das ist nie eine gute Sache.
In diesen Situationen ist es wahrscheinlich eine gute Idee, zurück ans Reißbrett oder darüber nachdenken, Wiederherstellung oder Rauschunterdrückung Werkzeuge. In vielen Fällen jedoch kann die Normalisierung ein äußerst nützliches Werkzeug und sicherlich ein Prozess bewusst zu sein werden.
Schauen Sie sich diese Tutorials für mehr Studio-und Recording Techniques!
Discussion
It might be worth mentioning that if the final mix is heading to a mastering house, they prefer it not be normalized and like their track levels left with at least 6-9dbs of headroom.
and Harmonik, yep you can normalise in the bounce section. This is exactly the same as normalising using any other method.
Logic has so much headroom it is quit literally impossible to overload it internally. If any track were hitting 0db or higher, the beauty of Logic is you can simply lower the level, even at the output. If the level is goin into a plug in, that is another story and clipping or overload can occur. Logic is able to Handel incredibly diverse levels. Normalizing works well to balance up tracks in the mixing stage without leaning on compressors. I liked the part in this article where Mo points out, the ideal time for normalizing is after putting some processing on the track. That is a great tip to keeping you mix in "homeostasis"... So to speak.
When recording music (as I understand it) there's three phases (recording, mixing and mastering). You guys have plenty of tutorials on each of these, but I'm not sure how one blends into the other. Victor mentioned that mastering engineers like a few db of headroom. This was news to me, but obviously, a very important bit of info. Any thoughts on a tutorial where you follow a song from microphone to iTunes (or CD)? Just a thought. Thanks for all the great content!
Alan
Want to join the discussion?
Create an account or login to get started!