Ionstorm Studios - Marco Nassenstein Medienproduktion
Mix
ionstorm.de/Rockmusik_aus_dem_Computer/Flexibilitaet_in_der_Praxis_anhand_eines_Beispiels/Mix

Übersichtsseite
voriges Kapitel | nächstes Kapitel



4.4 Mix


Die in Kapitel 4.3 beschriebenen Effekte behandelten 4 Dimensionen einer Audioaufnahme:

• das Panorama (Pan/Stereoeffekte)
• den Frequenzbereich (Equalizer)
• den Raum (Hall und Stereo Enhancer)
• die Dynamik (Kompressoren)

Bobby Owsinski identifiziert in seinem Buch Mischen wie die Profis [10] noch zwei weitere Dimensionen:

• die Ausgewogenheiten (Balance der Pegel)
• das Interesse

Dass die Instrumente untereinander den richtigen Lautstärkepegel haben sollten, versteht sich von selbst. Es macht keinen Sinn, einzelne Instrumente unter anderen gewissermaßen zu begraben. Dies wird nachfolgend noch genauer beschrieben.

Zur sechsten Dimension schreibt Owsinski auf Seite 99: Wenn Sie die ersten fünf Elemente beherrschen, dann mag das für die meisten Audiojobs völlig genügen. Es wird auch ausreichen, um eine recht ordentliche Mischung abzuliefern. Aber in den meisten heutigen Musik-Genres wird erwartet, dass man dieses Level noch einmal deutlich überschreitet. Natürlich ist das immer leichter, wenn man mit fantastischen Tracks, einem soliden Arrangement und spektakulären musikalischen Darbietungen arbeitet. Aber ein hervorragender Mix kann durchschnittliche Tracks in Hitmaterial verwandeln, das die Leute so mitreißt, dass sie gar nicht genug davon bekommen können. Das ist mit Songs gemacht worden, die wahrscheinlich zu Ihren Lieblings-Hits zählen.

Diese Beschreibung Owsinskis sechster Dimension ähnelt dem Grundproblem einer guten Audioaufnahme: sie ist unkonkret. Das Mischen eines Songs ist keine exakte Wissenschaft und neben dem Know How braucht ein Tontechniker (oder auch Toningenieur – wie auch immer man den Menschen bezeichnet, der das Rohmaterial vereint und ein einzelnes, gut klingendes Audiostück daraus produziert) sowohl eine Begabung, als auch das durch Owsinski vorgeschlagene Interesse.

Die Effekteinstellungen der einzelnen Spuren, die im vorigen Kapitel beschrieben wurde, stellt zu keinem Zeitpunkt des Mischprozesses einen endgültigen Stand dar. Im jetzt folgenden (vielleicht wichtigsten) Arbeitsschritt wird es oft nötig sein, Einstellungen an den Einzelspuren feiner vorzunehmen oder sogar ganz zu verwerfen. Schlußendlich ist es keine Frage, wie ein Instrument alleine klingt, sondern wie es im Kontext der anderen Instrumente klingt.

Es gibt viele verschiedene Vorgehensweisen, die alle zu einem Erfolg führen können, aber möglicherweise ist es sinnvoll, nachdem die Einzelspuren in ihrer leicht berarbeiteten Form vorliegen, sich zunächst auf das Fundament des Songs zu konzentrieren, das aus Schlagzeug und Bass besteht. Gemäß der sechs Dimensionen muß zuerst der Lautstärkepegel der beiden Instrumente angeglichen werden. Die Anwendung von Panoramafunktionen sind für das Fundament an dieser Stelle vernachlässigbar, denn das Schlagzeug selbst bringt bereits Panoramaeinstellungen mit, die durch den Klangerzeuger produziert wurden. So kann es zum Beispiel sein, dass die verschiedenen Toms unterschiedliche Positionen im Stereopanorama besetzen, um bei Fills einen räumlichen Effekt zu erzielen. Die Snare- und die Basedrum jedoch, als wichtigste Trommeln des Schlagzeuges, sollten im Center oder zumindest sehr nahe beim Center verblieben sein. dasselbe gilt für den Bass: auch dieser befindet sich fast immer im Center einer Audioaufnahme. Das liegt vor allem daran, dass Menschen tiefe Frequenzen sowieso nicht lokal zuordnen können. Alle Schallquellen, die sich unterhalb von 80 - 90 Hertz abspielen, kann der Mensch nicht lokalisieren. Dies ist auch der Grund, wieso Subwoofer Boxen, also Lautsprecher für besonders tiefe Frequenzen an einer Stereoanlage, an einem beliebigen Ort im Raum aufgestellt werden können. Die dritte Dimension gibt vor, die Frequenzen der beiden Instrumente zu betrachten und gegebenenfalls voneinander zu trennen, wenn ihre Hauptausschläge sich im Spektrum zu nah beieinander befinden. Dies kann in der Regel nur ein Konflikt zwischen Basedrum und Bass sein. Owsinski schreibt:

Um die Wirkung und den Biss zu erzielen, den moderne Mischungen ausstrahlen, muss man im Mix Platz machen für diese beiden Instrumente, so dass sie nicht gegeneinander ankämpfen und der Song zu einem undefinierten Brei verkommt. Man könnte einfach die höheren Frequenzen des Basses und die tieferen Frequenzen der Bassdrum betonen (oder anders herum). Diese simple Strategie kann zwar funktionieren, doch ist es sicherlich besser, eine etwas ausgefeiltere Herangehensweise in der Hinterhand zu haben.

Danach beschreibt Owsinski grundlegend ein solches Vorgehen: die Basedrum soll im Bereich von 60 bis 120 Hertz angehoben werden, um sie auch auf kleineren Lautsprechern besser hörbar zu machen. Außerdem soll der Schlegelanschlag im Bereich von 1 und 4 kHz hörbarer gemacht werden. Frequenzen unterhalb von 30 Hertz (Basedrum) und unterhalb von 50 Hertz sollten komplett ausgeblendet werden. Betont werden muß, dass diese Empfehlungen nur grobe Daumenregeln darstellen können, da der Klang je nach verwendetem Instrument, Klangerzeuger oder Aufnahmeequipment variieren kann.

Halleffekte sind gegebenenfalls schon leicht auf der Schlagzeugspur vorhanden, nachdem sie, wie in Kapitel 4.2.1 beschrieben, aufgezeichnet wurde. Um den Bass und das Schlagzeug aber wie eine Einheit klingen zu lassen, sollten beide denselben (leichten) Halleffekt bekommen. Insbesondere werden hierbei die Geräusche charakterisiert, die nicht direkt mit dem gespielten Ton zusammenhängen. Also hochfrequente Anteile wie die Bewegung der Finger über die Saiten oder der Anschlag des Schlegels auf der Trommel.

Die Dimension Dynamik wird für das Schlagzeug mit einem entsprechenden Klangerzeuger ebenfalls bereits vor der Aufnahme erledigt. Eine weitere Kompression des Audiosignals kann aber dennoch sinnvoll sein. Der Bass mußte im Beispielsong kaum komprimiert werden, da seine akustischen Signale von einem MIDI Klangerzeuger stammten. Ein natürlicher Bass muß in der Regel stark komprimiert werden, da die verschiedenen Töne des Basses unterschiedliche Lautstärken erzeugen.

Am Ende dieses ersten Mixschrittes sollte man einen Drum und Basstrack haben, der keine Wünsche übriglässt. Nun kann man sich den anderen Instrumenten widmen.

Bei Gitarren ist es wichtig, die niedrigen Frequenzen, die einen mächtigen Sound ausmachen, per Equalizer herauszufiltern, da dies der Bereich des Basses ist. Wenn beide Instrumente im selben Frequenzspektrum agieren, führt das zu einem undifferenzierten Sound. dasselbe gilt auch für den hohen Bereich. Owsinski schreibt auf Seite 66 seines Buches[10]: Wenn Sie zu viele Bässe in einem verzerrten Gitarrensound lassen, konkurrieren diese mit der Rhythmussektion, und zu viele Frequenzen über 8 kHz geraten sich mit den Becken in die Haare.

Im Panorama wurden die Gitarren des Beispielsongs folgendermaßen verteilt: von Hand gespielte Gitarre 1 45 Grad links, Gitarre 2 45 Grad rechts. MIDI Gitarre 1 und 2 verblieben im Center.
Allen Rhythmusgitarrenspuren wurde derselbe Halleffekt zugeteilt, wie dem Bass, um eine Einheit zu erreichen.
Die Kompression einer verzerrten Rhythmusgitarre ist nicht immer nötig, da die Dynamik einer Verzerrung schon eine fest definiertes Maximum besitzt. Meistens reicht es stattdessen, die Lautstärke entsprechend dem Rest anzupassen. Natürlich kann es aber auch Sinn machen, Gitarrenspuren zu komprimieren. Owsinski, Seite 98: Wenn Sie bemerken, dass die Gitarre hier und da im Mix untergeht, versuchen Sie, sie mit einer Ratio von 2:1 oder 4:1 zu komprimieren und stellen Sie mittlere Attack- und Release-Zeiten ein. Dies bewirkt, dass das rhythmische Einschwingen unbearbeitet durchkommt, während die Sustain-Resonanzen der Gitarren angehoben werden.
Das Ziel ist, dass Rock-Gitarren im Mix groß und „in your face“ erscheinen. Sie können das mit einer Ratio von 10:1 oder noch höher erreichen, was die Einschwingphase des Signals eliminiert. Stellen Sie sicher, dass das Sustain des Signals wieder auf den Ursprungspegel (1:1) zurückkehrt.


Nun sollte ein grober Mix der Rhythmusinstrumente vorliegen. An dieser Stelle sei angemerkt, dass der Mischvorgang sich nicht zufällig an den Ablaufdiagrammen der Aufnahme orientiert, wie sie in Kapitel 2.1 und 2.2 zu sehen
sind. Es ist grundsätzlich sinnvoll, sich im Frequenzspektrum nach oben durchzuarbeiten. Schlagzeug und Bass bilden das Fundament, die Rhythmusgitarre unterstützt dies später. Erst dann kommen Sologitarren, Ambient und Sänger hinzu.

Wie bereits weiter oben beschrieben, wurden die Sologitarren, die ihre eigenen Effekte mitbrachten, im Beispielsong hart links und hart rechts ins Panorama gelegt und sowohl von der Lautstärke, als auch von ihrer Gewichtung im Equalizer angepasst. Bei einer Mono Version des Songs führte die Panoramaeinstellung allerdings dazu, dass die Sologitarren kaum zu hören waren, wodurch ihr Winkel von -90 und 90 auf -44 und 41 verringert wurden.

Die Refrainstreicher wurden ohne Nachbearbeitung lediglich per Stereo Enhancer verbreitert.

An dieser Stelle liegt eine instrumentale Version des Songs vor, in die jetzt der Gesang integriert werden muß.

Gesang muß zunächst komprimiert werden, um eine gleichmäßige Lautheit der einzelnen Worte zu erreichen. Danach wird er gewöhnlich anhand der Instrumentallautstärke angepasst und mit einem Hall versehen. Diese Kombination an Effekten führt zum Zischen der stimmlosen Sprachanteile, was durch einen De-Esser beseitigt werden muß. Gesangsstimmen verbleiben meist im Center. Im Beispielsong jedoch belegt lediglich der Protagonist das Panoramazentrum, die beiden Nebencharaktere Cherub 1 und Cherub 2 wurden leicht nach links bzw. rechts gelegt. Darüberhinaus muß, je nach Aufnahme und Stimme, der Equalizer angepasst werden, bis sich die Stimme deutlich durchsetzt, ohne zu laut zu sein. Owsinski gibt als grundlegende Tipps auf Seite 66 seines Buches[10]: Heben Sie 125 bis 250 Hz ein wenig an, um das Fundament der Stimme zu betonen. Zudem klingt es dann mehr „aus dem Brustkorb heraus“. Der Bereich von 2 bis 4 kHz betont die Konsonanten, und die Stimme erscheint näher am Zuhörer.

Die in diesem Kapitel beschriebenen Vorgehensweisen spiegeln die grundsätzlichen Handlungen wieder, die vorgenommen wurden oder vorgenommen werden sollten. Selbstverständlich ist ein bestimmtes Instrument im Rahmen des Mischvorganges nie fertig und unantastbar. Im Gegenteil: weitere Instrument verändern den Klang und das in Gebrauch befindliche Frequenzspektrum, was zu unzähligen nachträglichen Anpassungen führt. Die leichte Änderung an einem einzigen Instrument hat zwangsläufig kleine bis große Auswirkungen auf alle anderen Instrumente. Dadurch müssen auch diese wieder angepasst werden.

Abbildung 41 zeigt alle Mixerspuren im Beispielsong. Zu erkennen sind neben den Einzelspuren auch Gruppenspuren und VST Ausgänge, sowie ein Effektkanal für Hall. Man sieht die Lautstärkeeinstellungen der Fader, die Panoramaverteilungen und das Signalrouting. Kurze Erläuterung der Knöpfe eine Signalzuges: M/S = Spur ist gemutet oder solo. R/W = Spur liest oder schreibt Automationsdaten (Die Spuren mit einem aktiven R blenden sich zum Endes des Songs hin aus). e = öffnet weitere Einstellungen für Equalizer, Insert- und Sendeffekte, etc. Danach folgen Inserteffektestatus, Equalizerstatus und Sendeffektstatus. Diese leuchten jeweils, wenn Einstellungen vorhanden und aktiv sind. Gruppen- und Effektspuren enthalten keine weiteren Anzeigen. MIDI Spuren enthalten einen zusätzlichen Knopf zum Aufruf des VST UI und Audiospuren einen Knopf zur Aufnahme- und Monitoraktivierung.

www.ionstorm.de/images/rockmusik_aus_dem_computer/41-mixer.jpg
Abbildung 41: Mixereinstellungen des Beispielsongs


Besonders wichtig hervorzuheben ist, dass der Song selbst in dieser Form extrem manipuliert werden kann. Jede Bassnote liegt nach wie vor als MIDI Datum vor, ebenso wie zwei Gitarren und die Streicher im Refrain. Lediglich die Audiospuren sind im Rahmen ihres Inhaltes fix. Sie können zwar in ihrem Klang, ihrer Tonhöhe und ihrer Geschwindigkeit und Länge bearbeitet werden (siehe Kapitel Effekte), nicht jedoch nachträglich andere Melodien spielen/singen. Während also MIDI Spuren von der Aufzeichnung bis zum Mastering absolut flexibel sind, sind Audiospuren vor ihrer Aufnahme gemäß ihres Inhaltes flexibel und nach ihrer Aufnahme gemäß begrenzter Eigenschaften, die durch Effekte hinzugefügt werden können. Die Flexibilität von Audiospuren ist demnach lediglich additiv bedingt (d.h. Effekte können nur hinzugefügt werden). Im Rahmen der klassischen Audioproduktion wären hinzugefügte Effekte nicht mehr entfernbar. Stattdessen müßte man im Notfall auf eine Sicherheitskopie des trockenen Originals zurückgreifen. Die digitale Audioproduktion erlaubt es, die Effekte, die in Echtzeit dem trockenen Signal hinzugefügt werden, wieder zu entfernen oder zu manpulieren.


Übersichtsseite
voriges Kapitel | nächstes Kapitel

© Marco Nassenstein (letztes Update: 2008-09-24 15:42:46)

ionstorm.de/Rockmusik_aus_dem_Computer/Flexibilitaet_in_der_Praxis_anhand_eines_Beispiels/Mix



© 2005 - 2012 Marco Nassenstein • SitemapImpressum