Ionstorm Studios - Marco Nassenstein Medienproduktion
Aufnahme
ionstorm.de/Digitale_Audioproduktion/Aufnahme

Übersichtsseite
voriges Kapitel | nächstes Kapitel


Die Aufnahmen zum Song fanden in einem privaten Tonstudio statt. In diesem Punkt 3 werden die einzelnen Vorgehensweisen erläutert, sowie auf das benutzte Equipment eingegangen, welches sich aus spezieller Soft- und Hardware zusammensetzt. Nach einem Überblick über die Aufzeichnung der verschiedenen Instrumente folgt eine Bestandsaufnahme, in der analysiert wird, welche Daten nach der vollzogenen Arbeit vorliegen, wie viele Spuren in Gebrauch sind und wie das allgemeine Klangbild erscheint. Danach erfolgt ein Vergleich mit analoger Aufnahmetechnik.


3.1 Benutztes Equipment (Hardware)


Es existieren viele unterschiedliche Möglichkeiten, einen Song digital aufzuzeichnen. In diesem Falle handelte es sich bei dem Herzstück der Aufnahme um einen handelsüblichen Personal Computer mit einer AMD XP 1800+ CPU, 512 MB DDR RAM, einer 40 GB Festplatte und einer Terratec EWS 88 MT Soundkarte, welche über eine Frontblende Anschlüsse für acht Mono-Cinch Eingänge und acht Mono-Cinch Ausgänge bereitstellt, sowie ein MIDI Out und ein MIDI In Port. Im nachfolgenden Text wird diese komplette Einheit kurz als "Studiorechner" bezeichnet. Siehe dazu auch Abbildung 1.

www.ionstorm.de/images/digitale_audioproduktion/01_studiorechner.jpg
Abbildung 1: Studiorechner


Die Terratec EWS 88 MT Soundkarte bietet die Möglichkeit für Audioaufnahmen mit bis zu 24 Bit und 96 kHz. Auf die Soundformate wird in Punkt 3.2 näher eingegangen, wenn das Computerprogramm Samplitude vorgestellt wird. Auch die MIDI Ports werden erst zu einem späteren Zeitpunkt, in Punkt 3.3.2, näher betrachtet.

Cinch Anschlüsse bezeichnen asymmetrische Steckverbindungen zur Übertragung von elektrischen Signalen und finden sich häufig als rot-weißes Stereopaar an Heimaudioanlagen. Die Cinch Eingänge sind mit den Monoklinkenausgängen der acht Mono-Einzelspuren des Soundcraft M8 Mischpultes verbunden, siehe Abbildung 2.

www.ionstorm.de/images/digitale_audioproduktion/02_m8.jpg
Abbildung 2: Mischpult M8


Monoklinkenanschlüsse, ebenfalls asymmetrische, aber schlicht von der Bauart zu Cinch verschiedene, im Durchmesser 6.35 mm dicke Stecker, sind also direkt mittels eines dafür vorgesehenen Kabels mit den Cincheingängen der Soundkarte verbunden. Klinkenanschlüsse kennt man von Kopfhörern, hier dann meistens allerdings in der kleineren, 3.5 mm messenden Variante mit Stereobelegung.

Durch die Verbindung der acht Einzelspuren des Mischpultes mit den separaten Eingängen an der Soundkarte ist es möglich, bis zu acht gleichzeitig im Pult auflaufende Audiosignale voneinander unabhängig im Rechner aufzuzeichnen. Das Mischpult wird nachfolgend kurz als M8 bezeichnen. Dieses analoge Gerät kommt bei jeder Art von Aufzeichnung zum Tragen, in der keine MIDI Technologie verwendet wird. Es wird in diesem Falle vor allem für das Monitoring, aber auch als Mikrofonvorverstärker verwendet. Kondensatormikrofone können durch das Mischpult optional mit der benötigten Phantomspeisung versorgt werden. Eine Mischung und eine Klangbildveränderung finden hier noch nicht statt, bzw. lediglich in unbeabsichtigtem und unvermeidlichem Rahmen. In der Abbildung erkennt man links die acht vertikal verlaufenden, nebeneinander angeordneten Monospuren, gefolgt von vier Stereospuren weiter rechts. Die Monospuren enthalten von oben nach unten beschrieben folgende Elemente:

Zunächst findet sich ein Direct-Out Klinkenausgang, welcher, wie bereits weiter oben beschrieben, mit jeweils einem korrespondierenden Eingang der Soundkartenfrontblende verbunden ist.

Darunter befinden sich XLR Anschlüsse, die mit einer Stagebox, bzw. einem Multicore (siehe Abbildung 3) verbunden sind. Hierüber kommt das Audiosignal in das Mischpult. Herkömmliche XLR Anschlüsse übertragen ebenfalls Monosignale, sind allerdings symmetrisch. Das bedeutet, daß das Nutzsignal gleich zweimal, zeitgleich und mit entgegengesetzter Polarität, übertragen wird, wodurch Störquellen auf den Kabelstrecken neutralisiert werden. Dies ist besonders bei längeren Kabelwegen unbedingt erforderlich. XLR Kabel enthalten also 3 Leitungen: einmal die Masse und zweimal das Audiosignal. Sie finden im Livebetrieb ihren Einsatz, wenn die Signale von der Bühne zum üblicherweise recht weit entfernten Mischpult gelangen müssen. Da viele Instrumente wie E-Bass, E-Gitarre oder Keyboard jedoch nur asymmetrische Klinkenausgänge bieten, kommt auf der Bühne zumeist eine sogenannte DI-Box zum Einsatz, die nichts anderes tut, als asymmetrische Signale zu symmetrieren und ohne Störung zum Mischpult weiterzuleiten. Diese Anschlüsse befinden sich an Mikrofonen und an Mischpulteingängen, wie auch in diesem Fall.

www.ionstorm.de/images/digitale_audioproduktion/03_multicore.jpg
Abbildung 3: Multicore


Unter den XLR Eingängen befinden sich auf den acht Monospuren des M8 Mischpultes Line-In Eingänge, die als Alternative zu den XLR Eingängen dienen, Monoklinken erfordern und somit asymmetrisch sind. Diese Anschlüsse werden lediglich in Punkt 3.3.1 bei der Aufnahme des E-Schlagzeuges genutzt, siehe unten.

Darunter befindet sich jeweils ein Insert Anschluß, der dazu dient, Hardware-Effektquellen anzuschließen. Diese Stereoklinkenanschlüsse leiten das Signal an ein Effektgerät weiter, zum Beispiel ein Hallgerät oder einen Kompressor. Diese verändern das Audiosignal dann entsprechend und senden es über den zweiten Kanal der Stereoklinke wieder zurück ins Mischpult. Dies ist einer der Hauptunterschiede zwischen analoger und digitaler Mischtechnik: Die Effekte werden in der digitalen Mischtechnik nachträglich über Softwareplugins realisiert und nicht über Hardwaregeräte, die ins Mischpult eingefügt sind. Auf die Softwareplugins wird in Punkt 4.2 näher eingegangen. Im vorliegenden Falle wurde überhaupt kein Hardwareeffektgerät verwendet, da die Signale zur späteren Bearbeitung möglichst neutral im Studiorechner gespeichert werden sollten. Jede Veränderung würde sich negativ auf den Handlungsspielraum auswirken, der später noch benötigt wird (abgesehen vielleicht von einem Kompressor, siehe Punkt 4.2). Dies gilt auch für die auf dem Mischpult in den einzelnen Spuren zu findenden EQ Einstellungen, die das Klangbild in Höhen, Mitten und Tiefen verändern können. Auch hier ist eine neutrale Einstellung empfehlenswert, um nicht später Probleme mit dem aufgezeichneten Nutzsignal zu bekommen.

Zwischen den erwähnten EQ Drehknöpfen und dem Insert Anschluß befindet sich der Regler für die Vorverstärkung. Dieser regelt die Intensität der Eingangssignalvorverstärkung. Der Gainregler ist mit Bedacht zu bedienen, da eine zu intensive Einstellung das Signal übersteuern lassen kann und eine zu geringe Einstellung das Signal möglicherweise im unvermeidlichen Hintergrundrauschen untergehen lassen könnte. Zu diesem Zwecke sind auf jeder Spur zwei kleine Lämpchen angebracht: die linke signalisiert, wenn eine Tonquelle an der Spur anliegt, die rechte, wenn übersteuert wird. Diese sollte also nie leuchten.

Als letzter Drehregler in jeder Monospur gilt der Pan-Knopf. Hiermit regelt man die Position des Signals in der Stereosumme, links, rechts oder mittig. Da jedoch, wie bereits beschrieben, im vorliegenden Falle nur Monosignale direkt an Monoeingänge in der Soundkarte weitergegeben werden, wirkt sich diese Einstellung lediglich auf die Stereosumme des Mischpultes aus, an dem jedoch gegebenenfalls Monitoring-Geräte angeschlossen sind.

Darunter folgen dann in jeder Monospur drei Knöpfe: einer kann die Spur komplett stummschalten, einer bestimmt, ob das Direct-Out Signal (welches in unserem Fall zur Soundkarte führt) den Fader (siehe unten) passiert oder nicht und der letzte sorgt dafür, daß das auf der Spur anliegende Signal exklusiv (solo) auf die Regieausgänge geleitet wird. Dies ermöglicht, die verschiedenen Quellen, vor allem im Livebetrieb, einzeln anzuhören und damit eventuelle Fehler zu entdecken.

Das auffälligste Merkmal eines jeden Kanalzuges ist der 100 mm Fader. Wenn der Gainregler (der Regler für die Vorverstärkung, siehe oben) optimal eingestellt ist, arbeitet auch der Fader im optimalen Bereich. In einem Aufbau, der Wert auf die Summe des Mixers legt -zum Beispiel ein Liveeinsatz- findet mit diesen Fadern die allgemeine Lautstärkenanpassung der anliegenden Signale untereinander statt, sozusagen der eigentliche Mischvorgang. Da im Beispielfall jeder Kanal separat zur Soundkarte geführt wird, ist eine Lautstärkenmischung noch nicht nötig. Dies kann später in der Aufzeichnungssoftware (siehe Punkt 3.2) vorgenommen werden. Stattdessen wird der Fader genutzt, um genau einstellen zu können, daß ein anliegendes Signal im Rechner nicht übersteuert. Man kann den Fader in dem Falle also als einen feineren Regler für den Gainreglerknopf verstehen.

Die eben beschriebe Monospur, mit Direct Out, Mic In/Line In, Effect Insert, Gain, EQ-Reglern, Mute, Direct/Pre, PFL (Pre-Fader-Listen), Signallämpchen und Fader gibt es auf dem Soundcraft M8 Mixer nun acht mal nebeneinander. Deswegen spricht man hierbei auch von einem 8-Kanal-Mixer. Natürlich gibt es auch Mischpulte, die beliebig mehr Spuren besitzen, allerdings wären weitere Spuren im vorliegenden Falle redundant, da die Frontblende der Soundkarte mit ihren acht Eingängen die maximale Anzahl vorgibt.

Neben diesen acht Mono Kanälen folgen noch vier Stereokanäle, die ebenfalls auf die Summe des Mixers geleitet werden und zwei Monoklinkenkabel als Stereoeingangssignal verlangen. Eine dieser Stereospuren wird gewöhnlich dazu benutzt, um bereits aufgenommene Songteile während weiteren Aufnahmen auf die Kopfhörer der Musiker zu geben. Das funktioniert im Einzelnen so:

Die Software und auch die Soundkarte unterstützen den sogenannten Voll-Duplex Modus, der es erlaubt, gleichzeitig abzuspielen und aufzunehmen. Die Wiedergabe erfolgt nun durch zwei Kanäle der Soundkarten Frontblende (im Beispielfall Kanal 3 und 4, da Kanal 1 und 2 mit dem Verstärker verbunden sind, auf den später in dieser Arbeit eingegangen wird). Diese werden in die Eingänge eines Stereokanals geroutet und sind somit auf der Mixersumme hörbar, ebenso wie das aufzuzeichnende Signal, welches an einem Monokanal anliegt. Dieses Signal jedoch fließt auch unabhängig (über den Direct Out) in die Soundkarte, so daß lediglich dieses Signal aufgezeichnet werden kann. Die Mixersumme jedoch, die das aufzuzeichnende Signal und das bereits aufgezeichnete enthält, benutzen wir nun, um es in den Kopfhörer der Musiker zu leiten. Zu diesem Zwecke ist der Stereoausgang "Monitor Out" des Mischpultes mit einem Kopfhörerverstärker (siehe Abbildung 4) verbunden, der seinerseits das anliegende Stereosignal auf bis zu vier Kopfhörer verteilen kann. Auch hier sind alle Kopfhörerausgänge einzeln in Lautstärke und Klangbild regelbar.

www.ionstorm.de/images/digitale_audioproduktion/04_hub.jpg
Abbildung 4: Kopfhörerverstärker


Mischpult, Studiorechner und Kopfhörermonitoring bilden also nun das Herzstück der in Punkt 3.3 beschriebenen Aufnahmevorgänge. Der spezielle Einsatz an Beispielen wird später noch genauer beschrieben.

Es ist sinnvoll, die aufgenommenen Audiospuren neben den Monitoring Kopfhörern auch auf einer Anlage laufen zu lassen, da die Kopfhörer gegebenenfalls einige Frequenzen vorenthalten könnten. Daher sind die Ausgangskanäle 1 und 2 der Soundkarte mit der PA im Studio verbunden. Dabei handelt es sich um ein weiteres 8-Spur Mischpult Mackie CFX12, das hauptsächlich live zum Einsatz kommt und zur Aufnahme ungeeignet ist, da es keine Direct Out Ausgänge besitzt. Dafür besitzt es aber ein rudimentäres eingebautes Effektgerät, welches unter anderem Hall auf verschiedene Spuren legen kann, und einen 10-Band Equalizer. Die Ausgänge dieses Mischpultes sind mit einem 1900 Watt Verstärker von Numark verbunden und dieser wiederum mit vier Boxen von Peavy. Mischpult und Verstärker sind auf Abbildung 5 zu sehen.

www.ionstorm.de/images/digitale_audioproduktion/05_mackie.jpg
Abbildung 5: Mackie und Numark


Das beschriebene Equipment bildet bei den in den kommenden Punkten beschriebenen Aufnahmen das Herzstück. Im nächsten Punkt wird nun die zum Einsatz gekommene Software beschrieben.


3.2. Beschreibung Magix Samplitude 8.0 unter Windows XP


Die Recording Software, die bei diesem Projekt benutzt wurde, heißt Samplitude in der Version 8.0 von Magix. Neben Cubase und Logic ist Samplitude eine weitere Software Recording Lösung, die allerdings derzeit weniger Popularität besitzt, als seine beiden Mitstreiter. Aber es ist damit zu rechnen, daß sich dieser Zustand ändern wird, da Logic inzwischen ausschließlich für Mac OS X Systeme weiterentwickelt wird. Die Online Enzyklopädie Wikipedia hierzu: "Bis Version 6 wurde die Software von der deutschen Firma Emagic entwickelt, welche bereits 2002 von Apple aufgekauft wurde. Die Weiterentwicklung von Logic für Microsoft Windows wurde daraufhin eingestellt. Seitdem ist Logic nur für Apple Macintosh erhältlich. Die letzte Version, die für Windows verfügbar war, ist 5.5.1. Während Version 6 noch den Namen Emagic trug, ist Logic seit Version 7 offiziell ein Apple-Produkt."

Cubase von der Firma Steinberg wiederum kann als prominentester Vertreter der Software Recording Lösungen verstanden werden. Dieses Programm wurde von der Firma Steinberg entwickelt, die damit etliche Industriestandards definierte, welche auch in Samplitude verwendet werden, wie zum Beispiel die ASIO Treiber oder VST Plugins. Dazu später mehr.

Samplitude konnte erst mit der Ende 2003 erschienenen Version 8.0 in Konkurrenz zur Cubase treten, da erst jetzt eine MIDI Funktionalität hinzugefügt wurde. Die Vorgängerversionen, die damals noch von der Firma SEK'D entwickelt und vertrieben wurden, waren reine Audiobearbeitungsprogramme. Ich habe selber 2 Jahre lang mit der Version 5.0 gearbeitet, die damals der Terratec Soundkarte in einer abgespeckten Variante beilag. Der Umstieg auf Version 8.0 brachte dann völlig neue Möglichkeiten in Form der MIDI Funktionalität mit sich. Das MIDI Format wird weiter unten genauer beschrieben.

Der Kern von Samplitude, wie auch bei anderen Softwareprodukten dieser Art, liegt darin, voneinander unabhängige Audio- oder MIDI Spuren gleichzeitig abzuspielen, bzw. zu manipulieren. Eine Ansicht des typischen Hauptfensters zeigt Abbildung 6. Zu erkennen sind die verschiedenen Audiospuren, die in horizontalen Ebenen voneinander abgegrenzt werden und durch Betätigung der Play Taste gleichzeitig abgespielt werden. Sie werden also als ein Ganzes gehört, obwohl das Quellmaterial als voneinander unabhängige Audiodateien auf der Festplatte des Computers vorliegt. Die verschiedenen horizontal angeordneten Ebenen werden im folgenden Verlauf als Spuren bezeichnet, weil sie auch digitale Nachbildungen der 8 Spuren des M8 Mischpultes sein können, bzw. einen korrespondierenden Eingangskanal an der Soundkartenfrontblende besitzen.

www.ionstorm.de/images/digitale_audioproduktion/06_samplitude.jpg
Abbildung 6: Samplitude Hauptfenster


Die weiteren Grundfunktionen des Programms werden in dieser Arbeit anhand der theoretischen Aufnahme von zwei Gitarren erläutert, die von nur einem Musiker nacheinander eingespielt wurden, nachher aber so zusammengemischt wurden, daß der Eindruck entstand, zwei Gitarristen hätten gleichzeitig gespielt.

Nehmen wir an, man positioniert ein Mikrofon in der Nähe einer akustischen Gitarre und verbinden dieses Mikrofon mit dem in Punkt 3.1 beschriebenen Multicore in Kanal 1. Somit ist dieses Mikrofon an Kanal 1 des Mischpultes angeschlossen und dieser Kanal ist mit Eingangskanal 1 der Soundkarte verbunden. Nachdem das Eingangssignal an dem Mischpult ausgepegelt wurde, so daß es nicht zu leise und nicht zu laut (übersteuert) ist, betätigt man in Samplitude in der Eigenschaftssteuerung einer beliebigen Spur (aber sinnigerweise in der ersten) den R-Knopf. Dies bedeutet für das Programm, daß in dem Kanal, der mit dem R-Knopf markiert wurde, aufgezeichnet werden soll, sobald der Master Record-Knopf betätigt wird. Bevor das passieren kann, muß natürlich im Programm eingestellt werden, an welchem Eingangskanal das Signal anliegt. Zu diesem Zwecke klickt man mit der rechten Maustaste auf den R-Knopf der Spur und stellt dort den Eingangskanal 1 ein, und daß es sich um eine Monoaufnahme handelt. Obwohl nämlich nur eine Soundkarte in den Rechner eingebaut wurde, stellen die Softwaretreiber 16 virtuelle Soundkarten zur Verfügung. Acht für die Eingänge und ebenso viele für die Ausgänge. Im Beispiel wäre die richtige Quelle also Terratec IN 1.

Drückt man nun den Master Record-Knopf, dann beginnt die Aufnahme und der Gitarrenmusiker kann sein Stück spielen. Die Aufnahme wird direkt in eine WAV-Datei (mehr zum Audioformat weiter unten) auf die Festplatte gespeichert. Unterbricht man die Aufnahme, so fragt das Programm, ob man zufrieden ist. Wenn man dies bejaht, erscheint in der ersten Spur eine graphische Darstellung des gerade aufgenommenen Stückes. Drückt man nun die Play-Taste, dann wird das gerade Aufgenommene abgespielt.

Nun stoppt man die Wiedergabe, deaktiviert an der ersten Spur den R-Knopf und aktiviert ihn an der darunterliegenden zweiten Spur. Auch hier stellt man als Quelle Terratec IN 1 ein. Beginnt man nun mit der Aufnahme erneut, indem man den Master Record-Knopf drückt, dann wird in die zweite Spur aufgezeichnet, während gleichzeitig die erste Spur wiedergegeben wird. Selbstverständlich sollte das aufzeichnende Mikrofon diese Wiedergabe nicht ebenfalls aufzeichnen. Aus diesem Grund wird die Ausgabe auf einen Kopfhörer geroutet, so daß der Musiker sich selbst in der Aufnahme hört, sowie seine Gitarre live. Dieses Monitoring wird bei den Aufnahmen zu Far Away weiter unten noch genauer beschrieben.

Nach Beendigung der Aufnahme liegen also zwei Spuren vor, die zueinander einen chronologischen Zusammenhang aufweisen. Man kann sie gleichzeitig abspielen und in den Eigenschaften der Spur grundlegende Dinge ändern: man kann zum Beispiel die Spur 1 lauter machen oder Spur 2 mehr auf den linken Kanal legen. Denn obwohl es eine Monoaufnahme war, gibt es ja am Ende eine Stereosumme. Außerdem kann man, durch simples Drag & Drop, also durch beklicken und halten mit der linken Maustaste, die Spur horizontal verschieben, so daß sie zum Beispiel erst später einsetzt, bzw. früher. Natürlich macht dies in diesem Falle wahrscheinlich keinen Sinn. Man könnte aber die Aufnahme in der ersten Spur, die darin als sogenanntes Objekt vorliegt, duplizieren und ans Ende anhängen. Zeitlich passend könnte man nun das Aufnahmeobjekt in der zweiten Spur verschieben, so daß es erst mit dem Duplikat beginnt wiederzugeben. Somit hätte man eine Sologitarre, die später von einer zweiten begleitet wird.

Ist die Aufnahme zufriedenstellend, so kann man es als einzeln stehende WAV Datei exportieren. Dies ist ein sogenannter Downmix. Selbstverständlich gibt es keine Möglichkeit, die Einzelspuren wieder aus dem so enstandenden WAV File zu exportieren, da es sich hierbei um einen destruktiven Prozess handelt, in dem Informationen verloren gehen, vor allem aufgrund von Frequenzüberlagerungen der beiden Aufnahmen. Daher lohnt es sich, das Projekt innerhalb von Samplitude für weitere Bearbeitungen abzuspeichern. Dadurch merkt sich das Programm alle Einstellungen und Objektpositionen innerhalb der Spuren in einer kleinen Datei, welche die Endung .VIP hat. Diese und zusätzlich die aufgezeichneten WAV Dateien rekonstruieren den Stand der Arbeit seit der letzten Speicherung.

Die Aufnahme und Wiedergabe von mehreren Spuren stellt nun die Grundfunktionalität des Programms dar. Durch Betätigung des R-Knopfes bei mehreren Spuren und der Wahl der richtigen Eingangssignale können auch mehrere Signalquellen gleichzeitig aufgezeichnet werden. Begrenzt wird dies lediglich durch die Eigenheiten der Soundkarte. Mit dem in Punkt 3.1 beschriebenen Equipment könnte man also acht Spuren gleichzeitig aufzeichnen. Dies macht zum Beispiel bei der Aufnahme eines Schlagzeuges Sinn, bei dem man je ein Mikrofon für die Basedrum, für die Snare, für die drei Toms, für die Hihat und zwei weitere als Overhead Mikros benutzt. Zwar würde so jedes Mikrofon auch alle anderen Geräusche einfangen, aber hoffentlich so leise, daß man diese Störquellen nachher vernachlässigen kann, zumal sie ja auf einem anderen Mikrofon sehr viel lauter (und dort auch beabsichtigt) vorliegen. Die gleichzeitige Aufnahme von Signalen ist eben in diesem Falle auch deshalb unumgänglich, da man vom Schlagzeuger nicht verlangen kann, daß er die einzelnen Trommeln nacheinander einspielt. Die Anzahl der Spuren in Samplitude ist in der vorliegenden Version nicht begrenzt. Theoretisch kann man unendlich viele Spuren hinzufügen und zusammenmixen. Das Maximum wird hier lediglich durch die Prozessorleistung und die Festplattengeschwindigkeit des Rechners vorgegeben.

Außerdem verfügt Samplitude in der hier benutzten Grundausstattung über jede Menge Effekte, die einzelnen Objekten oder ganzen Spuren hinzugefügt werden können. Die genauen Effekte und ihre Anwendungsmöglichkeiten werden in Punkt 4.2 erläutert. An dieser Stelle sei erwähnt, daß es grundsätzlich zwei Methoden gibt, um einen Effekt anzuwenden: in Echtzeit und destruktiv. Echtzeiteffekte sind grundsätzlich vorzuziehen, da sie rückgängig gemacht werden können und während der Wiedergabe vom Computer hinzugerechnet werden. Da dies sehr CPU-lastig sein kann, so daß das ganze Stück nur mit Unterbrechungen wiedergegeben werden kann, gibt es auch die destruktiven Effekte, die bei Anwendung die WAV-Datei auf der Festplatte unwiederbringlich verändern. Beide Effektarten bewirken akustisch dasselbe und nehmen lediglich unterschiedlich Rücksicht auf Rechenleistung und Zustand der Quellsignale. Sie können im Samplitude Mixer als Inserts angewandt werden, ganz analog zu dem haptischen Vorbild, welches in Punkt 3.1 beschrieben wurde.

Dieser Mixer, siehe Abbildung 7, ist ein graphisches Modell eines herkömmlichen Mischpults, wie er auch weiter oben beschrieben wurde (Punkt 3.1). Hier korrespondiert jeder vertikale Kanalzug zu einer horizontalen Spur im Samplitude Hauptfenster. Ansonsten verfügt er über alle Fähigkeiten eines echten Mixers, wie EQ und PAN Einstellungen, Fader, Pre-Delay und all dies nochmal für die Stereosumme. Dieses wichtige Werkzeug kann durch Betätigung der Taste "M" aufgerufen werden. Auf die zugehörigen Aspekte der Mensch-Computer Interaktion wird in Punkt 6.2 näher eingegangen und zudem erörtert, ob die graphische Nachbildung von echten Mischpulten Sinn macht.

www.ionstorm.de/images/digitale_audioproduktion/07_samplitudemixer.jpg
Abbildung 7: Samplitude Mixer


Wie bereits erwähnt, zeichnet Samplitude Audiodaten im WAV Format auf. Während eine Datei mit der Endung .wav noch nicht darauf schließen lässt, daß es sich um ein nicht verlustbehaftetes Audioformat handelt, ist aber natürlich genau dies bei Samplitude der Fall. Bei den von Samplitude angelegten WAV Dateien handelt es sich um das Containerformat für unkomprimierte PCM Rohdaten.

PCM steht für Puls-Code-Modulation und ist eine digitale Darstellungsform eines analogen Signals, in diesem Falle des Audiosignals, also die zeitliche Abfolge einer Schwingung. Die Online Enzyklopädie Wikipedia erklärt hierzu: "Das analoge Signal wird mit einer bestimmten Frequenz in zeitgleichen Abständen abgetastet. (...) Es entsteht ein pulsamplitudenmoduliertes Signal (PAM) mit zunächst beliebig vielen Amplitudenwerten. Das PAM-Signal wird nun mit einem AD-Wandler quantisiert; dazu werden die Amplitudenwerte in eine begrenzte Zahl von Quantisierungsstufen (= Samplingtiefe) eingeteilt." Anders ausgedrückt: Das analoge Audiosignal wird in seiner zeitlichen Abfolge in endlich viele, kleine Intervalle zerlegt (Samplerate). Diese Intervalle repräsentieren dann in digitaler Form die jeweilige Ausprägung des analogen Signals an dieser Stelle. Je mehr Bits pro Intervall (Bitrate) reserviert werden, desto größer wird die Datei im Endergebnis, aber desto ähnlicher sind sich danach auch das analoge Quellsignal und sein digitales Gegenstück. Selbstverständlich geht bei jeder Digitalisierung Information verloren, aber je größer die Sample- und Bitrate gewählt wird, desto vernachlässigbarer ist dieser Verlust.

Ein kleines Rechenbeispiel: Angenommen man zeichnet eine Minute eines analogen Monosignals in der typischen Abtastrate von 44,1 kHz und der ebenso typischen Bitrate von 16 auf (Audio CDs werden gemeinhin mit diesen Raten beschrieben und abgelesen). 44100 Samples pro Sekunde machen 2646000 Samples pro Minute. Jedes Sample hat eine Datentiefe von 16 Bit, also wird Speicher für 42336000 Bit benötigt, bzw. 5292000 Byte, bzw. 5,05 MB. Eine Minute entspricht also 5 MB auf der Festplatte. Handelt es sich um ein Stereosignal, so verdoppelt sich diese Anforderung natürlich. Samplitude und die Terratec Soundkarte können auf Wunsch auch mit 96 kHz und 24 Bit aufzeichnen, was bei einer Minute schon 16,5 MB entspricht.

Bedenkt man, daß zehn solcher Spuren in Samplitude gleichzeitig wiedergegeben werden müssen, dann stellt das an die Festplatte die Anforderung, in etwa 2,75 MB pro Sekunde lesen zu können, was aber inzwischen selbst für IDE Festplatten kein Problem mehr darstellt.

Während also WAV-Dateien von Samplitude angelegt werden, um analoge Audioeingangssignale digital aufzuzeichnen, kann das Programm ab Version 8.0 nun zusätzlich MIDI. MIDI steht für Musical Instrument Digital Interface, also für "digitale Schnittstelle für Musikinstrumente". MIDI Aufnahmen wurden bei der Aufzeichnung zu Far Away für das Klavier (siehe Punkt 3.3.2) und für die Streicher (siehe Punkt 3.3.5) benutzt. Für Samplitude ist es kein Problem, ein heterogenes Projekt, das aus Audio- und MIDI Spuren besteht, abzuspielen. Dies wird dadurch erreicht, daß auch MIDI Daten fast genauso behandelt werden, wie Audiodaten. Allerdings bieten sich einige Einschränkungen bzw. Möglichkeiten, die in der Natur von MIDI liegen:

Die Onlineenzyklopädie Wikipedia beschreibt das MIDI Format folgendermaßen: Das MIDI-Protokoll stellt keine Klänge dar, sondern besteht aus Befehlen zur Ansteuerung von digitalen Instrumenten oder einer Soundkarte. Dazu werden Befehle übermittelt, wie beispielsweise "Note-on" und "Velocity" ("Spiele einen bestimmten Ton mit einer bestimmten Anschlagsstärke") und "Note-off" ("Schalte Ton wieder aus"). Diese Anweisungen werden meist an einen Klangerzeuger (z.B. Synthesizer oder Soundkarte) geschickt, wodurch dann die entsprechenden Klänge erzeugt werden. Auch kann man auf einer Tastatur, die MIDI-Befehle sendet, spielen und die Tastaturbewegungen als MIDI-Befehle aufzeichnen.

Man kann also sagen, daß in einer MIDI-Datei lediglich gespeichert wird, welche Note wann und wie fest angespielt wurde und gegebenenfalls von welchem Instrument. Dadurch sind MIDI-Dateien natürlich erheblich kleiner als WAV-Dateien mit einem unkomprimierten PCM-Datenstrom. Als Beispiel zur Veranschaulichung: die achtminütige Klavierspur zum Song Far Away benötigt gerade mal 10,1 KB auf der Festplatte.

Um MIDI-Dateien erzeugen zu können, benötigt man entweder einen MIDI-Controller (ein Tasteninstrument, das aussieht wie ein Keyboard, aber nur einen MIDI-Ausgangskanal und keine Lautsprecher besitzt), ein Keyboard mit einem MIDI-Out Anschluß oder man kann alternativ auch die einzelnen Noten mit der Maus von Hand in eine Notation setzen. Natürlich ist letztere Methode mit sehr viel Aufwand verbunden. MIDI-Controller bzw. Keyboard werden normalerweise über ein Kabel mit fünfpoligen DIN-Steckern mit dem MIDI-In Port an der Soundkarte (siehe Punkt 3.1, bzw. Abbildung 1: rechter Anschluß oben: MIDI In, rechter Anschluß unten: MIDI Out) verbunden. Moderne MIDI-Controller bieten aber alternativ auch einen USB-Anschluß, der, im Gegensatz zu einem DIN-MIDI-In Port, an fast allen modernen Rechnern zu finden ist und den Controller sogar mit Strom versorgen kann, womit ein zusätzliches Netzteil unnötig wird.

Die Qualität einer Soundkarte bestätigt sich in den meisten Fällen, wenn die Latenzzeit, die zwischen Betätigung einer Taste und der Wiedergabe des Tones liegt, gering genug ist, daß der Musiker ohne Probleme sein Stück einspielen kann. Ist die Latenz zu hoch, ist eine ordentliche Aufzeichnung nicht möglich, da der Musiker erst später hört, was er gerade spielt.

Da nun in MIDI-Dateien, wie weiter oben bereits erklärt, lediglich Informationen vorliegen, die potentiell dazu dienen können, die präzise Tätigkeit des Musikers an seinem Instrument zu reproduzieren, folgt daraus, daß die eigentliche, auditiv wahrnehmbare Wiedergabe der MIDI-Datei - als hörbares Ereignis - auf jedem Ausgabegerät anders klingen kann. Es ist so, als würde man einen Pianisten an eine Kinderorgel setzen und danach an einen Konzertflügel. Er würde in beiden Fällen dasselbe spielen, aber der Klang wäre ein komplett anderer. Dies ist auch der größte Vorteil und gleichzeitig der größte Nachteil von MIDI: viele Heimanwender kennen MIDI-Dateien als piepsende und schnell nervende Computermusik, die nicht den Anspruch erheben kann, in Sachen Hörqualität in Konkurrenz zu einer Audio CD zu treten. Fakt ist aber natürlich, daß der Klang einer MIDI-Datei nicht durch das MIDI-Format definiert wird, sondern durch die Qualität der wiedergebenden Soundkarte, bzw. der darauf untergebrachten Synthesizer. Sollte die Soundkarte so einen niedrigen qualitativen Anspruch besitzen, daß sie gar keine Synthesizer stellt, so wird zum Beispiel in Windows Betriebssystemen von Microsoft auf einen Softwaresynthesizer zurückgegriffen. Dieser nennt sich Microsoft GS Wavetable Software Synthesizer und klingt derart unnatürlich, daß man ihn nicht für professionelle Aufnahmen verwenden sollte. Daher rührt wahrscheinlich auch die Konnotation MIDI = Piepsgeräusche bei Endanwendern. Dafür stellt der Wavetable aber immerhin über 120 Instrumente zur Verfügung.

In professionellen Aufnahmen kommen deshalb sogenannte VST-Instrumente zum Einsatz. Es handelt sich hierbei um eine durch die Firma Steinberg entwickelte Schnittstelle zwischen einem Host Programm (so wie Samplitude) und den virtuellen Instrumenten, wie sie von MIDI vorgegeben werden. VST steht für Virtual Studio Technology. Ein solches VST-Plugin besitzt nun für gewöhnlich Zugriff auf ein großes Archiv von realistischen und penibel aufgezeichneten Einzeltönen (Audioaufnahmen) eines bestimmten Instrumentes. Man kann sich zum Beispiel vorstellen, daß das tiefe C eines hochwertigen Konzertflügels einmal leicht angeschlagen aufgezeichnet wurde, einmal fester und einmal sehr fest. Dieses Prozedere wurde für alle weiteren 120 Konzertflügeltasten wiederholt. Wenn nun eine MIDI Datei diese aufgezeichneten Töne wiedergibt, dann klingt sie fast genauso, wie dieser Konzertflügel. Ein solches VST-Instrument ist zum Beispiel The Grand, das zum einen hervorragend klingt, zum anderen aber aufgrund seines enormen Speicherplatzbedarfs auf drei Daten CDs ausgeliefert werden muß. Dies macht VST Instrumente, also hochwertige Synthesizer, für Endanwender unerschwinglich, bzw. unrentabel, aber für den Studioeinsatz sehr wertvoll, da dadurch MIDI Dateien klingen können, wie echte Instrumente, die dazu noch hochwertig aufgezeichnet wurden.

Ein anderes VST-Instrument heißt Orchestral von der Firma Edirol und bildet mit seinen 120 MB ein beeindruckend gut klingendes, komplettes Orchester nach. Dies ist deshalb machbar, weil viele Instrumente sich auch tatsächlich synthetisch nachahmen lassen. Die Streicher sowie das Klavier im Song Far Away wurde mit Orchestral realisiert.

An Beispielen wird das MIDI Format und die damit verbundenen Möglichkeiten weiter unten in den Punkten 3.3.2, 3.3.5, 4.2.2 und 4.2.5. beschrieben.

Samplitude 8.0 kann also Audio- und MIDI Daten aufzeichnen und wiedergeben. Dies kann auf mehreren voneinander unabhängigen, aber gleichzeitig erklingenden Spuren der Fall sein. Samplitude kann das Klangbild von einzelnen Spuren verändern und ebenso deren Summe, sowohl mit destruktiven als auch mit Echtzeit-Effekten. Am Ende steht der Downmix auf eine einzige WAV Datei, die als fertiges Produkt angesehen werden kann.

Die Aufnahme der einzelnen Instrumente wird nun in den Punkten 3.3.1 bis 3.3.7 beschrieben, der Mix in den Punkten 4.2.1 bis 4.2.7. In Punkt 5 schließlich wird die Vorgehensweise bei einem Endmix beschrieben.



3.3 Aufnahmevorgang


In den sieben Unterordnungen zu diesem Punkt werden nun die Aufnahmen zum Song Far Away beschrieben. Sieben verschiedene Instrumente kamen zum Einsatz: das Schlagzeug, das Klavier, der Bass, die Gitarre, Streicher, Gesang und Hintergrundgesang. In Punkt 3.4 wird herausgearbeitet, daß das daraus resultierende Klangbild durch den Mangel an zugefügten Effekten nicht zufriedenstellend ist und in Punkt 4 dann der Abhilfe schaffenden Mix beschrieben.


3.3.1 E-Schlagzeug


Zum Einsatz bei der Aufnahme zum Song Far Away kam ein elektronisches Schlagzeug, das von Jan Häger gespielt wurde. Während normale Schlagzeuge selbstverständlich mit mehreren Mikrofonen abgenommen werden müssen, bietet ein E-Drum als Ausgang zwei Monoklinkenkabel (eins für den linken und eins für den rechten Stereokanal). Zur Funktionsweise beschreibt die Seite Edrumworld.com: Bei den Edrums geht es im Gegensatz zu den akustischen Drums darum, dass beim Anschlagen der Spielfläche möglichst kein oder zumindest nur ein sehr leises Geräusch entsteht, sodass der Klang nur aus den Lautsprechern der angeschlossenen Anlage zu hören ist, ohne dass dieser von unerwünschten Nebengeräuschen beim Anschlagen der Pads des Edrums überlagert wird. (...) In den jeweiligen Pads werden daher Sensoren eingesetzt, die den Anschlag detektieren und in ein elektrisches Signal umwandeln. Dieses elektrische Signal gelangt über Klinken-Kabel an das sogenannte Steuerteil. Hier wird das analoge Eingangssignal digitalisiert und an den internen Soundprozessor weitergeleitet. Dort wird das jeweilige Drumgeräusch aus dem internen Speicher geladen und abgespielt.

Man erkennt also bei E-Drums eine hohe Ähnlichkeit zum MIDI-Format: Lediglich elektrische Informationen über Anschlagstärke und -länge werden durch einen Soundprozessor (vgl. VST-Plugin) durch wohlklingende Schlagzeuggeräusche ersetzt. Tatsächlich hatte das von Jan Häger genutzte Steuerteil (siehe Abbildung 8) ebenso eine MIDI-Out Anschluß, was in diesem Falle ja auch technisch naheliegend ist. Dieser wurde jedoch nicht genutzt, da ein entsprechendes VST-Plugin nicht zur Verfügung stand. Stattdessen wurde das analoge Audiosignal, das über die erwähnten zwei Klinkenkabel herausgegeben wurde, in Kanal 1 und 2 des M8 Mischpultes gesendet, in die jeweiligen Line In Eingänge. Da es sich bei den unterschiedlichen Signalen auf den beiden Kabeln um die Stereosumme handelte, mußte, vor allem für das Monitoring der Panorama Drehregler bei Kanal 1 komplett nach links, bei Kanal 2 komplett nach rechts geregelt werden. Beide Kanäle wurden über die Direct Out Anschlüße in die Terratec Soundkarten Frontblende überführt und in Samplitude wurden Spur 1 und Spur 2 zur Aufnahme konfiguriert.

www.ionstorm.de/images/digitale_audioproduktion/08_edrumsteuerteil.jpg
Abbildung 8: E-Drum Steuerteil


Diese Verkettung von Signalnehmern und -gebern, also E-Schlagzeug > Soundprozessor > M8 Mischpult > Soundkarte > Samplitude, stellt nun den eigentlich wichtigen Teil bei der Aufnahme dar. Sie trägt das aufzuzeichnende Signal und an sie müssen gegebenenfalls Monitoring Kanäle angeglichen werden, nicht umgekehrt. Besagtes Monitoring, also die Sicherstellung, daß der Musiker sein eigenes Instrument und gegebenenfalls andere im richtigen Verhältnis zueinander hört, ist ein nicht unwesentlicher oder unkomplizierter Aspekt von Aufnahmevorgängen. Zuerst ist sicherzustellen, daß der Schlagzeuger sich selber hört. Dies kann zum einen erreicht werden, indem er einen Kopfhörer an den Phone-Out Ausgang seines Steuerteiles anschließt. Leider ist in diesem Falle aber nicht das Klavier zu hören, das ebenfalls während der Aufnahme gespielt werden muß, damit der Schlagzeuger sich daran orientieren kann. Gleichzeitig darf dieses Klavier aber nicht aufgezeichnet werden, da es später eingespielt werden sollte (siehe Punkt 3.3.2). Also führt man die Summe des M8 Mischpultes, das zum gegenwärtigen Zeitpunkt aus Kanal 1 und 2 der Schlagzeuges besteht, in den Kopfhörer Hub, der in Punkt 3.1 beschrieben wurde. Dort wird der Kopfhörer des Schlagzeugers angeschlossen. In Kanal 3 des M8 Mischpultes wird nun das Keyboard ebenfalls über ein Klinkenkabel eingesteckt, auf dem die Klavierstrecke während der Aufnahme mitgespielt werden soll. Der Direct-Out Anschluß bleibt in dem Falle ungenutzt, da das Signal lediglich auf der Summe des Mischpultes erscheinen soll, die wiederum auf dem Kopfhörer Hub liegt, nicht aber in Samplitude aufgezeichnet werden soll. Der Keyboarder erhält ebenfalls einen Kopfhörer, der im zweiten Kanal des Kopfhörerverstärkers eingesteckt ist. Schlagzeuger sowie Pianist hören nun beide das selbe Signal, und zwar die Summe des M8 Mischpultes, bestehend aus Schlagzeug und Keyboard. Allerdings werden nur Kanal 1 und 2 von der Software aufgezeichnet, womit eine reine Schlagzeugaufnahme entsteht.

Zusätzlich benötigt der Schlagzeuger einen sogenannten Klick, also ein akustisches Signal, welches ihm das Tempo vorgibt. Dies stellt sozusagen die moderne Variante eines Metronoms dar. Die Anwendung eines solchen Signals ist auch bei erfahrenen Schlagzeugern anzuraten, vor allem dann, wenn man später in Betracht zieht, einige Passagen anderer Instrumente zu kopieren. Wenn dann das Tempo auch nur leicht variiert, ist das nämlich nicht mehr möglich. Dieser Taktgeber besitzt eine Geschwindigkeitsanzeige für BPM (also Beats Per Minute, Schläge pro Minute) und einen Drehregler, mit dem man diesen Wert stufenlos regeln kann. Im vorliegenden Beispiel wurden 64 BPM eingestellt. Das Gerät bietet einen kleinen Stereoklinkenausgang, der in den ersten Kanal des Kopfhörerverstärkers, also der Kanal des Schlagzeugers, mit einem entsprechenden Adapterkabel eingespielt werden kann. Auch dieses Signal ist natürlich in Lautstärke allen anderen Signalen anzupassen.

Im Falle des Songs Far Away wird das Klavier in einem vierminütigen Solo durch eine E-Gitarre ersetzt. Da der Schlagzeuger in dieser Zeit ebenfalls nicht alleine spielen soll, wird zusätzlich für das Monitoring eine Gitarre in den vierten Kanal des Mischpultes geleitet. Zu dem Zwecke wird das Ausgangssignal des Gitarreneffektgerätes mit dem Line In Kanal der Spur Nummer 4 des M8 Mischpultes verbunden.

Nachdem nun die Kanäle 1 und 2 des Mischpultes anhand entsprechender Anzeigen in Samplitude (Abbildung 9) ausgepegelt wurden und dementsprechend die Lautstärke der nicht aufzuzeichnenden, aber begleitenden Instrumente im Monitoring angepasst wurde, sollte eine Probeaufnahme vorgenommen werden. Diese Probeaufnahme soll nicht nur zeigen, wie sich das nachher aufgezeichnete Audiosignal anhört, sondern auch Probleme oder Unklarheiten im Ablauf klären. Zum Beispiel: kommt der Schlagzeuger mit dem Klick zurecht? Sind alle Instrumente auf den Kopfhörern gut hörbar? Ist der Ablauf klar?

www.ionstorm.de/images/digitale_audioproduktion/09_signalpegel.jpg
Abbildung 9: Signalausschlag


Da das Schlagzeug im fertigen Lied erst bei 1:02 einsetzen soll, ist es nötig, daß der Schlagzeuger bis zu dieser Stelle den Takt auf der Hi-Hat vorgibt. Dieser Abschnitt wird später stummgeschaltet.

Wenn nun alle Unklarheiten beseitigt worden sind, dann kann die Aufnahme vorgenommen werden. Es kann sich eventuell lohnen, mehrere Aufnahmen zu erstellen und daraus später die beste auszuwählen. Die beste Aufnahme, die für Far Away ausgewählt wurde, belegt in zwei WAV Dateien (linker und rechter Kanal, bzw. Spur 1 und Spur 2 in Samplitude) insgesamt 153 MB auf der Festplatte, ca. 76,5 MB pro Kanal. Das Samplitude Hauptfenster sieht nach der erfolgreichen Aufnahme der Trommelspur aus, wie in Abbildung 10 gezeigt.

www.ionstorm.de/images/digitale_audioproduktion/10_samp_drums.jpg
Abbildung 10: Trommelspuren in Samplitude



3.3.2 MIDI Klavier


Das Klavier wurde in seiner letztendlichen Form von Pianisten Elena Neu gespielt und zwar anhand der Noten, die in Zusammenarbeit mit Pianistin Diana Weber erarbeitet wurden. Zur Anwendung kam ein MIDI Controller von M-Audio mit USB Stromversorgung und das VST Instrument The Grand, das bereits weiter oben beschrieben wurde. Die geringe Latenzzeit, die nötig ist, um mit einem reinen MIDI-Controller in Echtzeit eine Trommelspur zu bespielen und gleichzeitig zu monitoren, wird nicht nur durch die Qualität der Soundkarte erreicht, sondern auch auf Softwareseite durch die sogenannten ASIO Treiber. ASIO (Audio Stream Input/Output) ist ein Protokoll, das plattformübergreifend und mehrkanalfähig ist und ebenfalls von der Firma Steinberg entwickelt wurde. Die Onlineenzyklopädie Wikipedia fasst zusammen: Mittels ASIO wird es einer entsprechenden Software ermöglicht, auf die Multi-channel-Fähigkeiten vieler (professioneller) Sound- und Recordingkarten zuzugreifen. Außerdem ermöglicht ASIO die für den professionellen Einsatz geforderten geringen Latenzzeiten. In günstigen Konfigurationen kann die Latenz bis auf wenige Millisekunden reduziert werden. ASIO wird von vielen Audio- und Midi-Sequenzern unterstützt; viele Soundkartenhersteller stellen auch ASIO-Treiber für ihre Produkte bereit. Um die ASIO-Funktionen voll nutzen zu können, muss auch die Software ASIO-Treiber unterstützen.

Die benötigten ASIO Treiber gehörten zum Lieferumfang der Terratec Soundkarte und ermöglichen tatsächlich derart geringe Latenzzeiten, daß diese nicht spürbar sind.

Sobald man sich also nun dafür entschieden hat, die dritte Spur in Samplitude für das Klavier vorzusehen, muß man sie als MIDI Spur markieren. Dies geschieht in den Eigenschaften der Spur, in denen auch eingestellt wird, welcher Soundkarteneingangskanal aufgezeichnet werden soll (siehe das Aufnahmebeispiel in Punkt 3.2). Auch für die MIDI Aufnahme benötigt die Software die Information, auf welchem Gerät es lauschen soll und in diesem Falle ist dies der Terratec MIDI In Port, der an der Frontblende der Soundkarte zu finden und mit dem MIDI-Controller verbunden ist. Die Alternative wäre der USB Port gewesen, aber leider war die Kabellänge unzureichend.

Nun sollte man das VST, das zur Anwendung kommen soll, laden. Dies kann je nach Rechnergeschwindigkeit einige Minuten in Anspruch nehmen. Jedes VST bringt üblicherweise eine graphische Benutzeroberfläche mit, die, je nach nachgeahmten Instrument, Informationen über den derzeitigen MIDI Status bereitstellt oder Modifikationen des Klangbildes erlaubt. Abbildung 11 zeigt die zwei verschiedenen Ansichten der graphischen Oberfläche vom VST Instrument The Grand. Oben sieht man die Tasten und die Pedale, die sich auch graphisch niederdrücken, wenn jemand auf dem Audio-Controller eine Taste betätigt. Zu Testzwecken kann man sie übrigens auch mit der Maus anklicken. Unten sieht man mannigfaltige Einstellungsmöglichkeiten, die das Klangbild des Konzertflügels beeinflußen. Sind die Anschläge hart oder weich? Ist das Klavier wohltemperiert? Soll der Anschlag der Hammer zu hören sein? Wie lange sollen die Töne bei der Betätigung des Sustain-Pedales nachhallen? Etc.

www.ionstorm.de/images/digitale_audioproduktion/11_the_grand.jpg
Abbildung 11: The Grand VST GUI


Da es sich bei der MIDI Aufnahme um eine rein elektronische Signalkette handelt, ist es nicht nötig, daß die Pianistin einen Kopfhörer trägt. Stattdessen wird das vorher aufgenommene Schlagzeug und die Ausgabe des MIDI-Klaviers direkt auf die Anlage des Studios (Abbildung 5) gegeben. Betätigt man nun den Aufnahme-Knopf am Studiorechner, dann beginnt die Wiedergabe des Schlagzeuges und die Aufnahme der MIDI Informationen, die vom MIDI Controller gesendet werden.

Damit die Pianistin nicht das ganze Lied in einem perfekt spielen muß, wird es kurzerhand in kleinen Fragmenten aufgenommen. Erst wird die Intro aufgezeichnet, dann wird die aufzunehmende Spur von Spur 3 auf Spur 4 gestellt und die Strophe aufgenommen. Nun schaltet man das Aufnahmeziel wieder zurück auf Spur 3 und nimmt den Refrain auf, und so weiter. Es zeigt sich interessanterweise immer wieder, daß es keine große Rolle spielt, wie gut ein Musiker ist: wenn eine Aufnahme stattfindet, dann schleichen sich sehr viel mehr Fehler ein, als wenn keine stattfindet.

www.ionstorm.de/images/digitale_audioproduktion/12_midispuren.jpg
Abbildung 12: 2 MIDI Spuren


Abbildung 12 zeigt die beiden ineinandergreifenden MIDI-Klavier Spuren. In den MIDI Objekten erkennt man anstelle der Hüllkurven eines analogen Audiosignals kleine Balken, deren horizontale Position den Zeitpunkt eines Tones angeben, während die vertikale Position die Tonhöhe verrät. Ist ein entsprechender Ton lang, dann ist auch der kleine repräsentierende Balken lang, ist ein Ton stark angeschlagen worden, dann wird er kontraststark gezeichnet, ansonsten kontrastarm. Diese Art der Darstellung von MIDI Noten hat sich in Sequenzern wie Samplitude durchgesetzt, kaum noch wird eine Darstellung als klassische Notation angeboten. Durch einen Klick mit der rechten Maustaste auf ein solches MIDI Objekt kann man den in Samplitude integrierten MIDI Editor aufrufen, siehe Abbildung 13. Die Darstellung ist hier analog zu der gerade beschriebenen, allerdings ist links noch ein Klaviertastenfeld eingeblendet und unten die Anschlagstärke der einzelnen Töne, die sogenannte Velocity, mit verschieden hohen Balken aufgetragen.

www.ionstorm.de/images/digitale_audioproduktion/13_midieditor.jpg
Abbildung 13: Samplitude MIDI Editor


Man kann mit der Maus nun fast beliebige Modifikationen vornehmen: Töne verschieben, verlängern, verkürzen, die Anschlagstärke ändern, neue Töne hinzufügen, schiefe Töne löschen. Vor allem kleinere Fehler lassen sich auf diese Weise sehr schnell und sehr präzise ausradieren. Dies ist selbstverständlich nur bei MIDI Aufnahmen möglich.

Die komplette, fertige MIDI Aufnahme des Pianos für den Song Far Away belegte am Ende 10,1 Kilobyte auf der Festplatte.


3.3.3 Bass


Der elektrische Bass wurde von Daniel Gambal gespielt. Wie die meisten Bühneninstrumente, vor allem die Saiteninstrumente, besitzen auch E-Bässe einen Mono-Klinkenausgang. Dieser wurde mit dem Eingang der DI-Box verbunden und verteilte sich von dort auf den Bassverstärker und auf das M8 Mischpult. Wie schon von vorherigen Aufnahmen gewohnt, wurde die entsprechende Spur in Samplitude zur Aufnahme markiert und das Monitoring auf den Kopfhörerverstärker gegeben, zusammen mit dem Klavier und dem Schlagzeug. Daß der Bassverstärker, über die DI-Box angeschlossen, noch zusätzlich ertönte, hatte keinen gesonderten Sinn, sondern diente lediglich dazu, den Bassspieler zu unterstützen, indem er seinen Bass auch spüren konnte, was natürlich nicht möglich gewesen wäre, wenn er ihn nur auf dem Kopfhörer gehört hätte.

Wieder muß das Eingangssignal exakt gepegelt sein, wieder wird dem Musiker die Möglichkeit gegeben, seine Aufnahme auf zwei Spuren zu verteilen und ansonsten unterscheidet sich der Aufnahmevorgang des E-Basses nicht im Wesentlichen von der Aufnahme des E-Schlagzeuges, beschrieben in Punkt 3.3.1.


3.3.4 Gitarren


Bei Far Away kamen lediglich elektrische Gitarren zum Einsatz, es wurden also keine akustischen Gitarren per Mikrofon abgenommen. Insofern unterscheidet sich auch hier der Aufnahmevorgang in keiner Weise zum E-Bass, abgesehen von der Tatsache, daß ein Effektgerät zum Einsatz kommt, um die Verzerrungen zu erreichen. Außerdem sind bei dem Lied einige Gitarrenabschnitte recht aufwendig arrangiert, so daß insgesamt bis zu 5 Gitarrenspuren benötigt wurden. Zuerst wurden die begleitenden vollen Akkorde im Solo und im Refrain gespielt und danach wurde das Solo eingespielt. An einigen Stellen wurde dann über das Solo noch eine Führungsmelodie gelegt.


3.3.5 MIDI Ambient


Ein sehr mächtiges Werkzeug um das Klangbild eines Rocksongs zum Positiven hin zu verändern ist der Einsatz von dezenten Streichern. Sie verleihen dem Hörerlebnis eine Fülle und gegebenenfalls sogar eine emotionale Tiefe. Mit der MIDI Funktionalität und dem richtigen VST Plugin ist der Aufwand relativ gering und man kann den Song ohne viel Mühe aufwerten. Zum Einsatz kam also dasselbe Equipment und Monitoring wie beim MIDI-Klavier, jedoch übernahm Bassist Daniel Gambal die Tasten. Das entsprechende VST Plugin nennt sich Edirol Orchestral und bietet ein komplettes wohlklingendes Orchester. Abbildung 14 zeigt die graphische Oberfläche von Orchestral und eine kleine Auswahl der zur Verfügung stehenden Instrumente. Außerdem wurde bei Orchestral auf die genaue Verteilung der einzelnen Instrumente im Panorama, sowie auf einen angemessenen Hall geachtet, so daß man fast nur noch das Instrument auswählen und sich nicht um diese Grundeinstellungen Sorgen machen muß. Man kann diese aber natürlich bei Bedarf auch ändern.

www.ionstorm.de/images/digitale_audioproduktion/14_orchestral1.jpg
Abbildung 14: Edirol Orchestral GUI


Die so aufgezeichneten Streicherspuren sehen genauso aus wie die MIDI-Aufnahmen des Klaviers. Sie kann man, MIDI sei dank, natürlich auch im Nachhinein noch in Oboen oder in Violinen verwandeln, um zu entscheiden, was am Besten zum Song passt. Bei Far Away sind es die langsamen Streicher geworden, die ihre Töne sehr weich einblenden und dadurch sehr angenehm und beruhigend klingen.


3.3.6 Gesang


Beim Gesang handelt es sich naturgemäß immer um eine analoge Audioquelle, die man natürlich mit einem Mikrofon aufzeichnen muß. Zum Einsatz kamen zwei Mikrofone, um später beim Abmischen einen größeren Spielraum zu haben: ein dynamisches Mikrofon mit Nierencharakteristik, wie es auf der Bühne zum Einsatz kommt, sowie ein Großmembrankondensatormikrofon, wie es in Studios zum Einsatz kommt. Zwar überschreitet der Frequenzbereich des Kondensatormikrofons das des dynamischen bei Weitem, aber gerade das kann eine Gesangsaufnahme unter Umständen später sehr ungewohnt klingen lassen. Der Einsatz des dynamischen Mikrofons ist an dieser Stelle als rein redundant zu verstehen. Es belegt im Mischpult und in Samplitude einfach eine weitere Spur und wird ansonsten nicht beachtet. Auf diese Spur wird lediglich zurückgegriffen, wenn im Mix später größere Probleme entstehen.

Das Großmembrankondensatormikrofon benötigt zum Betrieb die Phantomspeisung, die das M8 Mischpult bereitstellen kann. Abbildung 15 zeigt das Mikrofon und den sogenannten Popp-Schutz, der Explosivlaute - zum Beispiel 'P' - soweit abschwächt, daß die Aufnahme nicht übersteuert wird. Verbunden ist das Mikro mit Kanal 1 des M8 Mischpultes und ansonsten unterscheidet sich auch hier der benötigte Aufbau kaum von denen der vorhergegangenen Aufnahmen. Auch hier muß der Sänger nicht das komplette Lied in einem singen. Stattdessen werden die einzelnen Lied-Bausteine separat aufgenommen. Jeder Teil sollte direkt noch einmal eingesungen werden, nachdem man eine brauchbare Aufnahme erstellt hat. Diesen Vorgang nennt man umgangssprachlich Doublen und sorgt dafür, daß der Gesang nachher nicht so dünn wirkt. Allerdings gehört auch Konzentration dazu, damit der Hörer nachher nicht offensichtlich heraushört, daß es sich um zwei Aufnahmen handelt. Es sollte sehr exakt gesungen werden oder zumindest sehr ähnlich zum ersten Take.

www.ionstorm.de/images/digitale_audioproduktion/15_ske_c10.jpg
Abbildung 15: SKE C10 mit Poppschutz


Da es gerade beim Gesang unheimlich viele Punkte gibt, auf die man achten muß, wie zum Beispiel deutliche Aussprache, richtige Töne, korrekt transportiertes Gefühl, etc. dauern Gesangsaufnahmen erfahrungsgemäß sehr viel länger als die der anderen Instrumente.


3.3.7 Background Gesang


Far Away enthält neben der Stimme des Sängers auch noch begleitenden Gesang von Sängerin Regina Beul. Dieser kommt kurz vor dem Solo in einem kurzen Abschnitt ganz allein zum Tragen und deutet damit eine Art Dialog zwischen Mann und Frau an. Außerdem begleitet er deutlich den letzten Chorus. Bei der Aufnahme gibt es selbstverständlich keinen technischen Unterschied zwischen Lead- und Backgroundgesang, insofern ist der Aufbau mit dem in Punkt 3.3.6 beschriebenen identisch.


3.4 Bestandsaufnahme


Bei den soeben beschriebenen Aufnahmevorgängen für den Song Far Away sind 18 Spuren angefallen. Insgesamt belegt das Projekt auf der Festplatte in etwa 800 MB. Abbildung 16 zeigt das Gesamtbild des Projektfensters zum derzeitigen Projektstand in Samplitude. Während die MIDI Spuren, sowie das E-Schlagzeug schon jetzt sehr gut klingen, müssen die anderen Instrumente und der Gesang noch gemischt werden. Selbst wenn man zu diesem frühen Stadium die Lautstärken aufeinander abstimmen würde, dann wäre das Klangbild trotzdem noch störend: es entspricht zu diesem Zeitpunkt nicht den Hörgewohnheiten des normalen Hörers. Der nun nötige Mix der Einzelspuren wird in den Punkten 4.2.1 bis 4.2.7 beschrieben, der Endmix in Punkt 5.3.

www.ionstorm.de/images/digitale_audioproduktion/16_komplettansicht.jpg
Abbildung 16: Komplettes Projekt in Samplitude



3.5 Vergleich analoge Aufnahmetechnik


Analoge Aufnahmetechnik würde sich in den Grundkonzepten nicht von der hier beschriebenen digitalen Technik unterscheiden. Nach dem Mischpult gingen die Signale dann allerdings nicht in einen Rechner, sondern in einen Mehrspurrekorder. Auch hier wäre durch einen speziellen Knopf zu Anfang entschieden worden, daß die erste Spur auf dem (breiten) Magnetband beschrieben werden soll. Wäre die Schlagzeugaufnahme aufgezeichnet, dann müßte man das Band zurückspulen und die nächste Spur markieren, um ein echtes Klavier bzw. ein Keyboard, welches wie ein Klavier klingt, aufzuzeichnen. Der erste wirkliche Vorteil der digitalen Technik gegenüber der analogen läge also bis zu dieser Stelle hauptsächlich in der optischen Darstellung der bereits aufgezeichneten Signalquellen und in der Unnötigkeit des Spulens. Den Vorteil der analogen Aufzeichnung könnten Liebhaber wiederum darin sehen, daß die Bandaufnahme eine ganz andere akustische Qualität besitzt. Diese muß nicht unbedingt sehr rein oder hochwertig oder besser sein, sondern kann schon evtl. durch die technisch vorgegebenen Störgeräusche bestechen. Selbstverständlich handelt es sich hierbei um reine Fragen des Geschmacks.

Ein unbestreitbarer Nachteil der analogen Aufnahmetechnik liegt natürlich darin, daß nur eine begrenzte Anzahl von parallelen Spuren auf einem Band aufgezeichnet werden kann. Meist waren dies acht Spuren, manchmal 12 oder 16. Das Lied Far Away hätte also mit Schlagzeug, Bass, Klavier und Streichern bereits die Kapazitäten eines 8-Spur-Bandes gesprengt, es sei denn, man hätte die Musiker dazu bewegen können, ihre Aufnahmen in einem Versuch durchzuspielen. Dann hätte es genau gepasst, denn Schlagzeug, Bass, Klavier, Streicher, Rhythmus Gitarre, Sologitarre, Gesang und Background Gesang belegen genau acht Spuren.

In der analogen Aufnahmetechnik hätte man wahrscheinlich Effekte schon während der Aufnahme hinzugefügt (Insert Kanäle). In jedem Fall hätte man die Signale des Gesangs und evtl. des Schlagzeuges komprimiert, um eine möglichst gute Signalqualität zu haben, die im Bandrauschen nicht untergeht.
Man kann also die Aufnahmetechnik im analogen Bereich als unflexibler und etwas beschränkter bezeichnen, nicht jedoch zwangsläufig als schlechter. Wie es sich beim Mix verhält, wird in Punkt 4.4 erörtert.


Übersichtsseite
voriges Kapitel | nächstes Kapitel

© Marco Nassenstein (letztes Update: 2008-03-22 14:00:44)

ionstorm.de/Digitale_Audioproduktion/Aufnahme



© 2005 - 2012 Marco Nassenstein • SitemapImpressum