Ab und an produziere ich ein Tutorial über ein bestimmtes Thema aus der Musik im Allgemeinen. Diese sind darauf angelegt ein Thema so leicht verständlich wie möglich zu erklären. Dabei werden nicht nur die offensichtlichen Themen angegangen, sondern auch wichtige Hintergründe, die zum Verständnis außerordentlich wichtig sind.
Aktuell gibt es Bestrebungen bei Audio Plugins die Grafikkarte, also die GPU mit in die Berechnungen einzubeziehen. Und kaum wurde das ausgesprochen, kommen von allen Seiten die "Jahhaaaaaa abers ... geht ja nicht" um die Ecke.
Das Hauptargument lautet meist "Du kannst ja den Filter nicht vor dem Oszillator berechnen". Provokativ würde ich sagen "noch nicht", aber das ist ein ganz anderes Thema.
Warum diese Gegenargumentdiskussion komplett irreführend und in weiten Bereichen einfach nur falsch ist, beweisen uns schon die Betriebssysteme unserer Computer, die "Multitaskingfähig" sind. Also subjektiv Aufgaben "gleichzeitig/parallel" abarbeiten. Nimmt man dann auch noch CPUs, die aus mehreren Kernen bestehen und die sich dann noch auf der Hardware virtuell aufteilen können, dann wird aus teilweise subjektiv parallel = objektiv parallel. Weil wenn es die Aufgabe zulässt, dass an 2 Dingen gleichzeitig gearbeitet werden kann und man 2 unabhängige "Arbeiter" zur Verfügung hat, dann können diese beiden Aufgaben auch tatsächlich gleichzeitig/parallel abgearbeitet werden.
Einfache Rechnung: Wenn 2 Kartoffeln geschält werden müssen, sind diese doppelt so schnell geschält, wenn es 2 Personen machen, statt nur einer Person.
Wenn ausgehend von diesem Beispiel natürlich nur ein Kartoffelschälwerkzeug zur Verfügung steht, dann sind natürlich auch 2 Personen nicht schneller. Nur vielleicht insgesamt ausgeruhter. Was auch wieder ein Vorteil sein kann. Aber eines nach dem anderen.
Nehmen wir mal als Beispiel die Auto Produktion (mit ein paar Fantasiezahlen)
Ein Auto besteht aus 10.000 Teilen. Auf der Zusammenbaustrasse werden diese nacheinander, sagen wir von einer einzigen Person zusammengebaut. Zeitvorgabe 1 Woche. Das ist ein klassischer serieller (nacheinander) Prozess. Stellt man dort 2 Personen hin, geht der Prozess vielleicht nicht unbedingt doppelt so schnell, aber auf jeden Fall schneller und die Personen sind nach einer Woche auch nicht so ausgepowert. Die Anzahl der Personen zu erhöhen macht bis zu einem bestimmten Maß Sinn, was den Zusammenbau in einer gewissen Zeit verkürzt (Performance). Irgendwann schafft man dann mit dieser Konstellation ein Auto pro Tag. Mehr Performance.
Der nächste Schritt wäre, diese Zusammenbaustrasse zu duplizieren. Also mit 2 Straßen und der doppelten Menge an Personen bei gleicher Voraussetzung doppelt so viele Autos am Tag zu produzieren.
So die ganz einfache Betrachtung. Bei der aber komplett nicht berücksichtigt wurde, wie denn die Einzelteile, die zu einem Auto zusammengebaut werden überhaupt selbst zusammengebaut werden. Das machen normalerweise die Zulieferer. Würden die Zulieferer das nicht machen, müssten die Personen auf den Zusammenbaustrassen (ja den Begriff habe ich extra aus diesem Grund so gewählt), die Einzelteile selbst herstellen.
Also statt dass einfach eine Tür eingebaut wird, muss diese erst gefertigt werden. Im Extremfall müssen dafür erst die Rohstoffe gefunden, gehoben, veredelt und verarbeitbar gemacht werden. Danach in die entsprechende Form Metall für die Blechhülle, Plastik für die Innenverschalung, Mechanik für die Griffe, das Schloss uswusf. Also so eine Tür könnte sicherlich aus 1000 einzelnen gefertigten Teilen bestehen, die für sich sagen wir mal aus 20 Rohstoffen hergestellt werden, die in verschiedenen Ländern ... uswusf .. ich denke das Prinzip ist klar geworden.
Zusammengefasst: Die Parallelität eines Prozesse besteht nicht aus den Prozessen, die nicht parallelisiert werden können, sondern aus den Prozessen die parallelisiert werden können. Das ist die Aufgabe der Entwickler, zu schauen, was parallelisiert werden kann und wo Parallelisierung keinen Sinn macht. Wo kann man Prozesse auf verschiedene Hardware (Prozessoren) auslagern, welches Auslagern macht wegen der "Bürokratie" (Aufwand, z.B. keine Zeitersparnis) keinen Sinn und wo macht das unter Umständen sogar noch mehr Sinn.
Ganz speziell bei der Betrachtung CPU versus GPU. Audiobearbeitung nutzt extrem viel FFT und FFTS. Grafikkarten, also GPUs haben z.B. optimierte "Schaltkreise" die FFT Operationen extrem schnell und "kostengünstig" (energiesparend) ausführen. Auch wenn eine Grafikkarte mit einem höheren Stromverbrauch angegeben ist, wird sie mit großer Wahrscheinlichkeit bei dieser Operation weniger Strom verbrauchen, als es eine CPU tun würde.
Dass der Stromverbrauch dann ansteigt, könnte eine Folge davon sein, dass die Nutzer dann auch mehr Performance einfordern können/wollen.
Diese wirklich sehr krude Diskussion in vielen Foren ist meines Erachtens eine Zeitverschwendung, weil es absolut auf das Prozessmanagements (Algorithmus) ankommt, das in dem entsprechenden Audio Plugin eingesetzt wird.
Auf meinem Alter Ego hoergen Blog habe ich eine etwas technische Anleitung geschrieben, wie man Windows Plugins unter Linux mit YaBridge installieren kann. Ich betreibe einige Windows Plugins in Linux und Bitwig,die sehr zuverlässig funktionieren.
Der Unterschied zwischen analoger und digitaler Technik ist, dass bei der analogen Technik die Logik auf Platinen und Leiterbahnen unveränderbar festgelegt ist. Bei der digitalen Technik sind es kleine Prozessoren, die auf verschiedenste Arten programmiert werden können. Die Logik wird per Software festgelegt. Die Software stellt für das Gerät die Grundlogik zur Verfügung und wird Firmware genannt. Da es Software ist,kann sie verändert und auf das Gerät übertragen werden.
Die Überzahl von Music-Gear funktioniert über Firmware. Die Hersteller kann man hier in zwei grobe Lager einteilen.
Das erste Lager produziert ein Gerät mit Firmware, das verkauft und nie wieder gepflegt wird (buy & die)
Das zweite Lager ist nochmal zweigeteilt
Lager Zwei A liefert Updates mit Bugfixes (Fehlerbehebungen) nach (maintenance)
Lager Zwei B liefert nicht nur Bugfixes, sondern auch neue Features (maintenance & features)
Die Gründe des ersten Lagers an einem Produkt nichts mehr zu ändern sind oft "Kein Interesse" und oft bei kleineren Herstellern "keine Resourcen / die Programmierung war eingekauft und nun nicht mehr verfügbar).
Es gibt nichts frustrierenderes und entäuschenderes, als ein Produkt zu kaufen, das Fehler aufweist, oder bei dem fest versprochene Features nicht geliefert werden. Und es lässt das Herz des Konsumenten höher schlagen, wenn ein Firmwareupdate verfügbar ist, dass unter Umständen sogar noch neue Features enthält
Hand aufs Herz: Bei einem Wunschkonzert würden wir uns das Lager Zwei B (Maintenance / Features) wünschen. Und manche Hersteller sind auch in der Lage das zu liefern. Und mit dabei sind auch wirklich sehr kleine Hersteller, wie natürlich auch große Hersteller.
Je kleiner eine Firma, desto genauer muss sowas natürlich geplant werden, dass sich das auch lohnt. Eine Expertise, wie mit Softwarecode umgegangen wird (Lizenzierung/Werkverträge) und wie die das Produkt zukunftsfähig gehalten wird sollte hier unbedingt in die Produktplanung mit einfließen.
Und, um die Ausreden von Firmen "lohnt sich nicht" / "haben keine Resourcen" zu entkräften sei gesagt: Firmwareupdates müssen nicht kostenlos sein.
Es gibt bestimmt eine sehr große Zahl von Konsumenten die bereit sind eine Updategebühr zu bezahlen, um z.B. Erweiterungen zu erhalten.
Natürlich dürfen Firmen das auch nicht mit einer Erstauslieferung eines Produktes missbrauchen (völlig fehlerbehaftet).
Es gibt mittlerweile viele Konsumenten, die sich von Firmen und Produkten abwenden, weil es sich dabei nur um "buy&die" Wegwerfprodukte handelt. Firmen, die Updates bringen und sogar noch neue Features, sind gern weiterempfohlene und sehr oft genante Produkte und Firmen.
Über die Firmware kann sich eine Firma einen ordentlichen Imagegewinn oder aber auch einen ordentlichen Imageschaden zulegen. Gerade in Zeiten von Recycling und Wiederverwendung, sollten nicht nur die Konsumenten den Fokus darauf legen.
Eine hervorragende Dokumentation, zu der ich selbst gar nichts Bessers schreiben kann, als die Beschreibung bei Arte selbst erzählt.
Die Dokumentation erzählt die verblüffende Geschichte der Pionierinnen der elektronischen Musik. In einer virtuosen Mischung aus Archivmaterial, Interviews und visionärer Musik entsteht ein unterhaltsames Zeit- und Sittenbild von den Kriegsjahren bis heute, das von der befreienden Kraft neuer Technologien erzählt. Erzählerin ist die Musik-Ikone Laurie Anderson.
Ich beschäftige mich schon seit längerer Zeit mit Musikproduktion, einfach um meine eigene Musik auch so erklingen lassen zu können, wie ich sie im Kopf habe. Und wer das mal mit mehreren Instrumenten probiert hat, weiß dass das einfacher klingt, als es ist.
Im Laufe der Zeit kommt man unweigerlich zur Erkenntnis, dass Qualität am Anfang entsteht.
Ein schlechtes Ergebnis kann man zwar bis zu einem bestimmten Punkt restaurieren und aufhübschen, aber zum einen wird das Ergebnis nie so klingen, als hätte man von Anfangen an sauber gearbeitet und zum anderen ist der Aufwand immens und man geht viele andere Kompromisse ein.
Ein großes Thema ist immer wieder Lautstärke. Zum einen beim Thema Lautheit für ein bestimmtes Genre und zum anderen schon beim Mixing, wie man Instrumente unter Kontrolle bekommt.
Ein Exkurs
Das gilt für die Aufnahme von realen Instrumenten (Recording) , wie das Erzeugen von Sounds mit Synthesizern. Am Beispiel von Softwaresynthesizern ist das sehr schön demonstrierbar. Vorneweg sei noch erwähnt, dass es immer ein Ziel ist einen Sound "zu bewegen". Mit Bewegen sind viele Dinge gemeint: Lauter leiser z.B. bei einem Tremolo, Tonhöhenveränderungen wie bei einem Vibrato, Filterbewegungen wie das Reduzieren von hohen oder tiefen oder beiden oder nur vereinzelten Frequenzen, Tonhöhenänderungen von einem Ton zum Nächsten (Stichwort Melodie), mehrere Töne gleichzeitig gespielt uswusf.
Im nachfolgenden Schaubild ist der Bitwig Softwaresynthesizer Phase4 (Phasenmodulation) 2x abgebildet. Oben mit gut lesbarer Beschriftung und darunter ist jeder Bereich markiert, der bei einer Veränderung (Bewegung) ein Potential zur Lautheitveränderung hat.
Phase 4 Software Synthesizer
Das einfachste Experiment ist die Lautheitswahrnehmung wenn man an einem Klavier oder einer Gitarre tiefe, mittlere und hohe Töne exakt gleich laut anspielt. Also mit der selben Kraft und Geschwindigkeit die Taste drückt oder die Saite zupft. Die subjektiv wahrgenommene Lautstärke, also die Lautheit ist unterschiedlich.
Jeder dieser Regler des oben abgebildeten Softwaresynthesizers Phase4 beeinflusst also die Lautheit positiv wie negativ.
Je nach Einstellung des Synthesizers und der Spielweise entsteht dadurch eine große oder kleine Dynamik. Also der Unterschied zwischen dem leisesten und dem lautesten Ton eines gesamten Musikstückes. Lautheitsunterschied.
Beispiele: Klassikmusik mit großer Dynamik: vom leisen Flötenspiel zum lauten und brachialen Tusch. Popmusik mit geringerer Dynamik. EDM (Electronic Dance Music) mit extrem geringer Dynamik.
Die Frage bei Dynamik ist nicht, ob gut oder schlecht, sondern dem Genre angemessen. Also dem Zweck und dem Ziel. Z.B. ist eine Bahnhofsdurchsage mit hoher Dynamik, also auch mit vielen leisen gesprochenen Stellen kontraproduktiv. Da in dieser lärmigen Umgebung diese Stellen vermutlich nicht verstanden bzw gar nicht gehört werden können. Entsprechend ist auch z.B. Popmusik so konzipiert, dass es "nebenher" im Auto, in der Küche, im Laden, auf der Baustelle oder in Kneipen gespielt werden kann und man immer noch erkennt, dass Musik gespielt wird und um welchen Song es sich womöglich handelt.
Zurück zum Thema "Den Sound dort machen, wo er entsteht"
Also schon bei der Sounderzeugung oder Aufnahme muss darüber nachgedacht werden, welches Genre, Ziel oder Zweck dieser Sound oder Aufnahme hat. Und entsprechend muss natürlich auch die Dynamik mehr oder weniger kontrolliert werden. Wird das nicht schon an dieser Stelle bedacht, dann ergibt das später im Arrangement bzw im Mixing sehr viel mehr Probleme das eventuelle Chaos mit vielleicht zu vielen Kompromissen (schlechterer Klang) wieder einzufangen.
Die Qualität des Ergebnisses kann nur durch die Qualität der Einzelteile bestimmt werden.
Gerade in der Musikbranche gibt es natürlich viele Anbieter von Soundwerkzeugen, die ein Versprechen abgeben diese Versäumnisse wieder gerade biegen zu können. Sicherlich funktioniert das bis zu einem bestimmten Prozentsatz einigermaßen, aber dabei werden schon sehr viele Kompromisse gemacht, die mit einem sauberen und kontrollierten Aufbau des Sounds niemals hätten gemacht werden müssen.
All das ist eine Frage des eigenen Anspruches. Für die reine Freude am Musikmachen wird nicht so viel Wissen, Werkzeuge und Arbeit benötigt. Und das ist auch gut so. Wenn es aber in den semiprofessionellen oder gar professionellen Bereich geht, dann ist Wissen und ein qualitativ hochwertiges Arbeiten von Anfang an extrem wichtig. Und natürlich auch sehr gute Werkzeuge.
Im Forum auf sequencer.de bin ich auf diesen Vortrag gestoßen, den ich unbedingt weiter geben muss.
Es ist zwar "nur" Text und auch schon ein wenig älter 1972, aber dafür unglaublich bereichernd ! Elektronische Musik wird hier nicht als "Techno" oder Ähnliches verstanden, sondern als Musik elektronisch erzeugt. Und ganz fantastisch ist auch gleich zu Anfang die Zeitreise über die verschiedenen Wahrnehmungsstufen bei Musik und die entsprechenden Kontroversen, die es zu jener Zeit ausgelöst hat.
Sicherlich ist heutzutage Vieles mit einem Mausklick oder schon vollautomatisch vorkonfiguriert, was Stockhausen teilweise in tagelanger Arbeit manuell an Maschinen machen musste. Nichtsdestotrotz hat sich an der Funktionalität, Wirkung und an der Vorhersage von z.B. Timestretching nichts geändert.
Es ist lediglich ein wunderbarer und klarer Blick auf die wesentlichen Bestandteile der Musik, die 100.000 Youtube Tutorials nicht geben können.
Orson Wells hat mal gesagt ‘The enemy of art is the absence of (financial or physical) limitations.’ / "Der Feind der Kunst(Kreativität) ist die Abwesenheit von (finanziellen oder physischen Grenzen" .. oder vereinfacht gesagt "Wenn du alles zur Verfügung hast, gibt es keinen Zwang mehr kreativ zu werden".
Ein erstaunlicher und sehr tiefsinniger Satz, der in diversen Formulierungen wiederzufinden ist: Weniger ist mehr, Die Schönheit der Einfachheit. Die Konzentration auf das Wesentliche. Das Thema zieht sich durch viele Bereiche des Lebens, nicht nur in der Kunst im Allgemeinen, sondern z.B. auch bei Meditationen oder wie in den letzten Jahren diese Sendungen, in denen man sich auf die wesentlichen Besitztümer reduziert um auch seelischen Ballast los zu werden.
Wenn man also nicht mehr den Zwang hat kreativ zu werden, dann verkürzt oder elimiert man den Schaffensprozess. Damit beraubt man sich gleichzeitig der Chance Fehler zu machen (Lucky Accidents) bzw neue Dinge zu entdecken.
Allerdings gibt es auch hier kein "entweder so oder so". Kein Richtig oder Falsch. Manchmal ist es gut, wenn man z.B. ein Plugin hat, das einem 20 Schritte abnimmt. Und manchmal ist es gut, wenn man diese 20 Schritte selbst geht. In diesen 20 Schritten können Anstrengung, Langeweile, Lernen, Training, Fehler, Erkenntnis und neue Wege liegen. Man muss nicht jedes Mal das Abenteuer suchen, aber man muss wissen, dass es das Abenteuer gibt und man sollte neugierig auf das Abenteuer bleiben, um die Chance zu haben Neues entdecken zu können.
In dem Zusammenhang ist das Interview mit Orson Wells über die Entstehung des Films Citizen Kane sehr interessant. Wikipedia schreibt über den Film
Bei seiner Erstveröffentlichung war der Film ein Flop und wurde heftig kritisiert. Heute gilt er als Meilenstein der Kinogeschichte und als einer der innovativsten und bedeutendsten Filme, die je produziert wurden. Auf der Top-Ten-Liste der Fachzeitschrift Sight & Sound des British Film Institute, die alle zehn Jahre von bekannten Regisseuren und Kritikern gewählt wird, belegte Citizen Kane von 1962 bis 2002 durchgehend den ersten Platz. Das American Film Institute listet Citizen Kane als den besten US-amerikanischen Film aller Zeiten.[1] Auch das französische Filmmagazin Cahiers du cinéma listete Welles’ Film 2008 auf Platz 1 der besten Filme aller Zeiten.
Klangwerk - Blog von Odo Sendaidokai aus Berlin rund um Musikproduktion
Wir informieren euch kostenlos über interessante Konzepte, Tools, Artikel und Tuitorials
Schwerpunkte sind Opensource, Offene Formate, Wissensvermittlung, Erklärungen und interessante Projekte. Die Informationen werden von hoergen aka Odo Sendaidokai zusammengetragen. Und hier findet ihr meine Tutorials und Musik - Warum mache ich das -