Die Tutorial Serie auf meinem Videokanal über den Hive 2 Synthesizer auf deutsch und englisch wächst immer mehr.
Hive 2 - deutsche Tutorial Serie
Hive 2 - english Tutorial Seris
Die Tutorial Serie auf meinem Videokanal über den Hive 2 Synthesizer auf deutsch und englisch wächst immer mehr.
Hive 2 - deutsche Tutorial Serie
Hive 2 - english Tutorial Seris
Ich experimentiere nächsten Donnerstag 7.4.2022 / 20:30 in meinem Bitwig Livestream mit dem VST Plugin / Sequencer Stepic VST von Devicemeister. Als Schmankerl verschenkt Devicemeister an die TeilnehmerInnen des Livestreams eine Lizenz. Mehr Infos dazu in der YouTube Videobeschreibung.
Das Plugin läuft in jeder DAW. Ausser bei Ableton gibt es einen Sonderweg, da es ursprünglich ein Max Device ist. Hinweise auf der Webseite beachten.
Das Plugin ist für Windows und Mac. Unter Linux läuft das Plugin zusammen mit YaBridge einwandfrei.
Artist Hub - https://sendaidokai.de/
Streaming
Aktuell gibt es Bestrebungen bei Audio Plugins die Grafikkarte, also die GPU mit in die Berechnungen einzubeziehen. Und kaum wurde das ausgesprochen, kommen von allen Seiten die "Jahhaaaaaa abers ... geht ja nicht" um die Ecke.
Das Hauptargument lautet meist "Du kannst ja den Filter nicht vor dem Oszillator berechnen". Provokativ würde ich sagen "noch nicht", aber das ist ein ganz anderes Thema.
Warum diese Gegenargumentdiskussion komplett irreführend und in weiten Bereichen einfach nur falsch ist, beweisen uns schon die Betriebssysteme unserer Computer, die "Multitaskingfähig" sind. Also subjektiv Aufgaben "gleichzeitig/parallel" abarbeiten. Nimmt man dann auch noch CPUs, die aus mehreren Kernen bestehen und die sich dann noch auf der Hardware virtuell aufteilen können, dann wird aus teilweise subjektiv parallel = objektiv parallel. Weil wenn es die Aufgabe zulässt, dass an 2 Dingen gleichzeitig gearbeitet werden kann und man 2 unabhängige "Arbeiter" zur Verfügung hat, dann können diese beiden Aufgaben auch tatsächlich gleichzeitig/parallel abgearbeitet werden.
Einfache Rechnung: Wenn 2 Kartoffeln geschält werden müssen, sind diese doppelt so schnell geschält, wenn es 2 Personen machen, statt nur einer Person.
Wenn ausgehend von diesem Beispiel natürlich nur ein Kartoffelschälwerkzeug zur Verfügung steht, dann sind natürlich auch 2 Personen nicht schneller. Nur vielleicht insgesamt ausgeruhter. Was auch wieder ein Vorteil sein kann. Aber eines nach dem anderen.
Nehmen wir mal als Beispiel die Auto Produktion (mit ein paar Fantasiezahlen)
Ein Auto besteht aus 10.000 Teilen. Auf der Zusammenbaustrasse werden diese nacheinander, sagen wir von einer einzigen Person zusammengebaut. Zeitvorgabe 1 Woche. Das ist ein klassischer serieller (nacheinander) Prozess. Stellt man dort 2 Personen hin, geht der Prozess vielleicht nicht unbedingt doppelt so schnell, aber auf jeden Fall schneller und die Personen sind nach einer Woche auch nicht so ausgepowert. Die Anzahl der Personen zu erhöhen macht bis zu einem bestimmten Maß Sinn, was den Zusammenbau in einer gewissen Zeit verkürzt (Performance). Irgendwann schafft man dann mit dieser Konstellation ein Auto pro Tag. Mehr Performance.
Der nächste Schritt wäre, diese Zusammenbaustrasse zu duplizieren. Also mit 2 Straßen und der doppelten Menge an Personen bei gleicher Voraussetzung doppelt so viele Autos am Tag zu produzieren.
So die ganz einfache Betrachtung. Bei der aber komplett nicht berücksichtigt wurde, wie denn die Einzelteile, die zu einem Auto zusammengebaut werden überhaupt selbst zusammengebaut werden. Das machen normalerweise die Zulieferer. Würden die Zulieferer das nicht machen, müssten die Personen auf den Zusammenbaustrassen (ja den Begriff habe ich extra aus diesem Grund so gewählt), die Einzelteile selbst herstellen.
Also statt dass einfach eine Tür eingebaut wird, muss diese erst gefertigt werden. Im Extremfall müssen dafür erst die Rohstoffe gefunden, gehoben, veredelt und verarbeitbar gemacht werden. Danach in die entsprechende Form Metall für die Blechhülle, Plastik für die Innenverschalung, Mechanik für die Griffe, das Schloss uswusf. Also so eine Tür könnte sicherlich aus 1000 einzelnen gefertigten Teilen bestehen, die für sich sagen wir mal aus 20 Rohstoffen hergestellt werden, die in verschiedenen Ländern ... uswusf .. ich denke das Prinzip ist klar geworden.
Zusammengefasst: Die Parallelität eines Prozesse besteht nicht aus den Prozessen, die nicht parallelisiert werden können, sondern aus den Prozessen die parallelisiert werden können. Das ist die Aufgabe der Entwickler, zu schauen, was parallelisiert werden kann und wo Parallelisierung keinen Sinn macht. Wo kann man Prozesse auf verschiedene Hardware (Prozessoren) auslagern, welches Auslagern macht wegen der "Bürokratie" (Aufwand, z.B. keine Zeitersparnis) keinen Sinn und wo macht das unter Umständen sogar noch mehr Sinn.
Ganz speziell bei der Betrachtung CPU versus GPU. Audiobearbeitung nutzt extrem viel FFT und FFTS. Grafikkarten, also GPUs haben z.B. optimierte "Schaltkreise" die FFT Operationen extrem schnell und "kostengünstig" (energiesparend) ausführen. Auch wenn eine Grafikkarte mit einem höheren Stromverbrauch angegeben ist, wird sie mit großer Wahrscheinlichkeit bei dieser Operation weniger Strom verbrauchen, als es eine CPU tun würde.
Dass der Stromverbrauch dann ansteigt, könnte eine Folge davon sein, dass die Nutzer dann auch mehr Performance einfordern können/wollen.
Diese wirklich sehr krude Diskussion in vielen Foren ist meines Erachtens eine Zeitverschwendung, weil es absolut auf das Prozessmanagements (Algorithmus) ankommt, das in dem entsprechenden Audio Plugin eingesetzt wird.
Auf meinem Alter Ego hoergen Blog habe ich eine etwas technische Anleitung geschrieben, wie man Windows Plugins unter Linux mit YaBridge installieren kann. Ich betreibe einige Windows Plugins in Linux und Bitwig,die sehr zuverlässig funktionieren.
Schaut einfach hier: Plugins - Windows VSTs 32/64 Bit mit YaBridge | Linux
falkTX von KX.Studio hat das Plugin Ildaeil releaset. Ein VST Plugin für Linux, Windows, und Mac in dem man LV2 Plugins laden und in jeder DAW ausführen kann.
Der Originaltext (automatisch übersetzt)
Ildaeil ist ein Mini-Plugin-Host, der wie ein Plugin funktioniert und die Wiederverwendung von Plugin-Formaten im Verhältnis eins zu eins ermöglicht.
Die Idee ist, es als Plugin in Ihrer DAW zu laden und dann das andere "echte" Plugin in Ildaeil.
So kann zum Beispiel ein VST3-Host LV2-Plugins laden.Für die technisch Interessierten: Es handelt sich im Grunde um eine Kombination aus Carla, DPF und DPF-Widgets.
Es gibt einen kleinen eigenen Code, der das Zeichnen der Plugin-Liste, die allgemeine GUI und den Ausgleich der eingebetteten GUIs regelt, aber alles andere wird von diesen anderen Projekten erledigt.
Nichts, was Ildaeil macht, ist etwas Besonderes, was Carla nicht auch kann, aber wenn man Carla benutzt, muss man immer mit einem zusätzlichen Fenster umgehen.
Wenn man z.B. ein einzelnes LV2-Plugin auf einem nicht-LV2-unterstützten Host laden will, wird das ziemlich mühsam.
Mit ein wenig Glue-Code, um Carla, DPF und eine kleine GUI zu verbinden, wird dieses Projekt möglich.
https://kx.studio/News/?action=view&url=ildaeil-v10-released
In dieser Bitwig Practice Session zeige ich dir, wie du die Envelope Depth / Amount, der bei vielen Filtern mit dabei ist zu deinem Vorteil nutzen kannst.
Ich beschäftige mich schon seit längerer Zeit mit Musikproduktion, einfach um meine eigene Musik auch so erklingen lassen zu können, wie ich sie im Kopf habe. Und wer das mal mit mehreren Instrumenten probiert hat, weiß dass das einfacher klingt, als es ist.
Im Laufe der Zeit kommt man unweigerlich zur Erkenntnis, dass Qualität am Anfang entsteht.
Ein schlechtes Ergebnis kann man zwar bis zu einem bestimmten Punkt restaurieren und aufhübschen, aber zum einen wird das Ergebnis nie so klingen, als hätte man von Anfangen an sauber gearbeitet und zum anderen ist der Aufwand immens und man geht viele andere Kompromisse ein.
Ein großes Thema ist immer wieder Lautstärke. Zum einen beim Thema Lautheit für ein bestimmtes Genre und zum anderen schon beim Mixing, wie man Instrumente unter Kontrolle bekommt.
Ein Exkurs
Das gilt für die Aufnahme von realen Instrumenten (Recording) , wie das Erzeugen von Sounds mit Synthesizern. Am Beispiel von Softwaresynthesizern ist das sehr schön demonstrierbar. Vorneweg sei noch erwähnt, dass es immer ein Ziel ist einen Sound "zu bewegen". Mit Bewegen sind viele Dinge gemeint: Lauter leiser z.B. bei einem Tremolo, Tonhöhenveränderungen wie bei einem Vibrato, Filterbewegungen wie das Reduzieren von hohen oder tiefen oder beiden oder nur vereinzelten Frequenzen, Tonhöhenänderungen von einem Ton zum Nächsten (Stichwort Melodie), mehrere Töne gleichzeitig gespielt uswusf.
Jede Bewegung verändert auch die Lautstärke bzw die wahrgenommene Lautheit.
Musik - Was ist Sound? Tilt & Phase (Fletcher & Munson / Robinson & Dadson), Was ist Dynamik, Lautheit, LUFS, Compressor, Expander. Peak & RMS ... und Crest Factor und LUFS , Lautstärken von db über LUFS zu True Peak
Im nachfolgenden Schaubild ist der Bitwig Softwaresynthesizer Phase4 (Phasenmodulation) 2x abgebildet. Oben mit gut lesbarer Beschriftung und darunter ist jeder Bereich markiert, der bei einer Veränderung (Bewegung) ein Potential zur Lautheitveränderung hat.
Das einfachste Experiment ist die Lautheitswahrnehmung wenn man an einem Klavier oder einer Gitarre tiefe, mittlere und hohe Töne exakt gleich laut anspielt. Also mit der selben Kraft und Geschwindigkeit die Taste drückt oder die Saite zupft. Die subjektiv wahrgenommene Lautstärke, also die Lautheit ist unterschiedlich.
Jeder dieser Regler des oben abgebildeten Softwaresynthesizers Phase4 beeinflusst also die Lautheit positiv wie negativ.
Je nach Einstellung des Synthesizers und der Spielweise entsteht dadurch eine große oder kleine Dynamik. Also der Unterschied zwischen dem leisesten und dem lautesten Ton eines gesamten Musikstückes. Lautheitsunterschied.
Beispiele: Klassikmusik mit großer Dynamik: vom leisen Flötenspiel zum lauten und brachialen Tusch. Popmusik mit geringerer Dynamik. EDM (Electronic Dance Music) mit extrem geringer Dynamik.
Die Frage bei Dynamik ist nicht, ob gut oder schlecht, sondern dem Genre angemessen. Also dem Zweck und dem Ziel. Z.B. ist eine Bahnhofsdurchsage mit hoher Dynamik, also auch mit vielen leisen gesprochenen Stellen kontraproduktiv. Da in dieser lärmigen Umgebung diese Stellen vermutlich nicht verstanden bzw gar nicht gehört werden können. Entsprechend ist auch z.B. Popmusik so konzipiert, dass es "nebenher" im Auto, in der Küche, im Laden, auf der Baustelle oder in Kneipen gespielt werden kann und man immer noch erkennt, dass Musik gespielt wird und um welchen Song es sich womöglich handelt.
Zurück zum Thema "Den Sound dort machen, wo er entsteht"
Also schon bei der Sounderzeugung oder Aufnahme muss darüber nachgedacht werden, welches Genre, Ziel oder Zweck dieser Sound oder Aufnahme hat. Und entsprechend muss natürlich auch die Dynamik mehr oder weniger kontrolliert werden. Wird das nicht schon an dieser Stelle bedacht, dann ergibt das später im Arrangement bzw im Mixing sehr viel mehr Probleme das eventuelle Chaos mit vielleicht zu vielen Kompromissen (schlechterer Klang) wieder einzufangen.
Die Qualität des Ergebnisses kann nur durch die Qualität der Einzelteile bestimmt werden.
Gerade in der Musikbranche gibt es natürlich viele Anbieter von Soundwerkzeugen, die ein Versprechen abgeben diese Versäumnisse wieder gerade biegen zu können. Sicherlich funktioniert das bis zu einem bestimmten Prozentsatz einigermaßen, aber dabei werden schon sehr viele Kompromisse gemacht, die mit einem sauberen und kontrollierten Aufbau des Sounds niemals hätten gemacht werden müssen.
All das ist eine Frage des eigenen Anspruches. Für die reine Freude am Musikmachen wird nicht so viel Wissen, Werkzeuge und Arbeit benötigt. Und das ist auch gut so. Wenn es aber in den semiprofessionellen oder gar professionellen Bereich geht, dann ist Wissen und ein qualitativ hochwertiges Arbeiten von Anfang an extrem wichtig. Und natürlich auch sehr gute Werkzeuge.
In dieser Folge erkläre ich dir das Amp Device von Bitwig.
In dieser Folge erkläre ich dir das Distortion Device von Bitwig.
In dieser Bitwig Practice Session zeige ich dir, wie du mit dem sogenannten Pulltec EQ Trick deine Kick Drum oder deinen Bass ein wenig mehr Wärme bzw ein wenig mehr Körper geben kannst.