In diesem Tutorial erkläre ich, wie ich mit Hilfe von Midi CC alle Plugins mit einem Hardwarecontroller sofort steuern kann. Im Prinzip eine sehr alte, aber dennoch sehr praktische Art und Weise, die leider sehr selten genutzt und noch weniger besprochen wird.
Ich habe dazu ein Paket für den SurgeXT Synthesizer und Bitwig zum freien und kostenlosen Download geschnürt.
Das Surge Team, das den herausragenden Software Synthesizer SurgeXT heraus gibt kümmert sich seit einiger Zeit um ein weiteres Projekt von @kurasu/Claes Johanson, ebenfalls der Gründer des Surge Synthesizers: Shortcircuit.
Auf der Shortciruit Entwicklerseite ist leider nicht viel zu lesen, um was es sich handelt. Dafür aber auf einem alten KVR Beitrag ist eine längere und informative Beschreibung mit den Spezifikationen (am Ende des Artikels) zu lesen .
Kurz gesagt ist es ein Softwaresampler, dessen Fokus auf einem schnellen Workflow, der hauptsächlichen Nutzung als Instrument und der Integration etlicher Soundformate.
So wie es zu lesen ist, nimmt die Entwicklung langsam Fahrt auf und die ersten Alpha-Versionen können getestet werden. Das Entwicklerteam entfernt gerade betriebssystemabhänigen Code, um ihn mit plattformübergreifendem Code zu ersetzen.
Desweiteren soll zusaätzlich eine sogenannte headless Variante verfügbar sein. Also dass der Sampler ohne eine grafische Oberfläche (GUI) nutzbar ist. Das eröffnet viele neue Möglichkeiten den Sampler für headless (z.B. Raspi), embedded Systeme oder gar integriert in Controllern zu nutzen.
Auch wird der Quellcode umgeschrieben, damit das Entwicklungsframwork JUCE als Backend genutzt werden kann. Dadurch dürfen wir auf moderne Plugin Formate wie CLAP oder VST3 und weitere hoffen.
Die sogenannten Nightly Builds gibt es für Linux / Windows / Mac auf dieser Seite.
Und hier nun wie versprochen die sehr interessanten Spezifikationen, der ursprünglichen Version
User interface:
Streamlined user interface for fast editing at the sample-zone level.
Fast editing of multiple zones.
"In context"-sample preview.
Extensive drag & drop support (onto the keyrange-view or the list-view).
Sample/Instrument import:
RIFF wave-files (.wav) (8/16/24/32-bit & 32-bit float, mono/stereo at any sample rate).
AKAI S5000/S6000/Z4/Z8 .akp banks (partial).
NI battery kits (partial).
Soundfont 2.00 (partial).
Propellerheads Recycle 1 & 2.
Sampler engine:
High-quality sinc interpolation.
Oversampling used when needed to prevent aliasing.
Double-precision float math (64-bit) used where it matters (IIR-filters).
Single-precision float math (32-bit) used elsewhere.
Supports any sample-rate.
Max polyphony per instance: 256 voices.
Multiple outputs (max 16 mono AND 8 stereo-pairs per instance).
Supported sample-playback modes:
Forward / Forward loop / Forward loop with crossfading
Microgate (does glitch/loop style effects when the gate is open).
Ring modulation.
Phase modulation (equivalent to FM).
Frequency shifting.
Pulse oscillator.
Pulse oscillator (with sync).
Sawtooth oscillator (with 1-16 voices in unison)
Sinus oscillator.
3 step LFOs / voice. Doubles as 32-step step-sequencer and wavetable LFO
2 AHDSR envelopes / voice.
Powerful modulation system with the ability to modulate itself. Destinations include envelope-times, loop-points in addition to traditional destinations
Aktuell gibt es Bestrebungen bei Audio Plugins die Grafikkarte, also die GPU mit in die Berechnungen einzubeziehen. Und kaum wurde das ausgesprochen, kommen von allen Seiten die "Jahhaaaaaa abers ... geht ja nicht" um die Ecke.
Das Hauptargument lautet meist "Du kannst ja den Filter nicht vor dem Oszillator berechnen". Provokativ würde ich sagen "noch nicht", aber das ist ein ganz anderes Thema.
Warum diese Gegenargumentdiskussion komplett irreführend und in weiten Bereichen einfach nur falsch ist, beweisen uns schon die Betriebssysteme unserer Computer, die "Multitaskingfähig" sind. Also subjektiv Aufgaben "gleichzeitig/parallel" abarbeiten. Nimmt man dann auch noch CPUs, die aus mehreren Kernen bestehen und die sich dann noch auf der Hardware virtuell aufteilen können, dann wird aus teilweise subjektiv parallel = objektiv parallel. Weil wenn es die Aufgabe zulässt, dass an 2 Dingen gleichzeitig gearbeitet werden kann und man 2 unabhängige "Arbeiter" zur Verfügung hat, dann können diese beiden Aufgaben auch tatsächlich gleichzeitig/parallel abgearbeitet werden.
Einfache Rechnung: Wenn 2 Kartoffeln geschält werden müssen, sind diese doppelt so schnell geschält, wenn es 2 Personen machen, statt nur einer Person.
Wenn ausgehend von diesem Beispiel natürlich nur ein Kartoffelschälwerkzeug zur Verfügung steht, dann sind natürlich auch 2 Personen nicht schneller. Nur vielleicht insgesamt ausgeruhter. Was auch wieder ein Vorteil sein kann. Aber eines nach dem anderen.
Nehmen wir mal als Beispiel die Auto Produktion (mit ein paar Fantasiezahlen)
Ein Auto besteht aus 10.000 Teilen. Auf der Zusammenbaustrasse werden diese nacheinander, sagen wir von einer einzigen Person zusammengebaut. Zeitvorgabe 1 Woche. Das ist ein klassischer serieller (nacheinander) Prozess. Stellt man dort 2 Personen hin, geht der Prozess vielleicht nicht unbedingt doppelt so schnell, aber auf jeden Fall schneller und die Personen sind nach einer Woche auch nicht so ausgepowert. Die Anzahl der Personen zu erhöhen macht bis zu einem bestimmten Maß Sinn, was den Zusammenbau in einer gewissen Zeit verkürzt (Performance). Irgendwann schafft man dann mit dieser Konstellation ein Auto pro Tag. Mehr Performance.
Der nächste Schritt wäre, diese Zusammenbaustrasse zu duplizieren. Also mit 2 Straßen und der doppelten Menge an Personen bei gleicher Voraussetzung doppelt so viele Autos am Tag zu produzieren.
So die ganz einfache Betrachtung. Bei der aber komplett nicht berücksichtigt wurde, wie denn die Einzelteile, die zu einem Auto zusammengebaut werden überhaupt selbst zusammengebaut werden. Das machen normalerweise die Zulieferer. Würden die Zulieferer das nicht machen, müssten die Personen auf den Zusammenbaustrassen (ja den Begriff habe ich extra aus diesem Grund so gewählt), die Einzelteile selbst herstellen.
Also statt dass einfach eine Tür eingebaut wird, muss diese erst gefertigt werden. Im Extremfall müssen dafür erst die Rohstoffe gefunden, gehoben, veredelt und verarbeitbar gemacht werden. Danach in die entsprechende Form Metall für die Blechhülle, Plastik für die Innenverschalung, Mechanik für die Griffe, das Schloss uswusf. Also so eine Tür könnte sicherlich aus 1000 einzelnen gefertigten Teilen bestehen, die für sich sagen wir mal aus 20 Rohstoffen hergestellt werden, die in verschiedenen Ländern ... uswusf .. ich denke das Prinzip ist klar geworden.
Zusammengefasst: Die Parallelität eines Prozesse besteht nicht aus den Prozessen, die nicht parallelisiert werden können, sondern aus den Prozessen die parallelisiert werden können. Das ist die Aufgabe der Entwickler, zu schauen, was parallelisiert werden kann und wo Parallelisierung keinen Sinn macht. Wo kann man Prozesse auf verschiedene Hardware (Prozessoren) auslagern, welches Auslagern macht wegen der "Bürokratie" (Aufwand, z.B. keine Zeitersparnis) keinen Sinn und wo macht das unter Umständen sogar noch mehr Sinn.
Ganz speziell bei der Betrachtung CPU versus GPU. Audiobearbeitung nutzt extrem viel FFT und FFTS. Grafikkarten, also GPUs haben z.B. optimierte "Schaltkreise" die FFT Operationen extrem schnell und "kostengünstig" (energiesparend) ausführen. Auch wenn eine Grafikkarte mit einem höheren Stromverbrauch angegeben ist, wird sie mit großer Wahrscheinlichkeit bei dieser Operation weniger Strom verbrauchen, als es eine CPU tun würde.
Dass der Stromverbrauch dann ansteigt, könnte eine Folge davon sein, dass die Nutzer dann auch mehr Performance einfordern können/wollen.
Diese wirklich sehr krude Diskussion in vielen Foren ist meines Erachtens eine Zeitverschwendung, weil es absolut auf das Prozessmanagements (Algorithmus) ankommt, das in dem entsprechenden Audio Plugin eingesetzt wird.
Auf meinem Alter Ego hoergen Blog habe ich eine etwas technische Anleitung geschrieben, wie man Windows Plugins unter Linux mit YaBridge installieren kann. Ich betreibe einige Windows Plugins in Linux und Bitwig,die sehr zuverlässig funktionieren.
falkTX von KX.Studio hat das Plugin Ildaeil releaset. Ein VST Plugin für Linux, Windows, und Mac in dem man LV2 Plugins laden und in jeder DAW ausführen kann.
Der Originaltext (automatisch übersetzt)
Ildaeil ist ein Mini-Plugin-Host, der wie ein Plugin funktioniert und die Wiederverwendung von Plugin-Formaten im Verhältnis eins zu eins ermöglicht. Die Idee ist, es als Plugin in Ihrer DAW zu laden und dann das andere "echte" Plugin in Ildaeil. So kann zum Beispiel ein VST3-Host LV2-Plugins laden.
Für die technisch Interessierten: Es handelt sich im Grunde um eine Kombination aus Carla, DPF und DPF-Widgets. Es gibt einen kleinen eigenen Code, der das Zeichnen der Plugin-Liste, die allgemeine GUI und den Ausgleich der eingebetteten GUIs regelt, aber alles andere wird von diesen anderen Projekten erledigt. Nichts, was Ildaeil macht, ist etwas Besonderes, was Carla nicht auch kann, aber wenn man Carla benutzt, muss man immer mit einem zusätzlichen Fenster umgehen. Wenn man z.B. ein einzelnes LV2-Plugin auf einem nicht-LV2-unterstützten Host laden will, wird das ziemlich mühsam. Mit ein wenig Glue-Code, um Carla, DPF und eine kleine GUI zu verbinden, wird dieses Projekt möglich.
In dieser Bitwig Practice Session zeige ich dir, wie du die Envelope Depth / Amount, der bei vielen Filtern mit dabei ist zu deinem Vorteil nutzen kannst.
Ich beschäftige mich schon seit längerer Zeit mit Musikproduktion, einfach um meine eigene Musik auch so erklingen lassen zu können, wie ich sie im Kopf habe. Und wer das mal mit mehreren Instrumenten probiert hat, weiß dass das einfacher klingt, als es ist.
Im Laufe der Zeit kommt man unweigerlich zur Erkenntnis, dass Qualität am Anfang entsteht.
Ein schlechtes Ergebnis kann man zwar bis zu einem bestimmten Punkt restaurieren und aufhübschen, aber zum einen wird das Ergebnis nie so klingen, als hätte man von Anfangen an sauber gearbeitet und zum anderen ist der Aufwand immens und man geht viele andere Kompromisse ein.
Ein großes Thema ist immer wieder Lautstärke. Zum einen beim Thema Lautheit für ein bestimmtes Genre und zum anderen schon beim Mixing, wie man Instrumente unter Kontrolle bekommt.
Ein Exkurs
Das gilt für die Aufnahme von realen Instrumenten (Recording) , wie das Erzeugen von Sounds mit Synthesizern. Am Beispiel von Softwaresynthesizern ist das sehr schön demonstrierbar. Vorneweg sei noch erwähnt, dass es immer ein Ziel ist einen Sound "zu bewegen". Mit Bewegen sind viele Dinge gemeint: Lauter leiser z.B. bei einem Tremolo, Tonhöhenveränderungen wie bei einem Vibrato, Filterbewegungen wie das Reduzieren von hohen oder tiefen oder beiden oder nur vereinzelten Frequenzen, Tonhöhenänderungen von einem Ton zum Nächsten (Stichwort Melodie), mehrere Töne gleichzeitig gespielt uswusf.
Im nachfolgenden Schaubild ist der Bitwig Softwaresynthesizer Phase4 (Phasenmodulation) 2x abgebildet. Oben mit gut lesbarer Beschriftung und darunter ist jeder Bereich markiert, der bei einer Veränderung (Bewegung) ein Potential zur Lautheitveränderung hat.
Phase 4 Software Synthesizer
Das einfachste Experiment ist die Lautheitswahrnehmung wenn man an einem Klavier oder einer Gitarre tiefe, mittlere und hohe Töne exakt gleich laut anspielt. Also mit der selben Kraft und Geschwindigkeit die Taste drückt oder die Saite zupft. Die subjektiv wahrgenommene Lautstärke, also die Lautheit ist unterschiedlich.
Jeder dieser Regler des oben abgebildeten Softwaresynthesizers Phase4 beeinflusst also die Lautheit positiv wie negativ.
Je nach Einstellung des Synthesizers und der Spielweise entsteht dadurch eine große oder kleine Dynamik. Also der Unterschied zwischen dem leisesten und dem lautesten Ton eines gesamten Musikstückes. Lautheitsunterschied.
Beispiele: Klassikmusik mit großer Dynamik: vom leisen Flötenspiel zum lauten und brachialen Tusch. Popmusik mit geringerer Dynamik. EDM (Electronic Dance Music) mit extrem geringer Dynamik.
Die Frage bei Dynamik ist nicht, ob gut oder schlecht, sondern dem Genre angemessen. Also dem Zweck und dem Ziel. Z.B. ist eine Bahnhofsdurchsage mit hoher Dynamik, also auch mit vielen leisen gesprochenen Stellen kontraproduktiv. Da in dieser lärmigen Umgebung diese Stellen vermutlich nicht verstanden bzw gar nicht gehört werden können. Entsprechend ist auch z.B. Popmusik so konzipiert, dass es "nebenher" im Auto, in der Küche, im Laden, auf der Baustelle oder in Kneipen gespielt werden kann und man immer noch erkennt, dass Musik gespielt wird und um welchen Song es sich womöglich handelt.
Zurück zum Thema "Den Sound dort machen, wo er entsteht"
Also schon bei der Sounderzeugung oder Aufnahme muss darüber nachgedacht werden, welches Genre, Ziel oder Zweck dieser Sound oder Aufnahme hat. Und entsprechend muss natürlich auch die Dynamik mehr oder weniger kontrolliert werden. Wird das nicht schon an dieser Stelle bedacht, dann ergibt das später im Arrangement bzw im Mixing sehr viel mehr Probleme das eventuelle Chaos mit vielleicht zu vielen Kompromissen (schlechterer Klang) wieder einzufangen.
Die Qualität des Ergebnisses kann nur durch die Qualität der Einzelteile bestimmt werden.
Gerade in der Musikbranche gibt es natürlich viele Anbieter von Soundwerkzeugen, die ein Versprechen abgeben diese Versäumnisse wieder gerade biegen zu können. Sicherlich funktioniert das bis zu einem bestimmten Prozentsatz einigermaßen, aber dabei werden schon sehr viele Kompromisse gemacht, die mit einem sauberen und kontrollierten Aufbau des Sounds niemals hätten gemacht werden müssen.
All das ist eine Frage des eigenen Anspruches. Für die reine Freude am Musikmachen wird nicht so viel Wissen, Werkzeuge und Arbeit benötigt. Und das ist auch gut so. Wenn es aber in den semiprofessionellen oder gar professionellen Bereich geht, dann ist Wissen und ein qualitativ hochwertiges Arbeiten von Anfang an extrem wichtig. Und natürlich auch sehr gute Werkzeuge.
Klangwerk - Blog von Odo Sendaidokai aus Berlin rund um Musikproduktion
Wir informieren euch kostenlos über interessante Konzepte, Tools, Artikel und Tuitorials
Schwerpunkte sind Opensource, Offene Formate, Wissensvermittlung, Erklärungen und interessante Projekte. Die Informationen werden von hoergen aka Odo Sendaidokai zusammengetragen. Und hier findet ihr meine Tutorials und Musik - Warum mache ich das -