Erfahrungsbericht Waves Multirack Native

  • Bin recht neu hier im PA-Forum und muss jetzt auch mal was schreiben, nachdem ich schon viel Interssantes gelesen habe:


    Habe früher Live-Musik gemacht und die letzten Jahre im Studio mit Waves Plugins gearbeitet. In letzter Zeit hatte ich einge FOH-Jobs und habe mich gefragt, ob man die mir gut bekannten Plugins nicht auch live verwenden kann. Vorrangig sollten die EQ- und Dynamik-Plugins für Vocals und die Mastersumme zum Einsatz kommen. Als Hardware war ein Macbook Pro und das RME Fireface 400 mit 8 analogen I/Os vorhanden. Habe dann erstmal mit dem ebenfalls vorhandenen Logic Mainstage rumprobiert, aber dann doch das Waves Multirack gekauft.


    Auf Waveslive.com gibt's einige Videos von bekannten Engineers die Waves verwenden, die ich mir vorher angeschaut hatte. Dazu später mehr. Nebenbei gesagt, musste ich die Waves Platinum Plugins erstmal kostenpflichtig upgraden, damit sie auf dem Multirack laufen. Nachdem es dann lief, war der Schock beim ersten Testbetrieb im Studio erstmal groß, denn die Latenz war gewaltig! Der erste Gedanke war: Das Ding ist höchstens als Aux-Effekt verwendbar. Aber das war ja nicht die Zielsetzung. Glücklicherweise lag es an der Default-Einstellung der Buffersize. Die stand nämlich nach der Installation auf 1024 Samples. Also erstmal auf 64 runtergedreht, meine 6 Vocal Channel Strips plus Stereo Master angelegt und Plugins reingetan:


    Für die Vocals jeweils:
    V-Comp, VEQ4, Deesser, C4 und MaxxVolume.
    Im Masterbus: Q10, C4 und L2.


    Erstmal ging's ganz gut und die Latenz war erträglich. Allerdings gab es Probleme, wenn man bei laufendem System an den Plugin-Parametern rumspielt: Das gesamte Audio-Signal wird verzerrt und klingt zusätzlich wie durch ein Delay verzögert. Besonders oft trat es bei den Plugins "Vcomp" und "Maxxvolume" auf. Lässt man das System in Ruhe, fängt es sich nach ca. zehn Sekunden. Seltsamerweise ist die Systemlastanzeige dabei grün und pendelt zwischen 25 und 30%.
    Also erstmal den Support kontaktiert, denn die Leute sind ja fix und 24h erreichbar. Lapidare Empfehlung: Buffersize vergrößern! Na danke schön, dann kann ich's ja gleich vergessen. Also nochmal beim Support nachgehakt ob es keine andere Möglichkeit gibt das Problem zu lösen oder ob man für "diese paar Plugins" schon einen Soundgrid-Server als Host benötigt. Antwort war sinngemäß, dass ein Soundgrid-Server halt eine höhere Leistung bei niedriger Latenz bietet und daher empfehlenwert ist.
    Leider gibt es von Waves kein Angaben wieviele Plugins auf einem nativen System mit einer betimmten Hardware machbar sind, aber das konnte doch nicht schon alles sein. Habe mir also nochmal die Waves-Videos angesehen und musste feststellen, dass anscheinend meistens, wenn nicht immer, ein Soundgrid-Server verwendet wird, den man erst bei genauem Hinsehen in einem der vielen Sideracks erkennen kann. Erwähnt wird das aber soweit ich's mitbekommen habe in keinem der Videos. Na gut.


    Jedenfalls wollte ich mich noch nicht geschlagen geben, also erstmal im Forum rumgesucht und auf Jonas Gehrmann gestoßen, der mir dann freundlicherweise sein Setup geschickt hat, mit dem er stabil arbeitet. Da waren auch nicht wenig Plugins drin, also musste es doch irgendwie gehen. Vermutung war, es könnte vielleicht das damals noch recht neue MacOSX 10.8 sein. Hatte zwar extra bei Waves angefragt und ein OK für 10.8 erhalten, aber die wissen ja vielleicht auch nicht alles. Also OSX 10.6.2 auf einer externen Platte installiert, weil sich auf der interne Platte seltsamerweise kein zweite Partition anlegen ließ und Multirack draufgemacht.
    Interessanterweise wurde beim Start von Multirack die Lizenz nicht gefunden. Also wieder den Support kontaktiert. Antwort: "Externe Platten werden nicht unterstützt". Warum das so ist wusste der gute Mann auch nicht. Empfehlung: "Lizenz auf einen USB-Key übertragen." Da ich keine Lust darauf hatte, dass mir beim nächsten Live-Auftritt vor 3500 Leuten der Lizenz-Key vom FOH-Platz geklaut wird, habe ich dann doch nochmal versucht eine zweite Partition mit OSX 10.6.2 auf der internen Platte zum laufen zu bekommen. Nachdem ein Fehler im Dateisystem gefixt war ging's dann auch. Aber wie sollte es anders sein: Das Problem war immer noch da. Na gut, nicht aufgeben! Vielleicht lag das Problem ja an der Synchronisation zwischen Multirack und dem Fireface. Das Fireface400 stand im Sync-Modus "auto". Also erstmal manuell auf "Master" umgeschaltet. Schon trat die Störung seltener auf. Dann muss es doch was mit dem Sync sein. Könnte vielleicht auch vom Firewire-Kabel kommen. Also mal die Samplerate von 44,1 auf 96k hochgestellt um den Fehler zu provozieren und der kam dann auch immer.
    Also ein neues Kabel mit doppelter Abschirmung gekauft und damit war's dann ok.
    Große Freude !
    Aber wenn's schon geht, kann man ja auch mal übermütig werden. Also Buffersize auf kleinsten Wert von 32 Samples und die Samplerate auf 96k eingestellt. Das System reagiert wie erwartet: Anzeige der Systemlast geht auf rot und Audio wird abgeschaltet. Ist ja auch OK so bei Überlast.
    Jedenfalls habe ich das System mit einer Buffersize von 32 Samples und einer Samplerate von 44,1k live im Einsatz gehabt und es gab keine Probleme.
    Sehr gut gefallen haben mir die Plugins "Waves Audio Track" für die Vocals sowie der Q10 und der C4 für die Mastersumme. Nicht funktioniert hat der Maxxvolume für die Vocals. Das Ding hat mir zuviel Feedback auf den Monitoren produziert. Lag wahrscheinlich an meiner Einstellung. Irgendwie hab ich das Tool noch nicht richtig durschaut.
    Übrigens hat sich keiner der Frontleute über "komischen Klang" in den Wedges beschwert, was ja bei hörbarer Latenz sein kann. Allerdings klang es für den Schlagezeuger mit seinen In-Ears nicht optimal. Da muss ich nochmal schauen ob's an der Latenz lag.
    Aber insgesamt hat sich der Aufriss dann doch gelohnt.
    So das reicht für's erste. Gute Nacht!


    Es grüßt
    Ein Knöpfchendreher.


    P.S. Vielen Dank an Jonas Gehrmann für seine Tipps.

    Es grüßt
    ein Knöpfchendreher.

  • Danke für den Bericht !!


    Ich benutze ja für kleinere Sachen gerne Mainstage, dann aber nur mit ein Drumsamples und 1-2 Halleffekten, das geht.


    Meine Erfahrung (bei mehreren Systemen) mit Multirack ist, das man, wenn man sich wirklich "austoben" will, eigentlich nicht wirklich am Soundgrid-Server vorbeikommt ... ich würde böserweise sogar sagen, das das vielleicht sogar nicht ganz ungewollt ist ... :wink:

  • Für den Soundgridserver ist aber eine digitale Konsole zur Anbindung nötig. Für das Einbinden in einen analogen Tisch oder für den Fall, dass die Digitalkonsole keine kompatible Karte hat kommt somit der Server nicht in Frage.
    Ich tobe mich in meinem System so ziemlich aus. Teilweise bis zu 16 Racks, wo auch einiges drin ist. Mit einem aktuellen Macbook Pro und ein bisschen feintuning ist das garkein Problem.
    Erschreckend aber auch interessant ist, dass es am Ende doch auf Kleinigkeiten ankommt, wie im genannten Beispiel das Kabel.
    Also geht wohl nichts über einen ausführlichen Test vor dem Livebetrieb.


    Ich bin jetzt seit über 2 Jahren mit dem System auf großen und kleinen Baustellen unterwegs, vom Clubgig bis zum Festival und hatte noch nie einen Systembedingten Ausfall.
    Daher kann ich nur jedem empfehlen, der sein Siderack verkleinern will ohne Abstrtiche zu machen, das mal auszuprobieren.


    Schöne Grüße


    Jonas

  • Zitat von "oton"

    Danke für den Bericht !!
    Meine Erfahrung (bei mehreren Systemen) mit Multirack ist, das man, wenn man sich wirklich "austoben" will, eigentlich nicht wirklich am Soundgrid-Server vorbeikommt ...
    :wink:


    Ist schon klar. Soundgrid ist ja auch ein System, das auf diese spezielle Anwendung zugeschnitten ist. Da wird ein "Universalcomputer" niemals mithalten können.
    Die Native-Version ist halt gut um die Eignung der Plugins für die angedachte Anwendung auszuprobieren, zumal es auch alles als Demo-Version gibt.
    Was mir an dem Setup absolut nicht gefallen hat, war der nicht verriegelbare Firewire-Anschluss am Macbook und am Fireface. Das ist wirklich klapprig, zumal der Stecker nicht wirklich fest sitzt. :?
    Für die nächste Aktion will ich ein A&H iLiveT80 mit IDR48 verwenden. Da wir für das IDR keine passende I/O-Karte haben, muss ich das Multirack wohl über die I/Os der Konsole einschleifen. Mal sehen ob das hinhaut. Das T80 hat leider nur 6 analoge I/Os. Deshalb muss ich für die Mastersumme die S/PDIF I/Os verwenden.
    Wir werden sehen wie´s läuft.


    Es grüßt
    Ein Knöpfchendreher.

    Es grüßt
    ein Knöpfchendreher.

  • Zitat von "wora"

    für die iLive gibt es eine Waves-karte.

    Stimmt aber bei Multirack in der Native-Version nützt die nichts.
    Man benötigt den oben erwähnten Soundgrid-Server um die Waves-Karte zu nutzen.
    Das iLive-System hat noch diverse digitale I/O-Optionen für standardisierte Schnittstellen, z.B. Madi. Die sind über das passenden Audio-Interface, z.B. das RME-Fireface auch mit Multirack Native nutzbar.
    Na, wir werden sehen wo wir landen. Erstmal gilt es mit dem iLive-System fit zu werden. Vor allem wird es interessant sein die Qualität der eingebauten Effekte zu testen.

    Es grüßt
    ein Knöpfchendreher.

  • Zitat von "es1276"

    ...
    Das iLive-System hat noch diverse digitale I/O-Optionen für standardisierte Schnittstellen, z.B. Madi. Die sind über das passenden Audio-Interface, z.B. das RME-Fireface auch mit Multirack Native nutzbar...


    da ich selber ein iLive system mit MADI karte und einen speziellen rechner mit RME HDSP-karte nutze, interessiert mich das jetzt schon.

    mit kollegialen Grüßen
    Wolfgang

  • Servus!


    Für die iLive gibt es prinzipiell 3 Möglichkeiten, wie man Waves-Kram verbinden kann.


    Zum Einen natürlich wie Wora schon sagte die Waves-Karte, da benötigt man dann wie auch schon erwähnt einen Soundgrid-Server. Vorteil: angeblich extrem niedrige Roundtrip-Latenzen unter 1ms. Man kann auch darüber Recording und virtuellen Soundcheck machen, ist aber natürlich auf Waves festgelegt und nicht sehr kompatibel mit der Waves-Karte.
    Zweite Möglichkeit wäre Madi, das würde vermutlich auch entsprechend niedrige Latenzen ermöglichen, gerade mit RME-Karte im Rechner. Damit kann man Multirack Native auf seinem Rechner nutzen, kann auch recorden und ist insgesamt mit der Madi-Schnittstelle kompatibler aufgestellt, was auch mal die Anbindung an ein anderes Pult o.ä. darstellt. Darüber hinaus kann man natürlich über VST-Host-Programme dann auch PlugIns anderer Hersteller laufen lassen, falls man mit Waves nicht glücklich wird o.ä.
    3. Möglichkeit wäre per Dante, wobei die virtuelle Soundkarte von Audinate da ausfällt, da sie zu große Latenzen hat. unter 4ms geht da nix, das ist nur brauchbar für Send-Effekte, für Inserts nicht. Dazu müsste man mal die Dante-PCIe-Karte testen, die soll auch sehr niedrige Latenzen ermöglichen. Vorteil wäre dann nur noch, dass per Netzwerk-Komponenten die Audioverteilung stattfinden kann und man sehr schnell auch noch mal auf einem Laptop o.ä. ein Backup-Recording anwerfen kann, dieses dann über die virtuelle Soundkarte, da sind Latenzen ja erst mal egal. Und auch hier sind natürlich andere PlugIns als nur Waves möglich (allerdings dann halt nicht über Multirack, da gehen nur die hauseigenen PlugIns).


    Mich würde aber auch mal interessieren, wie flott man per Madi sein kann. Wora, Du hast ja im Prinzip alles, was man dafür benötigt. Vielleicht hast Du ja irgendwann mal Zeit und Lust Dir die Demo-Version von Multirack Native auf Deinem Rechner zu installieren, ein paar PlugIns zu inserten und mal die Gesamtlatenz von analogem In zu analogem Out an der Stagebox zu messen. Weil das ist ja letztendlich die einzige Latenz, die wirklich aussagekräftig ist...


    Grüßle!

    Brand Manager Audio-Technica Commercial Audio und Clear-Com

    Audio-Technica Deutschland

  • Zitat von "jan saueressig"

    .... Wora, Du hast ja im Prinzip alles, was man dafür benötigt. Vielleicht hast Du ja irgendwann mal Zeit und Lust Dir die Demo-Version von Multirack Native auf Deinem Rechner zu installieren, ein paar PlugIns zu inserten und mal die Gesamtlatenz von analogem In zu analogem Out an der Stagebox zu messen. Weil das ist ja letztendlich die einzige Latenz, die wirklich aussagekräftig ist...

    Also daran wäre ich auch interessiert. Bin auch gerne bereit die Gesamtlatenz über die analogen I/Os meines Fireface400 zu messen, falls es jemanden interessiert. Weiß zwar noch nicht wie man das macht, aber das müsste ja rauszukriegen sein.

    Es grüßt
    ein Knöpfchendreher.

  • eigentlich wollte ich meine MADI karte ja jetzt gerade zu AFMG senden, weil die diese karte mal mit Systune testen wollen... und der recording rechner soll jetzt nach zwei jahren auch mal überarbeitet werden...
    ich muss mal schauen, ob und wie ich das zeitlich hinbekomme.

    mit kollegialen Grüßen
    Wolfgang

  • Zitat von "es1276"

    Also daran wäre ich auch interessiert. Bin auch gerne bereit die Gesamtlatenz über die analogen I/Os meines Fireface400 zu messen, falls es jemanden interessiert. Weiß zwar noch nicht wie man das macht, aber das müsste ja rauszukriegen sein.


    Am einfachsten kannst Du das mit einem Recording-Setup messen, Impuls von außen, auf die eine Spur direkt, auf die andere Spur mit der Bearbeitungskette und den Versatz der Spuren ausmessen. Dafür reicht sogar Audacity mit einem internen Stereo-In. Komfortabler ist es mit einem Zweikanal-FFT aka Audio-Messsystem.
    Wenn Du misst, dann der Vollständigkeit halber auch gleich das Pult ohne Waves und die Latenz über SP/DIF. Und vielleicht auch verschiedene beliebte Plug-Ins, obwohl es dafür bei Waves eine Tabelle gibt.

  • Hier nun meine Messwerte:
    Gemessen wurde die Laufzeitdifferenz zwischen zwei Monokanälen die mit dem selben Signal gespeist wurden und in Audacity als Stereosignal (eigentlich dual Mono) aufgenommen wurden.
    Der erste Kanal wurde direkt vom CD-Player-analog-out-links aufgenommen.
    Der zweite Kanal wurde über den CD-Player-analog-out-rechts in den Analogeingang-1 des Fireface in das Multirack eingespeist und über Analogausgang-1 auf dem zweiten Kanal der Stereospur aufgenommen. Danke an Christian Tepfer (simonstpauli) für den Tipp.


    System: Macbook Pro 15", 2,2 GHz Intel Core I7, OSX 10.7.2
    Samplingrate: 44,1 kHz,
    Audio Interface: RME Fireface400; Firmware: 1.71, Treiberversion: 3.12


    1 Rack ohne Plugins:
    Buffersize 32 Samples: Latenz 241 Samples / 5ms
    Buffersize 64 Samples: Latenz 306 Samples / 7ms
    Buffersize 96 Samples: Latenz 369 Samples / 8ms
    Buffersize 128 Samples: Latenz 434 Samples / 10ms


    1 Rack mit 3 deaktivierten Plugins (Audiotrack, C4, Maxxvolume):
    Buffersize: 32 Samples: Latenz 370 Samples / 8ms


    1 Rack mit Plugin Audiotrack:
    Buffersize: 32 Samples: Latenz 239 Samples / 5ms


    1 Rack mit Plugin C4:
    Buffersize: 32 Samples: Latenz 309 Samples / 7ms


    1 Rack mit Plugin Maxxvolume:
    Buffersize: 32 Samples: Latenz 303 Samples / 7ms


    1 Rack mit Plugins Audiotrack, C4, Maxxvolume:
    Buffersize: 32 Samples: Latenz 368 Samples / 8ms


    1 Rack mit Plugins Q10, C4 und PAZ:
    Buffersize: 32 Samples: Latenz 312 Samples / 7ms


    Konsequenz:
    1. Die Angaben im Waves Latency Chart über die Latenzen der einzelnen Plugins stimmen.
    2. Deaktivieren von einzelnen Plugins im Rack bringt keine geringere Latenz des Racks; daher inaktive Plugins lieber aus dem Rack entfernen.
    3. Ein Rack mit 8ms Latenz als Insert in einem Vocal-Kanal wurde bei beim letzen Life-Einsatz mit konventionellen Monitorboxen auf der Bühne nicht angemeckert.
    4. Vielleicht sollte man nochmal mit mehreren gleichzeitig aktivierten Racks messen. Möglicherweise werden ja die Latenzen der einzelnen Racks größer, wenn das System unter höherer Last läuft.

    Es grüßt
    ein Knöpfchendreher.

  • Zitat von "es1276"

    Nicht funktioniert hat der Maxxvolume für die Vocals. Das Ding hat mir zuviel Feedback auf den Monitoren produziert.


    Anmerkung dazu: Kompression - noch dazu mit Automatik-Levelern hat auf einem Live-Monitorausgang nur in wenigen Spezialfällen was zu suchen. Also Subgruppen nutzen oder Gesangskanäle doppeln.

  • Zitat von "guessi"

    Anmerkung dazu: Kompression - noch dazu mit Automatik-Levelern hat auf einem Live-Monitorausgang nur in wenigen Spezialfällen was zu suchen. Also Subgruppen nutzen oder Gesangskanäle doppeln.

    Aha. Und warum?
    Macht es nicht Sinn die Lautstärkeschwankungen eines sehr dynamischen Sängers durch Kompression oder Leveling etwas zu reduzieren?

    Es grüßt
    ein Knöpfchendreher.

  • Zitat von "hunterstudios"

    Schon, aber wenn dieses Signal auch auf den Monitor geht bewegst Du Abdichtung beim GBF unter Umständen auf sehr dünnem Eis.


    ich glaube ich weiss was du sagen willst ... :D


    Bei den Levelern ist es wie bei jedem Kompressor, ein wenig Limiting schadet nie, aber heftige Kompression sollte man auf dem Monitorsignal wg. Feedbackgefahr vermeiden.

  • @ es1276


    Stell Dir das mit der Kompression auf dem Monitor etwa so vor:


    Dein Sänger hat einen nicht und nirgens komprimierten Monitorweg ( ausser dem limiter des Amps und der power compression des speakers selbst natürlich, die wir mal vernachlässigen ).


    Trotzdem ist die Dynamik sowieso begrenzt: Nach oben durch die Grenze zum ersten feedback, nach unten durch den "Geräuschpegel" seiner Mitmusiker. Wenn auf einer lauten Bühne noch 10 dB zwischen diesen oberen und unteren Grenzen bleiben, ist das schon sehr viel. Innerhalb dieses schmalen Korridors ist es so, das dort natürlich Impulse wie Konsonanten eher über der Schwelle liegen, die der " noise floor Band" bildet. Die Natur hat es sinnigerweise so eingerichtet, dass die Informationen, die der Sänger zur zeitlichen Orientierung braucht über die Konsonanten, die Tonhöhe über die Vokale transportiert werden.
    Jetzt schaltest Du den Kompressor ein. Damit nimmst Du sagen wir mal 6 - 8 dB von den Peaks weg ( Emulationen von Boutique Kompressoren machen in der Regel noch sehr viel mehr Kompression, wenn Du sie so einstellst, dass sie klingen und fügen im schlimmsten Fall über irgendwelche "vintage-Verzerr-Emulationen" feedback-trächtige Obertonmuster dazu ). Lauter machen kannst Du nicht, weil Du dann sofort beim ersten feedback bist, die Konsonanten-Peaks hast Du weggeschnitten und damit einen Teil der vom Sänger benötigten Information gekillt und von Deinem 10 dB Korridor bleiben noch zwei bis vier dB übrig..... und dieses Beispiel ist kein selten vorkommendes Ereignis sondern der ganz normale Bühnenalltag. Stell' Dir vor ein 'automatic leveler' schiebt Dich jetzt noch selbsttätig an die feedbackgrenze heran :roll: :roll: :roll:

    Eine andere Situation hast Du nur mit inear oder auf seeehr großen Bühnen mit seeehr fetten Monitorsystemen und entsprechendem headroom. :wink: Damit Du Kompression auf dem Monitor nutzen kannst, muß die Grenze zum ersten feedback sehr viel höher liegen, als Du es realistischerweie auf 98 % der Bühnen für "moderne Unterhaltungsmusik" vorfindest. :D

  • Zitat von "es1276"

    Aha. Und warum?
    Macht es nicht Sinn die Lautstärkeschwankungen eines sehr dynamischen Sängers durch Kompression oder Leveling etwas zu reduzieren?


    guma hat die problematik ja schon sehr gut beschrieben.


    ich möchte noch einen weiteren punkt mit einbringen:
    damit ein musiker mit seiner mikrofondynamik korrekt arbeiten kann, benötigt er natürlich auch die volle kontrolle über seine dynamik (ausnahmen bestätigen natürlich die regel).
    wenn man nun einen kompressor in den signalweg einschleift, geht diese kontrolle komplett verloren.
    in deinem beispiel mit den sehr dynamischen sänger signalisierst du ihm mit dem einsatz eines kompressors also, das alles in ordnung wäre. um so mehr wirst du ihn dann auch in der front komprimieren müssen... das ist ein ziemlich unnötiger kreislauf ;)


    es gibt also mehrere gute gründe, keine kompression (und erst recht keinen leveler!) auf den monitoren zu benutzen.

    mit kollegialen Grüßen
    Wolfgang

  • Also ich habe damals in SAC versucht den Vocal Rider Live an den Start zu bekommen. Nicht fürs Monitoring ;) Mir ist es nicht gelungen eine akzeptable Funktionsweise zu finden. Den Versuche habe ich also recht schnell abgebrochen. Bei manchen Plug-Ins merkt man deutlich das sie für das Studio programmiert wurden. Ob man nun das unbedingt braucht? Keine Ahnung jedenfalls vermisse ich die Plug-Ins auf meinen GLD nicht wirklich.


    Das Negative an dem System ist eben das nur Waves Plug-Ins laufen. Man ist da ziemlich stark angebunden. Alles in allem ein sehr teuer Spaß mit zweifelhaften nutzen. Jedenfalls in der Liga in der ich mich befinde.

  • Ok. Besten Dank für die guten Erklärungen zum Thema Dynamikbegrenzung / Leveling im Monitor :-D.
    Das klingt logisch und nachvollziehbar, zumal ich mir nun einige Effekte erklären kann, die bei diesem Gig problematisch waren .
    Leider musste das Monitoring über die FOH-Konsole gefahren werden und das Venice320 hat nicht die Möglichkeit die Inserts hinter die Aux-Wege zu legen, was ich eigentlich vor hatte.
    Ich hoffe das geht beim A&H ILive T80, das für nächsten Gig verwendet werden soll, denn das Plugin "Waves Audio Track" hat FOH-mäßig sehr gut funktioniert. Maxxvolume brauche ich dann nicht mehr.

    Es grüßt
    ein Knöpfchendreher.