Angeregt durch den „Latenz-Thread“, möchte ich hier einen etwas anderen Ansatz zum Erstellen von In-Ear-Mischungen zur Diskussion stellen. Dabei interessiert es mich insbesondere, ob allenfalls schon jemand Erfahrungen in diese Richtung gemacht hat oder jemanden kennt der... (allenfalls gerne auch per PM)
Die Latenz-Problematik (und die ist in Wirklichkeit viel grösser als manch einer denkt) in gängigen IEM-Systemen hat meiner Meinung nach auch viel damit zu tun, dass die einzelnen Schallquellen nicht externalisiert werden, dass sie also immer "im Kopf des Musikers" abgebildet werden. Aus diesem Grund (und einigen anderen Gründen, auf die ich hier aber nicht weiter eingehen werde) war für mich immer klar, dass man Äpfel mit Birnen vergleicht, wenn man Schall-Flugzeiten wie sie bei konventionellem Monitoring auftreten, mit IEM-Latenzen vergleicht und daraus irgendwelche Schlussfolgerungen betreffend den zulässigen Latenzschwellen ziehen will.
Die Argumentation In-Ear funktioniere bestens, weil es ja schon so viele (Berühmtheiten) gibt, die es verwenden, ist keineswegs stichhaltig. Alleine schon die Tatsache, dass ein In-Ear-System eine gewisse Eingewöhnungszeit erfordert, sollte uns eigentlich stutzig machen und einen Hinweis darauf geben, dass offensichtlich zuerst ein Lernprozess angekurbelt werden muss, um mit den offensichtlichen Schwächen eines solchen Systems überhaupt klarzukommen. Das ist ja auch gar nicht weiter verwunderlich, wenn man bedenkt, dass man mit dem Stöpsel im Ohr das natürliche akustische System komplett verändert und dessen Übertragungsfunktion massgeblich beeinflusst.
Die Latenzprobleme wie auch der unnatürliche Höreindruck bei IEM-Systemen sind letzlich auf eine fehlende Externalisierung der Quellen zurückzuführen, was hauptsächlich dran liegt, dass die "Kopfbezogenen Übertragunsfunktionen" (Head Related Transfer Functions; HRTF) fehlen, die beim natürlichen Hören von entscheidender Bedeutung sind.
Ich finde es höchst erstaunlich, dass sich bisher (meines Wissens) noch kein IEM-Hersteller dazu Gedanken gemacht hat und entsprechende Korrektur-Algorithmen in seine Systeme implementiert, bzw. dass die Hersteller von Digitalmischpulten noch nicht auf die Idee gekommen sind entsprechende Tools zu integrieren. Wetten, dass es nicht mehr allzu lange dauert bis…?
Ich möchte mit meinen Überlegungen aber nun noch einen Schritt weitergehen und darlegen, wie man sehr viel realistischere und natürlichere IEM-Mischungen realisieren könnte, indem man die einzelnen Signale abhängig vom Ort der Quelle (einzelne Instrumente) und dem Ort des Empfängers (IEM-Träger) mit korrekten HRTFs filtert (s.a. Grafik):
Zunächst werden die einzelnen Signale (wie üblich) einem Monitorpult zugeführt. Dort werden die Einzelkanäle abhängig von deren Positionen auf der Bühne zu Stereo-Gruppen zusammengefasst. Diese Stereo-Gruppen werden nun auf eine Verteilmatrix gelegt, welche sie zuerst auf die Anzahl der IEM-Träger dupliziert. Für jeden IEM-Empfänger werden dann die einzelnen Gruppen mit den entsprechenden HRTFs (separat für den jeweils linken und rechten Kanal) beaufschlagt. Anschliessend werden die bearbeiteten Gruppen zu einem Stereomix verarbeitet und dem entsprechenden Empfänger zugespielt. Allenfalls können auch noch weitere Bearbeitungen angewandt werden, welche den natürlichen Höreindruck zusätzlich verbessern.
Ein innovativer Monitortech (Paradoxon?) könnte ein solches einfaches System schon heute einsetzen. Es ist noch nicht einmal ein spezieller technischer Aufwand nötig. Ein Digitalmischpult mit genügend internen Misch- und Verteilmöglichkeiten wäre dazu zunächst mal völlig ausreichend.
Damit man nicht zuviel denken muss (;-)) könnte man nun einen Schritt weiter gehen und die Filterung automatisieren; das geht so: In einem separaten Prozessor oder (eigentlich sehr viel sinnvoller und naheliegender) direkt in einem digitalen Mischpult, kann die Bühne modelliert werden. Die einzelnen Quellenpositionen und die einzelnen In-Ear-Stationen können dann in der Ebene - oder bei aufwändigeren Produktionen im 3D-Raum - positioniert werden. Das System errechnet dann selbständig die nötigen HRTFs und weist sie den entsprechenden Gruppensignalen auf der Verteilmatrix automatisch zu.
Richtig spannend wird es, wenn das System dynamisch arbeitet und die Positionen und allenfalls auch Kopfbewegungen der einzelnen Musiker laufend registriert und die HRTFs für alle IEM-Zielpositionen laufend nachrechnet.
Um den Aufwand in einem praktikablen Rahmen zu halten, könnte im Modelling zunächst der Aktionsradius jeder Quelle und jedes Empfängers definiert werden. Anschliessend berechnet ein Algorithmus offline eine sinnvolle Anzahl von Filtereinstellungen, legt diese in einem Speicher ab und überblendet dann später im Betrieb nur noch dynamisch zwischen den verschiedenen Filter-Settings.
Ich bin mir sehr sicher, dass in nicht allzuferner Zukunft Applikationen auftauchen werden, welche diese Ideen mindestens teilweise umsetzen werden - und zwar ganz einfach deshalb, weil es ein völlig naheligender Schritt zu einer erheblichen Qualitäts-Verbesserung darstellt. Irgendwann - in 150 Jahren oder so - wird dann auch die Gilde der (typischerweise erzkonservativen) Beschallungstechniker solche Systeme ganz selbstverständlich einsetzen. (Edit: ich setzte hier vorsichtshalber mal einen :wink: dahinter)
Kommentare? Andere Meinungen?