Konzeptidee: Neuartiger IEM-Mix (sehr lang)

  • Angeregt durch den „Latenz-Thread“, möchte ich hier einen etwas anderen Ansatz zum Erstellen von In-Ear-Mischungen zur Diskussion stellen. Dabei interessiert es mich insbesondere, ob allenfalls schon jemand Erfahrungen in diese Richtung gemacht hat oder jemanden kennt der... (allenfalls gerne auch per PM)


    Die Latenz-Problematik (und die ist in Wirklichkeit viel grösser als manch einer denkt) in gängigen IEM-Systemen hat meiner Meinung nach auch viel damit zu tun, dass die einzelnen Schallquellen nicht externalisiert werden, dass sie also immer "im Kopf des Musikers" abgebildet werden. Aus diesem Grund (und einigen anderen Gründen, auf die ich hier aber nicht weiter eingehen werde) war für mich immer klar, dass man Äpfel mit Birnen vergleicht, wenn man Schall-Flugzeiten wie sie bei konventionellem Monitoring auftreten, mit IEM-Latenzen vergleicht und daraus irgendwelche Schlussfolgerungen betreffend den zulässigen Latenzschwellen ziehen will.


    Die Argumentation In-Ear funktioniere bestens, weil es ja schon so viele (Berühmtheiten) gibt, die es verwenden, ist keineswegs stichhaltig. Alleine schon die Tatsache, dass ein In-Ear-System eine gewisse Eingewöhnungszeit erfordert, sollte uns eigentlich stutzig machen und einen Hinweis darauf geben, dass offensichtlich zuerst ein Lernprozess angekurbelt werden muss, um mit den offensichtlichen Schwächen eines solchen Systems überhaupt klarzukommen. Das ist ja auch gar nicht weiter verwunderlich, wenn man bedenkt, dass man mit dem Stöpsel im Ohr das natürliche akustische System komplett verändert und dessen Übertragungsfunktion massgeblich beeinflusst.


    Die Latenzprobleme wie auch der unnatürliche Höreindruck bei IEM-Systemen sind letzlich auf eine fehlende Externalisierung der Quellen zurückzuführen, was hauptsächlich dran liegt, dass die "Kopfbezogenen Übertragunsfunktionen" (Head Related Transfer Functions; HRTF) fehlen, die beim natürlichen Hören von entscheidender Bedeutung sind.


    Ich finde es höchst erstaunlich, dass sich bisher (meines Wissens) noch kein IEM-Hersteller dazu Gedanken gemacht hat und entsprechende Korrektur-Algorithmen in seine Systeme implementiert, bzw. dass die Hersteller von Digitalmischpulten noch nicht auf die Idee gekommen sind entsprechende Tools zu integrieren. Wetten, dass es nicht mehr allzu lange dauert bis…?


    Ich möchte mit meinen Überlegungen aber nun noch einen Schritt weitergehen und darlegen, wie man sehr viel realistischere und natürlichere IEM-Mischungen realisieren könnte, indem man die einzelnen Signale abhängig vom Ort der Quelle (einzelne Instrumente) und dem Ort des Empfängers (IEM-Träger) mit korrekten HRTFs filtert (s.a. Grafik):


    Zunächst werden die einzelnen Signale (wie üblich) einem Monitorpult zugeführt. Dort werden die Einzelkanäle abhängig von deren Positionen auf der Bühne zu Stereo-Gruppen zusammengefasst. Diese Stereo-Gruppen werden nun auf eine Verteilmatrix gelegt, welche sie zuerst auf die Anzahl der IEM-Träger dupliziert. Für jeden IEM-Empfänger werden dann die einzelnen Gruppen mit den entsprechenden HRTFs (separat für den jeweils linken und rechten Kanal) beaufschlagt. Anschliessend werden die bearbeiteten Gruppen zu einem Stereomix verarbeitet und dem entsprechenden Empfänger zugespielt. Allenfalls können auch noch weitere Bearbeitungen angewandt werden, welche den natürlichen Höreindruck zusätzlich verbessern.



    Ein innovativer Monitortech (Paradoxon?) könnte ein solches einfaches System schon heute einsetzen. Es ist noch nicht einmal ein spezieller technischer Aufwand nötig. Ein Digitalmischpult mit genügend internen Misch- und Verteilmöglichkeiten wäre dazu zunächst mal völlig ausreichend.


    Damit man nicht zuviel denken muss (;-)) könnte man nun einen Schritt weiter gehen und die Filterung automatisieren; das geht so: In einem separaten Prozessor oder (eigentlich sehr viel sinnvoller und naheliegender) direkt in einem digitalen Mischpult, kann die Bühne modelliert werden. Die einzelnen Quellenpositionen und die einzelnen In-Ear-Stationen können dann in der Ebene - oder bei aufwändigeren Produktionen im 3D-Raum - positioniert werden. Das System errechnet dann selbständig die nötigen HRTFs und weist sie den entsprechenden Gruppensignalen auf der Verteilmatrix automatisch zu.


    Richtig spannend wird es, wenn das System dynamisch arbeitet und die Positionen und allenfalls auch Kopfbewegungen der einzelnen Musiker laufend registriert und die HRTFs für alle IEM-Zielpositionen laufend nachrechnet.


    Um den Aufwand in einem praktikablen Rahmen zu halten, könnte im Modelling zunächst der Aktionsradius jeder Quelle und jedes Empfängers definiert werden. Anschliessend berechnet ein Algorithmus offline eine sinnvolle Anzahl von Filtereinstellungen, legt diese in einem Speicher ab und überblendet dann später im Betrieb nur noch dynamisch zwischen den verschiedenen Filter-Settings.


    Ich bin mir sehr sicher, dass in nicht allzuferner Zukunft Applikationen auftauchen werden, welche diese Ideen mindestens teilweise umsetzen werden - und zwar ganz einfach deshalb, weil es ein völlig naheligender Schritt zu einer erheblichen Qualitäts-Verbesserung darstellt. Irgendwann - in 150 Jahren oder so - wird dann auch die Gilde der (typischerweise erzkonservativen) Beschallungstechniker solche Systeme ganz selbstverständlich einsetzen. (Edit: ich setzte hier vorsichtshalber mal einen :wink: dahinter)


    Kommentare? Andere Meinungen?

  • Interessantes Konzept!
    Im Endausbau benötigt es allerdings wohl immense Rechenpower...


    AKG hat vor ein paar Jahren mal ein In-Ear entwickelt, das durch Processing versucht hat, die Im-Kopf Lokalisation zu verbessern.
    Das Teil hiess IVM4? War wohl eine ähnliche Technik wie bei den Hearo Kopfhörern.


    Einen weiteren Teil der Technik gibt es von Beyer mit dem Headzone Hörer, der bei Surroundsound Headtracking ermöglicht.


    Eines gebe ich allerdings zu bedenken: Auch die traditionelle Monitorlösung hat mit natürlicher Lokalisation herzlich wenig zu tun. Abgesehen von dem oft unsäglichen Bühnenlärm versucht man den Musikern irgendwie die notwendige Information zu vermitteln. Band aus den Sidefills und Keys und Vocals vom Wedge (oder andere Konfigurationen) haben mit dem echten Bühnengeschehen ja auch recht wenig zu tun.


    Ein weiterer, nicht zu vernachlässigender Teil ist auch das Feedback vom Publikum, was man heute mit Ambience Mikrofonen ebenfalls dem In-Ear Signal zumischt.


    Gruß
    Marcus

    Der Unterschied zwischen Theorie und Praxis ist, daß es in der Theorie keinen Unterschied gibt...

  • Ein überleges Bühnensetup incl Backline lassen ein Ortung auf der Bühne schon zu.
    Und viele Künstler finden genau das am In Ear störend.


    Ein interessanter Ansatz.
    Interessiert mich. Da will ich mehr drüber wissen

    Amp und Boxen Brett _ Die Vuvuzela des Forums


    Ganz großer Fan des " Themen als gelesen markieren " Buttons

  • Wie gesagt, im IEM-Sender SST 4 von AKG (bzw. dem IVM 4 Set) gibt es diese Technik bereits. (Aber ganz aktuell und nicht schon seit "ein paar Jahren". :wink: )
    http://www.audio-pro.de/live/akg_39869_DEU_AP.html


    Vor einiger Zeit hatte ich mal eine ähnliche bzw. verwandte Idee. Und zwar, ob es sinnvoll ist, die einzelnen Instrumente für den jeweiligen Musiker separat so zu verzögern, dass der Direktschall von den verschiedenen Instrumenten zuerst ankommt (finde den Thread grerade nicht).

  • Wo wir gerade dabei sind, wie Sinnvoll ist es trotz Inear dem Musiker einen Monitor zu stellen um das fehlende Feeling weiter zu geben, den ein Musiker hat ja nicht nur einen Hörsinn.

    In meinem Lexikon fehlt das Wort unmöglich!


    ASR Computer & PA Technik
    André Ruhnau
    Rosenstr.6
    78598 Königsheim

  • Ich arbeite mit einigen, die bestehen drauf.
    BZW wird auch oft nach Sidefills verlangt. Und nicht nur als Backup, falls das In Ear mal ausfällt.

    Amp und Boxen Brett _ Die Vuvuzela des Forums


    Ganz großer Fan des " Themen als gelesen markieren " Buttons

  • Ja, ich hatte auch schon Sidefills ohne Topteil in Aktion. War definitiv so gewünscht..

    Was sagt der Raver auf der Techno-Party, wenn sein Extasy aufhört zu wirken?


    "Was ist denn das für eine sch... Mucke hier?"

  • Meiner Meinung nach liegt diesem Beitrag eine Reihe von nicht zutreffenden Voraussetzungen zugrunde, wie sie typischerweise Theorie und Praxis voneinander trennen.


    Zitat von "MarkusZ"


    Die Latenz-Problematik (und die ist in Wirklichkeit viel grösser als manch einer denkt) in gängigen IEM-Systemen hat meiner Meinung nach auch viel damit zu tun, dass die einzelnen Schallquellen nicht externalisiert werden, dass sie also immer "im Kopf des Musikers" abgebildet werden. Aus diesem Grund (und einigen anderen Gründen, auf die ich hier aber nicht weiter eingehen werde) war für mich immer klar, dass man Äpfel mit Birnen vergleicht, wenn man Schall-Flugzeiten wie sie bei konventionellem Monitoring auftreten, mit IEM-Latenzen vergleicht und daraus irgendwelche Schlussfolgerungen betreffend den zulässigen Latenzschwellen ziehen will.


    Hierbei handelt es sich um eine Vermutung, eine sicher interessante These, deren Beweis aber in diesem Beitrag nicht erbracht wird. Die Veränderungen, die Schall bis zum Erreichen der Stelle im äusseren Gehörgang, an dem die Austrittsöffnung eines typischen earmolds wirkt, erfährt, sind ganz und gar unstrittig. Die Frage nach der Notwendigkeit einer Korrektur dieses "Eingriffs" in die natürliche Hörphysiologie ist allerdings nicht eo ipso durch die bloße Existenz dieser Veränderungen begründbar und schon gar nicht bewertbar.



    Zitat von "MarkusZ"


    Alleine schon die Tatsache, dass ein In-Ear-System eine gewisse Eingewöhnungszeit erfordert, sollte uns eigentlich stutzig machen und einen Hinweis darauf geben, dass offensichtlich zuerst ein Lernprozess angekurbelt werden muss, um mit den offensichtlichen Schwächen eines solchen Systems überhaupt klarzukommen. Das ist ja auch gar nicht weiter verwunderlich, wenn man bedenkt, dass man mit dem Stöpsel im Ohr das natürliche akustische System komplett verändert und dessen Übertragungsfunktion massgeblich beeinflusst.


    Die hier genannte Eingewöhnungszeit eignet sich als Herleitung für die Notwendigkeit von "HRTF" nicht. Für den Teil der Musiker, die von IEM profitieren, ist diese "Abhörsituation" nicht fremd, da sie ja Kopfhörer und Kleinhörer, wie sie für MP3 Player u.ä. üblich sind gewohnt sind. Die entstehende Zunahme von Direktivität, d.h. der teilweise Wegfall von Diffusschall wird in der Orientierung zunächst ausgesprochen positiv bewertet Ferner ist das subjektive individuelle Empfinden einer Kopfhörersituation an sich bekanntlich sehr unterschiedlich. Die Frage, ob das natürlich ist, stellt sich dabei eigentlich nicht. Unterhaltungsmusiker im allerweitesten Sinne sind nicht Angestellte in einem immer gleichen Orchester in einem immer gleichen Konzertsaal, die aus dem Ruder laufen wenn sie "fremd" spielen und ihre gewohnte Hörsituation dort nicht wieder finden. Im Gegenteil sind sie gewohnt, im schlimmsten Fall Abend für Abend eine völlig veränderte Hörsituation vorzufinden, für die vor IEM nur das eigene Equipment und das konventionelle Monitoring einen winzigen Notanker darstellten. Ist das IEM einmal in einer Band/Orchester etabliert passiert genau das Gegenteil: es entsteht eine einigermaßen konstante, "gewohnte", weitgehend reproduzierbare Größe, die vor allem durch teilweisen Wegfall der jeweiligen raumakustischen Gegebenheiten entsteht. Die individuelle Kontrollierbarkeit der Lautstärkeverhältnisse wird dabei als essentielle Größe wahrgenommen. Störend empfinden reale Musiker vor allem die Isolation von im Mix nicht vorhandenen Informationen wie Publikumsgeräusche, wofür es ja bereits hinlänglich bekannte Lösungen gibt oder aber die fehlenden tieffrequenten Anteile, für die ebenfalls „Nicht-HRTF“ Lösungen existieren.


    Zitat von "MarkusZ"


    Die Latenzprobleme wie auch der unnatürliche Höreindruck bei IEM-Systemen sind letzlich auf eine fehlende Externalisierung der Quellen zurückzuführen, was hauptsächlich dran liegt, dass die "Kopfbezogenen Übertragunsfunktionen" (Head Related Transfer Functions; HRTF) fehlen, die beim natürlichen Hören von entscheidender Bedeutung sind.


    Das "Rechenmodell Binauralität" mit einer unförmigen Trennscheibe Namens Kopf dazwischen ist ebenfalls unstrittig. Die Physiologie des autologen Richtungshörens besteht allerdings nicht nur aus "Laufzeitglied Kopf" und „Filter äußerem Gehörgang“ sondern aus dem, was das Mittelohr und die Sinneszellen in der Cochlea zum "Zentralrechner" durchlassen und vor allem daraus, wie dieser damit umgeht. Für dieses Rechenmodell sind nun aber künstliche Laufzeiten, wie sie durch Einbringen von Lautsprechern oder von "digitalen Latenzen" entstehen, per se unnatürlich. Diese bestehen aber in der Praxis weiter und tragen durch reale Interferenzen zum Hörerlebnis bei, was aber im HRTF-Model nicht berücksichtigt wird.
    Die Gesamtheit des jeweiligen Hörens ist ausgesprochen individuell. Dieser einfache Umstand erklärt, warum sich Kunstkopfsimulationen nicht der zu erwartenden breiten Beliebtheit unter Musikkonservenkonsumenten erfreuen, sich nicht einzelnen Individuen und auch nicht unterschiedlichen Abhörsituationen quasi überstülpen lassen. Eine dafür nötige Berechnung würde das ‚realtime’ Erfassen individueller neurophysiologischer Daten erfordern, die uns definitiv noch nicht zur Verfügung stehen. „HRTF“ ist im Verhältnis zur tatsächlichen Neurologie des Hörens ein eher plumpes Modell.


    Zitat von "MarkusZ"


    Zunächst werden die einzelnen Signale (wie üblich) einem Monitorpult zugeführt. Dort werden die Einzelkanäle abhängig von deren Positionen auf der Bühne zu Stereo-Gruppen zusammengefasst.


    Ebenfalls ist das Denken in Stereogruppen ein sicher sehr vereinfachtes Modell.



    Zitat von "MarkusZ"


    Diese Stereo-Gruppen werden nun auf eine Verteilmatrix gelegt, welche sie zuerst auf die Anzahl der IEM-Träger dupliziert. Für jeden IEM-Empfänger werden dann die einzelnen Gruppen mit den entsprechenden HRTFs (separat für den jeweils linken und rechten Kanal) beaufschlagt. Anschliessend werden die bearbeiteten Gruppen zu einem Stereomix verarbeitet und dem entsprechenden Empfänger zugespielt. Allenfalls können auch noch weitere Bearbeitungen angewandt werden, welche den natürlichen Höreindruck zusätzlich verbessern.


    Raumsimulatoren/Hallgeräte im weitesten Sinne werden ja für mehr Musikerwohlfühlgefühl bereits erfolgreich benutzt.




    Zitat von "MarkusZ"


    Richtig spannend wird es, wenn das System dynamisch arbeitet und die Positionen und allenfalls auch Kopfbewegungen der einzelnen Musiker laufend registriert und die HRTFs für alle IEM-Zielpositionen laufend nachrechnet.


    Um den Aufwand in einem praktikablen Rahmen zu halten, könnte im Modelling zunächst der Aktionsradius jeder Quelle und jedes Empfängers definiert werden. Anschliessend berechnet ein Algorithmus offline eine sinnvolle Anzahl von Filtereinstellungen, legt diese in einem Speicher ab und überblendet dann später im Betrieb nur noch dynamisch zwischen den verschiedenen Filter-Settings.


    An dieser Stelle kann man die Begrenztheit eines solchen Modells sehr gut erkennen. Wer sich mit dem Rechenaufwand für die realtime-Übertagung von Bewegungsabläufen auf Robotermodelle beschäftigt hat, kann erkennen, wo das Problem liegt. Ein dynamisches Model müsste ja nicht nur Bewegungen des Hörers, sondern auch der anderen Schallquellen simulieren können. Witzigerweise kommt aber unser Gehirn sehr gut damit klar, das ein Mitmusiker sich bewegt, sein Amp aber stehen bleibt. Das ist nun keine Frage von Natürlichkeit, sondern von Lernen an realer Erfahrung und zeigt dass „natürlich“ eben sehr stark von der jeweiligen Erlebniswelt abhängt und der bewegte Musiker vor dem unbewegten Amp ist sicherlich so widernatürlich wie das in-ear-monitoring an sich.


    Zitat von "MarkusZ"


    Ich bin mir sehr sicher, dass in nicht allzuferner Zukunft Applikationen auftauchen werden, welche diese Ideen mindestens teilweise umsetzen werden und zwar ganz einfach deshalb, weil es ein völlig naheligender Schritt zu einer erheblichen Qualitäts-Verbesserung darstellt. Irgendwann - in 150 Jahren oder so - wird dann auch die Gilde der (typischerweise erzkonservativen) Beschallungstechniker solche Systeme ganz selbstverständlich einsetzen. (Edit: ich setzte hier vorsichtshalber mal einen :wink: dahinter)



    In dieser apodiktischen Form kann ich das keinesfalls stehen lassen, sondern gebe HRTF in seiner aktuellen Form unter den vielen Faktoren, die einen guten inearmix ausmachen, ganz persönlich allenfalls ein Gewicht von 5%. Viel interessanter finde ich in diesem Zusammenhang Wege zu erarbeiten, wie man mit den vorhandenen Mitteln der regelbaren Verzögerung in Digitalpulten individuelle Raumwahrnehmungen erzeugen kann, die zwar keinerlei Anspruch auf Natürlichkeit haben, aber als angenehm und informativ empfunden werden. Die „HRTF- Natürlichkeit“ halte ich in der Welt der produzierten Musik für eine Utopie für im Sofa sitzende HIFI-Entusiasten, die auch dort allenfalls für Klassikaufnahmen eine geschmackliche Variante darstellt, die eben auch nur einen Teil des natürlichen Konzertgenusses für Konsumenten reproduziert.

  • interessant finde ich das thema.
    ob es sich so wirklich in die praxis umstetztenn lässt, und ob es da riesige vorteile bringt.... sicher bin ich mir da nicht. wie auch, ohne es jemals probiert zu haben :wink:


    ein paar punkte die mir so spontan durch den kopf gehen, vllt helfen sie ja dabei das gedankenspiel weiter zu treiben


    - Gruppen & Co:
    wenn ich das richtig sehe, würden alle mixe aus gruppensignalen erstellt. ich hatte bisher nur einmal den fall, das 2 musiker mit ähnlichen mixen (sprich gleiche guppensignale aber andere gewichtung der gruppen reichte aus) bedient werden konnten. alles andere lief immer über völlig individuelle mixe ab, die sich extremst unterscheiden. in meiner welt (stellt sich halt die frage ob ich so unüblich arbeite, "pech" habe, oder es noch anderen so geht), wäre ein gruppenmodell nicht umsetzbar. selbst wenn dadurch der mix eine bessere ortung zulassen würde, der mix an sich wäre unbefriedigend. wie sieht es also mit lauter getrennten mischungen aus? wäre das ebenfalls realisierbar? sowohl von aufwand als auch von rechnerleistung?


    - Zeit & Realisierbarkeit vor Ort:
    wie groß wäre der aufwand um jeden tag vor ort anzugleichen, positionen neu zu definieren etc?
    klar,. es gibt vollproduktionen, aber auch die schlagen mal auf dem festival auf, und spätestens dann steht die backline doch anderst (rollriser nen meter 50 versetzt würde hier ja schon ne menge arbeit bedeuten, oder?) Gehen wir mal davon aus, das es für erste versuche ja keine Software oberfläche gibt, bei der ich das direkt am Digipult oder am tablet reinmale, und alles von alleine passiert... Muss ich nach jedem Aufbau mit dem laser und dem maßband über die bühne, und dann erstmal ne stunde zahlen tippen, bevor ich loslegen kann?


    - Musikerwünsche, ist es überhaupt gefordert:
    ich hatte des öfteren mit Künstlern zu tun, die eine ortbarkeit explizit nicht wünschen. die auch einen mono mix einem stereo klar vorziehen. und nicht weil die techs alle doof waren, und sie niemand sauber bedienen konnte, sondern weil sie es einfach so wollten. da bestand dann ein iem mix aus den eigenen vocals und das wars. oder vocals und ambience. und fertig. bloß kein panorama, bloß keine ortung, sie wollten für sich alleine sein. zur orientierung gibts die bassdrum auf dem sidefill, ansonsten ists der ego-trip mix. Man müsste also erstmal abwägen, ob sich das ganze überhaupt lohnt. ob die band davon profotiert. ob sie es eigentlich wünschen/brauchen (ohne den wunsch jetzt so konkret technisch zu formulieren, das ist nciht ihr job), oder ob es mehr ne spielerei ist, die den tech begeistert, die band kaum interessiert, und die produktion zeit und geld kostet


    - sidefills:
    wurde ja schon angesprochen. wird oft gefordert, ich selbst setzte sie auch sehr gern ein und schlage sie direkt jeder produktion vor, wenn es darum geht iem setups zu erstellen/betreuen. eine "klassische aufteilung" wäre salopp gesagt z.b. der feine, detailierte, super spielbare wohlfühlmix auf dem ohr, und lecker eier aus den fills. denn auch ein ue7+10 und co können eben keinen druck in der magengegend erzeugen, auch wenn sie noch so tief gehen. und es gibt schon künstler die das wollen, und ich kann das auch verstehen....
    was bringt es es dann aber, bei 3 musiker in der frontline jeden mix auf perfekte ortbarkeit zu trimmen, wenn sie doch alle vom gleichen sidefill angeföhnt werden?


    - wedges:
    auch ich kenne setups, bei denen iem zusätzlich zu wedges eingesetzt werden. Bsp: Ein bassist singt auch backing vox. das fällt ihm schwer, erfordert äußerst präzise mixe. er hat also nen iem mix mit z.b. nur einem hörer oder hörer mit ambience kanälen und minimaler dämpfung, und noch ne wedge. über das iem gibts nen feinen dezenten mix aus wichtigen dingen. ( hh, vox, keys, bläser, wie auch immer) speziell zum singen orientiert er sich an ihm, dreht ihn evlt lauter.... für das bass spielen gibts die wedge am boden mit dreckigem r'n'r mix...
    über den generellen sinn eines solchen aufbaus kann man sich sicher streiten, trotzdem gibt es sowas, und das zur zufriedenheit der musiker..
    auch hier würde das ganze ja kaum sinn machen. denn den abstand wedge zu iem hörern könnte man ja nciht mit einbeziehen, der ändert sich ja ständig...



    so, das wars erstmal.
    wichtig: ich will nciht der spielverderber sein, der von vorneherein schreit es geht nicht. das würde ich erst tun, wenn ich an so einem setup stehe und es tatäschlich nix bringt :wink: Ich finds schön wenn sich jemand gedanken macht, und die dann auch noch der öfftenlichkeit zum nerden zur verfügung stellt. so entstehen neue dinge, und wenns schiefgeht hats wenigstens spaß gemacht.
    nur fallen mir hier leider auf anhieb einige punkte ein, die mich daran hindern mir das ganze in der praxis vorzustellen. deshlab mal die "kritik" Punkte (einwürfe trifft es wohl besser), vllt helfen sie ja das ganze aus verschiedenen blickwinkeln zu betrachten und die Probleme damit zu lösen..


    ich wünsch dir bzw euch viel spaß beim gruebeln, bin gespannt was sich hier noch so alles sammelt


    gruß Tobse

    Tobias Scherzinger
    Freelancing Sound (FOH Monitor Stage)
    Pforzheimerstr. 4
    75242 Neuhausen
    Mobil 0174/3157535
    mailto: Tobse@knightliner.de

  • Als langjähriger IEM-Nutzer ist für mich Im-Kopf-Lokalisation wirklich das allerkleinste Problem. Wenn der Mix ausgewogene Verhältnisse hat, ist das für mich mehr als ausreichend. Stereo sollte er schon sein.
    Ich finde es eher positiv, daß der Mix sich *nicht* verändert, wenn ich mich auf der Bühne bewege. Früher gab es ein Solo, bei dem ich oft Probleme mit dem Timing hatte, weil die Hörsituation zwischen Bläserpodest und Bühnenkante sich schlagartig änderte. Dieses Problem verschwand mit dem IEM schlagartig.


    Bevor unser Monitormann über HRTF nachdenkt, möchte ich bitte erst mal saubere Einzelsignale auf dem Ohr haben. Wenn dann noch die Mischung transparent ist, und etwas Druck hat, bin ich vollkommen Glücklich mit meinem IEM.

  • Ich weiß, der Thread ist wirklich alt, aber in diesem speziellen Fall möchte ich ihn einmal hochholen, damit man mal Jahre später sieht, was daraus geworden ist.


    Die Idee wurde tatsächlich kommerziell umgesetzt:

    KLANG - Immersive In-Ear Mixing with Intuitive Control
    In-Ear Mixing with Intuitive Control – Create stunning sounding individual mixes for up to 16 musicians simultaneously...
    www.klang.com


    Jetzt ist die Frage: Sind die unabhängig darauf gekommen? Haben die hier im Forum gelesen? Ist vielleicht einer der Gründer hier selbst im Thread aktiv gewesen?


    Ich finde es einfach schön mal zu sehen, wie innovativ dieses Forum doch manchmal ist :)

  • Damit man nicht zuviel denken muss (;-)) könnte man nun einen Schritt weiter gehen und die Filterung automatisieren; das geht so: In einem separaten Prozessor oder (eigentlich sehr viel sinnvoller und naheliegender) direkt in einem digitalen Mischpult, kann die Bühne modelliert werden. Die einzelnen Quellenpositionen und die einzelnen In-Ear-Stationen können dann in der Ebene - oder bei aufwändigeren Produktionen im 3D-Raum - positioniert werden. Das System errechnet dann selbständig die nötigen HRTFs und weist sie den entsprechenden Gruppensignalen auf der Verteilmatrix automatisch zu.


    Richtig spannend wird es, wenn das System dynamisch arbeitet und die Positionen und allenfalls auch Kopfbewegungen der einzelnen Musiker laufend registriert und die HRTFs für alle IEM-Zielpositionen laufend nachrechnet.

    Naja, ich finde es klingt schon sehr nach dem "KLANG"-System. Na gut, Klang kam da 8 Jahre später mit raus. Bis dahin hatte sich technisch natürlich doch was getan.


    Ich finde es trotzdem beeindruckend, wie hier aber schon alle wichtigen Ideen 8 Jahre vorher vorgestellt wurden. Ich bin über diesen Thread gestolpert und wollte ihn, jetzt wo es das in kommerziell gibt, einfach mal hervorholen um zu zeigen, was für innovative Personen hier mit beitragen :)


    Natürlich ist es dennoch immer noch eine Nischenanwendung.

  • Natürlich ist es dennoch immer noch eine Nischenanwendung.

    es kommt natürlich sehr darauf an, in welcher "liga" man nachschaut.

    sicherlich laufen über 95% der IEM systeme ohne solche Klang-erweiterungen. in der oberen liga, also geschätzt vielleicht den letzten 5%, sind die aber weit verbreitet. da spielen diese anschaffungskosten sowie die technische betreuung ja auch eher eine untergeordnete rolle.

    mit kollegialen Grüßen
    Wolfgang

  • Das ist interessant zu hören. Ich muss zugeben, dass ich keine Konzerte vor 50.000 Leuten mache. Das ist nicht meine Liga quasi. Deswegen ist es interessant von Personen, die sowas machen, zu hören, wie verbreitet das tatsächlich ist.


    Technologisch ist es interessant ähnlich wie z.B. Kemper Amps. Das 3D-IEM macht die Dinge aber erst mal komplizierter (wenn im Ergebnis dann vielleicht auch besser), was sicherlich dazu führt, dass es sich nicht so leicht nach unten durchsetzt, wie z.B. die Kemper-Amps, die ja den Aufwand beim Auftritt eher verkleinern.

  • Jetzt ist die Frage: Sind die unabhängig darauf gekommen? Haben die hier im Forum gelesen? Ist vielleicht einer der Gründer hier selbst im Thread aktiv gewesen?

    Ich kenne die Gründer noch aus Studienzeiten, aus einem recht produktiven Institut, in dem seinerzeit auch die ersten FIR Controller realisiert wurden.


    Die Kollegen beschäftigten sich sowohl mit (mit Kunstkopf) gemessenen als auch simulierten HRTFs, aber natürlich auch mit signal processing, Messtechnik und ähnlichen Themen. In einem frühen Entwicklungsstadium konnte ich mir das System mehrfach anhören, auch dynamisch mit head-tracking, das war mehr als beeindruckend. Und die Signale wurden tatsächlich mit HRTFs gefaltet.


    Dass die Ideen hier aus dem Forum stammen, wage ich zu bezweifeln. Für Menschen mit entsprechenden Erfahrungen und Kenntnissen ist die Idee aber nicht so abwegig, so dass auch mehrere Menschen auf die gleiche Idee kommen können. Es erforderte eine Menge intelligenter Konzepte, um die dynamische Überblendung zwischen verschiedenen Richtungen für den sich bewegenden Hörer zu realisieren. Ich fand das seinerzeit sehr gelungen, habe aber schon länger kein aktuelles System mehr gehört.


    Ich fand die Positionierung der Quellen durch den Techniker/Anwender auch smart gelöst, die Quellen wurden einfach an die entsprechende Position auf der Bühne geschoben.


    Vor einigen Jahren konnte man sich das System in Frankfurt auf der Mersse anhören, aktuell finde ich sie nicht mehr unter den Ausstellern.