Beiträge von MarkusZ

    Detaillierte Informationen und Anmeldung (beschränkte Platzzahl!):
    http://www.zehner.ch/seminar/systune.htm


    Gleich in drei Ländern findet Ende April/Anfang Mai ein ganz neues,
    eintägiges Seminar zum Thema "Einmessen von Beschallungsanlagen" statt.


    Der Anlass richtet sich an Tontechniker, Installateure, System Engineers
    und andere Interessenten, die in die professionelle Messtechnik
    einsteigen möchten oder ihr Wissen über System-Einmessungen auf den
    neusten Stand bringen wollen.


    Demonstriert werden Theorie und Praxis des Einmessens anhand von "EASERA
    SysTune" von AMFG (den Machern von EASE, EASERA u.a.), der derzeit
    modernsten und leistungsfähigsten Software für diesen Anwendungszweck.


    Daten und Orte:
    Mittwoch, 23.04.08 in Baden (CH)
    Montag, 28.04.08 in Wien
    Dienstag, 06.05.2008 in Berlin


    Detaillierte Informationen und Anmeldung (beschränkte Platzzahl!):
    http://www.zehner.ch/seminar/systune.htm



    Markus Zehner (Veranstalter/Schulungsleiter)
    http://www.zehner.ch

    Detaillierte Informationen und Anmeldung (beschränkte Platzzahl!):
    http://www.zehner.ch/seminar/systune.htm


    Gleich in drei Ländern findet Ende April/Anfang Mai ein ganz neues,
    eintägiges Seminar zum Thema "Einmessen von Beschallungsanlagen" statt.


    Der Anlass richtet sich an Tontechniker, Installateure, System Engineers
    und andere Interessenten, die in die professionelle Messtechnik
    einsteigen möchten oder ihr Wissen über System-Einmessungen auf den
    neusten Stand bringen wollen.


    Demonstriert werden Theorie und Praxis des Einmessens anhand von "EASERA
    SysTune" von AMFG (den Machern von EASE, EASERA u.a.), der derzeit
    modernsten und leistungsfähigsten Software für diesen Anwendungszweck.


    Daten und Orte:
    Dienstag+Mittwoch, 22.+23.04.08 in Baden (CH)
    Montag, 28.04.08 in Wien
    Dienstag, 06.05.2008 in Berlin


    Detaillierte Informationen und Anmeldung (beschränkte Platzzahl!):
    http://www.zehner.ch/seminar/systune.htm



    Markus Zehner (Veranstalter/Schulungsleiter)
    http://www.zehner.ch


    EDIT KRE: Verschoben nach Termine.

    m April 2008 finden die drei folgenden Audioseminare statt:
    Anmeldung und detaillierte Infos: http://www.zehner.ch/seminar


    ----------------


    Nur noch wenige freie Plätze!


    2-tägiges PA INTENSIV SEMINAR
    bestehend aus:


    BESCHALLUNGSTECHNIK IN THEORIE UND PRAXIS
    Kompetente Bedienung von Beschallungsanlagen
    Samstag, 12. April 2008 in Bern


    PA PRAXIS SEMINAR
    Beschallungstechnik hautnah: praxisorientiert - leicht verständlich -
    Tipps und Tricks von Profis
    Sonntag, 13. April 2008 in Bern


    (Die Anlässe können auch einzeln gebucht werden)


    -----------------


    HIGHEND-AKUSTIK FÜR WOHNRÄUME UND MUSIKZIMMER
    Akustik-Grundlagen und Optimierung von HiFi-Hörräumen
    Samstag, 05. April 2008 in Basel


    ----------------


    Anmeldung und detaillierte Infos: http://www.zehner.ch/seminar/

    Im April 2008 finden die drei folgenden Audioseminare statt:
    Anmeldung und detaillierte Infos: http://www.zehner.ch/seminar


    ----------------


    Nur noch wenige freie Plätze!


    2-tägiges PA INTENSIV SEMINAR
    bestehend aus:


    BESCHALLUNGSTECHNIK IN THEORIE UND PRAXIS
    Kompetente Bedienung von Beschallungsanlagen
    Samstag, 12. April 2008 in Bern


    PA PRAXIS SEMINAR
    Beschallungstechnik hautnah: praxisorientiert - leicht verständlich -
    Tipps und Tricks von Profis
    Sonntag, 13. April 2008 in Bern


    (Die Anlässe können auch einzeln gebucht werden)


    -----------------


    HIGHEND-AKUSTIK FÜR WOHNRÄUME UND MUSIKZIMMER
    Akustik-Grundlagen und Optimierung von HiFi-Hörräumen
    Samstag, 05. April 2008 in Basel


    ----------------


    Anmeldung und detaillierte Infos: http://www.zehner.ch/seminar/

    Angeregt durch den „Latenz-Thread“, möchte ich hier einen etwas anderen Ansatz zum Erstellen von In-Ear-Mischungen zur Diskussion stellen. Dabei interessiert es mich insbesondere, ob allenfalls schon jemand Erfahrungen in diese Richtung gemacht hat oder jemanden kennt der... (allenfalls gerne auch per PM)


    Die Latenz-Problematik (und die ist in Wirklichkeit viel grösser als manch einer denkt) in gängigen IEM-Systemen hat meiner Meinung nach auch viel damit zu tun, dass die einzelnen Schallquellen nicht externalisiert werden, dass sie also immer "im Kopf des Musikers" abgebildet werden. Aus diesem Grund (und einigen anderen Gründen, auf die ich hier aber nicht weiter eingehen werde) war für mich immer klar, dass man Äpfel mit Birnen vergleicht, wenn man Schall-Flugzeiten wie sie bei konventionellem Monitoring auftreten, mit IEM-Latenzen vergleicht und daraus irgendwelche Schlussfolgerungen betreffend den zulässigen Latenzschwellen ziehen will.


    Die Argumentation In-Ear funktioniere bestens, weil es ja schon so viele (Berühmtheiten) gibt, die es verwenden, ist keineswegs stichhaltig. Alleine schon die Tatsache, dass ein In-Ear-System eine gewisse Eingewöhnungszeit erfordert, sollte uns eigentlich stutzig machen und einen Hinweis darauf geben, dass offensichtlich zuerst ein Lernprozess angekurbelt werden muss, um mit den offensichtlichen Schwächen eines solchen Systems überhaupt klarzukommen. Das ist ja auch gar nicht weiter verwunderlich, wenn man bedenkt, dass man mit dem Stöpsel im Ohr das natürliche akustische System komplett verändert und dessen Übertragungsfunktion massgeblich beeinflusst.


    Die Latenzprobleme wie auch der unnatürliche Höreindruck bei IEM-Systemen sind letzlich auf eine fehlende Externalisierung der Quellen zurückzuführen, was hauptsächlich dran liegt, dass die "Kopfbezogenen Übertragunsfunktionen" (Head Related Transfer Functions; HRTF) fehlen, die beim natürlichen Hören von entscheidender Bedeutung sind.


    Ich finde es höchst erstaunlich, dass sich bisher (meines Wissens) noch kein IEM-Hersteller dazu Gedanken gemacht hat und entsprechende Korrektur-Algorithmen in seine Systeme implementiert, bzw. dass die Hersteller von Digitalmischpulten noch nicht auf die Idee gekommen sind entsprechende Tools zu integrieren. Wetten, dass es nicht mehr allzu lange dauert bis…?


    Ich möchte mit meinen Überlegungen aber nun noch einen Schritt weitergehen und darlegen, wie man sehr viel realistischere und natürlichere IEM-Mischungen realisieren könnte, indem man die einzelnen Signale abhängig vom Ort der Quelle (einzelne Instrumente) und dem Ort des Empfängers (IEM-Träger) mit korrekten HRTFs filtert (s.a. Grafik):


    Zunächst werden die einzelnen Signale (wie üblich) einem Monitorpult zugeführt. Dort werden die Einzelkanäle abhängig von deren Positionen auf der Bühne zu Stereo-Gruppen zusammengefasst. Diese Stereo-Gruppen werden nun auf eine Verteilmatrix gelegt, welche sie zuerst auf die Anzahl der IEM-Träger dupliziert. Für jeden IEM-Empfänger werden dann die einzelnen Gruppen mit den entsprechenden HRTFs (separat für den jeweils linken und rechten Kanal) beaufschlagt. Anschliessend werden die bearbeiteten Gruppen zu einem Stereomix verarbeitet und dem entsprechenden Empfänger zugespielt. Allenfalls können auch noch weitere Bearbeitungen angewandt werden, welche den natürlichen Höreindruck zusätzlich verbessern.



    Ein innovativer Monitortech (Paradoxon?) könnte ein solches einfaches System schon heute einsetzen. Es ist noch nicht einmal ein spezieller technischer Aufwand nötig. Ein Digitalmischpult mit genügend internen Misch- und Verteilmöglichkeiten wäre dazu zunächst mal völlig ausreichend.


    Damit man nicht zuviel denken muss (;-)) könnte man nun einen Schritt weiter gehen und die Filterung automatisieren; das geht so: In einem separaten Prozessor oder (eigentlich sehr viel sinnvoller und naheliegender) direkt in einem digitalen Mischpult, kann die Bühne modelliert werden. Die einzelnen Quellenpositionen und die einzelnen In-Ear-Stationen können dann in der Ebene - oder bei aufwändigeren Produktionen im 3D-Raum - positioniert werden. Das System errechnet dann selbständig die nötigen HRTFs und weist sie den entsprechenden Gruppensignalen auf der Verteilmatrix automatisch zu.


    Richtig spannend wird es, wenn das System dynamisch arbeitet und die Positionen und allenfalls auch Kopfbewegungen der einzelnen Musiker laufend registriert und die HRTFs für alle IEM-Zielpositionen laufend nachrechnet.


    Um den Aufwand in einem praktikablen Rahmen zu halten, könnte im Modelling zunächst der Aktionsradius jeder Quelle und jedes Empfängers definiert werden. Anschliessend berechnet ein Algorithmus offline eine sinnvolle Anzahl von Filtereinstellungen, legt diese in einem Speicher ab und überblendet dann später im Betrieb nur noch dynamisch zwischen den verschiedenen Filter-Settings.


    Ich bin mir sehr sicher, dass in nicht allzuferner Zukunft Applikationen auftauchen werden, welche diese Ideen mindestens teilweise umsetzen werden - und zwar ganz einfach deshalb, weil es ein völlig naheligender Schritt zu einer erheblichen Qualitäts-Verbesserung darstellt. Irgendwann - in 150 Jahren oder so - wird dann auch die Gilde der (typischerweise erzkonservativen) Beschallungstechniker solche Systeme ganz selbstverständlich einsetzen. (Edit: ich setzte hier vorsichtshalber mal einen :wink: dahinter)


    Kommentare? Andere Meinungen?

    Zitat von "Sound-Klinik"

    und die "alterstypischen" Kurven zeigten sehr deutlich, daß bei 70- bis 80-jährigen oberhalb von 4 kHz schon deutlich weniger passiert, was die Unterscheidbarkeit bestimmter Laute zunehmend erschwert.


    Die typischen Kurven die ich gerade auf die Schnelle zur Hand habe, hören bei 60-jährigen auf; aber man darf oberhalb von 3 kHz locker mal mit einer um 15 dB und mehr verschobenen Hörschwelle rechnen.


    Aber: Bei einer Sprachübertragung, die den allgemein anerkannten "Normen" entspricht (genügender SNR, genügender Pegel) heisst DIES ALLEINE noch nicht unbedingt, dass die betreffende Person Sprache schlechter versteht, da die einzelnen Sprachlaute vom Pegel her immer noch innerhalb des nutzbaren Hörfeldes liegen. Man muss sich hierbei auch bewusst sein, dass in der Audiologie ein Hörverlust von unter 30 dB als "gering" klassifiziert wird! Problematisch wird es erst, wenn zusätzliche Einschränkungen hinzukommen, die man alleine aus dem Verlauf der Hörschwelle nicht ablesen kann.


    Zitat von "Sound-Klinik"

    Ich überlege daher, ob es für ältere Kirchenbesucher zusätzlich Auswirkungen auf die Sprachverständlichkeit haben könnte, wenn der Bereich unterhalb von 500 Hz aufgrund raumakustischer Zwänge in einer Kirche "begrenzt" wird (... und der noch verfügbare - bereits eingeschränkte - Hörbereich noch weiter verringert wird).


    Das ist anzunehmen. Andererseits besteht aber die Gefahr, dass tieffrequenter Schall höhere Frequenzen verdeckt. Da diese Verdeckung nun aber bei einem Hörgeschädigten sowohl spektral als auch zeitlich (Nachverdeckung) stärker wirkt als bei einem Normalhörenden, kann sich der vermeintliche Vorteil IMO auch rasch in einen Nachteil verwandeln.


    Aber du wirfst indirekt eine interessante Frage auf: Sollen wir unsere Systeme auf Personenkreise anpassen, welche aufgrund ihrer Disposition (und sei es nur bedingt durch das Alter) eigentlich ein Hörgerät tragen sollten? Mal abgesehen davon, dass wir immer bestrebt sein sollten, eine möglichst gute Sprachverständlichkeit zu erzielen, bin ich klar der Meinung, dass man darüber hinaus keine speziellen Massnhamen treffen sollte - zumal dann nicht, wenn sie für Normalhörende mit einer qualitativen Verschlechterung einhergehen. Es kann letzlich nicht unsere Aufgabe sein, einen Ersatz für Hörgeräte oder im Extremfall Induktionsschleifen zu bieten!

    Zitat von "Sound-Klinik"

    Hast du event. Infos, ob es Untersuchungen oder Ideen bezgl. einer Bewertung der Sprachverständlichkeit bei älteren bzw. hörgeschädigten Menschen gibt ?


    Dazu weiss ich leider nichts. Ich denke auch, es wird nicht ganz so einfach sein, dies zu definieren, da Hörschäden letztlich zu individuell sind. Geht es "nur" um die Berücksichtigung von Altersbedingter Leistungsabnahme könnte man allenfalls noch die Gewichtung einzelner Indizies verändern; aber ein "Norm-Schema" um dies zu tun, ist mir nicht bekannt.


    Die Praxis sieht meines Wissens so aus, dass man die gängigen Qualitäts-Parameter einfach strenger formuliert, dass z.B. ein minimaler Signal-/Rauschabstand von 15 dB oder ein STI von min. 0,7 anzustreben ist und ähnliches mehr.


    Ich kenne einige wirkliche Experten auf diesem Gebiet persönlich recht gut. Wenn dir obige Angaben nicht genügen, kann ich die bei Gelegenheit ja mal fragen.

    Zitat von "Sound-Klinik"

    cardioide Lautsprechersysteme, [...] eine wesentlich bessere (hörmässige !!!) Sprachverständlichkeit [...] OBWOHL der (gemessene !!!) STI nicht unbedingt besser sein muß.


    DER STI als Einzahlwert muss nicht zwangsläufig besser werden, weil im LF-Bereich richtigerweise die einzelnen Modulatoren viel schwächer gewichtet werden. Die INDIZIES der jeweiligen Modulatoren werden sich aber bei einem Cardioid-System mit Sicherheit verbessern.


    Man sollte sich deshalb auch nie auf einen STI-Einzahlwert verlassen, sondern die Modulationstransfer-Funktion der einzelnen Bänder beachten und nach allfälligen Anomalien suchen.


    Zitat von "Sound-Klinik"


    Könnte es sein, daß der STI mehr die Belange eines gesunden Gehörs repräsentiert ... und die Höreigenschaften älterer Menschen zu wenig berücksichtigt ?


    Die entsprechenden Normen verweisen explizit darauf, dass STI-Verfahren auf Normalhörende ausgelegt sind.

    Konkretes Problem oder allgemeine Anfrage theoretischer Natur?
    Sicher ein sehr schwieriges Thema, mit teils umstrittenen und widersprüchlichen Studien. Auch nicht ganz einfach zu messen, da spezielle Verfahren und Messgeräte erforderlich und Störeinflüsse nur schwer zu kontrollieren sind. Vielleicht mal ISO 7196 und DIN 45680 konsultieren.

    Zitat von "cheesy"

    Werden jetzt einfach die 10db über dem Grenzwert durch 4 geteilt ? (ergibt Ausgangspegel von -17,5db)


    Richtig.
    Volker: Die Ratio bezieht sich bereits auf dB-Werte!


    Zitat von "cheesy"

    Das erscheint mir zu einfach


    Es muss ja nicht immer alles kompliziert sein.
    Aber bitte, wenn du es nicht anders haben willst, liefere ich zur allgemeinen Verwirrung gerne noch folgendes nach...:D


    Zitat von "cheesy"

    Ich gehe davon aus, dass ich ein konstantes Sinus-Signal habe (also werden Attack und Releas sowie, Soft-Knee nicht berücksichtigt)


    Die Soft Knee Schaltung wird auch bei konstanten Signalen eine Wirkung zeigen (evtl. eine andere als bei "nicht-konstanten" Signalen), sofern sie im gewählten Pegelbereich noch eine Wirkung hat - und dies ist bei den gewählten Werten (Schwelle, Eingangssignal) ohne weiteres möglich.


    Theoretische Berechnungen stimmen nur dann mit der Realität überein, wenn man voraussetzt, dass die Kennlinie oberhalb der Schwelle linear verläuft. Das ist aber auch abgesehen von Soft Knee bei weitem nicht immer der Fall.

    Zitat von "databass.ch"

    Ich finde diesen Thread sehr verwirrend :?


    Das beruhigt mich ungemein. Bei mir zeigten sich schon Anzeichen von beginnenden Minderwertigkeitskomplexen, weil ich annahm der Einzige zu sein, der mit zunehmendem Lesen immer weniger weiss, worum es eigentlich geht :P


    Zitat von "FF"


    Zitat B. Timmermanns aus HH 5-2003:
    Sobald die Membranfläche die Größenordnung der Schall-Wellenlänge erreicht, führt eine weitere Verdopplung der Membranfläche nur noch auf der Symmetrieachse zu einem akustischen Pegelzuwachs von sechs dB.


    Das ist IMO in der Praxis der springende Punkt und auch wenn es von anderen schon erwähnt wurde, um es nochmal mit anderen Worten festzuhalten:


    Der Pegel nimmt zwar mit jeder Verdoppelung der Anzahl Quellen um 6 dB zu, die Frequenz unterhalb derer dieser Effekt eintritt, nimmt aber mit jeder Erhöhung der Lautsprecheranzahl ab!


    Man könnte (oder besser: sollte!) sich nun überlegen, welche Konsequenzen sich daraus ergeben; z.B. wenn man ein System X einmal mit weniger einmal mit mehr koppelnden Bässen betreibt; bezüglich Controllersettings, Leistungsverteilung, Trennfrequenzen, Entzerrung etc. :roll:


    Zitat von "FF"


    Zitat B. Timmermanns aus HH 5-2003:
    Außerhalb der Hauptabstrahlrichtung treten Interferenzen auf, die winkelabhängig zu Auslöschung oder Addition führen.


    Leider(?) kann sich dieser bestechenden Logik auch kein real existierendes Linearray entziehen, auch wenn dies die Marketingmenschen oftmals etwas anders sehen :P