Beiträge von MarkusZ

    Bei vielen der genannten Effekte (Windböen im oder auf dem Weg zum Publikum, atmosphärisch bedingte Refraktion/Brechung etc.) sehe ich keinen wesentlichen Unterschied im physikalischen Verhalten von Line-Arrays (LA) und Punktschallquellen (PS). Sehr viel entscheidender ist, was in unmittelbarer Nähe der Arrays selbst passiert.


    Wind verhält sich gerade auch im typischen "baulichen" Umfeld von LAs bekanntlich recht "eigensinnig". In der Folge sind die Windverhältnisse an jedem Kabinett ein wenig unterschiedlich, ändern sich logischerweise auch im Sekundenbruchteil-Takt. Damit wird aber - primär bei Seitenwind - die "Kohärenz der vertikalen Abstrahlung" negativ beeinflusst. Wie aus der Praxis bekannt, führt dies bereits bei erstaunlich lauen Lüftchen vor dem Array zu einem eher als unschön empfundenen Höreindruck.


    Ein LA ist ganz einfach massiv im Nachteil, weil sich die Schallabstrahlung über eine viel grössere Höhe erstreckt und dadurch die windbedingten Unterschiede bereits an der Quelle selbst grösser sind. Gedankenexperiment: Hätte man ein einzelnes Horn, mit gleicher Höhe wie ein zu vergleichendes LA, dann würden die gröbsten (wenn auch nicht alle) Differenzen hinfällig, was die Windanfälligkeit betrifft.


    Verschlimmert wird das dann noch dadurch, dass die einzelnen Wege bei einer PS in der Regel vertikal, bei einem LA aber horizontal angeordnet sind (eine Tatsache die auch abseits von Wind zu erheblichen Beeinträchtigungen führt, über die "LA-Jünger" meist nicht so gerne sprechen).


    Und dann kommt "neuerdings" noch ein dritter wesentlicher Aspekt dazu:

    Neu wäre allerdings bswp. die mittlerweile sehr etablierte Auto-Filter Funktion, die - ähnlich Array-Processing bei d&b - Pegel-Verteilung und Frequency Response über die Zuhörerfläche möglichst gleichmäßig abbilden soll. Wirken sich diese Algorithmen möglicherweise auf die Winstabilität aus?

    Ja!

    Von einer "Basstaubheit" hat niemand gesprochen, sondern von einer "Herabwertung" von real ganz vorhandener, potentiell schädlicher Schallleistung.

    Die Frequenzen werden - wie von mir beschrieben - so gewichtet, wie es ihrem Schädigungspotential entspricht. Es wird nichts "herabgewertet", was potentiell schädlich ist (schon gar nicht die Schallleistung ;) ).

    Dass die A-Bewertung bei den "meisten industriellen Arbeitsbereichen" zu einer vertrauenswürdigen Einschätzung führt, steht überhaupt nicht zur Frage. Die Frage ist doch eher ob "moderne Beschallungsanlagen mit moderner Musik" zu den "meisten industriellen Arbeitsbereichen" zählt, oder nicht doch eher eine Sonderstellung einnehmen sollte. ;)

    Womöglich hast Du das nicht so gemeint, aber mindestens insinuierst Du, man hätte die Erkenntnisse aus den "meisten industriellen Arbeitsbereichen" unbesehen auf "Beschallungen" übertragen. Dem ist aber keineswegs so.

    Da die A-Bewertung bei 50 Hz eine Reduktion um 30 dB hat, also bei 50 Hz theoretisch die 1000-fache Schallleistung zu einem gleichen LAeq gegenüber 1000 Hz führt, ist es für mich fraglich, ob für "Pop-Musik" eine vertrauenswürdige Abschätzung ermöglicht wird.

    Deshalb werden die Grundlagen auf denen die Grenzwerte beruhen glücklicherweise von Personen erarbeitet, für die das nicht fraglich ist ;)


    Der Begriff "C5-Senke" ist bekannt?


    Man kann die Sache zunächst ja auch mal rein anekdotisch angehen und sich fragen, wie viele Personen man kennt, die einen Hörschaden haben und bei wie vielen davon sich dieser im Bassbereich auswirkt. Die Antwort auf den zweiten Teil der Frage lautet: "ziemlich genau 0%" (wenn man mal von seltenen Traumata absieht, die dann aber der Kategorie "Unfälle" zuzurechnen sind = andere Baustelle).


    In dieser Diskussion werden leider immer wieder drei Aspekte bunt durcheinandergeworfen, welche aber strikte zu unterschieden sind:


    a) Wahrnehmung Frequenzgang:

    stark pegelabhängig

    > Isophone, standardisierte A-/B-/C-Filterkurven

    Anwendungsbeispiele: pegelabhängiges EQing, Beurteilung Hörbarkeit/Lästigkeit (Anwohner)


    b) "Langzeit"-Schädigungspotential:

    Frequenzgang = pegelunabhängig (führt immer zu C5-Senke*)

    > immer A-Filter

    (*abgesehen von ganz speziellen Fällen, die uns aber eher nicht betreffen)


    c) Schädigungspotential einmalige/kurzzeitige Impuls-Spitzen:

    spektrale Zusammensetzung nahezu irrelevant

    > LCpeak


    Die Datenlage für Personen, die Jahrzehnte bei sehr basslastigen Musikveranstaltungen einen definierten LEX,8h abbekommen haben, ist vermutlich recht dünn.

    Nein!

    Ohne Angabe der Methodik finde ich das etwas (zu) pauschal.

    Ich habe die Ursprungsfrage so verstanden, dass es um den Unterschied verschiedener Stimuli geht und nicht um einen methodische Vergleich unterschiedlicher Verfahren.


    Mir ist schon klar, dass eine TDS oder eine MLS zu einem anderen Zeitpunkt "liefern" als eine 2-Ch-FFT. Das ändert aber nichts an meinen Aussagen:


    - Wann das Resultat vorliegt ist unabhängig vom verwendeten Stimulus

    - Mehr Avgs = grösserer SNR, aber höhere Ungenauigkeit


    Beides ist unabhängig von der Methodik und deshalb pauschal gültig.


    Mal ganz abgesehen davon: Wer misst heute - über 20 Jahre nach Müller und Farina und bald 60 Jahre nach Heyser - noch mit MLS oder gar TDS?

    Noch zwei Ergänzungen zum Thema, weil das falsch dargestellt wurde:


    Die Frage wie schnell ein Ergebnis vorliegt/angezeigt wird, ist völlig unabhängig vom verwendeten Stimulus. Es dauert genau gleich lange.


    Eine Erhöhung der Anzahl Mittelungen erhöht zwar den SNR. Davon abgesehen nimmt die Genauigkeit der Messung aber AB (unter Umständen sogar drastisch)! Messtechnisch kann man dies u.a. daran erkennen, dass die Kohärenz sinkt. Eine Ursache (gibt auch noch andere) liegt darin, dass die statistische Wahrscheinlichkeit von Zeitvarianzen zunimmt. Entsprechend sollte man nur so viele Mittelungen verwenden, wie erforderlich sind, um einen genügenden SNR zu erreichen bzw. ist es in den meisten Fällen evtl. sinnvoller den SNR durch eine grössere Blocklänge/Messzeit zu erhöhen als durch mehr Mittelungen.

    verwendet Ihr für Messungen an Lautsprechern bzw. Systemen eigentlich eher Sinus Sweeps oder MLS Signale?

    Ganz klar und eindeutig, ohne Wenn und Aber: Sweeps


    Vorteile:

    - ca. 9 dB beserer SNR

    - immun gegenüber nichtlinearen Verzerrungen (THD, IMD)

    - erheblich bessere Immunität gegenüber Zeitvarianzen (schon mal versucht, mit Rauschen bei Wind zu messen?)


    Nachteile:

    - keine


    P.S. Ich nehme an, Du meintest Unterschied zwischen Sweep und RAUSCHEN, und nicht MLS (ändert aber nichts an meiner Antwort)

    Nach einer über dreijährigen Pause freue ich mich, im Herbst 2023 wieder mehrere Durchführung meiner Seminare anbieten zu können:


    Audio- und Akustik-Grundlagen (1 Tag)

    Mo, 9. Oktober 2023 in Schaffhausen (CH)

    Mo, 23. Oktober 2023 in Heilbronn

    Mo, 13. November 2023 in Köln


    Markus Zehner's Masterclass - Sound System Engineering (3 Tage)

    Di-Do, 10.-12. Oktober 2023 in Schaffhausen (CH)

    Di-Do, 24.-26. Oktober 2023 in Heilbronn

    Di-Do, 14.-16. November 2023 in Köln


    Infos und Anmeldung: http://www.zehner.ch/seminar11.html

    KI wird in den kommenden Jahren die Art, wie wir arbeiten, radikal verändern. Entsprechende Anwendungen werden geradezu explodieren, zuerst in Form von schwachen, später aber immer mehr auch in der Gestalt von komplexen Anwendungen.


    Wenn ich heute eine Prognose ins Blaue hinaus abgeben müsste, dann würde ich sagen, dass diese theoretisch bereits in sehr wenigen Jahren möglich wären. In der Realität wird es aber wohl eher 10-15 Jahre dauern, bis z.B. die folgenden drei Anwendungen völlig alltäglich sein werden.


    1. System-Einmessungen und virtualisierte Messpositionen
    Ich vertrete schon seit einigen Jahren die These - und habe das auch an Seminaren und Vorträgen eingehender erläutert -, dass die Einmessung eines Systems ohne weiteres von einer KI vorgenommen werden kann. Mit einem sehr viel besseren und konsistenteren Ergebnis, als es selbst der beste und erfahrenste Techniker zustande bringt. Wenn das heute jemand wollte und anfangen würde, liesse sich ein solches System ohne weiteres innerhalb von zwei bis drei Jahren realisieren. Dazu kommt noch ein weiterer KI-Aspekt: in Zukunft werden nur noch sehr wenige Positionen real gemessen werden, vielleicht je nach Fall zwei, drei oder vier- irgendwann nur noch eine einzige oder auch gar keine mehr! Diese realen Daten werden durch beliebig viele virtualisierte Mikrofon-Positionen ergänzt, die durch die KI generiert werden.


    2. Virtualisierte Bühnen-Mikrofone
    Mikrofone wie sie heute genutzt werden sind ein Anachronismus und beruhen auf einem technischen Verständnis, das gefühlt aus der Steinzeit stammt. In Zukunft wird man nur noch sehr wenige - oder vielleicht auch nur ein einziges oder gar keines? - Mikrofon auf einer Bühne nutzen. Die einzelnen Mikrofone, die wir heute einsetzen, werden dann rein virtuell erzeugt. Und zwar in einer Qualität, wie sie heute völlig undenkbar ist - alleine schon dadurch, dass man eine 100%ig Kanaltrennung, ohne jegliches Übersprechen realisieren kann.


    3. Autonomes Mischen
    Die Mischung einer Show beruht letztlich auf einer in ihrem Kern ausgesprochen trivialen Eingangs-Ausgangs-Logik. Diese Vorstellung mag für diejenigen Techniker beschämend sein, die glauben, ihre Arbeit sei knapp unterhalb der Raketentechnik angesiedelt oder doch mindestens so individuell, wie die eigene Persönlichkeit. Dies hält aber einer näheren Betrachtung nicht stand. Was bereits erläutert wurde:


    Ein Mischpult macht aus elektrischen Signalen elektrische Signale. Das ist im Gegensatz zum Auto lächerlich einfach für Machine Learning.


    Um einige weiteren Gegenargumente zu entkräften:


    was wir im realen leben aber machen, ist den mix nicht nur auf die gebotene hallenakustik anzupassen, sondern auch auf tagesformen sowohl der künstler als auch des publikums. es ist nicht immer der selbe mix, den man anbietet. man reagiert auf das umfeld und integriert die angebotenen signale in ein gesamtergebnis.

    Das ist unbestritten richtig. Diese Variationen folgen letztlich aber ebenfalls nur einer recht simplen formalen Logik (auch wenn man das als Mensch natürlich nicht bewusst so wahrnimmt und empfindet). Das Ziel besteht letztlich darin, anhand wechselnder Umgebungsvariablen einen einigermassen konsistenten Output zu generieren. Es gibt keinen Grund, anzunehmen, dass dies nicht auch von einer KI gelernt und repliziert werden kann. KI ist übrigens auch schon richtig gut darin, anhand von verschiedenen Markern Emotionen zu interpretieren; es spricht nichts dagegen, auch solche Variablen einzubeziehen.


    Und vor dem "ich guck dem Profi mal über die Schulter" muss dem Ding erst einmal ein psychoakustisch dem Mensch gleichwertiges Hörempfinden sowie optimalerweise ein paar Basics in Signaltheorie und raumakustischem Vorstellungsvermögen eingepflanzt werden.

    Dem möchte ich vehement widersprechen! Eine selbstmischende KI muss letztlich nichts anderes tun als Antworten auszuspucken wie: "in einem vergleichbaren Kontext, haben in der Vergangenheit 8 von 10 Tontechnikern an diesem und jenem Instrument folgende Kanaleinstellungen vorgenommen". Dazu muss sie weder hören können wie ein Mensch noch irgendwelche physikalischen Gesetzmässigkeiten verstehen. Sie muss nur Korrelationen herstellen und Daten statistisch auswerten.


    Der individuelle Techniker wird kaum mit all diesen Vorschlägen einverstanden sein. Dann überschreibt er sie einfach, das ist der KI völlig egal. Im Idealfall ist so lernfähig und personalisierbar, dass sie sich merkt, wo sie übersteuert wird und kann dies bei zukünftigen Entscheidungen mitberücksichtigen und sich so dem Endergebnis eines individuellen Menschen immer mehr annähern.


    Raumakustik: natürlich kann man auch diese Korrelations-Argumente einfliessen lassen. Es ist dazu noch nicht einmal nötig, dass man der KI eine akustische Messung zuführt, weil sich - wiederum mithilfe von KI und virtualisierten Messmikrofonen - alle akustisch relevanten Parameter schon aus den Kanal-Daten extrahieren lassen, die ohnehin vorhanden sind.


    Zu den Trainingsdaten: Je mehr Erfahrungen ein Tontechniker hat, mit unterschiedlichen Musikstilen, Instrumentierungen, Arrangements, Raum- und Publikumssituationen etc. pp. desto besser. Statistisch gesehen wird es z.B. immer unwahrscheinlicher, dass er plötzlich vor einer Situation steht, die er nicht zumindest in ähnlicher Form schon einmal vor sich hatte.


    In vergleichbarer Weise gilt dies auch für jede Art statistischer Analyse und eine KI macht im wesentlichen nichts anderes: je grösser die Datenbasis ist, desto verlässlicher wird das Ergebnis. Eine KI braucht deshalb EXTREM viele Daten, um in möglichst vielen Fällen einen qualitativ guten Output zu generieren. Gerade weil die KI nicht denkt, muss sie gegenüber einem Menschen ein Vielfaches an Daten zur Verfügung haben, um zu vergleichbar guten Entscheidungen zu kommen.


    Wenn ich Mischpulthersteller wäre, dann würde ich mir deshalb HEUTE überlegen, wie ich in den kommenden Jahren mindestens mal möglichst viele Daten sammeln kann. Das ist verhältnismässig einfach und kostengünstig zu realisieren. Erforderlich ist aber eine längerfristige Vision. Die Wahrscheinlichkeit, dass mal jemand damit anfängt, wird im Laufe der kommenden Jahren sicher auch exponentiell zunehmen. Vielleicht kommt der Impuls dazu auch nicht von einem der etablierten Hersteller, sondern eher von einem externen Start-Up/Spin-Off.


    Grosse Techfirmen haben es ja vorgemacht: man hat frühzeitig erkannt, dass es einen enormen Wettbewerbsvorteil bringt, wenn man anfängt umfangreiche Daten zu sammeln (Experten gehen davon aus, dass der diesbezügliche Vorsprung einer Handvoll Unternehmen heute so gross ist, dass er praktisch nicht mehr aufzuholen ist). Diese Erkenntnis und die daraus folgenden Entscheidungen kamen lange, bevor die Konzerne überhaupt eine Vorstellung davon hatten, WOZU GENAU die Daten dereinst überhaupt verwendet werden sollen.


    Umgekehrt proportional zu den exponentiell ansteigenden KI-Anwendungen in allen Lebensbereichen, werden sich auch die Kosten für solche Applikationen entwickeln. Es ist z.B. nicht nötig, eine "PA-KI-Eigenentwicklung" von Grund auf zu finanzieren, weil man auf bestehende Systeme aufsetzen kann, die zwar vielleicht aus völlig anderen Anwendungsbereichen kommen, aber auf formal ähnlichen Korrelations-Logiken beruhen. Je mehr KI-Anwendungen es gibt, desto grösser wird die Wahrscheinlichkeit, dass es irgendwo ein Modell gibt, dass mit ganz wenigen Anpassung übernommen werden kann. Der Rest der Kosten wird dann wohl über ein Pay-Per-Use/Abo-Modell abgewälzt. Ein Trend, der m.E. auch abseits von KI eine zunehmende Bedeutung erlangen wird, aber das wäre dann ein anderes spannendes Thema.


    bis jetzt sehe ich hier nur gegenargumente, die auch ähnlich damals gegen die digital pulte vorgebracht wurden und die linearrays :)


    Das sehe ich ganz genauso. Das Forum ist voll von kleineren und grösseren Beispielen, die das belegen. Das hat mich schon immer sehr erstaunt: in der Regel waren die Techniken in anderen Bereichen bereits seit Jahrzehnten(!) erfolgreich im Einsatz, bevor dann die PA-Branche auch noch gemeint hat, sie hätte jetzt gerade etwas bahnbrechend Neues entdeckt. Mit KI wird es sich genau gleich verhalten.


    Ich nenne hier nur mal zwei von vielen Beispielen aus dem Audio-Bereich: Hörgeräteakustik und Audio-Forensik. Wenn man sich anschaut, wo da die KI-Reise hingeht, dann müsste es eigentlich offensichtlich sein, dass sich vieles davon mit mehr oder minder grossen Modifikationen auch für komplexe KI-Anwendungen im PA-Bereich nutzen lässt. Es braucht schon einen enormen Tunnelblick und eine gehörige Portion Ignoranz, um das nicht zu sehen.


    Fazit: Dass wir in den kommenden Jahren auch im PA-Bereich eine Explosion von - immer stärkeren - KI-Anwendungen erleben werden, steht für mich völlig ausser Frage. Auf welche Bereiche sich das erstreckt und wann was kommt, wird man sehen. Ich glaube aber, dass zumindest einiges viel schneller gehen wird, als sich das heute noch viele vorstellen können.

    Hallo Mathias


    Ich will Deinen Ausführungen und den Ergebnissen Deiner Hörversuchen nicht grundlegend wiedersprechen. Aber einiges zu bedenken geben (teilweise schon von anderen erwähnt):


    Wenn Du ein Mehrweg-System "phasenlinearisierst", dann veränderst Du damit zwangsläufig immer auch den Amplitudenfrequenzgang und das gesamte räumliche Abstrahlverhalten des Systems im Übernahmebereich.


    Letztlich vergleichst Du also Äpfel mit Birnen. Deshalb ist ein Test, wie von Dir beschreiben zwar interessant aber gänzlich ungeeignet, um eine Aussage darüber zu machen, ob "Phase hörbar ist". Bzw. ist die Schlussfolgerung falsch, dass das was Du als Unterschied wahrnimmst mit dem Phasenverlauf an sich etwas zu tun hat.


    Wie das Ergebnis eines von Dir beschriebenen Tests ausfällt, ist in der Folge auch ganz massgeblich vom Lautsprecher selbst, von der Hördistanz, dem 3D-Winkel der Hörposition relativ zum LS und der involvierten Raumkaustik abhängig. Deshalb können solche "FIR-Spielereien" auch ganz schnell in die Hose gehen, wenn einem die Ohren oder das Mess-System sagen, dass es _an diesem einen Punkt_ zu einer Verbesserung führt.


    Denn letztlich beeinflusst Du die Integrität des 3D-Ballons - und wenn sich der Entwickler was gedacht hat, dann ist wohl eher nicht von einer Verbesserung auszugehen. Es besteht dann die Gefahr von völlig verbogenen Amplitudenfrequenzgängen auf einzelnen Raumachsen, Sprüngen in der frequenzabhängigen Richtcharakteristik und dem Risiko einer massiv höheren Feedbackanfälligkeit. Diese Folgen, lassen sich im Feld gar nicht umfassend überblicken, geschweige denn kontrollieren. Oder anders gesagt: vielleicht MUSS der LS ja zwingend diesen Phasenverlauf haben, um ein anderes, übergeordnetes Ziel zu erreichen, welches Du gar nicht auf dem Schirm hast.

    Solche Versuche habe ich auch schon gemacht. Interessanterweise habe ich beim bearbeiten eines Musiksignals mit 2 oder 3 Allpassfiltern in einem Controller oder DAW, das dann über den Kopfhörer abgespielt wurde, auch deutlich weniger Unterschied wahrgenommen als in den oben beschriebenen Szenarien. Woran das genau liegt habe ich ehrlich gesagt für mich noch nicht begriffen bzw. noch keine belastbare Erklärung gefunden.

    Das ist nicht überraschend und deckt sich ja auch mit anderen Wortmeldungen (mattias bost, F.A.Bi.A.N.). Im Gegensatz zu den Feldversuchen, manipulierst Du hier tatsächlich ausschliesslich die Phase und vergleichst deshalb Äpfel mit Äpfeln. Und da gibt es nunmal nichts zu hören, was praxisrelevant wäre und über Placebo hinausgeht.

    Im Rahmen des grossen Ringversuchs zum Thema Nachhallzeit wurde heute der vierte und letzte Teil veröffentlicht. Hierzu wurden 13 mehr oder weniger bekannte Akustik-Softwares getestet. Am Test beteiligt waren einerseits Programme, die eher im Beschallungsbereich eingesetzt werden (z.B. Systune, Smaart, SATlive) aber auch spezialisierte Elektro-/Raumakustik-Softwares wie EASRA, ARTA, Monkey Forest, Odeon u.a.

    http://www.zehner.ch/lab.html

    OK da Markus Spaß an einer bestimmten Art von Darstellung hat, bitte schön:

    Hihi, diese Logik passt perfekt, denn auch in den digitalen Nachbildungen hilft der Parameter Reverb Time ebenfalls genau garnicht, um vorab zu wissen ob das Teil gut oder komplett Banane klingt. Danke für die charmante Vorlage. :)

    Ich habe es zwar schon mal in #16 geschrieben, wiederhole es aber extra für Dich gerne noch ein letztes Mal in einfach und zusammenfassend:


    Die Nachhallzeit ist EIN Parmater von vielen. Ich sehe niemanden, der behauptet, damit liessen sich das Schallverhalten in einem Raum oder die Qualität eines Gerät vollständig beschreiben. Der Einzige der das herbeizureden und anderen zu unterstellen versucht bist bislang Du.

    Wenn ich eine Impulsantwort mit einem Kugelmikrofon aufnehme, dann ist doch jegliche Information über die Richtung des einfallenden Schalls gelöscht.

    Ich kann mich nicht entsinnen, dass ich geschrieben habe, man solle eine Mono-IR falten. Natürlich ist für eine 2D- oder 3D-Richtungsbestimmung auch eine 2D/3D-Impulsantwort erforderlich.

    Messverfahren, die dieses angemessen berücksichtigen, sind äußerst kompliziert in der Signalauswertung, erfordern besonderes Messequipment (Kunstkopf) und sind weit davon entfernt, irgendwo als Standard etabliert zu werden.

    Binaurale Messverfahren und Messgrössen sind schon seit Jahrzehnten etabliert und standardisiert (z.B. ISO 3382-1). Neuere, komlexere und sehr viel weiter gehende Verfahren sind zwar noch nicht standardisiert, werden aber in der Praxis seit vielen Jahren regelmässig eingesetzt.


    Die Messverfahren sind nicht kompliziert. Sie erfordern allerdings einen _erheblich_ grösseren Zeitaufwand, insbesondere was das Post-Pozessing und die Analyse betrifft, was angesichts der enormen zusätzlichen Datenmenge ja auch nicht weiter erstaunlich ist. Dass diese Verfahren deshalb naturgemäss nicht in jedem Projekt angewandt werden (Stichwort: Budget) versteht sich dann von selbst. Es ist aber auch unabhängig vom Budget in vielen Fällen gar nicht notwendig oder sinnvoll solche Messverfahren einzusetzen. Wenn man sie aber braucht, dann gibt es sie.


    Für binaurale Messungen und die Richtungsbestimmung von Reflexionen sind auch nicht zwingend Kunstköpfe erforderlich. Um nur ein Beispiel zu nennen: man kann die Impulsantworten auch nachträglich mit HRTFs falten.

    Mich fängt das dann wieder an zu interessieren, wenn das, was gemessen wird, nicht mehr "Nachhallzeit" sondern Hallstrukturanalyse heißt, da kann mich Markus gerne weiter beschimpfen.

    Ich habe Dich doch nicht beschimpft. Ich bemängle lediglich, dass Du einen Strohmann aufstellst und dann genüsslich abfackelst, was Du ja auch hier wieder versuchst.


    Ich habe einen Ringversuch durchgeführt, bei dem es darum ging, Unsicherheiten in der Nachhallzeit-Messung zu untersuchen. An keiner Stelle habe ich eine Aussage gemacht, dass die Nachhallzeit alleine geeignet ist, die akustischen Eigenschaften eines Raums zu beschreiben. Darum geht es in diesem Artikel nicht mal am Rande.


    Mir fallen spontan auch recht wenige mir bekannte Akustiker ein, die sich bei der akustischen Beurteilung und Optimierung eines Raums ausschliesslich auf die Nachhallzeit stützen. Offensichtlich hast Du da andere Erfahrungen gemacht, was ich auch gar nicht in Zweifel ziehen will. Dies mag dann zwar Deine plakativ zur Schau gestellten Animositäten erklären. Dennoch sind Deine Pauschalisierungen weder zutreffend noch angebracht.