Beiträge von MarkusZ

    Ohne Angabe der Methodik finde ich das etwas (zu) pauschal.

    Ich habe die Ursprungsfrage so verstanden, dass es um den Unterschied verschiedener Stimuli geht und nicht um einen methodische Vergleich unterschiedlicher Verfahren.


    Mir ist schon klar, dass eine TDS oder eine MLS zu einem anderen Zeitpunkt "liefern" als eine 2-Ch-FFT. Das ändert aber nichts an meinen Aussagen:


    - Wann das Resultat vorliegt ist unabhängig vom verwendeten Stimulus

    - Mehr Avgs = grösserer SNR, aber höhere Ungenauigkeit


    Beides ist unabhängig von der Methodik und deshalb pauschal gültig.


    Mal ganz abgesehen davon: Wer misst heute - über 20 Jahre nach Müller und Farina und bald 60 Jahre nach Heyser - noch mit MLS oder gar TDS?

    Noch zwei Ergänzungen zum Thema, weil das falsch dargestellt wurde:


    Die Frage wie schnell ein Ergebnis vorliegt/angezeigt wird, ist völlig unabhängig vom verwendeten Stimulus. Es dauert genau gleich lange.


    Eine Erhöhung der Anzahl Mittelungen erhöht zwar den SNR. Davon abgesehen nimmt die Genauigkeit der Messung aber AB (unter Umständen sogar drastisch)! Messtechnisch kann man dies u.a. daran erkennen, dass die Kohärenz sinkt. Eine Ursache (gibt auch noch andere) liegt darin, dass die statistische Wahrscheinlichkeit von Zeitvarianzen zunimmt. Entsprechend sollte man nur so viele Mittelungen verwenden, wie erforderlich sind, um einen genügenden SNR zu erreichen bzw. ist es in den meisten Fällen evtl. sinnvoller den SNR durch eine grössere Blocklänge/Messzeit zu erhöhen als durch mehr Mittelungen.

    verwendet Ihr für Messungen an Lautsprechern bzw. Systemen eigentlich eher Sinus Sweeps oder MLS Signale?

    Ganz klar und eindeutig, ohne Wenn und Aber: Sweeps


    Vorteile:

    - ca. 9 dB beserer SNR

    - immun gegenüber nichtlinearen Verzerrungen (THD, IMD)

    - erheblich bessere Immunität gegenüber Zeitvarianzen (schon mal versucht, mit Rauschen bei Wind zu messen?)


    Nachteile:

    - keine


    P.S. Ich nehme an, Du meintest Unterschied zwischen Sweep und RAUSCHEN, und nicht MLS (ändert aber nichts an meiner Antwort)

    Nach einer über dreijährigen Pause freue ich mich, im Herbst 2023 wieder mehrere Durchführung meiner Seminare anbieten zu können:


    Audio- und Akustik-Grundlagen (1 Tag)

    Mo, 9. Oktober 2023 in Schaffhausen (CH)

    Mo, 23. Oktober 2023 in Heilbronn

    Mo, 13. November 2023 in Köln


    Markus Zehner's Masterclass - Sound System Engineering (3 Tage)

    Di-Do, 10.-12. Oktober 2023 in Schaffhausen (CH)

    Di-Do, 24.-26. Oktober 2023 in Heilbronn

    Di-Do, 14.-16. November 2023 in Köln


    Infos und Anmeldung: http://www.zehner.ch/seminar11.html

    KI wird in den kommenden Jahren die Art, wie wir arbeiten, radikal verändern. Entsprechende Anwendungen werden geradezu explodieren, zuerst in Form von schwachen, später aber immer mehr auch in der Gestalt von komplexen Anwendungen.


    Wenn ich heute eine Prognose ins Blaue hinaus abgeben müsste, dann würde ich sagen, dass diese theoretisch bereits in sehr wenigen Jahren möglich wären. In der Realität wird es aber wohl eher 10-15 Jahre dauern, bis z.B. die folgenden drei Anwendungen völlig alltäglich sein werden.


    1. System-Einmessungen und virtualisierte Messpositionen
    Ich vertrete schon seit einigen Jahren die These - und habe das auch an Seminaren und Vorträgen eingehender erläutert -, dass die Einmessung eines Systems ohne weiteres von einer KI vorgenommen werden kann. Mit einem sehr viel besseren und konsistenteren Ergebnis, als es selbst der beste und erfahrenste Techniker zustande bringt. Wenn das heute jemand wollte und anfangen würde, liesse sich ein solches System ohne weiteres innerhalb von zwei bis drei Jahren realisieren. Dazu kommt noch ein weiterer KI-Aspekt: in Zukunft werden nur noch sehr wenige Positionen real gemessen werden, vielleicht je nach Fall zwei, drei oder vier- irgendwann nur noch eine einzige oder auch gar keine mehr! Diese realen Daten werden durch beliebig viele virtualisierte Mikrofon-Positionen ergänzt, die durch die KI generiert werden.


    2. Virtualisierte Bühnen-Mikrofone
    Mikrofone wie sie heute genutzt werden sind ein Anachronismus und beruhen auf einem technischen Verständnis, das gefühlt aus der Steinzeit stammt. In Zukunft wird man nur noch sehr wenige - oder vielleicht auch nur ein einziges oder gar keines? - Mikrofon auf einer Bühne nutzen. Die einzelnen Mikrofone, die wir heute einsetzen, werden dann rein virtuell erzeugt. Und zwar in einer Qualität, wie sie heute völlig undenkbar ist - alleine schon dadurch, dass man eine 100%ig Kanaltrennung, ohne jegliches Übersprechen realisieren kann.


    3. Autonomes Mischen
    Die Mischung einer Show beruht letztlich auf einer in ihrem Kern ausgesprochen trivialen Eingangs-Ausgangs-Logik. Diese Vorstellung mag für diejenigen Techniker beschämend sein, die glauben, ihre Arbeit sei knapp unterhalb der Raketentechnik angesiedelt oder doch mindestens so individuell, wie die eigene Persönlichkeit. Dies hält aber einer näheren Betrachtung nicht stand. Was bereits erläutert wurde:


    Ein Mischpult macht aus elektrischen Signalen elektrische Signale. Das ist im Gegensatz zum Auto lächerlich einfach für Machine Learning.


    Um einige weiteren Gegenargumente zu entkräften:


    was wir im realen leben aber machen, ist den mix nicht nur auf die gebotene hallenakustik anzupassen, sondern auch auf tagesformen sowohl der künstler als auch des publikums. es ist nicht immer der selbe mix, den man anbietet. man reagiert auf das umfeld und integriert die angebotenen signale in ein gesamtergebnis.

    Das ist unbestritten richtig. Diese Variationen folgen letztlich aber ebenfalls nur einer recht simplen formalen Logik (auch wenn man das als Mensch natürlich nicht bewusst so wahrnimmt und empfindet). Das Ziel besteht letztlich darin, anhand wechselnder Umgebungsvariablen einen einigermassen konsistenten Output zu generieren. Es gibt keinen Grund, anzunehmen, dass dies nicht auch von einer KI gelernt und repliziert werden kann. KI ist übrigens auch schon richtig gut darin, anhand von verschiedenen Markern Emotionen zu interpretieren; es spricht nichts dagegen, auch solche Variablen einzubeziehen.


    Und vor dem "ich guck dem Profi mal über die Schulter" muss dem Ding erst einmal ein psychoakustisch dem Mensch gleichwertiges Hörempfinden sowie optimalerweise ein paar Basics in Signaltheorie und raumakustischem Vorstellungsvermögen eingepflanzt werden.

    Dem möchte ich vehement widersprechen! Eine selbstmischende KI muss letztlich nichts anderes tun als Antworten auszuspucken wie: "in einem vergleichbaren Kontext, haben in der Vergangenheit 8 von 10 Tontechnikern an diesem und jenem Instrument folgende Kanaleinstellungen vorgenommen". Dazu muss sie weder hören können wie ein Mensch noch irgendwelche physikalischen Gesetzmässigkeiten verstehen. Sie muss nur Korrelationen herstellen und Daten statistisch auswerten.


    Der individuelle Techniker wird kaum mit all diesen Vorschlägen einverstanden sein. Dann überschreibt er sie einfach, das ist der KI völlig egal. Im Idealfall ist so lernfähig und personalisierbar, dass sie sich merkt, wo sie übersteuert wird und kann dies bei zukünftigen Entscheidungen mitberücksichtigen und sich so dem Endergebnis eines individuellen Menschen immer mehr annähern.


    Raumakustik: natürlich kann man auch diese Korrelations-Argumente einfliessen lassen. Es ist dazu noch nicht einmal nötig, dass man der KI eine akustische Messung zuführt, weil sich - wiederum mithilfe von KI und virtualisierten Messmikrofonen - alle akustisch relevanten Parameter schon aus den Kanal-Daten extrahieren lassen, die ohnehin vorhanden sind.


    Zu den Trainingsdaten: Je mehr Erfahrungen ein Tontechniker hat, mit unterschiedlichen Musikstilen, Instrumentierungen, Arrangements, Raum- und Publikumssituationen etc. pp. desto besser. Statistisch gesehen wird es z.B. immer unwahrscheinlicher, dass er plötzlich vor einer Situation steht, die er nicht zumindest in ähnlicher Form schon einmal vor sich hatte.


    In vergleichbarer Weise gilt dies auch für jede Art statistischer Analyse und eine KI macht im wesentlichen nichts anderes: je grösser die Datenbasis ist, desto verlässlicher wird das Ergebnis. Eine KI braucht deshalb EXTREM viele Daten, um in möglichst vielen Fällen einen qualitativ guten Output zu generieren. Gerade weil die KI nicht denkt, muss sie gegenüber einem Menschen ein Vielfaches an Daten zur Verfügung haben, um zu vergleichbar guten Entscheidungen zu kommen.


    Wenn ich Mischpulthersteller wäre, dann würde ich mir deshalb HEUTE überlegen, wie ich in den kommenden Jahren mindestens mal möglichst viele Daten sammeln kann. Das ist verhältnismässig einfach und kostengünstig zu realisieren. Erforderlich ist aber eine längerfristige Vision. Die Wahrscheinlichkeit, dass mal jemand damit anfängt, wird im Laufe der kommenden Jahren sicher auch exponentiell zunehmen. Vielleicht kommt der Impuls dazu auch nicht von einem der etablierten Hersteller, sondern eher von einem externen Start-Up/Spin-Off.


    Grosse Techfirmen haben es ja vorgemacht: man hat frühzeitig erkannt, dass es einen enormen Wettbewerbsvorteil bringt, wenn man anfängt umfangreiche Daten zu sammeln (Experten gehen davon aus, dass der diesbezügliche Vorsprung einer Handvoll Unternehmen heute so gross ist, dass er praktisch nicht mehr aufzuholen ist). Diese Erkenntnis und die daraus folgenden Entscheidungen kamen lange, bevor die Konzerne überhaupt eine Vorstellung davon hatten, WOZU GENAU die Daten dereinst überhaupt verwendet werden sollen.


    Umgekehrt proportional zu den exponentiell ansteigenden KI-Anwendungen in allen Lebensbereichen, werden sich auch die Kosten für solche Applikationen entwickeln. Es ist z.B. nicht nötig, eine "PA-KI-Eigenentwicklung" von Grund auf zu finanzieren, weil man auf bestehende Systeme aufsetzen kann, die zwar vielleicht aus völlig anderen Anwendungsbereichen kommen, aber auf formal ähnlichen Korrelations-Logiken beruhen. Je mehr KI-Anwendungen es gibt, desto grösser wird die Wahrscheinlichkeit, dass es irgendwo ein Modell gibt, dass mit ganz wenigen Anpassung übernommen werden kann. Der Rest der Kosten wird dann wohl über ein Pay-Per-Use/Abo-Modell abgewälzt. Ein Trend, der m.E. auch abseits von KI eine zunehmende Bedeutung erlangen wird, aber das wäre dann ein anderes spannendes Thema.


    bis jetzt sehe ich hier nur gegenargumente, die auch ähnlich damals gegen die digital pulte vorgebracht wurden und die linearrays :)


    Das sehe ich ganz genauso. Das Forum ist voll von kleineren und grösseren Beispielen, die das belegen. Das hat mich schon immer sehr erstaunt: in der Regel waren die Techniken in anderen Bereichen bereits seit Jahrzehnten(!) erfolgreich im Einsatz, bevor dann die PA-Branche auch noch gemeint hat, sie hätte jetzt gerade etwas bahnbrechend Neues entdeckt. Mit KI wird es sich genau gleich verhalten.


    Ich nenne hier nur mal zwei von vielen Beispielen aus dem Audio-Bereich: Hörgeräteakustik und Audio-Forensik. Wenn man sich anschaut, wo da die KI-Reise hingeht, dann müsste es eigentlich offensichtlich sein, dass sich vieles davon mit mehr oder minder grossen Modifikationen auch für komplexe KI-Anwendungen im PA-Bereich nutzen lässt. Es braucht schon einen enormen Tunnelblick und eine gehörige Portion Ignoranz, um das nicht zu sehen.


    Fazit: Dass wir in den kommenden Jahren auch im PA-Bereich eine Explosion von - immer stärkeren - KI-Anwendungen erleben werden, steht für mich völlig ausser Frage. Auf welche Bereiche sich das erstreckt und wann was kommt, wird man sehen. Ich glaube aber, dass zumindest einiges viel schneller gehen wird, als sich das heute noch viele vorstellen können.

    Hallo Mathias


    Ich will Deinen Ausführungen und den Ergebnissen Deiner Hörversuchen nicht grundlegend wiedersprechen. Aber einiges zu bedenken geben (teilweise schon von anderen erwähnt):


    Wenn Du ein Mehrweg-System "phasenlinearisierst", dann veränderst Du damit zwangsläufig immer auch den Amplitudenfrequenzgang und das gesamte räumliche Abstrahlverhalten des Systems im Übernahmebereich.


    Letztlich vergleichst Du also Äpfel mit Birnen. Deshalb ist ein Test, wie von Dir beschreiben zwar interessant aber gänzlich ungeeignet, um eine Aussage darüber zu machen, ob "Phase hörbar ist". Bzw. ist die Schlussfolgerung falsch, dass das was Du als Unterschied wahrnimmst mit dem Phasenverlauf an sich etwas zu tun hat.


    Wie das Ergebnis eines von Dir beschriebenen Tests ausfällt, ist in der Folge auch ganz massgeblich vom Lautsprecher selbst, von der Hördistanz, dem 3D-Winkel der Hörposition relativ zum LS und der involvierten Raumkaustik abhängig. Deshalb können solche "FIR-Spielereien" auch ganz schnell in die Hose gehen, wenn einem die Ohren oder das Mess-System sagen, dass es _an diesem einen Punkt_ zu einer Verbesserung führt.


    Denn letztlich beeinflusst Du die Integrität des 3D-Ballons - und wenn sich der Entwickler was gedacht hat, dann ist wohl eher nicht von einer Verbesserung auszugehen. Es besteht dann die Gefahr von völlig verbogenen Amplitudenfrequenzgängen auf einzelnen Raumachsen, Sprüngen in der frequenzabhängigen Richtcharakteristik und dem Risiko einer massiv höheren Feedbackanfälligkeit. Diese Folgen, lassen sich im Feld gar nicht umfassend überblicken, geschweige denn kontrollieren. Oder anders gesagt: vielleicht MUSS der LS ja zwingend diesen Phasenverlauf haben, um ein anderes, übergeordnetes Ziel zu erreichen, welches Du gar nicht auf dem Schirm hast.

    Solche Versuche habe ich auch schon gemacht. Interessanterweise habe ich beim bearbeiten eines Musiksignals mit 2 oder 3 Allpassfiltern in einem Controller oder DAW, das dann über den Kopfhörer abgespielt wurde, auch deutlich weniger Unterschied wahrgenommen als in den oben beschriebenen Szenarien. Woran das genau liegt habe ich ehrlich gesagt für mich noch nicht begriffen bzw. noch keine belastbare Erklärung gefunden.

    Das ist nicht überraschend und deckt sich ja auch mit anderen Wortmeldungen (mattias bost, F.A.Bi.A.N.). Im Gegensatz zu den Feldversuchen, manipulierst Du hier tatsächlich ausschliesslich die Phase und vergleichst deshalb Äpfel mit Äpfeln. Und da gibt es nunmal nichts zu hören, was praxisrelevant wäre und über Placebo hinausgeht.

    Im Rahmen des grossen Ringversuchs zum Thema Nachhallzeit wurde heute der vierte und letzte Teil veröffentlicht. Hierzu wurden 13 mehr oder weniger bekannte Akustik-Softwares getestet. Am Test beteiligt waren einerseits Programme, die eher im Beschallungsbereich eingesetzt werden (z.B. Systune, Smaart, SATlive) aber auch spezialisierte Elektro-/Raumakustik-Softwares wie EASRA, ARTA, Monkey Forest, Odeon u.a.

    http://www.zehner.ch/lab.html

    OK da Markus Spaß an einer bestimmten Art von Darstellung hat, bitte schön:

    Hihi, diese Logik passt perfekt, denn auch in den digitalen Nachbildungen hilft der Parameter Reverb Time ebenfalls genau garnicht, um vorab zu wissen ob das Teil gut oder komplett Banane klingt. Danke für die charmante Vorlage. :)

    Ich habe es zwar schon mal in #16 geschrieben, wiederhole es aber extra für Dich gerne noch ein letztes Mal in einfach und zusammenfassend:


    Die Nachhallzeit ist EIN Parmater von vielen. Ich sehe niemanden, der behauptet, damit liessen sich das Schallverhalten in einem Raum oder die Qualität eines Gerät vollständig beschreiben. Der Einzige der das herbeizureden und anderen zu unterstellen versucht bist bislang Du.

    Wenn ich eine Impulsantwort mit einem Kugelmikrofon aufnehme, dann ist doch jegliche Information über die Richtung des einfallenden Schalls gelöscht.

    Ich kann mich nicht entsinnen, dass ich geschrieben habe, man solle eine Mono-IR falten. Natürlich ist für eine 2D- oder 3D-Richtungsbestimmung auch eine 2D/3D-Impulsantwort erforderlich.

    Messverfahren, die dieses angemessen berücksichtigen, sind äußerst kompliziert in der Signalauswertung, erfordern besonderes Messequipment (Kunstkopf) und sind weit davon entfernt, irgendwo als Standard etabliert zu werden.

    Binaurale Messverfahren und Messgrössen sind schon seit Jahrzehnten etabliert und standardisiert (z.B. ISO 3382-1). Neuere, komlexere und sehr viel weiter gehende Verfahren sind zwar noch nicht standardisiert, werden aber in der Praxis seit vielen Jahren regelmässig eingesetzt.


    Die Messverfahren sind nicht kompliziert. Sie erfordern allerdings einen _erheblich_ grösseren Zeitaufwand, insbesondere was das Post-Pozessing und die Analyse betrifft, was angesichts der enormen zusätzlichen Datenmenge ja auch nicht weiter erstaunlich ist. Dass diese Verfahren deshalb naturgemäss nicht in jedem Projekt angewandt werden (Stichwort: Budget) versteht sich dann von selbst. Es ist aber auch unabhängig vom Budget in vielen Fällen gar nicht notwendig oder sinnvoll solche Messverfahren einzusetzen. Wenn man sie aber braucht, dann gibt es sie.


    Für binaurale Messungen und die Richtungsbestimmung von Reflexionen sind auch nicht zwingend Kunstköpfe erforderlich. Um nur ein Beispiel zu nennen: man kann die Impulsantworten auch nachträglich mit HRTFs falten.

    Mich fängt das dann wieder an zu interessieren, wenn das, was gemessen wird, nicht mehr "Nachhallzeit" sondern Hallstrukturanalyse heißt, da kann mich Markus gerne weiter beschimpfen.

    Ich habe Dich doch nicht beschimpft. Ich bemängle lediglich, dass Du einen Strohmann aufstellst und dann genüsslich abfackelst, was Du ja auch hier wieder versuchst.


    Ich habe einen Ringversuch durchgeführt, bei dem es darum ging, Unsicherheiten in der Nachhallzeit-Messung zu untersuchen. An keiner Stelle habe ich eine Aussage gemacht, dass die Nachhallzeit alleine geeignet ist, die akustischen Eigenschaften eines Raums zu beschreiben. Darum geht es in diesem Artikel nicht mal am Rande.


    Mir fallen spontan auch recht wenige mir bekannte Akustiker ein, die sich bei der akustischen Beurteilung und Optimierung eines Raums ausschliesslich auf die Nachhallzeit stützen. Offensichtlich hast Du da andere Erfahrungen gemacht, was ich auch gar nicht in Zweifel ziehen will. Dies mag dann zwar Deine plakativ zur Schau gestellten Animositäten erklären. Dennoch sind Deine Pauschalisierungen weder zutreffend noch angebracht.

    guma


    Deine Aussage hat zwar nichts mit dem Thema zu tun, aber danke trotzdem, dass Du uns an Deinen Gedankengängen teilhaben lässt.


    Nach Deiner Begründung misst Du dann sicher auch keine Schalldruckpegel, weil diese nur bedingt einen Zusammenhang mit der Lautheit oder mit dem Schädigungspotential des Gehörs haben. Auch die Messung von Frequenzgängen erübrigt sich dann wohl. Benutzt Du wenigstens gelegentlich ein Thermometer?

    als auch für das Verständnis und die Parametrierung digitaler Nachbildungen.

    Deshalb ist es ja auch völlig unüblich, dass man bei digitalen Nachbildungen einen Parameter im Sinne von "Reverb Time" findet.


    Es gab übrigens schon vor 1975 Leute, welche in der Lage waren, meinen Namen korrekt zu schreiben.

    Wie erwähnt wurde, sind Smaart, Satlive, Systune etc. Tools , die für das Einmessen von Anlagen entwickelt wurden und sie werden deshalb in der Regel nicht von Raumakustikern verwendet. Deshalb hat beim Ringversuch auch nur ein Teilnehmer mit Systune gemessen und die anderen mit Hardware/Programmen, die auf Raumakustik-Messungen ausgerichtet sind.


    Im Rahmen des Versuchs fand allerdings auch ein Test statt, bei dem 13 Softwares verglichen wurden. Darunter auch Smaart, Satlive, Systune, Room Tools. Die Ergebnisse werden im 4. Teil der Artikelserie präsentiert, der aber erst in ca. 2 Monaten veröffentlicht wird.


    Vorher (ca. in 1 Monat) kommt noch Teil 3. Mit diesem wurde untersucht, wodurch die Unterschiede in den Ergebnissen auftreten und welche Einflüsse die Messmetthode, die Anregungssignale, die Schllquelle, unterschiedliche Mikrofone, die Wahl von Quellen- und Messpositionen etc. auf die Ergebnisse haben. Ausserdem wurde der Frage nachgegangen, wie viele Messungen man überhaupt durchführen und mitteln muss, um ein hinreichend genaues Resultat zu erhalten.

    Ein kleiner Tipp: In der Praxis ist es oft schwierig bis an die Grenze zum Unmöglichen, die Absorptionsfläche korrekt abzuschätzen.


    Ein einfaches Vorgehen um eine grobe Abschätzung vorzunehmen:


    a) man misst die Nachhallzeit des Raums. Das kann man häufig ja mit der Software machen, die man ohnehin schon dabei hat, wie die genannten Smaart, SatLive, Systune u.v.a.


    b) Dann stellt man die von paranoize erwähnte Formel T = 0,163 x V / A um und kriegt so raus, wie gross die äquivalente Absorptionsfläche momentan ist.


    c) Jetzt man mit der selben Formel schauen, wie viel zusätzlich Absorptionsfläche man einbringen muss um auf eine gewünschte Soll-Nachhallzeit zu kommen.


    Die Formel(n) sind ja nicht allzu schwierig und man kann sie ganz einfach mit einer Tabellenkalkulation ausführen. Ich würde dafür keine Software-Tools nutzen.


    Das ermöglicht zwar keine super-hohe Genauigkeit, aber mit sehr einfachen Mitteln einen groben Richtwert, der für viele Situationen schon mal weiterhilft und ausreichend ist. Für kleine Räume - z.B. Tonstudios - sollte dieses Verfahren aber besser nicht angewandt werden, da es dann zu ungenau ist und der Fehler nur mit sehr viel Erfahrung abgeschätzt werden kann.


    Wenn man es (sehr viel) präziser haben will, landet man dann tatsächlich bei Tools wie EASE u.ä. Das ist dann aber vom Aufwand und auch vom nötigen Hintergrundwissen her eine ganz andere Nummer.