Phasenfrequenzgang eines Systems, hörbar - Ja / Nein?

  • Hört man unterschiede zwischen "Phase Flat" und heftig bearbeiteter Phase bei der Wiedergabe auf einem guten System/Kopghörer?

    Ich sage aufgrund der über 10 Jahre gemachten Versuche mit eigenen FIRs und seit knapp 15 mit FIRs von Herstellern ganz klar: Man hört es. Was einem besser gefällt steht auf einem anderen Blatt.

  • Ich meinte eher den "ich bin im Homeoffice" Ansatz ein Musikstück unbearbeitet und mit "verdrehter" Phase zu vergleichen.

    Da bin ich nicht ganz sicher. Aber wenn mich kommendes WE die Langeweile packt, mache ich mal den Versuch das einzufangen.

    Prinzipiell bin ich aber eher der in Place A/B Vergleicher.

  • Zitat
    Zitat von floger Muss man beim Beamsteering nicht übe den gesamten Frequenzgan um die selbe Zeit verzögern? Es geht dabei doch um das virtuelle verschieben der einzelnen Lautsprecher.

    Anwort von mathias81

    Auf gar keinen Fall, da handelst du dir Kammfilter vom feinsten ein.

    Ähm,


    elektronsiches Beamsteering versucht eigentlich nix anderes zu machen als das mechanische Verbiegen und damit verbunden Laufzeitunterschiede der Linearrayelemente nachzuahmen. Unterschied zum mechanischen Curven ist, dass die Abstrahlcharakteristik hier nicht genutzt werden kann. Je nach Fequenzbandbreite der einzelnen Lautsprecher zu deren mechanischen Abmessungen kommt es zu "Kammfiltereffekten". Mechanisch wie elektronisch.


    Mal vorweg allgemein: Phase ist eine mathematische Interpretation von Zeit und Frequenz (ich kenne kein Messgerät, das DIREKT die Phase misst, ohne eine indirekt Hilfsgröße). Und nebenbei, Phase ist keine SI-Einheit bzw. abgeleitete SI-Einheit. Wenn über Hörbarkeit geredet wird, dann ist es die Zeit und nicht die Phase. Aus dem Grund versuche ich wenn möglich von "Laufzeitkorrektur" (oder Zeitkorrektur) zu sprechen.


    Kleines Beispiel für "Sinnlosigkeit" von Phasenangaben ohne Frequenzinfo:

    Gigantische 720° Phasendrehung sagt zunächst rein gar nichts.

    Bei 5kHz entsprechen das nur 0,4ms oder 14cm. Ein HT der 14cm später oder früher kommt, den wird glaube ich kaum keiner hören.

    180° für sich bedeutet auch nix.

    Im Tiefton 30Hz entsprechen das aber knappen 6m, da kann man sich schon eher vorstellen, sowas zu hören, dass da was nicht passt.


    Zurück zum Beamsteering:

    Grobe Hutschnur in den meisten Systemen dürfte die Abdeckung eines Weges bei 2,5 Oktaven liegen. An der obersten Frequenz des jeweiligen Bereiches dürfen zum Nachbarelement, um keine übermäßigen Einbrüche zu bekommen, eigentlich nicht viel mehr als Lambda/4 Wegedifferenz vorliegen (alles durch Abstrahlverhalten noch komplizerter). Somit ist es zwar naheliegend hier von 90° statt der Zeit zu sprechen, aber diese 90° entsprechen bei der untersten Frequenz eines Bandes genau der gleichen Zeit, was keine 90° mehr sind, sondern bei 2,5Oktaven nur noch 36°.


    Wenn also elektronisch stärker gesteert werden soll, als es die mechanischen Gegebenheiten des Systems bzw. der Lautsprecherabmessungen hergeben, so kann in engen Grenzen zwar etwas getrickst werden, da die Frequenzen am oberen Endes eines Übertragungsbandes meist eingeschnürter abgestrahlt werden als unten. Um jedoch dem gesamten System ein gleichmäßiges(!) Steering zu geben, ist an der Einhaltung gleicher Laufzeiten am oberen und unteren Endes des jeweiligen Frequenzbandes (jedes einzeln ansteuerbaren Elementes) nicht wirklich vorbeizukommen.


    Zumindest so die Theorie.


    Vlt kann mathias81 aber hier mal reale Laufzeiten eines per beamsteering gefahrenen Systems einstellen. Ich kann mir sehrwohl vorstellen, dass grad in der Anwendung im oberen Frequenzbereich das Abstrahlverhalten dominant genutzt wird und deshalb auf eine entsprechende, übermäßig kammfiltereffekte verursachende Laufzeit verzichtet wird. Da fehlt mir schlicht die Praxis.


    Noch kurz zum Thema Aufzeichnen laufzeitkorrigierter zu unkorrigierten Systemen:

    Am einfachsten zu testen wären Laufzeitauswirkungen z.B. via Kopfhörer, indem ein Quellsingal von Tiefen zu Höhen hin einfach einer zunehmend rollenden Phase rein elektronisch unterzogen wird. Also das Laufzeitverhalten eines Lautsprechersystem nur in Phase nachbilden (ohne störende Hall/Frequenzgangeffekte einer Speaker/Mic-Aufzeichnung). Auch könnte man hier schön Wegedifferenzen ohne Frequenzganggaps generieren, wie sie z.B. bei nicht angepasstem Subsystem zum Linearray passieren.


    Grüße

    Mattias

  • Mal vorweg allgemein: Phase ist eine mathematische Interpretation von Zeit und Frequenz (ich kenne kein Messgerät, das DIREKT die Phase misst, ohne eine indirekt Hilfsgröße). Und nebenbei, Phase ist keine SI-Einheit bzw. abgeleitete SI-Einheit. Wenn über Hörbarkeit geredet wird, dann ist es die Zeit und nicht die Phase. Aus dem Grund versuche ich wenn möglich von "Laufzeitkorrektur" (oder Zeitkorrektur) zu sprechen.

    Nun ja. Die Phase hat keine Einheit (wenn dann Winkelgrad) und wird von der Zeit beeinflusst. Eine zeitlich beeinflusste Größe macht nur bezogen auf eine Referenz Sinn. Das kann eine absolute Referenzzeit (Urknall, Christi Geburt oder Online-Start des PA-Forums) sein, sinnvoll ist aber eher eine situationsabhängige Referenz. Da die Gruppenlaufzeit ja als erste Ableitung der Phase nach der Frequenz definiert ist ( - dPhi/df) könnte man sich da eine Einheit in der Form ln(s) für positive Frequenzen basteln.
    Wenn, dann würde ich von einer Korrektur der Gruppenlaufzeit (bzw. einer Anpassung der Gruppenlaufzeit) sprechen. Da sich an f ja nix ändert, korreliert das mit dem Wert der Phase, daher würde ich beide Bezeichnungen gelten lassen, möchte aber nochmal darum bitten nicht 'Pure Delay' und 'Groupdelay' in einen Topf zu werfen.

    Und Herr Fourier sagt uns, dass eine Änderung der Phase auch eine Auswirkung auf die Impulsantwort hat, und damit durchaus greifbar wird. Über die Hörbarkeit wird ja gerade trefflich diskutiert. Eine Änderung des Pure-Delays hört man z.B. nur im Vergleich zu einem Referenzsignal.

    SIM II Operator and Dante Level I-II-III (alles sogar zweimal :)
    Jugendschwimmabzeichen, Rettungsschwimmabzeichen in Bronze
    Meine kommerziellen Softwareprodukte SATlive und LevelCheck

  • elektronsiches Beamsteering versucht eigentlich nix anderes zu machen als das mechanische Verbiegen und damit verbunden Laufzeitunterschiede der Linearrayelemente nachzuahmen. Unterschied zum mechanischen Curven ist, dass die Abstrahlcharakteristik hier nicht genutzt werden kann. Je nach Fequenzbandbreite der einzelnen Lautsprecher zu deren mechanischen Abmessungen kommt es zu "Kammfiltereffekten". Mechanisch wie elektronisch.

    Das sehe ich ich anders bzw. hängt vom Ansatz ab.

    So ziemlich alle gewinkelten Arrays, oder auch Pointsourcecluster, haben prinzipbedingt das Problem, dass durch die Winkel ein Lowmidbeam entsteht den man, da wo er entsteht, nicht haben will.


    Die Winkel werden, zum unteren Ende des Arrays hin, zwangsweise größer. Die Elemente wandern somit mechanisch nach hinten, erzeugen also Delay und "steeren by Design" einen von der Zeilenlänge abhängigen Frequenzbereich knapp über das unterste Drittel des Arrays bzw. dahin wo dieser Teil des Systems im Venue einschlägt. (V Dosc Manual etwa ab Seite 152 und schon viele hunderte male in der Praxis verifiziert)

    Kurzer Einschub: Werden die Winkel im unteren Teil des Arrays wenig oder kaum größer, also ein recht gerades Array, erfordert der obere Mittelton und HF deutlich mehr an EQing, es entsteht weniger Isolation, also Spielraum für HF Korrekturen mit dem EQ, zwischen einzelnen Elementen und Gruppen. Weiterhin hängt das Array dann zwangsweise recht tief, was sich in der Regel kontraproduktiv auf den Leveldrop zwischen den ersten und den letzten Reihen auswirkt.

    On top werden dazu noch die, aufgrund des geringeren Abstandes zu den ersten Reihen auftretenden, Probleme mit der Wellenkrümmung im HF (Mattias' Stichwort mit Lambda/4) stärker hörbar - man kann sich nun aussuchen welcher Kompromiss einem lieber ist....


    Die ursprünglichen Beamsteeringansätze, die ich ab dem Jahr 2005 kenne und mitbekommen habe, setzen bei diesem eingangs genannten Beam, der zwangsweise durch das für den HF erforderliche Curving entsteht, an und versuchen diesen elektronisch aufzulösen. Das gelingt auch, wenn man weiß was man tut, recht schnell und zufriedenstellend mit der in den vorigen Beiträgen erwähnten Methode.

    Das ganze funktioniert, in einem Array von z.B. 9-12 Elementen, sogar weitgehend problemlos in 2er oder 4er Gruppen innerhalb des Arrays und wenn man ein bisschen nachdenkt, oder bei mir im Seminar war, muss man das nicht mal mehr großartig messen.

    Ich setze die nötigen Allpassfilter mittlerweile in dem Moment ab dem ich die Zeilenlänge kenne und verifiziere das beim Ablaufen einmal kurz mit schalten zwischen bypass und active der Filter.

    Wenn ich nicht gerade etwas für die Verwendung als Lehrmaterial oder für weitergehende Versuche oder Ansätze festhalten will, messe ich das nicht mehr. Beamsteering / spread simplyfied nenne ich das.


    Was heutzutage in den Pommeslautsprechern, die meistens mechanisch nicht gewinkelt sind, gemacht wird, ist ein Beamsteering über das ganze, je nach Zeilenlänge kontrollierbare, Frequenzband.

    Ich persönlich halte das für problematisch und habe das auch noch fast nie in gut gehört. Problematisch weil das, wegen der fehlenden Winkel, nun mit einer ungleich größeren Menge an Allpässen passieren muss, die allesamt den Impuls verschmieren - nun kommen wir wieder zur Phasen / Gruppenlaufzeitkorrektur - Es sei denn, der Hersteller minimiert das Problem durch eine Laufzeitentzerrung / Phasenkorrektur (kann man aus meiner Sicht nennen wie man will) Diese bezahlt er wiederum mit Latenz.

    Ich bleibe dabei, dass man die unkorrigierte Phase / Gruppenlaufzeit hört. Sie steht im mathematischen Zusammenhang mit der, IR wie TomyN das auch schon treffend sagte.

    Das ist meiner Meinung nach der Grund, warum z.B. die ersten EAW Anya Demos meistens mit "Beamsteering funktioniert, das klangliche Endergebnis hat mir aber nicht so gut gefallen, es war ein bisschen untight, verwaschen...usw." kommentiert wurden.

    Ähnliche Aussagen werden oft auch getätigt, wenn man mit den verschiedenen am Markt befindlichen Beamsteeringansätzen einiger Hersteller etwas "übertreibt", was früher oder später in weitläufigeren Phasen / Zeitversätzen und Verschmieren oder Verzerren der IR / Phase / Gruppenlaufzeit endet. Je nach maximaler Latenz des für die Laufzeit / Phasenkorrektur benötigten FIRs, können diese Verzerrungen / Verschmierungen gar nicht, oder nur noch zum Teil, ausgeglichen werden. Noch schlimmer wird es wenn gar keine Korrektur gemacht wird - da sind wir wieder beim Thema, it is audible.


    Das Prinzip ist grundsätzlich das gleiche wie das von mir beschriebene, allerdings muss man mit einer ungewinkelten Zeile, wegen der nun hinzukommenden Bearbeitung des HFs, die Treiber einzeln anfahren um in dem Bereich mit entsprechend kleineren Zeitversätzen arbeiten zu können - also werden im HF auch noch verschiedene Allpässe gesetzt - einfach ausgedrückt.



    Im Grunde habe ich genau das in Post 59 gesagt, ohne das genauer auszuführen. Das sollte aus meiner Sicht Grundlagenwissen eines jeden Systemers sein der es halbwegs ernst meint. Falls nicht gibt es dafür Seminare von MarkusZ, Michael Häck, Merlijn van Veen, Meyersound, sicherlich auch ThomyN in mit seinem Satlivetag online, mir......



    Vlt kann mathias81 aber hier mal reale Laufzeiten eines per beamsteering gefahrenen Systems einstellen. Ich kann mir sehrwohl vorstellen, dass grad in der Anwendung im oberen Frequenzbereich das Abstrahlverhalten dominant genutzt wird und deshalb auf eine entsprechende, übermäßig kammfiltereffekte verursachende Laufzeit verzichtet wird. Da fehlt mir schlicht die Praxis.

    Leider kann ich an der Stelle nicht mit ernsthaft ausgeführten Vergleichsmessungen dienen, da ich dazu übergegangen bin, die in manchen Systemen verfügbaren "Autobeamsteering / Processing Algos" nicht mehr zu benutzen, weil die meistens nur einen bestimmten Frequenzbereich erfassen können (FIR-Latenz) und ich, was "mein System" angeht, ein Kontrollfreak bin. Ich habe das gerne selbst in der Hand bzw. mag grundsätzlich keine Software, die etwas tut und mir nicht erzählt was...


    Was die Pommesstangen PAs angeht kann ich dahingehend leider auch nichts anbieten, weil ich für das Tuning oder deren Benutzung am offenen Markt nicht buchbar bin.

    Ich war, was das angeht zwar schon für manche Hersteller unterwegs (nicht beim Kunden), will aber meinen Namen nicht in Verbindung mit solcherlei Marketingansätzen genannt wissen :)



    Wurde mal wieder ein bisschen länger und sorry für die bestimmt vorhandenen Schachtelsätze


    LG Matze

    3 Mal editiert, zuletzt von mathias81 ()

  • Danke erstmal für dieses interessante Thema👍


    Hier kurz meine Meinung dazu.

    Musik besteht zum Glück nicht nur aus zufällig gewürfelten Sinus Wellen.

    Wenn ich z.B. die Saite einer Acoustic Gitarre anschlage hört man erst den Anschlag mit hohem HF Anteil und dann dauert es etwas bis die Saite eingeschwungenen ist und der Ton entsteht. Zwischen Anschlag und Ton gibt es eine sehr kleine zeitliche Differenz.

    Dieses komplexe Abfolge von Anschlag, Zeit und Ton gekoppelt mit den Lautstärke Verhältnis zueinander macht den Sound einer Acoustic Gitarre den unser Gehirn als solchen gerne wieder erkennt.

    Bei einem einzelnen Instrument mag der Phasengang des Lautsprechersystems noch zu vernachlässigen sein. Aber bei mehreren Instrumenten mit teilweiser Maskierung wird die Zeit ein wichtiger Faktor um das einzelne Instrument als solches wieder zu erkennen und im Mix rauszuhören.

    Meiner Erfahrung nach klingen Lautsprecher Systeme die einen neutralen Phasengang haben transparenter und direkter. Belegen kann ich das aber nicht. Ist halt meine sehr Subjektive Meinung.


    Ganz kurz noch zu den 14cm HT Versatz hört man nicht:

    Ich denke es gibt nur wenige Menschen die sich vor einen Lautsprecher stellen und beim ersten Höreindruck sagen der HT hat einen zeitlichen Versatz von 14cm.

    Die 14cm entsprechen ungefähr dem Abstand zwischen den Ohren 👂

    Jetzt noch kurz drüber nachgedacht wie das mit der Akustischen Ortung bei einem Menschen mit zwei gesunden Ohren funktioniert 😜

    Unser Gehirn Muss zwangsläufig in der Lage sein sehr viel kleinere Wegstrecken Unterschiede zu erkennen. Die 14cm zwischen den Ohren sind ja das Maximum an Differenz.



    Munter bleiben

  • Beim Richtungshören hat das Hirn zwei Signale mit (annähernd) gleichen Spektrum zur Verfügung, beim 'beschleunigten HT' erfolgt der Vergleich zweier Frequenzbereiche.

    SIM II Operator and Dante Level I-II-III (alles sogar zweimal :)
    Jugendschwimmabzeichen, Rettungsschwimmabzeichen in Bronze
    Meine kommerziellen Softwareprodukte SATlive und LevelCheck

  • TomyN

    Deine Aussage ist korrekt.


    Ich höre und lese hin und wieder Aussagen wie z.B. : „14cm HT Versatz hört kein Mensch“

    Diese Aussage ist so nicht ganz korrekt.

    Ich gebe jedem Recht der sagt die Zeit Differenz kann kaum ein Mensch als solche deuten.


    Aber das Ergebnis das ein Lautsprecher wiedergibt wo der HT 14cm zu früh oder zu spät kommt ist ein anderes. Und das kann man auch hören auch wenn der Frequenzgang glatt gebügelt wurde.

    In diesem Fall wird unser Gehirn als Rückmeldung geben: klingt nicht wie das Orginal.


    Ich will damit eigentlich nur Aussagen das Zeit ein wichtiger Faktor ist bei möglichst Naturgetreuer Wiedergabe von Musik und unser Gehör sehr wohl sehr kleine Zeitunterschiede wahrnimmt.

  • Zitat von TomyN

    ... einer Korrektur der Gruppenlaufzeit ...

    Dem kann ich mich anschließen was die hier genannten Aspekte angeht. (In meiner Korrektur der BMS4590/JBL2365 Kombi lag der Fokus auf dem Ausschwingverhalten über der Zeit, was aber alles miteinander verwoben ist).


    Zitat


    Und Herr Fourier sagt uns, dass eine Änderung der Phase ...

    Was einer Änderung der Gruppenlaufzeit entspricht ... (nicht bös gemeint, siehe folgende Betrachtungen)


    Eigentlich ist es thematisch etwas schwierig, hier sprachlich korrekt unterwegs zu sein. Allein schon die Umstand, wie man Zusammenhänge betrachtet, macht es schwierig.


    Zum einen schaut man auf die sogenannte Zeitebene, zum anderen auf die Frequenzebene und muss hier und da zwischen den beiden sprachlich (ver-)mischen.


    Ich bin mehr der Typ "griffige" Größen, zu denen ein Bezug aus dem unmittelbaren "Erleben" möglich ist. Frequenz im Audiobereich, wem sag ich das hier, ist eine wahrnehmbare Größe, Entfernungen kann man "anfassen", Zeiten z.B. auf einem Skope ansehen. Signale als Amplitudenspektrum dürfte uns allen hier auch noch griffig vorkommen.


    Phase, solang es sich um zwei Signale zueinander handelt, das fällt bei mir noch unter "griffig", mit Phase über ganze Spektren oder Wege hinweg, da tue ich mich schwerer. Deshalb wechsel ich gern, wo meiner Ansicht nach sinnvoller, auf "Zeiten". Somit ist manch Geschriebenes nur eine andere Betrachtungsweise, um es vlt etwas eingängiger beschreiben zu können.


    Jedenfalls ist der Gedankenaustausch hier mal richtig gut, haben andere auch schon festgestellt.


    Zitat von Ton Heini


    Ganz kurz noch zu den 14cm HT Versatz hört man nicht:

    Ich denke es gibt nur wenige Menschen die sich vor einen Lautsprecher stellen und beim ersten Höreindruck sagen der HT hat einen zeitlichen Versatz von 14cm.

    Die 14cm entsprechen ungefähr dem Abstand zwischen den Ohren 👂

    Jetzt noch kurz drüber nachgedacht wie das mit der Akustischen Ortung bei einem Menschen mit zwei gesunden Ohren funktioniert 😜

    Unser Gehirn Muss zwangsläufig in der Lage sein sehr viel kleinere Wegstrecken Unterschiede zu erkennen. Die 14cm zwischen den Ohren sind ja das Maximum an Differenz.

    Räumlicher Versatz ist, je nach Entfernung/Winkel, ortbar wenn es sich um gleiche Signale handelt. Bei getrennten Frequenzen wirds ungleich schwieriger. Dicht vor einem Mehrwegesystem wird dies als räumliches Problem vlt hörbar sein, wenn gar ein Winkel Mid zu HT vorliegt, vermutlich noch stärker.


    Dies wird aber nicht hörbar sein, wenn auf z.B. 3m Hördistanz und eng über-/nebeneinander sitzenden Kompenenten ein räumlicher Versatz in der "Tiefe" von 14cm entsteht. (Im BMS4590 kann man das gar elektronisch erzwingen unter Korrektur des Amplitugenganges. Ich spiele ab und zu mit nach hinten versetztem HT-Weg, um mehr "Tiefe" in eine Aufnahme zu bekommen, da muss schon was in der Größe > 1m her. Die Ortung, besser gesagt die räumliche Stabiliät der einzelnen Quellsignale leidet aber damit, was nicht wundert).


    In meinen Beispiel ging es darum klar zu machen, dass Phase eben ohne Frequenz wenig aussagt. Zeiten (Gruppenlaufzeiten) bzw. selbige gar als Distanz sind wesentlich aussagekräftiger.


    Zitat von mathias81


    Im Grunde habe ich genau das in Post 59 gesagt, ohne das genauer auszuführen.

    Post 59 war mir schlicht zu "kategorisch", weil es, da haben wir wieder die andere Betrachtung, doch Zeiten sind, wo am obern und unteren Frequenzbereichsende des zeitverzögernden Gliedes (Allpass) Vorsicht angesagt ist.


    Ich versuche hier nochmal den Step zurück auf die Hörbarkeit von Gruppenlaufzeit/Phasengang, was der ursprüngliche Ansatz des threads hier war/ist.


    Um die Problematik eines Gesamtsystems zunächst möglichst herauszuhalten, bin ich nach wie vor der Ansicht, dass es im ersten Step am einfachsten ist, mittels FIR eine Aufnahme künstlich mit einem Gruppenlaufzeitfehler zu versehen (statt an einem Lautsprechersystem nachzusteuern). Einige FIR-Koeffizientensätze sollten generierbar sein, wie:

    - eine rollende Phase (Gruppenlaufzeit) von Tief zu Hoch in verschiedenen Intensitäten

    - Zeitversätze zwischen einzelnen Frequenzbereichen (Wegen)

    - sowie eine Kombination aus diesen zzgl. rollender Phase.

    (ich hoffe es ist vorstellbar, was ich mit rollender Phase meine)


    Für PC gibts ein paar Programme, die FIR-Filter für die Wiedergabe verdauen (z.B. Equalizer Apo). In die müssen nur die Koeffizienten geladen werden, dann an/aus der Koeffizientensätze. So müsste jeder spielen können.


    Ich muss mal mit meinem FirDesigner spielen, wie ich dem ohne eine zu korrigierende Systemantwort einen bestimmten Phasengang als Zielphasengang aufzwingen kann. Meine Version ist aber noch auf 48kHz Samplerate begrenzt.


    mathias81: Oder kannst du deinen tools ohne viel Zauber FIR-Koeffizientensätze entlocken, die nur die Phase/Gruppenlaufzeit manipulieren? Mag ja sein, dass hier 48kHz Samplerate als zu wenig betrachtet wird.


    Gruß in die Runde

    Mattias

  • Post 59 war mir schlicht zu "kategorisch", weil es, da haben wir wieder die andere Betrachtung, doch Zeiten sind, wo am obern und unteren Frequenzbereichsende des zeitverzögernden Gliedes (Allpass) Vorsicht angesagt ist.

    Das ist meine persönliche Betrachtungsweise in der 90 Grad, auf 100 Hz bezogen 2.5ms sind, auf 1khz 0,25ms und die somit einer Periode bei 4kHz entsprechen, schnelles Beispiel aus der Hüfte. Das kann man in der IR wie auch im Phasenfrequenzgang ablesen. Der Verständnis dafür versuche ich in meinen Seminaren immer wieder über die drei Tage zu schärfen bis das den Teilnehmern aus den Ohren kommt. Wenn diese Zusammenhänge greifbar geworden sind ist auch das matchen vorn verschiedenen Phasenfrequenzgängen, einfachstes rechnen von Lowmidbeamsteerings mit APF kein Problem mehr. Wenn das dann mal sitzt, ist auch der Weg zum FIR Design nicht mehr weit.



    Was das simulieren eines verzerrten oder glatten Phasenfrequenzgangs angeht braucht man nicht einmal einen FIR Designer. Da reichen ein paar Allpassfilter (IIR) schon aus.


    Ich für meinen Teil halte 48kHz in einem sauber gepegelten und geclockten System für absolut ausreichend, biete aber auch oft 96kHz an, wenn es die jeweilige Struktur hergibt. Ich glaube die 48/96/192kHz Diskussion brauchen wir im Netz nicht führen oder zu einem Ergebnis bringen wollen :)


    Am einfachsten ist das so ja, besser hörbar aus von mir bisher nicht greifbar gewordenen Gründen, wenn ein Lautsprecher so bearbeitet wird.


    Das Niveau des Austauschs hier gefällt mir zuweilen auch sehr gut. Neutral und sachlich, so wie man es sich wünscht. Danke hierfür :)


    LG Matze

  • ehrlich gesagt denke ich das nicht, das wird vermutlich an der Aufnahme scheitern. Aber einen kurzen Versuch ist es wert

    Du hattest ja bereits in Beitrag #12 geschrieben, dass du bei dieser Art von Hörtest (Allpass direkt auf Kopfhörer) keinen Unterschied wahrgenommen hast.


    Interessant dürfte in diesem Zusammenhang der Grund für die Hörbarkeit von verschiedenen Gruppenlaufzeiten (in diesem Zusammenhang finde ich den Begriff auch irgendwie passender) sein. Ich hätte dazu mal 2 Theorien auf Lager:


    1) Man hört den direkten Versatz über die Frequenzen von einem Signal. Nehmen wir z.B. ein impulsives Signal wie Snare oder Kick, so ist klar, dass man ab einem irgendeinem Punkt den Versatz wahrnehmen muss (spätestens dann, wenn es zeitlich in den Echobereich übergeht). Ob man auch feine Versätze hört, dürfte vom Signal, der Hörerfahrung und weiteren Eigenschaften des LS abhängen.


    2) Bezieht sich vor allem auf die Beschallungsumgebung:

    Meiner bisherigen Erfahrung/Eindruck nach spielen Lautsprecher mit offensichtlich sehr impulsgetreuer Wiedergabe gerade auch in akustisch schwierigen Umgebungen viel angenehmer und heben sich gegenüber der Raumantwort deutlicher ab. Als besonders eindrucksvoll habe ich diesbezüglich z.B. Kleinbeschallungen mit hochwertigen Studiolautsprechern wahrgenommen.

    Das finde ich auch irgendwie nachvollziehbar - wenn der Lautsprecher das Signal zeitlich "verschmiert", dann ist die Frequenz mit der höchsten Gruppenlaufzeit näher am Beginn des Nachhalls als wenn die Impulsantwort des LS dem Ideal entsprechen würde. Auch wenn der Abstand IM jeweiligen Frequenzbereich gleich bleibt. Im dümmsten Fall erreicht eine Erstreflexion in den hohen Frequenzen den Hörer noch vor dem Direktschall der unteren Oktaven.


    Das würde auch erklären, warum Matze die Korrektur vor allem auf PA-Systemen hört. Gut zu wissen wäre noch, ob sich die Hörbarkeit der Gruppenlaufzeit je nach Umgebung (OpenAir/Halle/Club/Theater) unterschiedlich stark bemerkbar gemacht hat.


    Daher auch mein Ansatz, ein Hörbeispiel mit Rauminformation (in Stereo, optimalerweise mit Druckempfängern und für Kopfhörerwiedergabe mittels Trennkörperstereofonie) aufzuzeichnen - ein Vergleich mit einer Simulation der Gruppenlaufzeiten ohne Raumantwort wäre selbstredend auch recht spannend.

    Freelancer für Audio Beschallung/Recording seit 2003 - Alle Beiträge spiegeln meine persönliche Meinung/Erfahrung als von Herstellern & Vertrieben unabhängiger Tonmensch wieder

  • Du hattest ja bereits in Beitrag #12 geschrieben, dass du bei dieser Art von Hörtest (Allpass direkt auf Kopfhörer) keinen Unterschied wahrgenommen hast.

    Ganz genau, das entspricht auch dem was die Kollegen, die sich hier geäußert haben, auch schon beobachtet bzw. wahrgenommen haben.



    Ich hatte da schon alle möglichen Theorien im Kopf.

    Interessent dabei war, dass die Aha - Effekte in weniger problembehafteten Räumen oder open Air im Schnitt größer waren, was meine Theorien wieder zum Einsturz brachte.

    Open Air ging das, bei dem ein oder anderen verbreiteten und den Technikern bestens bekannten System, soweit das einige gut gebuchte und gesetzte FOH Leute spätestens bei bei Snare und E Gitarre den Kopf in Richtung Driverack wandten und mit recht großen Augen fragten wie das möglichst, dass das System heute so dermaßen aufgeräumt klingt, ins Gesicht springt, tight ist usw...


    Im Zenit in München zum Beispiel drehe ich, wenn ich keine Unmengen an Inputs abholen muss, den Spieß beim Phasematch zwischen Main und Side PA oft um und Betreibe einen der beiden Lakes nicht im Contourmode.

    Dadurch sind Allpässe möglich, beim LM44 netterweise bis BW 0.1, der Mesamode nervt aber halt trotzdem :D

    Hintergedanke ist die glattere Phase, oder das geringere Groupdelay, der Side PA für die Main zu realisieren.

    Was dann passiert ist, dass das Mainsystem mittels IIR basierten Allpässen (19 Stück an der Zahl, mehr kann der LM 44 nicht wenn man noch einen HPF benötigt), Polaritätsumkehr und knapp 1,5ms mehr Grundlaufzeit, die durch die ganzen Alpässe entstehen, auf die Side PA gematched wird, bzw. ihre Phase entzerrt oder Gruppenlaufzeit korrigiert wird, mit der Side PA als Referenz. Üblich wäre der Weg andersrum, aber Ziel war ja auch die Main zu korrigieren.

    Das Ergebnis ist erstmal ein gematchter spatial Crossover, aber auch eine, in dieser akustisch nicht unbedingt schönen Schäpperhölle, tightere usw.... Main PA.

    Allerdings höre ich selbst, im Zenit, den Unterschied am wenigsten von allen Venues die ich so kenne.

    Ein recht kompetenter FOH Mann einer Metalcore Band aus Übersee, der einen verdammt guten Job macht, hat aber auch dort sofort mitbekommen, dass dieses System X dieses mal anders aufspielt als sonst und war davon sehr positiv angetan. Ich war als local Systemer für die ansässige Company am Start und nicht mit dem Kollegen auf Tour, zumindest bis dato nicht.

    Da der Tag recht entspannt und der FOH Mann sehr interessiert war, haben wie uns die Zeit genommen immer den gleichen Mainhang mal mit dem zweiten Weg des LM44 Moduls, der flat war, und mal mit dem ersten Weg, der das genannte Processing inne hatte, zu besaften. Auch da waren die Unterschiede hörbar, allerdings deutlich weniger stark als sonst.

    Um gleich alle Zweifel auszuräumen, es wurde nur die Phase bearbeitet und das nur in den Main L/R Modulen. Diese Module fütterten die Systemamps, die das vom Hersteller vorgesehen Processing bereitstellten, der typische Rock'n'Roll frontend Fall eben. Bei dem A/B vergleich waren alle andern Quellen inkl. Subwoofer, Fills, Side PAs usw. aus.


    Der Grund warum ich das erzähle ist, dass wer das Zenit kennt, nun zumindest die akustische Umgebung erahnen kann. Da reisen ja doch einige Kollegen durch und haben dort schon alle möglichen Systeme gehört.


    Ich habe gerade mal die Messungen der Phasenfrequenzgänge rausgekramt. Siehe Anhang.

    Selbst das bisschen Groupdelay das in diesem Fall aus dem System genommen wird, ist hörbar.


    In Rot: "Main Phase EQed" so nenne ich das nunmal ;) steht für Laufzeitentzerrt / koriegiert

    Und ich weiß auch, dass auf dieser (der roten) Kurve im HF noch 3 APF fehlen, aber die gibt der Lake nicht mehr her. Dass die Phase nicht wunderschön ist weiß ich auch, sie wurde aber auch im üblichen Gewusel innerhalb von 5 Minuten zurechtgeschraubt ;)

    Diese 5 Minuten haben sich aber im Gesamtergebnis schon viele male bezahlt gemacht und der Match zu den Nearfills war so auch ein Kinderspiel.


    In Grün: die originale Phase der Main PA


    In Blau: die Side PA

  • Die Frage hab ich mir auch schon gestellt. Die BBE-Sonic Exciter 'Funktion' würde ja sowas nahelegen. Das wäre eine Aufgabe z.B. für Herrn Professor Kümmel, der könnte das als Diplomarbeit vergeben :)

    SIM II Operator and Dante Level I-II-III (alles sogar zweimal :)
    Jugendschwimmabzeichen, Rettungsschwimmabzeichen in Bronze
    Meine kommerziellen Softwareprodukte SATlive und LevelCheck

  • Danke bis hier für die wirklich geniale Diskussion, gesittet und informativ!


    Als dank meinerseits ein wenig Aufheiterung vom lieben und guten Merlijn van Veen:

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Privater Account mit meiner persönlichen Meinung.

    Sollte es ein Problem mit meiner Neutralität zu einem Thema geben mache ich das im Beitrag kenntlich. :thumbup:

    http://www.noon.ruhr


    Application Support Engineer - HK Audio