Beiträge von mattias bost

    Meine Hörerfahrung mit FIR-Korrektur kann ich leider zum Bereich oberhalb 500Hz kundtun (da aber mit Vergleichsmöglichkeiten, die sonst so nicht gegeben sein werden). Stark vereinfacht: da hörste dir echt nen Wolf was rauszuhören. Kannst eventuell mal hier schauen:

    BMS4590 an JBL2360 (mit FIR-Entzerrrung in Arbeit)

    Den link zur umfassenden Dokumentation findest du am Ende.


    Das heißt aber nicht(!), dass es bei tieferreichenderer Entzerrung nicht doch Vorteile haben könnte.


    Die Frage ist nur, was ist auf FIR und was ist auf eine gute Systemauswahl und Abstimmung zurückzuführen? Eine Aussage dazu wäre möglich, wenn Testszenarien wie bei mir mal mit Zeitkorrektur (Phase) und mal ohne direkt umschaltbarr im Hörvergleich gegeben wären. FIR-Nachbildung von IIR-Filtern mit linearer Phase ist keine große Kunst (bietet sich bei DSPs im System somit an), Fehlerkorrekturen am Frequenz- und vor allem Phasengang von Komponenten schon eher, insbesondere der Gruppenlaufzeiten der Tieftonsysteme (=> zuviel Latenz bei Korrektur).


    Andererseits ist es egal ob FIR oder nicht, entscheident ist letztendlich, ob ein System klang- und performancemäßig zusagt.


    Aus "Murx" macht FIR nichts Brauchbares, auf guten Komponenten mags das i-Tüpfelchen sein. Bei mir verbesserts letzten Endes die räumliche Stabilität, da eingemessene Einzelkomponenten.


    Grüße

    Mattias

    wolferl


    Ich glaub da hast du mich missverstanden, das mit dem Lebenlangen (Nach-) Lernen bezog ich auf mich. Hatte ich mir doch nie Gedanken über den Zusammenhang zwischen Stromangabe und Innenwiderstand eines VU-Meters zu der sich daraus ergebenden Eingangsspannung gemacht.


    Thema "Optimale Gainstruktur2 und wie die erreichbar ist:

    Nebst Übersteuerungfestigkeit spielt der Aspekt möglichst großen SN-Abstandes eine Rolle (in PA nicht so kritisch). Im stillen "Kämmerlein" mit wirkungsgradstarken Systemen verschenkt man am besten nichts, Unnötige "Übersteuerungsreserven" sind da tödlich.


    Im Prinzip ist die Methode der "Full-Scale-Aussteurung" (Spitzenwert mit z.B. Sinus übersteuert nachfolgendes Gerät nicht) auf den Punkt. Nur das ist nicht durch die Bank weg mit Sinus zu erreichen. Vorrangig wenn Frequenzweichen zum Zuge kommen, muss da ein Kompromiss her.


    Angenommen Controller (z.B. 4 Frequenzwege) und nachfolgende Verstärkersysteme sind so angepaßt, dass dort keine Übersteuerung im jeweiligen Kanal entstehen kann, stellt sich die Frage, wie das vorgeschaltete Gerät (z.B. Konsole) mit dem Controller zum Passen gebracht werden kann?


    Szenario 1 wäre, maximal sauberes Sinussignal aus der Konsole steuert EINEN Frequenzzweig im Controller/Verstärkersystem voll aus => Problem, für eine (Voll-) Aussteuerung der verbleibenden 3 Frequenzwege ist keine Reserve drin.


    Szenario 2 wäre, alle 4 Frequenzwege sollen voll ausgesteuert werden, mal kein EQ im Controller angenommen, theoretisch ginge das mit 4 Sinussignalen gleichzeitig, sodaß jeder Frequenzweg vollausgesteuert würde => Problem: u.a. später Übersteuerung in einem Frequenzzweig möglich, wenn nur ein dominantes Signal in diesem Weg vorliegt. Hauptproblem aber, zu kompliziert, mit Eq im Controller nicht praktikabel ...


    Eigentlich bleibt nur die Möglichkeit hier mit Rauschen (Rosa???, jedenfalls kein Weißes) zu arbeiten. Pegelanpassung zwischen Konsole und Controller wäre dabei durchaus mit Sinus (also Full-Scale Konsole sorgt für Full-Scale am Eingang Controller) praktikabel, danach vollausgesteuertes R-Rauchen drauf und internen Gain des Controllers so, dass keiner der Wege clippt (sicherlich geraten dabei nicht alle Wege an Maximum).


    Alles andere in der realen Nutzung müssen dann intern die Limiter/Compressoren abfangen.


    Als kleine Denksportaufgabe darf man sich hier gern mal ausrechnen, was an "Mehrpegel" bei einem 4 Wege Controller am Eingang erforderlich würde, wenn man bei 0dB Gain im Controller jeden Weg vollaussteuern möchte, gegenüber Vollaussteuerung nur eines Weg.


    (Wohl dem, wo es vorm Controller nicht analog ist => SN)


    Und damit geraten wir an die Problematik von Aktivsystemen. Das Problem der recht erheblichen und zugleich notwendigen Pegelreserven müssen diese abfangen (so die teilberechtigte Erwartung). Breitbandbandvolldampf und gleichzeitig auch mal viel zu viel bei nur einem stark dominanten Frequenzbereich. Jeder halbwegs technisch beseelte Mensch zieht da den Pegel höchst selbst runter, aber ...


    Grüße

    Mattias


    p.s.: Der Bereich geräteinternen Headrooms ist noch ein Thema, hier aber eher wenig relevant.

    Das hat mich doch irgendwie gefuchst, was da wie genau definiert ist (und konstruiert ist).


    VU-Meter als Anzeigeinstrument, da ist die englische Version von wikipedia recht präzise und ergibig:

    https://en.wikipedia.org/wiki/VU_meter


    Als in sich "geschlossenes" System mit Anlegen einer externen Wechselspannung mithin fest definiert (notwendige Vorbeschaltung für das Zeigerinstrument anzeigeinstrumentintern). Wie das in Bezug auf den Anwendungsfall, ausschaut in dem das VU-Meter steckt, das ist ggfs, was anderes.


    Da die "originalen" VU-Meter (die bereits ein AC-Signal verdauen) für den Normalanwender preisleich unattraktiv waren (jetzt weiß ich warujm), kamen sehr oft deutlich bezahlbarere schlichte Drehspulinstrumente mit VU-Skala zum Einsatz. Diese mußten jedoch mittels äußerer Vorbeschaltung VU-Charakteristik anerzogen bekommen (und das war in den mir zu Grunde liegenden preissensitiven Anwendungen stets der Fall). Da machte es folglich keinen Sinn, erst auf 1,23Veff zu konstruieren und dann nochmals Pegel auf die Anwendung anzupassen. Das Brett vorm Kopf bekam ich grad erst beim Durchforsten meiner Schaltungsunterlagen weg.


    Fällt unter lebenslanges (Nach-) Lernen (dank des bei aller "harten" Diskussion sachlichen Umganges).


    Grüße

    Mattias





    Zitat

    Bei einem Tonband wird auch nicht die Magnetisierung in nWb durch das VU Mater angezeigt sondern der analoge Eingang.

    Das VU-Meter beim Bandgerät gibt bei 0 dB den Signalpegel an, an dem das Band zu (theoretisch) 100% gesättigt ist. Mit dem Eingangspegel hat das mal gar nichts zu tun.


    Bei einer Sendeendstufe wird ebenfalls gern mit VU-Meter gearbeitet, Dort bedeuten 0dB (VU) dann 100% Modulation.


    Es geht nur darum, dass 0dB (VU) nicht per se irgendeinen Spannungswert darstellen. Ich habe im meinen Berufs- wie Hobbyleben schon einige VU-Meter verbaut und durfte stets mittels Vorschaltung diese an den jeweils geforderten, irgendeinen Arbeitspunkt darstellenden Pegel anpassen (u.a. weil die analogen Anzeigeninstrumente durchaus unterschiedliche eigene Empfindlichkeiten hatten). Und ja, das können auch die +4dBu Studiopegel sein. Das Gegenteil wurde von mir nicht behauptet.


    Zitat

    Diese Genauigkeit wird im Analogen nicht erreicht und vor allem, muss auch nicht, denn da geht es mit positiven Werten weiter, was das Digitale aber nicht hat.

    Im Analogen haben wir keine diskreten "Werte" sondern Spannungen etc. Wenn das zu bearbeitende Signal an der Aussteuerungsgrenze einer Schaltung hängt, geht das da genauso wenig weiter wie im Digitalen. Auch ohne diskretes, zahlenformatbegrenztes Verhalten. Klebt das Signal dort für 50µs am oberen Ende, ist es genauso verzerrt wie im Digitalen.


    Diese Genauigekeit kann im Analogen sehrwohl erreicht werden! Ich kram gern meine Schaltung raus, die es schafft eine 100kHz Sinushalbwelle hinsichtlich deren Spitzenwertes auf Fehler <0,1dB genau anzuzeigen. Im frequenzmäßig niedriger begrenzten Audioband wirds natürlich noch genauer. Ne Mischung aus schnellen Komperatoren und hochimpedanter Spannungsmessung an einer kleinen Kapazität ...


    Zitat

    Und ein Sinussignal hat eben den niedrigsten Crestfaktor und ist deswegen dafür prädestiniert als Mittler zwischen analogen und digitalen Signalen zu fungieren.

    FALSCH! Rechtecksignal hat den geringsten Crestfaktor, und zwar 1 => 0dB!


    Sinus wird schlicht genommen, weil da nur eine Spektrallinie drin ist, und deshalb geringe Frequenzgangeinflüsse aufweist (bei z.B. hochgezogene Höhen wäre Rechteck pegelmäßig fatal), sowie halt als Messsignal eh überall etabliert war.


    Zitat

    Digitale True Peakmeter sind in der Lage, oder sagen wir lieber müssen, den Crest Wert ...

    Peakmeter (egal ob analog oder digital) stellen den Höchstwert eines Signales dar. Crestfaktor ist was total anderes: Ein Verhältnis zwischen Scheitelwert und mittlerer Leistung (wobei die Mittelungskonstante zuvor festzulegen ist).


    Zitat

    Aber es gibt (fast) kein Signal, das einen so hohen Crestfaktor aufweist um eben 0dbVU an zu zeigen aber einen auf -18dbfs eingemessenen digitalen Eingang zu übersteuern.

    Da kommen wir der Sache doch nahe! Da hier und da noch gern die VU-Meter im Studio verwendet werden, müssen nachgeschaltete Geräte ausreichend Reserven haben, um auftretende Spitzen zu verarbeiten.


    Zitat

    Wenn im Digitalen auf ein VU Meter in der Anzeige umgeschaltet wird ist das lediglich eine Simulation.

    Wenn im Digitalem eine Anzeige auf VU Charakteristik(!) umgeschaltet wird, ist das genauso VU wie im Analogen. Legts du, und ich glaube das war ja eines der Ziele, den analogen Augangspegel eines Digitalgerätes bei Sinus von z.B. -18dBFS des Gerätes auf +4dBu, dann ist das für das Ausgangssignal aber sowas von VU. (Geht natrülich auch AD-seitig). Und die 18dB Headroom retten einen (fast) sicher vor Übersteuerungen. VU-Verhalten ist zur Beurteilung der "Lautstärke" durchaus sinnig. Übrigens zeigen nahezu alle digitalen Anzeigen eine Mischung aus Peak und "gemittelten" Verhalten, keine Ahnung, ob die das dem Zeitverhalten(!) der VU-Meter angepaßt haben, könnte ich mir aber vorstellen, da das nunmal gewohnt war/ist.

    Zitat

    Fakt ist, das es darauf hinaus geht und was ich auch immer gesagt habe: ein analoges Signal wird mit einem analogen Meter gemessen und ein digitales Signal mit einem True Peak Meter.

    Wieder so was Verallgemeinertes.


    Ein analoges Signal kann auf verschiedenste Arten gemessen / angezeigt werden. True Peak ist durchaus möglich, Gleichrichtwert (wie bei VU) ebenso wie True RMS, das alles auf voll analoge Weise. Und selbstverständlich das alles auch auf digitalte Weise!


    Fener ist die hier aufgestellte These 0VU = + 4dBu in mehrerlei Hinsicht zu einfach formuliert. Zum einen gilt dies nur für Dauersinus und selbst da ist das nicht allgemein korrekt, Denn:


    0VU ist bei einem Tonbandgerät etwas ganz anderes,

    0VU ist bei einer Sendeendstufe etwas ganz anderes,

    0VU ist in der Studiotechnik (und das lang noch nicht PA!) +4dBu (Dauersinus)

    ...


    Ach ja, weil von Wolferl völlig falsch behauptet


    Zitat

    Ein analoges Meter zeigt RMS und das Digitale True Peak.


    Ein VU-Meter zeigt wie o.g. den Gleichrichtwert eines Signales an, wobei das Zeitverhalten (Ansprechen, Überschwingen ...) festgelegt wurde. Ein analoges (Drehspul-) Instrument nur einen Gleichwert, ein Dreheiseninstrument kann mit Wechselsignalen um, nur die findet man in "unserer" Ecke nicht. Alles andere wird bei "unseren" Drehspulinstrumenten durch die Vorbeschaltung selbiger festgelegt.


    Ein digitales (Audio-) Signal wird nicht per se mit einem True Peak Meter gemessen. Es gibt sehrwohl Anwendungen, wenn z.B. das Gerät bzw. dessen Anzeige VU-Verhalten aufweisen soll (oder RMS, oder oder). Dazu kommt dann noch das gewünschte Zeitverhalten (z.B. Ansprechen, Abklingen, linear, exponentiell ...).

    Zitat

    Und es geht auch nicht nur darum was ein DA Wandler für einen analogen Pegel bei Vollaussteuerung ausgibt sondern auch und vor allem, wie man ein analoges Signal an einem AD Wandler anpasst.



    Ähm? Bisher bei dir irgendwie nicht, Da war doch die (ja sehr berechtigte Problematik!) aufgeworfen, wie bei einem Ausfall der digitalen Signalverbindung auf dem analogen Weg exakt gleicher Ausgangspegel der Endstufen bzw. des PA-Systems sichergestellt werden kann. Da ist nix analog zu AD, naja, ok, im Amp oder Systemcontroller vlt schon, aber bei Analog In geht es um die Anpassung an die Eingangsempfindlichkeit und nicht darum ob dort ein evtl vorhandener AD-Wandler voll ausgesteuert ist.


    Zitat

    Und genau aus dieser Ecke und diesem Hintergrund kommt eben eine der gebräuchlichsten Normen wie 0dbVU entspricht -18dbfs.

    Es taucht doch wieder auf. dBFullScale meint ausschließlich maximal verarbeitbarer Zahlenwert. Meist ist damit die digitale Maximalwertansteuerung des DA-Wandlers (üblicherweise gleichzeitig Maximalwert z.B. AEs/EBU Schnittstelle) gemeint. DSP-intern kann das alles noch ganz anders gehandhabt werden.


    Nun kommt aus dem DA-Wandler je nach Type eine andere Ausgangsspannung raus, nachgeschaltete Impedanz-/Spannungswandlerstufen machen schlicht "irgendetwas". Es gibt da keine Norm für! Es gibt natürlich "Gebräuchliches".


    Analogie dazu:

    Viele Endstufen haben für sogenannte Vollaussteuerung eine Eingangsempfindlichkeit von 775mV (0dBu). Aber je nach Verstärkerleistung kommen dann ganz verschiedene Ausgangsspannungen/-leistungen heraus. Da gibt es auch keinen festen Faktor "0dBu = 26dBW". Um das ganze etwas handhabarer zu machen, hat man sich im Veranstaltungsbereich bei Endstufen mehr oder weniger auf einen festen Spannungsverstärkungsfaktor von z.B. 26 oder 32 dB geeinigt. Je nach Verstärkerleistung muss das dann wieder rückgerechnet werden, um eine Übersteuerung er Endstufe zu vermeiden.


    Also bitte nicht von "Norm" dBFS zu irgendwas sprechen, wenn dann eher von verbreiteten Standard.


    Übrigens: Im von Wolferl höchst selbst in Spiel gebrachten "Sengpiel" steht ebenso in roter dicker Schrift, dass es keinen festen Zusammehang zwischen dBFS und irgendwelchen anderen dBs gibt.

    Einspruch, naja, wir sind hier nicht vor Gericht, sondern mehr bei den harten Fakten.


    Unterschied Effektivwerte bezogen auf Spitzenwer, korrekt, aber zu kurz gesprungen. Die DAUER-Ausgangsleistung eines Amps (insbesondere bei Schaltnetzteilamps) wird durch das Netzteil begrenzt. Und da bricht dann entsprechend die Versogung ein, sodass die maximale Ausgangsspannung ("Spitzenwert") bei Rechteck kleiner ist als bei (Spitzenwert) Sinus. Ausnahme: Last ist hochohmiger und Amp geht nicht an Leistungsgrenze.


    Wird mithin eine Endstufe (Spitzen-) pegelmäßig mit Rechteck genauso hoch angefahen wie mit Sinus, wird deren Gegenkopplung zusammenbrechen (was bei BR für den Treiber recht fatale Folgen haben kann). Ganz zielsicher erkannt deshalb: RMS-Limiter (sollte sich aber nicht nur so nennen) statt Peaklimiter.


    Zitat


    Eine andere Theorie sagt: der Gleichspannungsanteil beim Rechteck ist höher ...

    Die Theorie möcht ich sehen. Der "Erfinder" sollte gleich zum Nobelpreis angemeldet werden, revolutioniert er doch die gesamte Signaltheorie bzw. die Realität. Sinus hat schon mal gar keinen "Gleichspannungsanteil", also "höher" ist weiterer Unfug.


    Der niedrigste vorhandene Frequenzanteil eines Rechtecksignales entspricht dessen "Grundfrequenz". Da ist nix mit "Gleichanteil". Impedanztechnisch greifen nach wie vor die Impedanzen der entsprechenden Frequenzanteile, nicht der DC-Widerstand.


    So nebenbei: Die Grundwelle eines Rechtecksignales ist in deren Spitzenamplitude ca. 25% höher als das "Dach" des Rechtecksignales.


    Ostsee, da wär ich jetzt ja gern, Grüße dorthin

    Mattias

    Also die Sache mit den "bösen" Rechtecksignalen, die erschließt sich mir aus energetischer Sicht nicht (wird aber gern wg. der fürchterlich vielen Oberwellen ins Feld geführt).


    Auf den ersten Blick sehen zwar die Oberwellenanteile schlimm aus, werden aber erfahrungsgemäß nur hinsichtlich der Amplituden betrachtet. Relevant sind aber die Leistungen, und die verhalten sich im Quadrat der Amplituden. Für die 3. Schwingung gilt schonmal, dass deren Leistung nur 1/9 der Grundwelle entspricht, weitere entsprechend,


    Mal angenommen, die Grundfrequenz eines Rechteckes betrage 40Hz und man nimmt alle Oberwellen bis 24kHz mit, so beträgt deren Energiegehalt 23,3% der Grundwellenleistung. Nimmt man den Anteil erst ab der 5. gerechnet sind es nur noch 12,2%, ab der 7. schlappe 8,2% und ab der 9. gar nur noch 6,1%.


    Das Problem sterbender Systeme dürfte da nicht am Rechteck liegen, wohl eher an Dauerstrichleistung.


    Kritisch an einer hoffnunglos überfahrenden Endstufe dürfte eher das Wegbrechen der (elektrischen) Dämpfung sein. Macht die Endstufe voll auf, so entfällt die Regelung des Ausgangssignales und mithin weist die Endstufe damit nur eine ganz geringe Dämpfung auf, was heftige Auslenkungen des Chassis zur Folge hat. Einer über einen Limiter sauber eingepegelten Begrenzung der Endstufe (also nie mehr Ausgangspegel als diese noch innerhalb ihrer Gegenkopplungsgrenzen kann) passiert dieser kritische Zustand nicht.

    Zitat

    Rein theoretisch ist es möglich einen Treiber so zu schützen, dass er bis knapp an seine physikalischen Grenzen betreieben werden kann und sich auch durch den größten DAU nicht zerstören lässt.

    Rein theoretisch muss du dazu aber auch festlegen, wieviele Betriebsstunden der Treiber überleben soll. Wird z.B. permanent an die mechanische Zerstörungsgrenze gefahren, wird das Teil rasant altern. Desgleichen wenn der z.B. intermittierend bis kurz vor thermische Zerstörung genutzt wird, da altert der mit Folge Schluss oder Klebeverbindungsauflösung.


    Für eine bestimmte (hohe) Lebensdauer konzipiert würde tatsächlich einiges an Perfomance flöten gehen. Will man das? Wenn der Nutzer/Käufer damit gleichsam gezwungenermaßen mehr an Material hinstellen würde (o.g. ausreichende Dimensionierung hinsichtlich des Outputs), wäre das ein guter Weg. Nur beim "Hörtest" wird sich so ein Material gegen lautere Konkurrenten nie durchsetzen.


    Messaufwand wäre tatsächlich etwas hoch, es müsste die Schwingspulentemperatur erfasst werden (z.B. über Widerstandsänderung). Allein schon wg des Unterschiedes im Betriebsfeld (Winter zu Hochsommer, Fremdheizung durch Sonneneinstrahlung ...). Auslenkung müsste erfasst werden, falls mal nebeneinander stehende Boxen phaseninvertiert angesteuert würden (z.B. Fehler/Auswirkungen von Cardiodaufstellungen).


    Dazu wäre (um möglichst wenig Perfomanceeinbußen zu haben) eine Integration der Hochbelastungssituationen notwendig. Wird das System über alle Maßen gestresst, werden zunehmend die Lastgrenzen heruntergesetzt. Das System hat damit im Nutzungszyklus zwar eine abnehmende Perfomance, bliebe intakt, würde umgekehrt bei "normalem" Einsatz wenige heftige Lastschübe über den Nutzungszyklus zulassen.


    Einfach idiotensicher ginge sicher einfach, aber nur, wenn nicht annähernd das rauskommt, was ohne rauskommen würde.


    Und ferner: -10dB WAS war eingestellt?


    Gruß

    Mattias

    Hallo,


    ich hole das Thema nach langer Pause wieder einmal hoch, denn zwischenzeitlich ist Stück für Stück eine umfassende Dokumentation zu dem Projekt entstanden. Ist ein recht dicker „Schinken“ geworden, so an die 120 Seiten. Ferner hat das Horn gewechselt, zu guter Letzt ist das enger abstrahlende JBL2365 (60x40°) final in mein System gekommen. Entsprechende Messungen und Begründungen dafür natürlich auch in der Dokumentation. Im Anhang der Dokumentation findet sich ein wenig Zusatzinformation, viele werden das alles kennen, aber für Einsteiger vlt. hilfreich.


    Die Dokumentation macht nur elektronisch gelesen Sinn, da eine Menge Bildschirmkopien dabei sind, ausgedruckt wäre das Augenpulver. Die Doku (knappe 25MB) findet sich hier:


    http://bost.staff.jade-hs.de/V…einer_Hornkombination.pdf


    Ferner wurde der Wunsch an mich herangetragen, etwas zur grundlegenden Funktionsweise von FIR-Filtern zu schreiben. Da die „Teile“ im Grunde gar nicht so kompliziert arbeiten, wie sie gern rein mathematisch dargestellt werden, habe ich versucht FIR-Filter einmal soweit möglich rein funktional, also ohne mathematischen Zauber (Grundrechenarten aber vorausgesetzt) zu „erklären“. Das hat sich, auch wegen des Wunsches nach Beispielen verschiedener Filterauslegungen, ebenso leicht ausgewachsen, ca. 90 Seiten (aber viele Bildschirmkopien). Zu finden ist das ca. 7,5MB starke Dokument hier:


    http://bost.staff.jade-hs.de/V…_funktional_verstehen.pdf


    Anregungen, Korrekturvorschläge, gern auch wegen restlicher Schreibfehler etc. sind erwünscht (das vlt per PN). Ich wollte nun nur endlich den Deckel etwas schließen, damit überhaupt ein Ende in Sicht kommt.


    Viel Spass damit, Grüße

    Mattias

    Naja,


    mal angenommen, der Magnet verliert nicht nennenswert an Feldstärke, wesentliche Änderung sei die weich werdende Aufhängung und die möge sage und schreibe 50% ihrer Federsteifigkeit verloren haben. Was sind die Folgen?


    - die Resonanzfrequenz f(alt) fällt auf das 0,707 Fache der ursprünglichen Resonanz f(neu)

    - das äquivalente Luftvolumen steigt gleichzeitig um 100% => Vas(alt) = 2xVas(neu)

    - der Wirkunggrad geht im Kubikverhältnis (f(alt) zu f(neu)) * (Vas(alt) zu Vas(neu)) ein

    => 0,3533 * 2 = 0,707, der gealterte Speaker hat also 3dB weniger Wirkungsgrad als der neue


    Bei der Güte wird nicht die Welt passieren, wird diese doch durch elektrische Güte dominiert (die GegenEMK des Antriebs in Verbindung mit der bewegten Masse).


    In Verbindung mit einem Gehäuse haben die Parameter den Effekt, dass das Gehäuse zu klein wird (Vas vergrößert sich ja) und die Abstimmung (meist ja BR-Dosen) dazu der gefallenen Resonazfrequenz nicht Rechnung trägt. Die Simu schmeißt mir dazu (zuvor optimal abgestimmt) eine Pegelüberhöhung im Frequenzgang oberhalb der Abstimmreso raus (mit mehr Pegel als zuvor), ca. eine Oktave oberhalb Abstimmreso dann mit weniger Pegel (hier greift der altersbedingte Wirkungsgradverlust). Nennenswerte Änderungen im Hub ergeben sich nicht, dito Sprungantwort.


    Somit zurück zum einleitenden "Naja". Labbriger Sound wegen gealterter Aufhängung? Hmm, sollte da wieder das Wissen um das "weichgekloppfte" Chassis den Höreindruck hervorrufen?


    Oder verursacht schlicht der geringere Pegel im "Oberbassbereich" den EIndruck des labbrigen Sounds, weil die "knackigen" Anteile (u.a. die man auf Bauch/Brustbein spürt) mit 3dB fehlen? Zumal dazu weiter unten im Bereich der Abstimmreso nichts fehlt (was man so evtl gar nicht erwartet hätte).


    Grüße

    Mattias

    Staun,


    heute gehts (wieder), ohne dass ich was gemacht habe (nix updates oder so). Egal, Hauptsache funzt.


    Bilder lege ich ungern woanders ab, als da, wo ich vollen Zugriff drauf habe. "Mein" Server macht schlichtes ftp, Namensanmeldung brauchte ich bisher nicht, soll auch nicht (ah, da war irgendwo was falsch, wenn eine namentliche Anmeldung erfordert wurde). Ich vermute jetzt fast, dass in unserem Hause das Problem gewesen sein wird.


    Gruß

    Mattias

    Hallo,


    bekomme in meinem alten thread

    BMS4590 an JBL2360 (mit FIR-Entzerrrung in Arbeit)

    die eingebetteten Bilder nicht mehr zu sehen (firefox). Gehe ich auf "Bearbeiten" sind diese wieder da, bei Vorschau wieder weg. Wollte demächst mal neue "Erkenntnisse" mit dem engeren JBL2365 darstellen, macht nur Sinn, wenn das Alte wieder sichtbar ist.


    Wie muss ich das Alte überarbeiten bzw, ist bei der Konvertierung des Forums vlt nur was schiefgelaufen?


    Gruß

    Mattias

    Hi,


    die Diskussion hatten wir schon mal (wie mancher bemerkte), kann mir nicht verkneifen, trotzdem ein paar Worte los zu werden.


    In der Akustik haben wir es mit Wellenausbreitung zu tun, da spielen die Strahlungswiderstände eine entscheidende Rolle. Das verhält sich funktional so wie in der Sende-Technik bzw Antenntechnik, davon hat der ein oder andere schon mal den Begriff der Leistungsanpassung gehört, sprich Quellenimpedanz muss gleich der Feldimpedanz sein.


    Nun sind die Berechnungen zur Strahlungsimpedanz eines Lautsprechers nicht so ganz einfach, aber bemerkenswert ist hierbei, dass genau zu dem angesprochenen Problem, Halbierung des Raumes, in der Literatur gern das Beispiel der Spiegelquelle herangezogen wird. Denn für den abstrahlenden Lautsprecher (bei Abstand einiges kleiner als Lambda/2 zu Spiegelquelle oder Boden) ist es egal, ob dieser durch einen zweiten Lautsprecher eine stärkere akustiche "Belastung" sieht oder durch eine schallharte Trennung. Für den abstrahlenden Lautsprecher ist dies nicht unterscheidbar.


    In der Literatur wird nun ganz "einfach" berechnet, dass sich durch die zweite Quelle der Strahlungswiderstand verringert (die Strahlungsimpedanz eines Lautsprechers ist deutlich höher als die der Luft), was zu einer Halbierung des Strahlungswiderstandes des abstrahlenden Lautsprechers führt, wenn dieser die besagte schallharte Spiegelfläche als Raumhalbierung sieht (sozusagen weil der abgestrahlte Schall zurückkommt und als zusätzliche Last auf die Membran wirkt).


    Jetzt braucht man nur noch als funktionales Ersatzschalbild (belasteter Spannungsteiler) über Quelle mit Innenwiderstand (Strahlungsimpedanz des Lautsprechers) und Feldimpedanz gehen, die "Spannungen" berechnen und würde feststellen, dass bei Halbierung der Strahlungsimpedanz damit an der Feldimpedanz die (fast) doppelte Spannung anliegt und mithin die 4fache Leistung ins Feld eingekoppelt wird. => +6dB


    Wobei mir die vorab bereits gelieferten bildhafteren Beschreibungen sehr gut gefallen, da brauchts keine große Mathematik (die ja letzten Endes auch nur die realen Verhältnisse beschreibt).


    Nebenbei: Wirkungsgrade > 50% sind nicht drin, weil wir halt mit Wellenabstrahlung zu tun haben.


    Noch eine Denkfeld: Die Zunahme des Pegels/Wirkungsgrades bei Erhöhung der Lautsprecheranzahl. Da machen es einem die mehr oder minder bekannten Formeln für den Wirkungsgrad schwer. Setzt man in diese extreme, wenn auch unrealistische Werte ein, kann man schnell über 100% Wirkungsgrad kommen.


    Dazu habe ich mir ein Denkmodell erstellt, das darauf beruht, dass ein Lautsprecher im generatorischen Betrieb (also bedämpft an einer Endstufe oder als Modell schlicht im Kurzschluss) dem akustischen Feld Energie entzieht (was definitiv der Fall ist). Hierbei habe ich angenommen, dass dies mit gleichem "Wirkungsgrad" geschieht, wie der Lautsprecher auch abstrahlen würde. Zum einen hat dies den "Vorteil" dass sich durch Erhöhung der Lautsprecheranzahl nie ein Wirkungsgrad >50% einstellt, zum anderen passte dies zu manchen Angaben einiger Hersteller (Stacken). Letzteres aber mit großer Vorsicht zu genießen, denn die Abmaße in der Realität gehen dabei schon mal an Lambda/2 und größer heran.


    Grüße

    Mattias


    Achtung, nachträgliche Korrektur!


    Hab (mal wieder) Real- und Imaginärteil der Strahlungsimpedanz des LS durcheinander gewürfelt. Strahlungswiderstand (Realteil, der macht den "Druck") sinkt nicht mit Verdoppelung, sondern der sehr hohe Imaginärteil (der nur "Wind" macht). Der Strahlungswiderstand steigt mit Zunahme der Fläche. Streng gelesen also richtiger Bockmist.


    Vielmals sorry und danke fürs "Nichtverhauen" hier im Forum.

    Hallo,


    ich will nochmal ein Lebenszeichen zu dem Projekt geben. Zwischenzeitlich wurde einiges gehört, verschiedene Presets getestet und es zeichnet sich ein doch etwas unerwartetes Klangergebnis ab.


    Messtechnisch konnte der Kombination durchaus auf die Sprünge geholfen werden, hörtechnisch gibt es natürlich Auswirkungen, aber nicht so wie erwartet. Um gleich auf den Punkt zu kommen: Ich (und nicht nur ich) tue mich sehr schwer, einen Unterschied zwischen reiner Frequenzgangkorrekur und selbiger mit Phasenkorrektur (sprich Berücksichtigung des Zeitverhaltens) herauszuhören. Einen Blindtest würde ich vermutlich nicht bestehen.


    Also: Obwohl im Ausklingspektrum deutliche Verbesserungen mit Berücksichtigung des Zeitverhaltens (Phasenkorrektur minimalphasig oder auch linearphasig) vorliegen, gegenüber reiner Frequenzgangkorrektur, ganz schwierig herauszuhören. Die "Austastpause" von ca 3s beim Umschalten der Presets im openDRC (dem FIR-Controller) ist so groß, daß hier nix Markantes mehr zum Tragen kommt.


    Anders formuliert, manchmal findet sich die Aussage, daß mit FIR-Entzerrung "die Sonne aufgeht", ja mag sein, das ist aber definitiv der Korrekturauswirkung auf den Frequenzgang zuzuschreiben und nicht einer Verbesserung des Ausklingspektrums. Gültig sofern ich hier postulieren darf, daß grad bei einem etwas wüsten Ausschwingspektrum Verbesserungen eher hörbar sein sollten. Den Diskurs der "Hörbarkeit" von Phase möchte ich hier nicht anfassen, da nur über den zeitlich dicht beieinanderliegenden Mittel-/Hochtonbereich korrigiert wurde.


    Eher merkt man die Genauigkeit der Frequenzgangkorrektur, sprich mehr oder weniger geglättet. Klanglich wirkt sich die logischerweise in mal mehr oder weniger Höhen/Mitten aus, je nachdem, was im Quellmaterial zu den dann vorliegenden Abweichungen gegeben ist.


    Eine merkliche Verbesserung gabs aber schon, die (frequenzgangtechnisch) nicht ganz gleichen Hornkombis bieten mit FIR-Entzerrung (man könnte auch sagen präziserer Entzerrung) ein ruhigeres Stereobild. Geringe Glättungen der Korrekturkurve mit 1/12 Oktav (bis 1/48 hinunter) bringen einiges, Glättungen stärker 1/3 Oktav lassen es wieder leicht unruhiger werden.


    Was folgt daraus: Eine minimalsphasige Korrektur im MT/HT sehe ich als vollkommen ausreichend an, messtechnisch ergibt dies erhebliche Vorteile, klanglich zur reiner Frequenzgangkorrektur bestenfalls marginale Vorteile. Linearphasigkeit ist hier definitv "witzlos". Somit können FIR-Filter sehr sehr kurzer Latenz realisiert werden, und zwar mit wenigen Samples, vorausgesetzt man versteht sich auf geschickten Umgang bei der "Koeffizientengenerierung".


    Viele Grüße

    Mattias


    p.s.: Bin mit FirDesigner ausgesprochen zufrieden, das tool kann alles nur irgendwie Erdenkliche, was für eine FIR-Entzerrung (auch weniger sinnvoll) benötigt wird. Das beste ist die Mittelungsfunktion über mehrere Messpunkte.

    Aha,


    deshalb kommt bei mir nix wieder. Wg SSD hab ich kein Cache freigegeben, damit nützt mir auch eine Ausnahmebehandlung für paforum cookies nix. Hmm... Ferner war es ganz nett, sogar verschiedene Entwürfe für eine Antwort speichern zu können, das war echter Luxus und zwecks Test für Reihenfolge bei Erklärungen recht hilfreich.


    Die Welt geht deshalb aber nicht unter. Grüße

    Mattias

    Gibt's noch die Möglichkeit beim Schreiben eines Beitrages diesen als Entwurf zu speichern? Grad wenns etwas längere werden, war dies sehr hilfreich, weil dann nicht in einem Stück durchzuschreiben war. Und mit copy-paste in andere Programme gabs stets neue Zeilenumbrüche.


    Gruß

    Mattias

    Hallo in die Runde,


    mal wieder ein Lebenszeichen von mir. Zwischendrin war einiges zu überprüfen, weil sich z.T. unplausible Messdaten ergaben, z.B. zu starke Abhängigkeit des korrigierten Systems zur Entfernung Mikro/Horn. Bereits 2cm Entfernungsänderung führte zu einer deutlichen Verringerung der Ausschwingbedämpfung des Systems, was in einer Messentfernung von guten 3m nicht sein sollte.


    Also galt es den Messraum bzw. die Anordnung darin zu prüfen. Zu den Schallabsorbern konnte ich keine Unterlagen finden, die den Absorptions-/ Reflektionsgrad oberhalb 400Hz in einer Kurve wiedergaben, sicher war lediglich, dass der Reflektionsgrad unter 0,1 lag.


    Darum zunächst die Frequenzgänge ohne jede Korrektur in Messabständen von 1m, 1,4m, 2m, 2,5m und 3,16m (von oben nach unten). Die unteren beiden Kurven sind verschiedene Anordnungen im Messraum für 3,16m, Mikro einmal mittig ca 40cm vor Absorbern (für große Abstände muß ich dahin) und einmal Mikro in Raumecke. Hier sind recht starke Einflüsse auf den Frequenzgang bis hinauf zu 4kHz zu sehen.


    Ferner fällt sehr deutlich auf, dass im Bereich < 600Hz ein übermäßiger Abfall von 2,5m Distanz zu 3,16m stattfindet. Als Entfernungsauswirkung unplausibel, da die anderen das übliche Verhalten zu 1/r aufweisen (kein Nahfeldeffekt). Hier wird der Raum in Sachen Dämpfung bei Messung dicht vor den Absorbern einen sehr starken Einfluß haben.


    Die übrigen Verläufe sehen gut aus, passen relativ gut zu den Entfernungsänderungen. Es läßt sich rückrechnen, dass das akustische Zentrum ca 30-40cm tiefer im Horn liegen muß als die vordere „gerade Kante“ des Horns. Als akustisches Zentrum (pegelbezogen) kristallisiert sich ungefähr der Diffraktionsspalt heraus.

    Bild: Frequenzgänge unter verschiedenen Abständen



    Entscheidend, wenngleich auch etwas verdeckt, die beiden 2m Messungen in der Mitte. Hier ist ein geringer Unterschied zu erkennen (Mikroposition war zwischenzeitlich geändert), der aber so groß ist, dass es bei FIR-Korrekturen zu „Fehlern“ kommen muß, welche später im Bereich -40dB gegenüber Startzeitpunkt des Abklingens durchschlagen. U.a. folgte daraus zwingend die Notwendigkeit, über mehrere Winkelpositionen hinweg eine mittlere Korrektur anzustreben bzw. ein mittleres Verhalten des Horn zu identifizieren. Als Messpositionen legte ich folgende Winkel fest:


    Horizontal: -10° ,-5° ,0° , +5° , +10° und diese jeweils unter vertikal -5° , 0° , +5° , alle in ca 2m Distanz.


    Ferner warf sich gleich ein Problem auf: Mit welchem Programm mitteln (z.B. mit Excel)? Da der Umgang mit FilterHose und dem dort ständigen Rückspringen an den Eingabeanfang zu kompliziert wurde, kam nun noch FIR-Designer ins Haus. FIR-Designer hat zu den umfangreichen FIR-Filterfunktionalitäten eine Mittelungsfunktion (mit ggf einzelnen Gewichtungsfaktoren) und kann nach verschiedenen Verfahren mitteln. Gewählt wurde Magnitude mit min. Phase + excess Phase.


    Die Möglichkeit der Gewichtung wurde genutzt, die Messpunkte auf und dicht an der Nullachse fanden eine stärkere Berücksichtigung als die weiter entfernten. Die Mittelung der insgesamt 15 Messpunkte führte als „Abfallprodukt“ zu einer merklichen Glättung des Frequenz- und Phasenganges.


    Anhand des „durchschnittlichen“ Wiedergabeverhaltens wurden zunächst zwei FIR-Filtersätze generiert, einer der nur die Amplitude berücksichtigt (und als Referenz dienen soll) und einer der Amplitude und Phase, sprich das zeitliche Verhalten mit berücksichtigt. Die Amplitude wurde im Bereich 440Hz bis 15kHz korrigiert und die Phase 440Hz bis 24kHz.


    Zunächst die Amplitudenkorrektur:


    Um einen möglichst glatten Übergang von nicht korrigiertem (Bereich bis 440Hz mit v=0dB) zu korrigiertem Bereich in der Amplitudenkorrektur zu erreichen, wurde der „Referenzpunkt“ für die Amplitude so gewählt, dass an der Startfrequenz der Filterkorrektur für die Amplitude (im Filtersatz) kein Pegelsprung entsteht. Dies ist mittels des rechten Schiebers für „Gain“ äußerst elegant kontrollierbar.


    Nun wurde etwas getrickst, um auch für die Phasenkorrektur elegantere Einsatzbedingungen zu gewährleisten.



    Es wurde nicht auf Impulsmaximum zum Zeitpunkt Sample 0 optimiert, sondern das Impulsmaximum des Lautsprecherimpulses etwas nach hinten verschoben, um an der Startfrequenz der Filterkorrektur keinen Phasensprung (im Filtersatz) zu bekommen. Zielphase sollte Null sein, also wurde der Eingangsimpuls so weit verschoben, dass an der Startfrequenz der Korrektur die Eingangsphase ebenfalls 0 betrug.



    Der Trick des Verschiebens des Lautsprecherimpulses bietet sich an, um einen ruhigeren Verlauf der Korrektur außerhalb des Korrekturbereiches zu erhalten. Insbesondere bei geringen angestrebten Latenzen (also keine 2048 Taps wie bei mir im Test) sondern z.B. 512 oder gar nur 256 bietet dies einen glatten Frequenzgang unterhalb der Korrektureinsatzfrequenz, hier beispielhaft mir Latenz von nur 256 Taps (5ms):



    Im unteren Fenster ist der Frequenzgang des Filters zu erkennen. Hier ist eine hohe Auflösung von 4096 Taps mit geringer Latenz 256 Taps kombiniert.


    Jedoch ist dies Verfahren mit Vorsicht zu nutzen. Denn das Verschieben des Eingangspulses führt zu einem zeitlichen Auseinanderdriften von korrigiertem zu nicht korrigiertem Frequenzbereich. Und zwar ist der nicht bearbeitete Frequenzbereich um den Faktor 2x Anzahl verschobener Taps (dem entsprechenden Zeitäquivalent) dem bearbeiteten nachgelagert. Dass dies geschieht ist nachvollziehbar, jedoch erschließt sich mir nicht die Zeitverdoppelung.
    Nachtrag: Da mir die Verschiebung mit dem Faktor 2 schlicht unerklärlich war, habe ich nochmal ein Setup erstellt und nachgemessen (und nicht nur in die Simu geschaut). Die Zeitdifferenz beträgt nur die der Sampleverschiebung. Arbeite ich in der Simu mit wenigen Koeffizienten (um eine brauchbare Auflösung in der Darstellung zu haben), so bestätigt sich dies ebenso.


    So, nun aber endlich zu dem, was unter Korrektur aus dem Horn herauskommt und wieviel Verbesserung erreichbar ist. Eine kleine Änderung vorweg, diese Messungen wurden mit zusätzlichem HP im Mitteltonbereich von 419Hz / 24db But durchgeführt (also nicht wie die alten ohne jedes Filter zu Tiefen hin). Ich wollte mittesten, inwieweit die untere Grenzfrequenz für den Mittenbereich Probleme macht. Faktisch hat dies aber auf das Ausschwingen keine Wirkung gezeigt.


    Zunächst als Referenz, das nur in Amplitudengang korrigierte Abklingspektrum:



    Bild 1a: 0° , 2m, FIR-Koeffizienten (nur Amplitude) aus gemittelten und gewichteten Messungen generiert


    Und hier unter Berücksichtigung des Zeitverhaltens:



    Bild 1b: 0° , 2m, FIR-Koeffizienten (Amplitude + Phase) aus gemittelten und gewichteten Messungen generiert



    Nicht so perfekt wie die Korrektur nur aus Daten aus 0° , aber durchaus eine deutliche Verbesserung.


    Interessanter wird es nun, wie es unter anderen Winkeln aussieht, denn da schwächelte die bisherige Korrektur, bei der nur Daten aus einem einzigen Messpunkt als Berechnungsgrundlage herangenommen wurden. Es folgen nun immer Messpaare, ein Bild nur mir Amplitudenkorrektur und danach eins mit zusätzlicher Phasenberücksichtigung.



    Bild 2a: 5° , nur Amplitude korrigiert



    Bild 2b: 5° Amplitude und Phase korrigiert




    Bild 3a: 10° , nur Amplitude korrigiert




    Bild 3b: 10° Amplitude und Phase korrigiert



    Bild 4a: 20° , nur Amplitude korrigiert




    Bild 4b: 20° Amplitude und Phase korrigiert



    Bild 5a: 30° , nur Amplitude korrigiert




    Bild 5b: 30° Amplitude und Phase korrigiert



    Genug der Bilder.

    Untersucht wurde, ob eine weitere Glättung der Frequenz-/Phasengänge z.B. 1/24 oder 1/48 Oktav Verbesserungen boten, dies war nicht der Fall. Die „gröbere“ Glättung mir 1/24 Oktav führt zu schlechteren Ergebnissen, weil teilweise ein schlechteres Verhalten als reine Amplitudenkorrektur zu Tage tritt. Die Glättung mit 1/48 Oktav wäre noch verwertbar, teilweise etwas besser als ohne Glättung, teilweise etwas schlechter.


    Es folgte eine kurze Prüfung auf Verhalten in andern Abständen, dies war nun aber unauffällig.


    Derzeitiger Wissenstand (oder Statistik auf der Menge 1): So problematische Eigenschaften wie bei diesem großen Horn sind nicht mittels eines Messpunktes und einer anschließenden Glättung zu verbessern. Es bedarf mehrerer Messpunkte und einer Überführung in ein „typisches“ Grundverhalten. Damit kann einiges gewonnen werden, ohne zu Verschlechterungen in Randbereichen zu kommen.


    Allgemein sei gesagt, würde im Burst-Decay nur ein Bereich von 30dB dargestellt werden, sähe das alles sehr gut aus und einiges besser als ohne Korrektur. Hier verschwänden die meisten Reflektionen unterhalb der -30dB Schwelle und es wäre das zügigere Ausschwingen leichter zu erkennen. Aber ich wollte bewußt zeigen, dass da "unten" noch was passiert.


    Gehört ist nach wie vor nix (rechtes Horn ist noch nicht gemessen), ferner mache ich noch an einem Schmankerl rum, welches die Trennung zwischen Mid-Bass und dem Horn weichenseitig berücksichtigen soll. Erste Test sind vielversprechend, dazu kommt noch was. Ob das aber akustisch Vorteile bringen wird, derzeit unklar.


    Grüße
    Mattias

    Hallo Benjamin,


    das 2360 habe gleich zu Anfang mit dem 2445 gemessen (die waren als "Ballast" beim Kauf dabei). 10kHz Einbruch, definitiv Horn, ist beim 2445 Treiber identisch (hält sich mit dem sogar in größeren Winkeln). Beim BMS verschwindet der Einbruch zu größeren Winkeln hin teilweise stark, taucht später wieder auf.


    Aus dem Forum Aktives-Hoeren (habs da derweil etwas mehr am Leben), will hier möglichst nur harte Ergebnisse posten, da gabs einige Tipps/Vermutungen, die ich zumindest dank wenig Aufwand prüfen konnte. Kantenreflektionen sinds nicht, Bearbeitung der Kanten z.B. mit Isolationsschläuchen für Warmwasserrohre bringt nur ganz wenig, führt zu gewissen Änderungen der Einbrüche (schwächt z.B. 10kHz, bei 7kHz kommts dafür hoch). Erinnert an EMV-Bereinigung, da gibts den geflügelten Spruch: Die Abstrahlenergie bekommt man nicht weg, man kann sie spektral nur anders verteilen.


    Ferner ist, wie zu erwarten, die ganze Sache vertikal sensibler als horizontal. Ich lehn mich da mal etwa aus dem Fenster, das wundert nicht, denn quer zu einem Schlitz (Übergang Diffraktionsspalt) ist die Abstrahlung bzw das "Zeitverhalten" nunmal gleichmäßiger als längs dazu. Kennen wir alle in größerem Maßstab vom LA.


    Bin in Sachen frequenzbeschnittener FIR-Filterung auf Schmutzeffekte in Sachen Laufzeit bearbeiteter Bereich zu unbearbeiteten gestoßen. Wenn ich zeitglich trickse, um die Phase bei Korrektur-Einsatzfrequenz vorab durch Verschiebung des Speaker-Pulses auf 0° zu zwingen (also Impulsmaximum nicht auf Sample 0 gelegt sondern später), dann durchläuft der bearbeitete Frequenzbereich VOR dem unbearbeiteten das Filter. Gibt dann schöne Doppelpulse und übelste breite Einbrüche im Burst-Decay. Alles das ist "logisch", der ganze Spaß wird zunehmend komplexer (aber man lernt richtig dazu).


    Einen inzwischen echten Software-Tipp für FIR-Filterprogramme habe ich:
    FIR-DESIGNER von eclipseaudio


    Ich spiele nebenbei zur Kontrolle damit, massiv besser zu bedienen als FilterHose, viel anschaulicher, jederzeit alles verstellbar ohne von vorn anfangen zu müssen, beliebig definierbare Bereiche mit verschieden zuweisbaren Glättungen ... UND: Jetzt mit Frequenzantwort des Speakers mit FIR-Satz unter Berücksichtigung der Taptiefe und Latenz. Ferner Ausgangsimpuls Speaker mit FIR (da sieht man auch die o.g. Problematik des Doppelpulses). Kostet nur die Hälfte von FilterHose => preisWERTER.


    Bin kurz davor nochmal zu investieren, denn dann könnte ich bereichsunterschiedlich arbeiten (z.B. Mittelton schärfer angehen und HT nur soft bearbeiten).


    Hören, ja das wird etwas dauern, bin mit dem linken Horn noch nicht durch, das rechte muß noch (da brauche ich aber nicht alles nochmal nachvollziehen). Erst danach machts Probehören Sinn, denn mir gehts daheim auch um evtl stereophone Verbesserungen (und so ganz gleich sind die ja nie).


    Grüße
    Mattias

    Hallo in die Runde,


    ich will einfach mal wieder ein Lebenszeichen meiner Optimierungsansätze geben, nicht zuletzt um ein wenig Appetit zu machen.


    Habe mich etwas in der Schallbude vergraben und durfte schnell feststellen, dass ich mich da wohl für die nächste Zeit häuslich einrichten muss. Die bisherigen Erkenntnisse und Vorgehensweisen/Empfehlungen sind für eine halbwegs umfassende Darstellung hier im Forum bereits zu umfangreich. Und es sind noch lang nicht alle Möglichkeiten, Aspekte sowie Hintergründe abgearbeitet bzw. erklärbar. Deshalb werde ich einen ähnlichen Weg gehen wie Fabian mit seinem 2x12PAF Projekt und das in eine eigene Abhandlung gießen und natürlich zur Verfügung stellen, aber natürlich nicht gleich "morgen". Feedback dazu selbstverständlich erwünscht.


    So, nun vor den Appetithappen ein paar ganz kurze Erläuterungen.


    Ich habe bisher stets mit hoher FIR-Koeffizientenzahl gearbeitet (meist 4096 bei 48kHz Verarbeitungssampling), um zunächst Überdeckungseffekte aufgrund ungenügender Frequenzauflösung weitgehend zu vermeiden. Frequenzauflösung somit ca 11,7Hz, korrigierter Bereich, so nicht anders angegeben, 440Hz- 15kHz. Eingangsdaten wurden aus einer 16kfft gewonnen, bei 48kHz Messsamplingrate.


    Nur mäßiger Pegel am Treiber ohne jede Korrektur 1V, die FIR-Koeffizienten bewirkten eine Dämpfung von bis zu 4dB, aber Anhebungen bis max. ca 15dB! Es wurde zur Kontrolle immer mal wieder mit +-10dB Pegeländerung des Speisesignal des FIR-Controller (openDRC-DI) gearbeitet, in dem Bereich ergaben sich keine Auswirkungen aufgrund eventueller Kompressionseffekte.


    Speisesignal war voll digital, aus dem S/P-Diff des FireWire-Frontends Alesis io26.


    Trennung MT/HT in der Weiche nur bei 6,43kHz, Butt 24dB/Okt, HT 12mm Delay-Versatz gegenüber MT.


    FIR-Koeffizienten wurden mit FilterHose generiert. Allerdings musste an einigen Stellen von der Anleitung deutlich abgewichen werden, um sinnige und vor allem verträgliche Übergänge erreichen zu können.


    Nu aber endlich mal ein Bild und schon wird’s etwas komisch, denn um später überhaupt vernünftig vergleichen zu können, ergab sich die Notwendigkeit einen linealglatten Frequenzgang zu generieren (es ist sonst unmöglich konkrete Vergleiche in Bezug auf das Ausschwingverhalten gegenüber keiner Korrektur abzulesen). Was wir sehen ist ein mit hoher FIR-Auflösung nur amplitudengeglätteter Frequenzgang.

    Bild 1: lineare Amplitude, Phase unangetastet


    Zunächst habe ich so angefangen, wie immer empfohlen wird:
    Keine extreme Korrektur, Eingangsfrequenzgang 1/12tel Oktave geglättet, Phase nur minimalphasig, das sieht dann so aus:

    Bild 2: lineare Ampl., minimalphasig, Glättung 1/12tel Oktave
    Hmm, fand ich nun nicht den Hammer, im Mittelton bringt das teilweise was, aber sonst …


    Was nun? Vielleicht hilft es ja, wenn auf eine echte Nullphase gezwungen wird. Schaun wir mal:

    Bild 3: lineare Ampl., lineare Phase, Glättung 1/12tel Oktave
    Also bestenfalls haben wir marginale Verbesserungen, aber das ist auch kein Durchbruch!


    Da waren jetzt aber paar ???? auf der Stirn. Die Hornkombi hat nunmal ganz gepflegte enge Frequenzeinbrüche/Resonanzen, wenn diese nicht wirklich sauber getroffen werden (und z.B. mit angehoben), führt dies zu einem stärkeren Durchschlagen dieser im Abklingspektrum. Nächster Versuch, in der Theorie sollte eine exakte Nachbildung der Strecke und „Invertierung“ zu einer sauberen Korrektur führen.
    Somit alle Glättungen raus, zunächst noch vorsichtig eine minimalphasige Korrektur versucht:

    Bild 4: lineare Ampl., minimalphasig, KEINE Glättung!
    Schon eher so wie man sich das denkt.


    Jetzt einmal streng der Theorie folgen, sprich Amplitude und Phase auf „Null“ ziehen. Im Grunde bedeutet dies, dass das komplette Zeitverhalten des Systems erfaßt und nachgebildet wird, eine Korrektur müsste nun zwingend ein sauberes Verhalten im zu korrigierenden Bereich zu Folge haben.

    Bild 5: lineare Amplitude und Phase, KEINE Glättung!
    Jo, das ist doch perfekt.


    Jedoch, wie schaut es unter anderen Winkeln aus. Schauen wir uns 5° horizontal off axis an:

    Bild 6: 5° off axis, lin. Ampl., lin. Phase, keine Glättung.
    Wie zu erwarten, hier treten Schmutzeffekte auf, das FIR-Filter korrigiert ja u.a. Reflektionen innerhalb des Horns, die aber unter verschiedenen Winkeln unterschiedlich sind. Folglich gibt es hier „Artefakte“.


    Unter 10° sehen die dann so aus:

    Bild 7: 10° off axis, lin. Ampl., lin. Phase, keine Glättung.


    So weit, so gut / schlecht.


    Unangenehm an dem Spiel, vor allen in Sachen Pegel/Belastung, die extremen Pegelanhebungen von 15dB im Hochton (nur eine Stelle). Da es kein Problem ist, den Korrekturbereich auch amplitudenbezogen einzuschränken, alles wie zuvor, jedoch nur maximal 10dB Anhebung zugelassen. Dies wirkt sich auf einen sehr engen Einbruch bei 10kHz aus. Das Resultat sehen wir hier:

    Bild 8: wieder 0°, lin. Ampl., lin. Phase, keine Glättung, Anhebung max 10dB zugelassen.
    Dies führt zunächst paradox erscheinend zu einer ab einem gewissen Zeitpunkt halbwegs anhaltenden "Nachresonanz" bei 10kHz. Wäre im Burst-Decay nur ein Bereich von 30dB dargestellt worden, wäre dieser Schmutzeffekt gänzlich untergegangen. Wird die Korrektur bei 10kHz noch stärker eingeschränkt, so bleibt hier eine lang und konstant stehende "Resonanz".


    Die Problemstelle ist sehr gut im fft-Spektrum bei 10kHz zu erkennen. Eine weitere üble liegt bei 7kHz und führt auch immer wieder zu schönen Artekfakten.

    Bild 9: Spektrum des BMS_JBL Kombi auf Achse


    Den extremen Einbrüchen muß ich nochmal auf den Grund gehen, in älteren Messungen hatte ich die auch so extrem, aber in einer Messreihe nicht so hart. Die vertikale Position ist nochmals zu prüfen.


    Bis hierher kann zumindest folgendes festgehalten werden:
    - FIR-Korrektur nur mit Frequenz-/Phasenganganalyse ist Munkeln im Dunkeln, es muss zwingend das Zeitverhalten analysiert werden können.
    - Grad die etwas „anspruchsvolleren“ Lautsprecher zeigen sehr deutlich die Möglichkeiten und auch Grenzen einer elektronischen Korrektur auf (Langzeitdrift oder durch Umweltparameter hervorgerufen Drift birgt Risiken)
    - Auf den Punkt (räumlich gesehen) ist eine sehr gute Korrektur bei gewissen Einschränkungen im Pegel erreichbar, sprich Heimanwendungen auch mit kritischen Systemen machbar
    - Werden größere Abstrahlwinkel in gleichmäßiger Qualität erforderlich, so müssen die Einzelsysteme bereits hohe Anforderungen erfüllen.
    - Auf den BMS4590 sind nur bedingt einige Probleme zurück zu führen, eine Nachkontrolle der Messungen mit dem JBL 2445 (hier nicht dokumentiert) gibt bei fast exakt den gleichen Frequenzen ähnliche Probleme. Hier scheint das Diffraktionshorn den wesentlichen Anteil zu haben.


    Es stehen noch weitere Messungen an, ferner wurde schon experimentiert, den Tief-Mitteltonbereich der Weiche mit einzubeziehen. U.a. fiel dabei auf, daß ein geschicktes Plazieren des Peakmaximums im FIR-Koeffizientensatz hier Vorteile hinsichtlich entstehender Artefakte bietet. Dies wurde jedoch rein zufällig beim Test auf möglichst kurze Latenz entdeckt.


    Und natürlich muß das Ganze auch noch angehört weden.


    Wie gesagt, da dies alles sehr umfangreich / komplex ist, werde ich eine ausführliche Beschreibung erstellen, die ebenfalls Tipps zum Umgang bei der FIR-Koeffizientenerzeugung enthalten wird. Hier kann bereits viel verspielt werden.


    Grüße
    Mattias