Beiträge von AlphaC

    Ein funktionierendes Line Array muss "windanfälliger" sein als ein Point Source. Das ist prinzipbedingt, da der Pegelabfall eines LA in dessen Nahfeld deutlich geringer ist als beim PS. Wenn dann mal der Wind reinbläst ist der Pegelsprung entsprechend größer als beim PS. Ein nicht "windanfälliges" LA funktioniert nicht. 8)

    Hier wird ja einiges durcheinander geworfen. Leistung, Schalldruck, Spiegelquelle, Empfindlichkeit,... also der Reihe nach:


    Nehmen wir an, ein einzelner Lautsprecher würde bei 1W in 1m im Vollraum 90dB Schalldruck erzeugen. Nehmen wir weiterhin an, dass der Lautsprecher kugelförmig abstrahlt.


    Stellen wir diesen Lautsprecher nun auf eine schallharte Begrenzungsfläche wird die Oberfläche der Kugel halbiert. Da die Auslenkungen des Chassis (und damit das Luftverschiebevolumen) gleich groß sind wie zuvor, aber die Schallwellen sich nur noch in einen halb so großen Raum ausdehnen können, ist der Luftüberdruck nun doppelt so hoch. Das ist also so als ob das Chassis nun doppelt so lange Auslenkungen machen würde.


    Doppelter Luftüberdruck = +6dB.


    Das geht bei weiterem hinzufügen von Begrenzungsflächen so weiter. Also Boden+Wand = +12dB. Boden+Raumecke = +18dB.


    ==========================


    Ein anderes Thema ist die Anordnung mehrer Bässe. Stellt man zwei der o.g. Lautsprecher direkt nebeneinander (so dass sie kohärent addieren können), dann steigt die Empfindlichkeit der Anordnung um +3dB. Heißt: bei 1W insgesamt eingespeister Leistung erzeugt das Stack nun 93dB im Vollraum. Jeder einzelne Lautsprecher bekommt hierbei nur 0,5W Leistung ab! Da die Gesamtbelastbarkeit der Anordnung doppelt so hoch ist kommen weitere +3dB beim Maximalpegel hinzu.


    Das ist soweit auch logisch, da nun das doppelte Luftverschiebevolumen (doppelte Membranfläche, gleicher Hub) zu einem verdoppelten Luftüberdruck führt. Ergo: +6dB


    ==========================


    Wichtiger Unterschied:

    Doppelter Schalldruck = +6dB !

    Doppelte elektrische Leistung = +3dB !

    Zur Hörbarkeit der Phase wurden bereits mehrere wissenschaftliche Untersuchungen mit Doppel-Blind-Tests unter Laborbedingungen durchgeführt (u.a. an der RTWH Aachen). Die Ergebnisse daraus haben in der Folge zum abklingen der "FIR Euphorie" der 2000er Jahre geführt...


    Deutlich einfacher als mit einem Selbstbauprojekt kann man den Einfluss der Phase selbst untersuchen. Man braucht nur ein VST-kompatibles Audioprogramm (Wavelab, Cubase, Fruity Loops, Ableton, whatever...) und gute Kopfhörer. Dort läd man sich ein VST Plugin das All-Pass Filter bietet, und verschiebt mal wild die Phase... Man wird feststellen, dass auch bei mehreren, gleichmäßigen (wie bei Mehrwegelautsprechern üblichen) Phasendrehungen kein Unterschied zum Originalsignal zu hören ist.


    "Phasendrehung" ist dem Wortsinn nach auch eigentlich nicht korrekt und irreführend, da die Phase ja nicht wirklich gedreht (im Sinne von verpolt) wird. Tatsächlich hat die Phase einen kontinuierlichen Verlauf, und nur der Graph wird zur besseren Lesbarkeit bei +/-180° umgebrochen.


    Schaut man sich die Natur an wird man feststellen, dass es praktisch kein natürliches Schallereignis "ohne Phase" gibt , da kein schallemittierendes Objekt über alle Frequenzen hinweg gleichzeitig und gleich schnell einschwingt. Relevant für unser Gehör ist daher weniger der Phasenverlauf, als die "richtige Reihenfolge" der Einschwingvorgänge, was man anhand der Impuls- bzw. Sprungantwort ablesen kann. Anhand der ersten paar Millisekunden eines Schallereignisses können wir bereits ein bestimmtes Geräusch identifizieren (siehe: Untersuchungen zur LA Synthese von Roland). Außerdem ist unser Gehör empfindlich auf Amplitudenschwankungen und den zeitlichen Versatz zwischen linkem und rechtem Ohr. Auch hier befinden sich Informationen die ggf. überlebenswichtig sein können. ;)


    Zu Deiner Frage warum 3D messen: Kein in einem praxisrelevanten Gehäuse montierter Lautsprecher (und ebenso kein noch so gutes Hochtonhorn) hat off-axis ein ideal gleichmäßig abfallendes Spektrum. Erst recht nicht, wenn mehrere Quellen oder konstruktive Elemente (Reflexports, Gitterstützen, etc.) miteinander interagieren. Entzerrt man einen Lautsprecher feingliedrig mit einem FIR Filter basierend auf einer on-axis Messung ist die Gefahr recht groß, dass man Pegelüberhöhungen off-axis stark betont, oder zumindest nicht bedämpft, da sie on-axis nicht "sichtbar" waren.


    Anm: Schon für die Erstellung "konventioneller" IIR Presets ist es sehr von Vorteil wenn man die räumlichen Messdaten der einzelnen Wege zur Hand hat...

    Dass es wenige Controller mit frei ladbaren User-Koeffizienten gibt hat recht naheliegende Gründe: Zum einen bedarf es zur korrekten Erstellung der Koeffizienten deutlich tieferer Fachkenntnisse als der Otto-Normal-Verleiher besitzt. Außerdem bedarf es umfangreicherer Messausrüstung als üblich, da FIR Entzerrung nur dann sinnvoll ist, wenn man das Abstrahlverhalten des Systems in 3D Messen kann. Mit falsch verwendeten FIR Filtern kann man schnell viel mehr kaputt machen als hinzugewinnen. Das Risiko für die Hersteller, dass ihre Systeme dann schlechter performen als mit Werkspresets, ist unkalkulierbar und unnötig hoch.


    Der praktische Nutzen der FIR Filter hält sich in Grenzen, da die Phasenlage allein nicht hörbar ist. Lediglich Phasenfehler zwischen den einzelnen Wegen oder zwischen in unmittelbarer Nähe von einander betriebenen Lautsprechern wird als frequenz- und positionsabhängige Pegelwelligkeit hörbar. Für Line-Arrays macht linearphasige Entzerrung daher Sinn, wenn z.B. einzelne Zonen eines Arrays unterschiedlich entzerrt werden sollen ohne die Phasenlage des Arrays als Ganzes zu zerstören. Für eine einzelne Box allerdings kann man mit klassischen IIR Filtern und Delays bereits alles nötige erledigen wenn man weiß was man tut. Konstruktive Schwächen einer Box bekommt man allerdings damit ebensowenig behoben wie mit FIR Filtern.

    Meiner Einschätzung nach ist der technologische Vorsprung und der "Innovationsgrad" der "Großen" gar nicht so groß wie vielfach vermutet. Sonst würden nicht auch die Produkte der kleinen regelmäßig in A/B Vergleichen als "zumindest gleichwertig" beurteilt. Und wo Große sich eigene IT Abteilungen leisten, suchen sich Kleine passende Spezialisten als Partner.


    Wenn man ergründen möchte, warum Große groß geworden sind, dann wird man eher in der BWL fündig. Selbstverständlich haben auch die Großen erstmal als Garagenschreinerei angefangen und mit innovativen Produkten auf sich aufmerksam gemacht. Um aber groß zu werden, musste viel investiert werden, in einem Umfang, der nur mit Fremdkapital möglich ist. Damit war es möglich mit entsprechender Personal- und Marktetingmacht, und schierer Menge an in den Markt gepressten Materials, entsprechende Verbreitung zu finden. Das ist soweit auch legitim und nicht anders als in anderen Branchen.


    Aber dies erklärt dann auch, warum Produkte, in denen de-facto der selbe Material- und Know-How-Aufwand steckt, wie bei den Kleinen, bei den Großen deutlich teurer sind. Investoren wollen halt jedes Jahr ihre Rendite sehen. Diese "Last", die am Ende die Kunden tragen, haben mittelständische, inhabergeführte Unternehmen naturgemäß nicht.


    Am Ende muss sich jeder Anwender überlegen, ob für seinen Wirkungsbereich die Verbreitung und Bekanntheit der Marke überhaupt relevant, und wenn ja ob wichtig genug sind, diese zusätzliche Last zu rechtfertigen. Schließlich muss er/sie später in der Lage sein, diese mit Einnahmen wieder zu kompensieren.


    Technische Gründe sind es meist nicht. Ebenso wenig kaufmännische, da auch die Produkte kleinerer Marken eine gute Wertstabilität haben.

    Ansätze dazu gab es schon so einige, darunter auch brauchbare. Sowohl von Herstellern als auch von Verbänden wie der AES. Nur zu einer Einigung hat es bisher nicht gereicht.


    Dürfte auch für viele problematisch sein, da man sich über die Jahre durch ständiges Überbieten wollen in astronomische Höhen "hochgepegelt" hat, und dann Schwierigkeiten bekäme den Kunden die neuen, standardisierten, niedrigeren Zahlen zu verkaufen.


    Statt dessen gibt es so Vorstöße wie von Meyer mit speziellen Messsignalen noch höhere Peakpegel fürs Papier herauszukitzeln...

    Ähm... @Midas: In Deinem Post sind leider ein paar Punkte drin, die schlicht falsch sind. Und zwar bezüglich der Pegel, welche die verschiedenen Systeme "schaffen"...


    Fakt ist: Es gibt bisher keine eindeutige und zwingende Norm, wie der maximale Schalldruck zu ermitteln und in Datenblättern anzugeben ist. Somit ist es jedem Hersteller selbst überlassen, wie er was misst und veröffentlicht.


    Es gibt einige (auch namhafte) Hersteller, die geben Vollgas rosa Rauschen auf die Lautsprecher und lesen dann vom Pegelmesser den höchsten Peakwert ab, den sie finden können. Manche kumulieren den Pegel sogar über alle Frequenzen... So kommt man natürlich auf sehr "beeindruckende" Zahlen...


    Andere Hersteller messen den Maximalpegel mit Sinus-Bursts und setzen ein bestimmtes Maximum an Verzerrungen als Limit an. Diese Messmethode ist wesentlich restriktiver, aber realistischer und praxisnäher. Sie führt aber zu leider zu deutlich niedrigeren Werten. Schlecht fürs Marketing.


    Eine dritte Variante ist ein brauchbarer Mittelweg: Dieser legt die gemessene(!), mittlere Empfindlichkeit der Box und ihre Belastbarkeit zur Grundlage. Aber auch hier kommen deutlich kleinere Werte heraus, als bei der ersten Methode.


    Im Ergebnis bedeutet das, dass diese Datenblatt-Angaben für den Nutzer sehr häufig nicht sinnvoll vergleichbar sind!!! (Ja, drei Ausrufezeichen. Mach ich sonst nie!!!)


    Am ehesten vergleichbar wird es, wenn man die Messungen von unabhängiger Stelle heranzieht, die immer nach der selben Norm durchgeführt werden, z.B. in Production Partner Testberichten.


    In der Praxis kann es also ohne weiteres sein, dass ein System mit geringerem Maximalpegel nach Datenblatt lauter und sauberer performen kann, als ein System mit deutlich höherer Angabe. Solch einen Fall haben wir schon mit einem der von Dir oben zitierten Systeme gehabt. Obwohl unseres laut Datenblatt ganze 9dB(!) weniger Maximalpegel erreichen soll als der o.g. Wettbewerber, ist unseres in der Praxis praktisch gleichauf, in einigen bereichen sogar stärker...

    Die Argumentationslinie "kleine Pappe = schnell, große Pappe = langsam" basiert auf veralteten Erfahrungswerten, ist aber keine technische Kausalität. Tatsächlich spielt die Größe der Membran nur eine untergeordnete Rolle. Es gibt 12er die schlabberig langsam sind, und 21er die sehr präzise spielen. Die gesamte Auslegung des Chassis (bewegte Massen vs. Einspannung vs. Antrieb) sowie sein Zusammenspiel mit dem Gehäuse entscheiden über das klangliche Ergebnis.


    Auch Hörner sind im Übrigen nicht unbedingt "schneller", leiden allerdings oft unter Resonanzen und heftigen Nachschwingern... Ein sauber entwickelter BR ist bis heute die vielseitigste, ausgewogenste und effizienteste Lösung im Beschallungsbereich.

    Im Bassbereich zu mischen ist immer problematisch, gerade wenn man versucht Bandpässe vernünftig an Direktstrahler anzukoppeln kommt man um Messtechnik und Know-How nicht herum. Sinnvoller dürfte bei Dir in jedem Falle sein: Weitere G-Sub dazu und fertig. Nennenswert tiefer kommst Du nämlich weder mit B2 noch TSE Infra. Was allerdings irritierend ist: Der G-Sub wurde nie mit RCF-Bestückung gebaut...

    Die Publikumszahl ("PAX") ist leider recht ungenau und zu variabel. Besser währe die beschallte Fläche zu nennen, also die Breite und Tiefe der Zone, wo "was los" sein soll. Es gibt Diskotheken, die haben am Abend 1000 Leute im Durchlauf, der Tanzflur misst aber nur 10 x 10 m... 8)

    Auch ich halte diese "Abstufungsregel" für zu pauschal und für nicht allgemeingültig. Das hängt von vielen Parametern ab, ob das miteinander spielen kann oder nicht. Allein die Größe eines Chassis sagt kaum etwas über seine Fähigkeit zur Wiedergabe tiefer Frequenzen aus, schließlich gibt es 8"-Woofer, die bis 30Hz hinab spielen... Alles eine Frage der Auslegung der Komponenten und Konstruktion. Bei höheren Frequenzen ist das deutlich kritischer, da dort das Richtverhalten und Partialschwingungen relevant werden.

    Die TSM12 und A6 sind seit 12 bzw. 14 Jahren auf dem Markt und daher technologisch nicht mehr ganz taufrisch. Die aktuelle A3 ist jedoch gerade erst erschienen und bekommt gute Beurteilungen. Zusammen mit dem G-Sub1501dp+ macht das eine kräftige und wirtschaftliche Lösung, da man mit dem zusätzlich zum Topteil auch einen weiteren passiven G-Sub1501 antreiben kann. Die A3dp macht nur Sinn, wenn man die standalone betreiben können muss.


    Anastasia Nass: Der G-Sub ist ein 18"-Sub. Hier geht es um den G-Sub1501, der mit seinen Abmaßen von 60x60x40 cm recht PKW-freundlich ist.

    Für mich liest sich das alles sehr nach 'falsches Preset' und 'ungünstige Aufstellung'.


    Weil ich das Gefühl habe, dass da einiges vermischt wird, folgende Anmerkungen dazu:
    Die Darstellung, dass ein modernes Lautsprechersystem "massiven EQ-Eingriff braucht um zu Klingen" ist soooo nicht korrekt!


    Am FOH (!) nimmt man normalerweise nur raum- bzw. locationbezogene Korrekturen vor. Wenn da etwas "massiv verbogen" werden muss, dann ist das Setup der Anlage falsch.


    Und hier kommen wir zu einem unabhängigen und getrennt zu betrachtenden Punkt: Dank günstig verfügbarer Signalprozessoren ist es ein technisch vorteilhafter Weg, in der Box nur eine phasenrichtige Verknüpfung der Wege passiv zu realisieren, und das System-EQing im Signalprozessor. Das ist daher kein Makel, sondern - richtig angewandt - ein Vorteil.


    Keinesfalls kann man allerdings das System-EQing im Pult oder am 31-Bander vornehmen! Es ist von entscheidender Wichtigkeit, dass das Preset korrekt programmiert ist, und dass der DSP die Werte auch richtig interpretiert. DBX Prozessoren rechnen z.B. vollkommen anders als Lake oder Powersoft! Welche gängigen DSPs wie rechnen ist auch in der bei Seeburg herunterladbaren PDF ausdrücklich vermerkt. Ein Fehler hier und das Ergebnis ist garantiert Mist. Sollte man dazu Fragen haben sind die Leute bei Seeburg i.d.R. gern bereit Hilfestellung zu leisten.


    Was die Subs betrifft: Der KSub1801 (nicht zu verwechseln mit dem B1801) ist konstruktiv völlig verschieden zum Galeo Sub. Der B1801 sieht von ganz ganz ganz weitem so ähnlich aus, wie ein halber Galeo Sub - hat aber technisch nichts mit diesem zu tun. Werden KSub1801 und Galeo Sub mit ihren jeweils aktuellen und richtigen Presets betrieben, dann sind sie kompatibel und benötigen lediglich eine Laufzeitanpassung im Bereich von +/-0,5m. Mit dem B1801 hingegen ist es ein Roulette Spiel, diesen mit dem Galeo Sub zum Spielen zu bringen.


    Viele Grüße
    Alex

    Nö. Der 1250 ist immer noch der ausgewogenste und am besten passende. Danach der 1400/2400, der zwar nicht ganz so harmonisch ist, aber etwas robuster. Der 1300 wäre "okay" aber nicht besser.


    Bowdy... jetzt mal im Ernst: Was möchtest Du mit immer neuen Chassisvorschlägen erreichen? Wir haben am Markt ein passendes Ersatzchassis für die Subs ermittelt, und dieses ist der 18LW1250. Dieses ist demzufolge auch das "offizielle" Chassis welches wir allen Kunden als Ersatzteil anbieten. Demnach sollte es in Zukunft nur TSE Sub / TSE Infra / B1801 geben, welche entweder mit 18-009 oder 18LW1250 bestückt sind. Schlimm genug, dass das bei Deinen schon nicht der Fall ist. Freilich kann jeder andere Chassis einbauen wie er möchte, nur ist es dann eigentlich keine Seeburg-Box mehr im engeren Sinne...