Beiträge von AlphaC

    4711 : Interessante Punkte. Gehen wir die mal durch.

    1: EASE Focus 3 ist sehr verbreitet und sollte von jedem hauptberuflichen Tontechniker bedienbar sein. Ggf. bietet Seeburg seinen Anwendern gern persönliche Einweisungen an. Kostenlos.

    2: Fähige "Systemer" sollten fit genug sein mit jedem professionellen Produkt zurecht zu kommen. Dass es von diesen allgemein nicht sooo sehr viele gibt, bereitet auch den "Großen" regelmäßig Probleme.

    3. Zutreffend. Aber auch ein alter Hut. Und die meisten Nutzer brauchen "morgen" keine 50-100 Kisten, sondern Produkte die für sie funktionieren und Geld verdienen.

    4. Hier hat sich über die letzten Jahre sehr viel getan. Bis auf ein paar alte Produkte ist da kaum noch "Mittelmaß" im Portfolio.

    5. Stimmt. Der ist gut. Vor allem im Verhältnis zu den Anschaffungskosten.

    6. "Ständig neue Subs"? Welche? Immer wieder Speaker oder Ampmodule gewechselt? Ja, je einmal in 10-15 Jahren. Bei den Speakern vor allem aufgrund der Insolvenz eines Lieferanten. Das Betraf in gleicher Weise aber auch KS-Audio, Kling&Freitag, etc... Ansonsten wurde gerade die TS-Serie ersetzt, welche je nach Produkt 10-18 Jahre unverändert gefertigt wurde. Das spricht doch eher für lange Produktlebenszyklen. Zum Thema Invesitionssicherheit: 10 Jahre Ersatzteile nach Abkündigung des Produkts sind ziemlich komfortabel, oder?

    7. Auch dieser Punkt hat sich in den letzten Jahren deutlich gebessert und liegt nicht unerheblich an der Qualität der Anwender. ;)


    Inwiefern es mit einer K24 schwer sein soll einen guten Vocal-Sound hinzubekommen kann ich nicht nachvollziehen. Ich hab damit keine Schwierigkeiten und viele andere auch nicht. Von daher fällt das vielleicht eher in den Bereich Hörgewohnheiten, Mischtechniken, Systemsetup, etc.?


    PS: Meine Ausführungen sollen keineswegs in der Form interpretiert werden, dass ich mit allem Zufrieden sei. Interessanterweise hast Du zwei Punkte, die mir persönlich (und auch vielen Seeburg Kunden) noch auf den Nägeln brennen, gar nicht erwähnt.... Aber Du kannst davon ausgehen, dass auch an diesen gearbeitet wird. 8)

    Für jene die es interessiert: Ich hab spaßeshalber mal eine 50Hz Rechteckwelle synthetisch generiert. Diese ist insofern schon idealisiert, als dass sie kaum bei einem analogen Gerät je so ankommt. Aber egal. So schaut sie aus:


    Nun die Welle mit 12dB Tiefpass bei 200Hz versehen:


    Jetzt mit 12dB Tiefpass bei 100Hz:


    Und schließlich mit 12dB Tiefpass bei 100Hz und Hochpass bei 30Hz:

    Die Produkte klingen ohne Zweifel sehr gut. Aber er hat eine sagen wir mal recht spezielle, sehr puristische aber auch teilweise naive Sicht auf viele Dinge. Ob er das selbst glaubt was da in der Grafik gezeigt wird, oder ob das seine Marketingabteilung verzapft hat, schwer zu sagen... Aber auch das ganze "super analog" und "MHz Sampling" ... geht schon ganz schön derbe in Richtung Hi-Fi Esotherik.

    Bei einen korrekt konstruierten Line Array hört der Zuhörer immer nur einen kleinen Ausschnitt des Arrays - und nicht, wie in der Grafik suggeriert wird, alle Quellen auf einmal (und gleich laut). Das ist das eine.


    Das andere ist, dass die Grafik die Existenz von Kohärenz negiert, und überhaupt sehr wenig Verständnis davon aufzeigt, wie Schallwellen sich neben Begrenzungsflächen ausbreiten.


    Im Idealfall funktioniert so ein Array wie ein einziger großer Lautsprecher. In der Praxis gelingt das auch über ein sehr breites Frequenzspektrum zumindest in der Hauptabstrahlrichtung sehr gut. Sonst würde diese Produktgattung auch nicht eine solche Verbreitung erlangt haben, und sich ihre definitionsgemäßen Eigenschaften und Vorzüge nicht einwandfrei experimentell nachweisen lassen.


    Wie ich eingangs erwähnte stehen für mich Beam Steering und Array Processing daher diametral auseinander. Beam Steering stört oder vernichtet gezielt Kohärenz zur Beeinflussung der Abstrahlung. Curved Arrays beeinflussen die Abstrahlung mechanisch. Array Processing dient dann auch nicht der Abstrahlungsbeeinflussung, sondern der Glättung des Frequenzgangs auf der "Empfängeroberfläche". Idealerweise ohne Beeinflussung der Zeit (Phase... Kohärenz).

    Das "Line-Up" ist für mich nicht ganz schlüssig. Array Processing ist nicht gleich Beam Steering! Array Processing könnte man eher als "Beam Smoothing" bezeichnen, da es dort darum geht das Abstrahlverhalten eines mechanisch (!) gecurvten Arrays zu optimieren. Beim Beam Steering wird hingegen versucht das Abstrahlverhalten eines geraden (!) Arrays künstlich zu verbiegen.


    Während ich Array Processing für durchaus sinnvoll halte (d&b ArrayProcessing, Martin MLA, oder auch EASE Focus + FIR Maker), habe ich persönlich bisher noch kein Beam Steering System gehört, das mir klanglich gefallen hat. Klang für mich immer flach, leblos und kraftlos. Ob das mit der Technologie selbst zu tun hat oder an anderen Faktoren liegt, darüber kann man nur spekulieren. Ein System voller künstlicher Interferenzen erscheint jedenfalls im Widerspruch zu hoher Impulstreue zu stehen...

    Nun, zum einen wird meine Behauptung von zahlreichem Kundenfeedback gestützt, zum anderen habe ich die K24 zwar nicht entwickelt, aber umfangreich gemessen und gehört. Daher glaube ich sie sehr gut zu kennen. Die K20 geht auf meine Kappe, und sicherlich ist sie in einigen Punkten "hübscher" geworden. Das macht die K24 aber nicht automatisch unbrauchbar. ;)

    Pegel sicher, aber die K24 finde ich auf Grund des 600 Hz Problems (siehe Polar Plot) gerade für so schmale Räumlichkeiten ungeeignet. Outdoor gerne, da fällt diese Problematik nicht so ins Gewicht. Aber nah an einer Wand würde ich die K24 eher nicht empfehlen, da brauchst du „saubere Coverage“ möglichst ohne solche Resonanzen. K24 für mehr Pegel, K20 für saubere Coverage. Meine Meinung.

    Ich glaube du liest den Polar Plot falsch! On axis gibt es ein 600Hz Loch, welches klanglich jedoch keinem auffällt, da es zu schmal ist fürs Gehör. Da die Polar Plots aber auf die 0°-Achse normalisiert sind, schaut es so aus, als ob off-axis starke Überhöhungen vorhanden wären.


    Dem ist aber nicht so, da das Loch im DSP nicht ausgeglichen wird! Ergo: Kein 600Hz Problem. Die K24 ist auch in schmalen Räumlichkeiten gut geeignet. 8)

    Ein funktionierendes Line Array muss "windanfälliger" sein als ein Point Source. Das ist prinzipbedingt, da der Pegelabfall eines LA in dessen Nahfeld deutlich geringer ist als beim PS. Wenn dann mal der Wind reinbläst ist der Pegelsprung entsprechend größer als beim PS. Ein nicht "windanfälliges" LA funktioniert nicht. 8)

    Hier wird ja einiges durcheinander geworfen. Leistung, Schalldruck, Spiegelquelle, Empfindlichkeit,... also der Reihe nach:


    Nehmen wir an, ein einzelner Lautsprecher würde bei 1W in 1m im Vollraum 90dB Schalldruck erzeugen. Nehmen wir weiterhin an, dass der Lautsprecher kugelförmig abstrahlt.


    Stellen wir diesen Lautsprecher nun auf eine schallharte Begrenzungsfläche wird die Oberfläche der Kugel halbiert. Da die Auslenkungen des Chassis (und damit das Luftverschiebevolumen) gleich groß sind wie zuvor, aber die Schallwellen sich nur noch in einen halb so großen Raum ausdehnen können, ist der Luftüberdruck nun doppelt so hoch. Das ist also so als ob das Chassis nun doppelt so lange Auslenkungen machen würde.


    Doppelter Luftüberdruck = +6dB.


    Das geht bei weiterem hinzufügen von Begrenzungsflächen so weiter. Also Boden+Wand = +12dB. Boden+Raumecke = +18dB.


    ==========================


    Ein anderes Thema ist die Anordnung mehrer Bässe. Stellt man zwei der o.g. Lautsprecher direkt nebeneinander (so dass sie kohärent addieren können), dann steigt die Empfindlichkeit der Anordnung um +3dB. Heißt: bei 1W insgesamt eingespeister Leistung erzeugt das Stack nun 93dB im Vollraum. Jeder einzelne Lautsprecher bekommt hierbei nur 0,5W Leistung ab! Da die Gesamtbelastbarkeit der Anordnung doppelt so hoch ist kommen weitere +3dB beim Maximalpegel hinzu.


    Das ist soweit auch logisch, da nun das doppelte Luftverschiebevolumen (doppelte Membranfläche, gleicher Hub) zu einem verdoppelten Luftüberdruck führt. Ergo: +6dB


    ==========================


    Wichtiger Unterschied:

    Doppelter Schalldruck = +6dB !

    Doppelte elektrische Leistung = +3dB !

    Zur Hörbarkeit der Phase wurden bereits mehrere wissenschaftliche Untersuchungen mit Doppel-Blind-Tests unter Laborbedingungen durchgeführt (u.a. an der RTWH Aachen). Die Ergebnisse daraus haben in der Folge zum abklingen der "FIR Euphorie" der 2000er Jahre geführt...


    Deutlich einfacher als mit einem Selbstbauprojekt kann man den Einfluss der Phase selbst untersuchen. Man braucht nur ein VST-kompatibles Audioprogramm (Wavelab, Cubase, Fruity Loops, Ableton, whatever...) und gute Kopfhörer. Dort läd man sich ein VST Plugin das All-Pass Filter bietet, und verschiebt mal wild die Phase... Man wird feststellen, dass auch bei mehreren, gleichmäßigen (wie bei Mehrwegelautsprechern üblichen) Phasendrehungen kein Unterschied zum Originalsignal zu hören ist.


    "Phasendrehung" ist dem Wortsinn nach auch eigentlich nicht korrekt und irreführend, da die Phase ja nicht wirklich gedreht (im Sinne von verpolt) wird. Tatsächlich hat die Phase einen kontinuierlichen Verlauf, und nur der Graph wird zur besseren Lesbarkeit bei +/-180° umgebrochen.


    Schaut man sich die Natur an wird man feststellen, dass es praktisch kein natürliches Schallereignis "ohne Phase" gibt , da kein schallemittierendes Objekt über alle Frequenzen hinweg gleichzeitig und gleich schnell einschwingt. Relevant für unser Gehör ist daher weniger der Phasenverlauf, als die "richtige Reihenfolge" der Einschwingvorgänge, was man anhand der Impuls- bzw. Sprungantwort ablesen kann. Anhand der ersten paar Millisekunden eines Schallereignisses können wir bereits ein bestimmtes Geräusch identifizieren (siehe: Untersuchungen zur LA Synthese von Roland). Außerdem ist unser Gehör empfindlich auf Amplitudenschwankungen und den zeitlichen Versatz zwischen linkem und rechtem Ohr. Auch hier befinden sich Informationen die ggf. überlebenswichtig sein können. ;)


    Zu Deiner Frage warum 3D messen: Kein in einem praxisrelevanten Gehäuse montierter Lautsprecher (und ebenso kein noch so gutes Hochtonhorn) hat off-axis ein ideal gleichmäßig abfallendes Spektrum. Erst recht nicht, wenn mehrere Quellen oder konstruktive Elemente (Reflexports, Gitterstützen, etc.) miteinander interagieren. Entzerrt man einen Lautsprecher feingliedrig mit einem FIR Filter basierend auf einer on-axis Messung ist die Gefahr recht groß, dass man Pegelüberhöhungen off-axis stark betont, oder zumindest nicht bedämpft, da sie on-axis nicht "sichtbar" waren.


    Anm: Schon für die Erstellung "konventioneller" IIR Presets ist es sehr von Vorteil wenn man die räumlichen Messdaten der einzelnen Wege zur Hand hat...

    Dass es wenige Controller mit frei ladbaren User-Koeffizienten gibt hat recht naheliegende Gründe: Zum einen bedarf es zur korrekten Erstellung der Koeffizienten deutlich tieferer Fachkenntnisse als der Otto-Normal-Verleiher besitzt. Außerdem bedarf es umfangreicherer Messausrüstung als üblich, da FIR Entzerrung nur dann sinnvoll ist, wenn man das Abstrahlverhalten des Systems in 3D Messen kann. Mit falsch verwendeten FIR Filtern kann man schnell viel mehr kaputt machen als hinzugewinnen. Das Risiko für die Hersteller, dass ihre Systeme dann schlechter performen als mit Werkspresets, ist unkalkulierbar und unnötig hoch.


    Der praktische Nutzen der FIR Filter hält sich in Grenzen, da die Phasenlage allein nicht hörbar ist. Lediglich Phasenfehler zwischen den einzelnen Wegen oder zwischen in unmittelbarer Nähe von einander betriebenen Lautsprechern wird als frequenz- und positionsabhängige Pegelwelligkeit hörbar. Für Line-Arrays macht linearphasige Entzerrung daher Sinn, wenn z.B. einzelne Zonen eines Arrays unterschiedlich entzerrt werden sollen ohne die Phasenlage des Arrays als Ganzes zu zerstören. Für eine einzelne Box allerdings kann man mit klassischen IIR Filtern und Delays bereits alles nötige erledigen wenn man weiß was man tut. Konstruktive Schwächen einer Box bekommt man allerdings damit ebensowenig behoben wie mit FIR Filtern.

    Meiner Einschätzung nach ist der technologische Vorsprung und der "Innovationsgrad" der "Großen" gar nicht so groß wie vielfach vermutet. Sonst würden nicht auch die Produkte der kleinen regelmäßig in A/B Vergleichen als "zumindest gleichwertig" beurteilt. Und wo Große sich eigene IT Abteilungen leisten, suchen sich Kleine passende Spezialisten als Partner.


    Wenn man ergründen möchte, warum Große groß geworden sind, dann wird man eher in der BWL fündig. Selbstverständlich haben auch die Großen erstmal als Garagenschreinerei angefangen und mit innovativen Produkten auf sich aufmerksam gemacht. Um aber groß zu werden, musste viel investiert werden, in einem Umfang, der nur mit Fremdkapital möglich ist. Damit war es möglich mit entsprechender Personal- und Marktetingmacht, und schierer Menge an in den Markt gepressten Materials, entsprechende Verbreitung zu finden. Das ist soweit auch legitim und nicht anders als in anderen Branchen.


    Aber dies erklärt dann auch, warum Produkte, in denen de-facto der selbe Material- und Know-How-Aufwand steckt, wie bei den Kleinen, bei den Großen deutlich teurer sind. Investoren wollen halt jedes Jahr ihre Rendite sehen. Diese "Last", die am Ende die Kunden tragen, haben mittelständische, inhabergeführte Unternehmen naturgemäß nicht.


    Am Ende muss sich jeder Anwender überlegen, ob für seinen Wirkungsbereich die Verbreitung und Bekanntheit der Marke überhaupt relevant, und wenn ja ob wichtig genug sind, diese zusätzliche Last zu rechtfertigen. Schließlich muss er/sie später in der Lage sein, diese mit Einnahmen wieder zu kompensieren.


    Technische Gründe sind es meist nicht. Ebenso wenig kaufmännische, da auch die Produkte kleinerer Marken eine gute Wertstabilität haben.

    Ansätze dazu gab es schon so einige, darunter auch brauchbare. Sowohl von Herstellern als auch von Verbänden wie der AES. Nur zu einer Einigung hat es bisher nicht gereicht.


    Dürfte auch für viele problematisch sein, da man sich über die Jahre durch ständiges Überbieten wollen in astronomische Höhen "hochgepegelt" hat, und dann Schwierigkeiten bekäme den Kunden die neuen, standardisierten, niedrigeren Zahlen zu verkaufen.


    Statt dessen gibt es so Vorstöße wie von Meyer mit speziellen Messsignalen noch höhere Peakpegel fürs Papier herauszukitzeln...

    Ähm... Midas : In Deinem Post sind leider ein paar Punkte drin, die schlicht falsch sind. Und zwar bezüglich der Pegel, welche die verschiedenen Systeme "schaffen"...


    Fakt ist: Es gibt bisher keine eindeutige und zwingende Norm, wie der maximale Schalldruck zu ermitteln und in Datenblättern anzugeben ist. Somit ist es jedem Hersteller selbst überlassen, wie er was misst und veröffentlicht.


    Es gibt einige (auch namhafte) Hersteller, die geben Vollgas rosa Rauschen auf die Lautsprecher und lesen dann vom Pegelmesser den höchsten Peakwert ab, den sie finden können. Manche kumulieren den Pegel sogar über alle Frequenzen... So kommt man natürlich auf sehr "beeindruckende" Zahlen...


    Andere Hersteller messen den Maximalpegel mit Sinus-Bursts und setzen ein bestimmtes Maximum an Verzerrungen als Limit an. Diese Messmethode ist wesentlich restriktiver, aber realistischer und praxisnäher. Sie führt aber zu leider zu deutlich niedrigeren Werten. Schlecht fürs Marketing.


    Eine dritte Variante ist ein brauchbarer Mittelweg: Dieser legt die gemessene(!), mittlere Empfindlichkeit der Box und ihre Belastbarkeit zur Grundlage. Aber auch hier kommen deutlich kleinere Werte heraus, als bei der ersten Methode.


    Im Ergebnis bedeutet das, dass diese Datenblatt-Angaben für den Nutzer sehr häufig nicht sinnvoll vergleichbar sind!!! (Ja, drei Ausrufezeichen. Mach ich sonst nie!!!)


    Am ehesten vergleichbar wird es, wenn man die Messungen von unabhängiger Stelle heranzieht, die immer nach der selben Norm durchgeführt werden, z.B. in Production Partner Testberichten.


    In der Praxis kann es also ohne weiteres sein, dass ein System mit geringerem Maximalpegel nach Datenblatt lauter und sauberer performen kann, als ein System mit deutlich höherer Angabe. Solch einen Fall haben wir schon mit einem der von Dir oben zitierten Systeme gehabt. Obwohl unseres laut Datenblatt ganze 9dB(!) weniger Maximalpegel erreichen soll als der o.g. Wettbewerber, ist unseres in der Praxis praktisch gleichauf, in einigen bereichen sogar stärker...

    Die Argumentationslinie "kleine Pappe = schnell, große Pappe = langsam" basiert auf veralteten Erfahrungswerten, ist aber keine technische Kausalität. Tatsächlich spielt die Größe der Membran nur eine untergeordnete Rolle. Es gibt 12er die schlabberig langsam sind, und 21er die sehr präzise spielen. Die gesamte Auslegung des Chassis (bewegte Massen vs. Einspannung vs. Antrieb) sowie sein Zusammenspiel mit dem Gehäuse entscheiden über das klangliche Ergebnis.


    Auch Hörner sind im Übrigen nicht unbedingt "schneller", leiden allerdings oft unter Resonanzen und heftigen Nachschwingern... Ein sauber entwickelter BR ist bis heute die vielseitigste, ausgewogenste und effizienteste Lösung im Beschallungsbereich.

    Im Bassbereich zu mischen ist immer problematisch, gerade wenn man versucht Bandpässe vernünftig an Direktstrahler anzukoppeln kommt man um Messtechnik und Know-How nicht herum. Sinnvoller dürfte bei Dir in jedem Falle sein: Weitere G-Sub dazu und fertig. Nennenswert tiefer kommst Du nämlich weder mit B2 noch TSE Infra. Was allerdings irritierend ist: Der G-Sub wurde nie mit RCF-Bestückung gebaut...

    Die Publikumszahl ("PAX") ist leider recht ungenau und zu variabel. Besser währe die beschallte Fläche zu nennen, also die Breite und Tiefe der Zone, wo "was los" sein soll. Es gibt Diskotheken, die haben am Abend 1000 Leute im Durchlauf, der Tanzflur misst aber nur 10 x 10 m... 8)

    Auch ich halte diese "Abstufungsregel" für zu pauschal und für nicht allgemeingültig. Das hängt von vielen Parametern ab, ob das miteinander spielen kann oder nicht. Allein die Größe eines Chassis sagt kaum etwas über seine Fähigkeit zur Wiedergabe tiefer Frequenzen aus, schließlich gibt es 8"-Woofer, die bis 30Hz hinab spielen... Alles eine Frage der Auslegung der Komponenten und Konstruktion. Bei höheren Frequenzen ist das deutlich kritischer, da dort das Richtverhalten und Partialschwingungen relevant werden.