Beiträge von donut


    Das ist in der Tat eine andere Aufgabe. Dafür verwende ich aber lieber meinen geschlossenen Kopfhörer, weil damit der Umgebungslärm draußen bleibt.

    lustige Diskussion! Wie so oft hier hat die sich vom Thema am Anfang, hier: warum bieten die Wedges so übermäßig viel LowEnd, in ein anderes Thema verwandelt, jetzt: wie mache ich Monitor EQing. Das EQing scheint ja immer noch ein bewegendes Thema zu sein, und obwohl wir alle das selbe Ziel haben, nämlich eine originalgetreue Wiedergabe mit angemessenem Pegel und frei von Rückkoppelung, denn verschiedene Methoden zur ZielErreichung werden debattiert. Unterschiedliche Erfahrungen mit verschiedenen Kisten und Systemen, Erfahrungs-und Geschmacks-EQing, Abstimmung von Mikrofon-, Raum-, Positions-Parametern etc. ist alles schön und gut, hat aber mit dem Opener hier nur entfernt zu tun, und ist wie immer alles ziemlich relativ.


    Meine Erfahrungen mit MonitorWedges mit überphättem LowEnd Frequenzbereich bezieht sich auf Turbosound 2x15" mit dem dreieckigen HochtonHorn und Mach 2x12" + 3" an RadialHorn, beide zwei-Weg aktiv angefahren, und beide mit so viel low punch, daß man den Druck auf der Brust spüren kann. Als einzige und reine VocalMonitoren scheint das zunächst wenig Sinn zu machen. Diese Kisten bringen die Frequenzbereiche die man bei Wedges mit nur einem Woofer meistens vermißt, übermäßig in den Vordergund. Diese Eigenschaft scheint mir vergleichbar zu sein mit der jener Meyer Wedges die hier am Anfang erwähnt wurden.


    Praxisbeispiel: Rae Garvey hatte IEM plus 4 Wedges als MonitorBurg im Halbkreis vor sich angeordnet. Ich insistierte weil ich der Überzeugung war, daß damit der Headroom before Feedback reduziert würde, weil die Wedges aus 180 Grad in sein VocalMicrophon blasen würden. Und damit ich lag falsch! Denn die Anordnung wurde als Selected Funktion Array angefahren. Die beiden mittleren Wedges waren für sein SupernierenMicro korrekt ausgerichtet und haben seine Stimme im IEM unterstützt. Die beiden äüßeren Wedges wurden für Instrumente verwendet, und waren damit als quasi near sidefills dazu in der Lage, alles im Panorama abbilden zu können. Das ist selbstverständlich eine LuxusSituation und der Höreindruck ändert sich massiv, wenn der Sänger die Position verläßt.


    Frühere Situationen ohne IEM und auf großen Bühnen hatten oftmals die Herausforderung, daß die Wedges nicht nur Vocals verständlich übertragen sollten, sondern auch komplette InstrumentenMischungen vernünftig wiedergeben können mußten und dabei schnell und punchy sein sollten. Das fordert einen hohen SPL, fast Attack und low Decay, zu relativ linearem Frequenzgang und sauberer Phasenlage. Und auch bei SFA Anwenungen nur einen Typ Wedges auf der Bühne.


    Beide Beispiele ermöglichen was ich grundsätzliches beim Monitormixen gelernt habe: für jeden Musiker einen Raum (virtuell / akustisch) zu erzeugen, in dem er/sie sowohl sich selbst sehr gut, als auch andere relevante Quellen hervorragend, und den Rest gut wahrnehmbar, hören kann. Damit fühlen sich die meisten wohl. Individuelle Mischung ist selbstredend erfoderlich. Um jedem Musiker seinen optimalen Raum zu verpassen, muss ich wissen, was derjenige an seiner Position hört, andere Instrumente direkt, fremde Monitoren, SideFills, BackBeam von der PA, RaumReflektionen, etc. um ihm dann auf seinem Monitor, Wedge oder/und IEM das zu verpassen, was derjenige an diesem Tag auf dieser Bühne noch braucht.


    Die Meyer Metallica Wedges scheinen mir genau dafür entwickelt worden zu sein. Darüber hinaus bedenke man auch noch das Marketing. Meyer SoundLab hatte in den 1990er Jahren das Image, ein Jazz-PA Hersteller zu sein, und wollte zwecks Expansion das Rock'n'Roll MarktSegment entern. Mit Hilfe der Metallica Cooperation ist das auch eindrücklich gelungen.

    Also entweder man hat immer sein Pult, mit dem diese Schaltung funktioniert, oder keep it simple, z.B. so:


    Ein oder mehrere schaltbare Mics on Stage für Talk to FoH- oder/und to Mon-Engineer, passiv oder mit Summierverstärker zusammenführen. Das Signal dann dirkt auf eine Shoutbox senden UND parallel auf einen zweiten Summierer auf dem auch der KopfhörerAusgang vom Pult anliegt. So kommen die OrderCalls von der Bühne sowohl während des Abhörens (von was auch immer) über das Headphone, als auch bei Headphone off über die Shoutbox. Bei der Konfiguration ist die ImpedanzAnpassung von Mic/Line/Phone zu berücksichtigen.

    Hallo Zegi,
    Studio Monitoren am FoH werden gelgentlich von StudioKollegen eingesetzt, weil sie es aus dem Studio gewohnt sind, und auf ihrer bekannten Abhöre als Referenz auch live mischen wollen. Ob das Sinnvoll ist, sei dahin gestellt. Wenn der PA Eindruck am FoH so schlecht ist, daß extra Monitore eingesetzt werden müssen, dann ist der FoH Platz sehr schlecht gewählt, oder die PA falsch ausgesucht, aufgebaut oder eingerichtet. Sowas sollte bei open air oder frei zu bestückenden Hallen eigentlich nicht vorkommen. Ander siehts in einem alten KonzertSaal aus, wenn die Tonregie nicht im Saal aufgestellt werden kann, sondern in einer Kabine im 2.Stock und im schlechtesten Fall noch hinter Glas liegt. Wenn da kein Fensterchen zu öffnen wäre, hülfen nur noch StudioMonitore. Solche Venues gibts aber kaum noch. Mir fallen spontan ein paar wenige ein, in denen ich aber trotzdem auf die Studiomonitore verzichte, mir zunächst im Saal an allen Positionen einen Höreindruck verschaffe und dann mit dem Eindruck in der Regiekabine abgleiche und schließlich "quasi halb taub" das Konzert mische. Und es geht auch, ist aber ziemlich anstrengend und macht keinen Spaß.


    Unabhängig von solchen Monitoren verwende ich als Shoutbox, um während der Show nur vom TonKollegen auf der Bühne angesprochen werden zu können, einen kleinen Fostex Aktivmonitor mit MikrofonEingang. Mein Talkback bekommt der dann auf einen Beltpack Kopfhörerverstärker. Das braucht zwar zwei Leitungen, ist aber eine simple Lösung.


    Als standard Intercom nutzen wir Handfunken. Während der Show am FoH schalte ich meins aber stumm, und benutze es nur in AusnahmeSituationen.

    die Beispiele von AlphaTec veranschaulichen hervorragend, daß eine Schwebung keine SchallWelle ist. Wenn nun unser threat opener die gewünschte 3Hz DruckWelle auf konventionelle Weise erzeugt, stellt sich nun wieder die grundsätzliche Frage:
    Was will er damit eigentlich machen?


    ich geh ihn mal direkt fragen

    der TO hat am Anfang geschrieben, daß er die 3Hz Druck Welle als Referenz nutzen will, vermutlich für Meßzwecke. Darauf folgten einige Irrungen und Wirrungen die uns alle auf Abwege brachten, aber einige Basics zu klären halfen. Eine 3Hz DruckWelle ist per Definition kein Schall, sondern InfraSchall und liegt deutlich unter der HörFrequenzSchwelle. Freilich gelten dafür trotzdem dieselben physikalischen Gesetze wie für hörbare SchallDruckWellen. Anstelle von ElektroAkustikWandlern müßte man für die Erzeugung lediglich ElektroKinetikWandler benutzen, um 3Hz DruckWellen zu erzeugen. Die Seismiker sollten derartige Gerätschaften haben.


    Wenn ich mir jetzt vorstelle, daß damit eine 3Hz DruckWelle erzeugt wird, dann verstehe ich auch daß bei zwei Quellen die jeweils 3Hz abgeben dann Interferenzen entstehen werden. Denn die beiden Wellen sind kohärent. Vorausgesetzt die Distanz zwischen den Quellen im Verhältnis zu den Energien der Wellen läßt eine Überlagerung zu.


    Warum der TO eine 3Hz Schwebung durch Überlagerung von zwei leicht verstimmten SchallWellen erzeugen will, hat mit dem Thema eigentlich gar nichts zu tun. Und auch die Kohärenz ist hier ziemlich deplatziert. So kommt mir der thraet vor wie ein Aprilscherz auf sehr hohem Niveau, oder aber ziemliche Ahnungslosigkeit von der Wellenlehre.


    Und was wollen die Jungs eigentlich machen, wenn sie die 3Hz DruckWelle in die Landschaft gepumpt haben werden?

    Zitat von "AlphaC"

    Ähm... ich find ja spannend, dass sich zu dem Thema so eine rege Diskussion entwickelt hat... aber hatte ich eingangs nicht erwähnt, dass das Resultat einer Schwebung eine AMPLITUDEN-Modulation ist? Man erhält also am Ende kein Signal mit einer "neuen" Frequenz (dazu bräuchte es nämlich einer FREQUENZ-Modulation). Man hört lediglich das Trägersignal, welches an- und abschwillt (laut und leise wird). Erst wenn die Differenz groß genug wird, dass sie im Hörbereich liegt wird aus dem laut-und-leise-werden ein hörbarer Differenzton.


    Lektüre: https://de.wikipedia.org/wiki/Schwebung


    VOLLSTE ZUSTIMMUNG! Das wurde hier schon mehrfach gepredigt, die Gemeinde hat es aber noch nicht vollständig in ihren Glauben induziert.


    Zur nachfolgenden Frage "woher weiß die Welle wann der Übergang vom Spüren zum Hören stattfindet..." (sinngemäß), gibt Darwin eine passende AntwortMöglichkeit. Zunächst mal muß man Umdenken und Ursache und Wirkung in die richtige (evolotive) Reihenfolge bringen. Zuerst war der Druck, und erst später wurde dann das menschliche Ohr entwickelt. Überlebensrelevant war dabei offensichtlich nur, daß wir damit Druckfrequenzen von ca. 20Hz bis 20KHz wahrnehmen können. Tiefere DruckWellenFrequenzen können wir zwar taktil wahrnehmen, aber nicht mit dem Gehör, das nennen wir Infraschall. Höhere Frequenzen können wir nicht wahrnehmen und nennen sie Ultraschall. Die Grenzen zwischen Infraschall, Schall und Ultraschall machen also nicht die DruckWellen, denn die verhalten sich physikalisch immer nach den selben Regeln, sondern unsere Wahrnehmungsfähigkeit.


    Vergleichbar mit der menschlichen Wahrnehmungsfähigkeit von Elektromagnetischen Wellen:
    Infra-, Wahrnehmbar-, Ultra-, ... Mikro-, Radio-, ... (Reihenfolge Frequenz ansteigend)

    Zitat von "simonstpauli"


    ... Und noch was Anderes: Nehmen wir eine fiktive Punktschallquelle, die in alle Richtungen gleich abstrahlt. Ist die erzeugte Wellenfront nicht auch kohärent? Kugelig ja, aber kohärent, oder?


    schnelle unüberlegte Antwort:
    Alles was aus einer Quelle kommt ist kohärent!
    Schall, Wasser, Öl ...


    Da die Kohärenz bei der 3 Hertz Synthese aber keine Rolle spielt, können wir die jetzt getrost begraben. btw: gedenken wir des Herrn Sengpiel mit einer SchweigeWelle.

    Zitat von "patec"


    Hier widersprichst du dir selbst. All diese Verfahren funktionieren nur mit kohärenten Signalen, da ist nichts mit gezielt inkohärent. Du schreibst ja selbst, dass sie mit den selben Signalen, räumlich und zeitlich versetzt, betrieben werden. Jedes Signal ist zu sich selbst kohärent, und räumliche und zeitliche Verschiebung ändert daran nichts, nur die Kohärenzlänge wird etwas verkürzt. Alles was du aufzählst sind hervorragende Beispiele für die Anwendung des Kohärenzprinzips, nach denen hier schon öfter gefragt wurde.


    Jetzt sind wir beim Verständnis von "Kohärenz" angelangt, als allgemeine physikalische und im besonderen als akustische Eigenschaft. Darüber hat schon ein Kollege was kurzes geschrieben, ein paar Seiten zurückliegend. Also hier noch weitere Details:


    Die Kohärenz beschreibt die interferenzabhängigen Eigenschaften von Wellen.
    Wellen sind dann köhärent, wenn ihre Frequenzen und Amplituden korrelieren.
    korrelierende Wellen haben räümlich und zeitlich unveränderliche InterferenzErscheinungen.
    Diese Grundlagen werden in der ElektroAkustik bei LinienStrahlern genutzt, um ZylinderWellen zu erzeugen.


    Die ZylinderWelle wird durch (relativ unmittelbare) AneinaderReihung von mehreren Treibern erzeugt, die alle von einer Ebene aus und mit derselben Ausrichtung ein identisches Signal abstrahlen. (Ausnahme Ribbon Transducer). Ändern wir jetzt die räümliche oder zeitliche Abstrahlung eines oder mehrerer der Treiber, dann korrelieren ihre Schallwellen nach streng physikalischer Auffassung zwar immer noch, aber die Zylinderwelle wird verändert oder sogar zusammenbrechen, je nach dem Grad der räümlichen oder zeitlichen Verschiebung. Reißt die Zylinderwelle ab, dann wird das Ergebnis in der Praxis kaum als kohärente Wellenfront verstanden.


    Anderes Beispiel anders herum: ein komplexes Subwoofer Array mit einer Kombination aus endfire + carved wave. Alle Subs liegen am Boden in einer Anordnung die einen Anker beschreibt. Alle bekommen gleichzeitig dasselbe Signal. Die austretenden Schallwellen korrelieren räümlich nicht, es gibt Interferenzen die Ortsabhängig sind, das Ergbenis ist eine inkohärente Wellenfront. Erst durch den geeigneten Abstand der Subs zueinander und dementsprechendes TimeAlignment werden konstruktive Interferenzen erzeugt, die eine kohärente Wellenfront mit der gewünschten Richtcharakteristik entstehen lassen. (beabsichtigte destruktive Interferenz wie bei z.B. Cardio Betrieb mal außen vor gelassen)

    Zitat von "wora"

    solche "HF-lautsprecher" hab ich schon mal in einer grösseren installation verbaut, wo ich die unglaublich enge richtcharakteristika dieser technik benötigte.
    diese technik funktioniert nur mit der weiter oben schon genannten unlinearität der luft, wenn sehr hohe schalldrücke benutzt werden. es werden HF signale gesendet, die sich beim auftreffen an einer fläche zu einem hörbaren ergebnis demodulieren. ich kann das jetzt nicht besser beschreiben, das ist auf jeden fall ein physikalischer grenzfall. am besten man fragt dazu mal den lautsprecherentwickler Ritterbusch, der kennt sich damit bestens aus, denn der hat damals seine Ingenieursarbeit zu diesem thema geschrieben.
    es gibt jedoch immer noch keine medizinischen studien, ob diese sache irgendwie gesundheitsschädlich ist ;)


    und: ob man mit dieser technik 3Hz mit nennenswertem pegel überhaupt mit vertretbarem aufwand erzeugen könnte, halte ich für eher unwahrscheinlich.


    Alles zutreffend! Meine Antwort, in der ich beschreibe wie die UltraschallTechnik funktioniert, hat nur länger gedauert, und steht deshalb unter deinem Kommentar. Ansonsten bleib ich dabei, daß 3Hz am einfachsten mit einem Oszilator zu erzeugen sind. Aber wofür?


    interessant wäre in dem Zusammenhang nur noch die Energetik
    Hat schon jemand Sengpiel konsultiert?

    Zitat von "patec"


    Dazu ein interessanter Artikel:
    https://www.medien.ifi.lmu.de/…fgang-Reithmeier.xhtml#x6
    Hier wird beschrieben, wie aus zwei Ultraschallquellen eine Schwebung erzeugt wird, die im Bereich des menschlichen Hörvermögens liegt, also der Fall aus unserer Diskussion, nur um einige Zehnerpotenzen in der Frequenz verschoben. Dieses Verfahren funktioniert tatsächlich, scheint nur nicht sehr effektiv zu sein, da man sehr hohe Schalldrücke zur Generierung benötigt.


    Folgerung: Es entsteht tatsächlich eine Schallwelle mit geringem Pegel bei 3Hz in unserem Beispiel, die Form hängt von der Form unserer beiden Ursprungsschallwellen ab. Daher war auch die Idee, als Quelle zwei ebene Wellen zu verwenden (so verstehe ich das "kohärente Schallfeld" des Threadopeners), gar nicht falsch, weil sich damit eine ausgedehnte Quelle für unsere 3Hz darstellen lässt. Wir wissen alle, dass die Quelle um so größer sein sollte, je tiefer die abgestrahlte Frequenz ist (man betrachte dazu die Membranen eines beliebigen Beschallungssystems). Für 3Hz sollte sie also ziemlich groß sein (ich hatte sie mit 100m abgeschätzt, Größenordnung Wellenlänge), insbesondere, wenn man ein so ineffektives Verfahren wie unsere Schwebung zur Schallerzeugung verwendet.


    der Artikel von Wolfgang Reithmeier ist nicht wirklich wissenschaftlich und darüber hinaus sind einige seiner Behauptungen teilweise fachlich falsch. Die Unterschiede von Ton, Klang, Schall, Ultraschgall etc. scheinen ihm nicht wirklich geläüfig zu sein. Er ist auch kein ElektroAkustiker, sondern Informatiker. Sehen wir ihm das nach und halten uns an die Fakten die er korrekt wiedergegeben hat und korrigieren seine Fehler. Er beschreibt Methoden mit denen Schall gebündelt, bzw. projiziert werden kann.


    Von Helmholtz hat die Wechselwirkungen bei Klängen von Orgelpfeifen untersucht, also komplexe auditive Gebilde und nicht die von SinusSignalen. Reithmeier leitet davon ab, daß eine Intermodulation von zwei UltraschallFrequenzen einen Ton erzeugen sollen. Als Anwenungsbeispiel nennt er SoundBeamer. --> Diese Ableitung ist meiner Meinung nach unzulässig und vor allem ist die Schlußfolgerung falsch.


    SoundBeamer bzw. SchallKanonen, die auf Basis von Ultraschall arbeiten erzeugen ein sehr hohes Trägersignal auf das ein Audiosignal aufmoduliert und als Druckwelle abgegeben wird. Trifft diese Ultraschallwelle (TrägerSignal + NutzSignal) auf eine Grenzfläche, dann wird es demoduliert und das NutzSignal wird freigesetzt, dabei entstehen wahrnehmbare Druckwellen, also Schall. Das hat weder etwas mit Intermodulation zu tun, noch entstehen dabei beabsichtigt neue Frequenzen, die vorher nicht schon da gewesen wären.


    Ein völlig anderes Prinzip zur Bündelung und räumlichen Steuerung von SchallWellen ist die Anwendung von Interferenz. Dabei werden Schallwandler gezielt inkohärent betrieben, um gewünschte Richtkarakteristika zu erzeugen. Lautsprecher wie Mikrofone. Diese werden in Arrays präzise angeorndet und mit dem selben Signal, aber zeitlich oder räümlich versetzt, angeregt. In der Beschallungstechnik ist dieses Prinzip als Beamstearing Technologie bekannt. Beispiele sind Subwoofer Arrays oder blöderweise ebenfalls als SoundBeamer bezeichnete BreitbandSysteme.


    Der Vollständigkeit halber nenne ich hier noch die HoloPhonie mittels Wellenfeldsynthese.
    und back to the basics: mechanische Hornkonstrukionen.


    Alle genannten Prinzipien bündeln Schall, und keines erzeugt dabei neue Frequenzen. Zunimdest nicht, wenn das jeweilige System tut was es soll, und externe Materie nicht zum mitschwingen angeregt wird.

    Zitat von "simonstpauli"

    Ich bin ja immer noch bei dem Punkt kohärente Wellenfronten. Hab immer noch nicht verstanden, was das im Zusammenhang mit einer Schwebung bedeuten soll. Oder was es an einem bestimmten Punkt im Raum für einen Unterschied machen soll.


    Guten Morgen Christian :)
    die Überschrift des threat hat uns in die Irre geführt, das ist der Witz der Diskussion.
    Die kohärente Wellenfront hat mit der eigentlichen Frage eigentlich gar nichts zu tun.
    Eine Schwebung entsteht zwischen zwei verschiedenen Frequenzen. Ob der oder die Wandler kohärente oder inkohärente Wellen absondern ist dabei völlig ohne jeden Belang. Hauptsache die ganze Angelenheit schwingt irgendwie. Du kannst dich jetzt also wieder hinlegen. Bei mir kommt eben ein Gewitter auf. Ich hol mir ein Bier und schau den Blitzen zu.

    Alle Jobs die ich in den letzten 24 Monaten gemacht habe, waren gut!
    manchmal war der FoH Platz subotimal, machmal die lokale Konsole, PA oder Akustik, und manchmal habe ich auch geschwitzt. Aber ich habe immer das Beste rausgeholt, was machbar war, und auch gelegentlich Fehler gemacht, aber meistens Zufriedenheit geerntet, und gelegentlich auch doppelte Gage.


    Wenn nun dieser eine Kunde, gegen den ich klagen mußte, nun mein Honorar + ca. 50% an Zusatzkosten für Anwalt, Gericht, Mahnungen und Zinsen, nach nunmehr fast drei Jahren endlich abbezahlt haben wird, dann werde ich ein weiteres mal erleichtert aufatmen.


    Ursprünglich mache ich meinen Job nur aus Freude am guten Sound. Wären da nur nicht all diese Unwägbarkeiten am Rande, wäre ich der glücklichste Mensch der Welt. :D :arrow: :oops: :arrow: 8)
    .

    Zitat von "nuff"

    ...
    ich möchte eine Schwebung mit 2 kohärenten Wellenfronten erzeugen.
    Wenn ich das gleiche mit 2 Punktschallquellen mache, hört man eben ein auf und ab der Töne, sprich die mit der Schwebung modulierte Amplitude.
    Aber was passiert wenn ich eben keine 2 Punktschallquellen habe, sondern kohärente Schallquellen ?
    ich würde gerne möglichst elegant einen recht kräftigen 3hz Ton erzeugen ( urps, Rotor, ?? ), mit punktschallquellen gehts nicht,
    kann ich durch kohärente wellen mit einer schwebung diesen hörbar machen ? Ein Kumpel meinte dass müsste in der Theorie gehen, ...


    Ha argh! Da haben wir ja den Auslöser der Debatte!
    Sage deinem Kumpel einfach: es geht!
    aber nur mit wireless FluxKompensator!


    Doch der Reihe nach. Es haben sich mehrere Denkfehler in Eure These eingeschlichen:
    am einfachsten, sehr elegent und präzise, kannst du eine 3Hz Schwingung mit einem Oszilator erzeugen. Diese wird dann aber weder mit einer Punktschallquelle, noch mit einem kohärent abstrahlenden Array, und auch nicht mit keinem inkohärent abstrahlenden, in Schall umgewandelt werden können. Nicht nur, daß es kaum Elektroakustische Gerätschaften gibt, die 3Hz reproduzieren könnten, diese Frequenz liegt schlicht außerhalb des für Menschen akustisch wahrnehmbaren Frequenzspektrums. Deshalb nennen wir es Infraschall. Mit 3Hz Schwingungen könnte man aber möglicherweise Wale, Elefanten oder Erbebenforscher beeindrucken, oder das Interesse des Militärs wecken. Vorausgesetzt du hättest genügend Energie zur Verfügung um eine 3Hz Welle zu verbreiten. Zur Veranschaulichung für deinen Kumpel: Wenn Du ihm drei mal pro Sekunde auf den Kopf hauen würdest, dann hätte er das Erlebnis einer 3Hz Schwingung, sofern der Resonanzkörper mitspielt.


    Denkfehler No.2: Die akustische Schwebung ist lediglich eine IntermodulationsErscheinung und keine SchallWelle. Du kannst zwar die besagte 3Hz Schwingung hören, aber es ist eben keine Schallwelle die da mit 3Hz schwingt, sondern zwei Schallwellen (also irgendwas zwischen ca. 20Hz-20KHz) die du hörst, dich sich gegenseitig derart beeinflussen, daß eine zusätzliche Modulation mit drei mal auf und ab pro Sekunde ensteht. Verstanden?


    Zuguterletzt noch eine Aufgabe für deinen Kumpel:
    Er soll zwei SinusSchwingungen mit 500Hz und 505Hz auf einen Lautsprecher geben. Dann die hörbare Intermodulation mikrofonieren, in der Aufnahme dann anschliessend die Ursprungsfrequenzen subtrahieren, dann müßten 5Hz übrigbleiben. rein theoretisch. Das Ergebnis dann in ein AudioFile packen und hier veröffentlichen. Mit diesem Prinzip kann man bestimmt einen FluxKompensator betreiben. Für ein Perpeduum Mobile reichts aber allemal.

    Zitat von "nuff"

    Hallo, eine Verständnisfrage bitte.
    Wenn ich eine Schwebung mit zwei punktschallquellen erzeuge, höre ich die beiden Frequenzen mit der Schwebungsfrequenz moduliert. Was höre ich, wenn ich bei gleicher Aufgabenstellung eine Schwebung mit zwei kohärenten Wellen erzeuge ?
    Danke !


    Hallu Nuff,
    lies erstmal alle Kommentare auf deine Anfrage, dann wirst du den ersten Experten Kommentar "hä?" gut nachvollzeiejhn können. Ich habe bis hierhin 24h gebraucht, um zu folgenden Satements zu kommen:


    das selbe!


    Du hörst die selben beiden Frequenzen und die Intermodulation ( Schwebung = Intermodulation von in der Frequenz nur geringfügig verschiedenen SinusSchwingungen)
    Wobei die Intermodulation nur aus den Frequenzen der SinusSchallWellen resultiert, sie selbst aber keine Schallwelle darstellt. Dafür würde aber auch eine Punktschallquelle reichen, die beide SinusWellen abgibt. Oder wahlweise auch ein SchallwandlerArray das kohärente Wellen erzeugt. Die Punktschallquelle spielt per se kohärent. Wenn du die räümliche Anordnung zwischen Schallquelle und Hörposition änderst, dann ändert sich auch die Schwebung. Alles andere bleibt wie immer. ich hoffe geholfen zu haben.

    Zitat von "mslr"

    Also auch hier muss man mit der Begrifflichkeit vorsichtig sein. Was ist mit Ort gemeint? Der Ort der Messung? Im Orts-Zeit-Gesetz einer harmonischen Schwingung ist eigentlich die Auslenkung von der Ruhelage gemeint (z.B. Masse die an einer Feder hängt). In der Akustik wäre das die Auslenkung eines Luftmoleküls am Ort der Messung.
    Bewege ich mich mit dem Messmikrofon entlang einer Geraden durch den Raum werde ich eine ortsabhängige Veränderung der Resultierenden der beiden Signale sehen. Das hat in der Tat mit dem Orts-Zeit-Gesetz für harmonische Schwingungen nichts zu tun und damit nicht anwendbar.


    Schon interessant zu was "Infraschall" so alles führen kann.


    das Orts-Zeit-Gesetz gilt in unserer (gedachten) Versuchsansordnung erstmal nur bei den zwei ausgehenden Sinusschwingungen. Addieren wir die nur theoretisch, dann ergeben sich andere Vektoren (?). Als energetische Wellen in einem Medium (z.B. Schall in Atmosphäre) kommen diverse weitere Eigenschaften hinzu, die die Berechnung verkomplizieren, und eine isolierte Betrachtung ausschließen. Addieren wir die beiden leicht verstimmten SinusWellen ganz praktisch akustisch, dann findet die Superpositionsregel keine Anwendung und wir erhalten eine Intermodulation zuzüglich den beiden Sinüssen. Ist die akutisch messbar? und wäre das vielleicht des Pudels Kern in diesem threat?


    so langsam beißt sich die Katze doch in den Sack!
    und ich bin gespannt auf neue Erkenntnisse
    .

    Zitat von "mslr"

    Mmmh, das sind jetzt wieder viele Begrifflichkeiten. Also ich sehe es auch so wie wora. Wenn das Superpositionsprinzip gilt - also die 'ungestörte Überlagerung' von 2 Wellen ist diese Schwebung Sinusförmig und 'nur' die Summe zweier Schwingungen und keine eigene Schwingung.


    Intermodulation - so kenne ich jetzt den Begriff - bedeutet, dass bei der Überlagerung beide Wellen sich gegenseitig beeinflussen, dann würde auch das Superpositionsprinzip nicht mehr gelten und es entstehen eigene 'Nebenprodukte'. In der Akustik ist das bei sehr hohen Schalldrücken auch der Fall, wenn die Luft nicht mehr linear reagiert. Aber in den gesundheitlich unbedenklichen Schalldruckregionen in denen wir uns bewegen sollten in erster Näherung nicht.


    Wenn ich mich nicht irre, dann gilt das Superpositionsprinzip nur für Wellen gleicher Frequenz. Die Kollegen hier wollen ja aber eine Schwebung (kleine Intermodulation) durch Überlagerung von unterschiedlichen Frequenzen herstellen. Ab wann gilt dann welche Regel? und wie schauts in der Praxis aus? wie im vorliegenden Fall im Infraschallbereich um 3Hz ?
    eigentlich brauchen die doch nur 3Hz Sinus und nicht 3Hz Intermodulation. Oder hat uns etwa die Aufgabenstellung aufs Glatteis geführt?
    .

    Zitat von "wora"

    eine intermodulation ist selbst natürlich keine sinusschwingung.
    man kann sie bei gleichbleibenden erregerfrequenzen(!) sicher als sinusförmig beschreiben, aber von selbst ist eine schwebung eben kein eigenständiges tonsignal, sondern nur die differenzsumme zweier(oder mehrerer) schwingungen.
    sehe ich das richtig?


    Genau so verstehe ich das auch.
    aus der Überlagerung zweier verscheidener SinusWellen entsteht keine dritte Sinuswelle, sondern nur eine Intermodulation (Schwebung), deren Frequenz nur das Resultat der Frequenzen der Sinuswellen ist. Im Schallbereich bedeutet das: man hört Sinus 1 und man hört Sinus 2, aber es gibt keinen dritten Sinus 1+2, sondern eine Modulation aus Sinus 1-2. Und die Eigenschaften dieser Modulation sind eben Orts- und Zeit- abhängig. das macht die Angelegenheit so kompliziert.


    Aber was hat das alles mit der 3Hz InfraSchall Geschichte am Anfang des threats zu tun?
    .

    Zitat von "patec"


    Man vergisst dabei leicht, dass bei der Schwebung von beispielsweise 300Hz und 303Hz nicht ein 3Hz-Sinus entsteht, sondern ein 301,5Hz-Ton, der dreimel pro Sekunde laut und wieder leise wird. Das ist nicht unbedingt das, was man bei einer Infraschallmessung haben will.



    Das ist leider nicht richtig. Die Schwebung wird überall genau 3Hz haben, wenn die Quellen genau 300Hz resp. 303Hz abstrahlen. Was sich räumlich unterscheidet ist einmal die Modulationstiefe (abhängig von dem Pegel der beiden Quellen am Bezugspunkt) und die Phase der Schwebung (abhängig vom Abstand zu den beiden Quellen).


    Deine Behauptung, daß zwei SinusSchwingungen mit 3Hz Differenz als Resultierende eine 1,5Hz Schwebung erzeugen ist falsch. Nur teilweise richtig sind deine weiteren Behauptung:
    "aus 300Hz + 303Hz entsteht 301,5 Hz ..." ist falsch,
    "... kein SinusTon" ist zutreffend,
    "... der dreimal pro Sekunde laut und leise wird" ist zutreffend und wird als 3Hz bezeichnet.


    Zitat Schwingungslehre:

    Zitat

    Bei der Überlagerung harmonischer Schwingungen unterschiedlicher Frequenz und gleicher Schwingungsrichtung kommt man nur durch die punktweise Addition der Elongationen zu der resultierenden Schwingung, die in Abhängigkeit von den Frequenzen der Einzelschwingungen und deren Amplituden sehr unterschiedliche Formen haben kann. Unterscheiden sich die Frequenzen der beiden Schwingungen, die sich überlagern, nur geringfügig, so entsteht als Resultierende eine Schwingung, deren Frequenz gleich der Differenz aus den Frequenzen der beiden Einzelschwingungen ist. Das bezeichnet man als eine Schwebung. Sie äußert sich z.B. bei Schallschwingungen so, dass man bei zwei Stimmgabeln mit geringen Frequenzunterschieden einen langsam an- und abschwellenden Ton registriert. Beträgt z.B. die Frequenz der einen Teilschwingung 30 Hz und die der anderen 31 Hz, so ist die Frequenz der resultierenden Schwingung 31 Hz - 30 Hz = 1 Hz.


    Anscheindend sprechen wir doch von verschiedenen Dingen. Der threat startete mit Infraschall und Schwebung. Und unter Schwebung verstehe ich die Intermodulation zweier Frequenzen. Und selbstverständlich gelten dieselben physikalischen Gesetze auch im Infraschall. Aber Sinus und Intermodulation sind verschiedene Dinge. Stimmen wir soweit überein?


    Wenn mit zwei Sinuswellen (elektrisch) aus zwei voneinander distanzierten Quellen (elektro-kinetik-wandler / elektro-dynamik-wandler) eine 3Hz Schwebung in einem Medium erzeugt wird, dann besteht das Ergebnis immernoch aus den zwei SinusWellen jedoch zuzüglich einer Intermodulation (wie beim Beispiel mit den zwei Stimmgabeln). Diese hat als Ort- und Zeit-abhängige physikalische Größe an verschiedenen Meßpunkten im Raum unterschiedliche Eigenschaften. Soweit stimmen wir auch noch überein?


    konstant bleiben im meßbaren Raum (bei konstanten Eigenschaften des Mediums):
    die Frequenzen der beiden Sinuswellen


    relativ inkonstant weil vom Meßpunkt abhängig sind dagegen:
    Amplituden und Phasenlagen der beiden SinusWellen
    und resultierend daraus auch die Amplitude und Phase der Intermodulation.
    d'accord?


    Das heißt es gibt eine Orts- und Zeit-abhängige Funktion der Intermodulation. Die wird als Elongation beschrieben (siehe Zitat oben). Und hier kommen wesentliche Fragen auf:
    Ist diese Intermodulation überhaupt eine SinusSchwingung?
    an nur wenigen oder allen MeßPunkten und MeßZeiten?
    Ist hier das Orts-Zeit-Gesetz für harmonsiche Schwingungen überhaupt anwendbar?


    .