Beiträge von Bodo Felusch

    Hallo pure-audio,


    ich kenne leider keinen aktuellen Systemcontroller der solche Daten entgegenzunehmen im Stande ist ...BSS FDS366T konnte das noch.

    Ich habe mich 2018 dem Thema mal spielerisch andersrum genähert.


    - SNMP oder IoT Sensoren ...2 Stück gemittelte Höhe mit PA fliegen.

    - Daten Einsammeln und ins Internet an Thingspeak übergeben.

    ....jetzt fehlt jemand der das per Mathlab einsammelt und die Excelberechnung vornimmt um Output Daten zu generieren um diese dann händisch zu übernehmen. Der Internetschritt kann auch weg, aber ich wollte wissen wie das IoT so denkt und ne E-Mail triggern die sagt "Ey Typ Delays +16,5ms bitte" ...was natürlich eh Quatsch ist denn von 10°C zu 45°C sind nur 4,3ms und für die Phasenpolizei bei 80Hz 124,4° ...ohne C :)


    Dann fehlt natürlich immer noch der Prozessor der es frisst und das Amping wird ja immer mehr proprietär, die ein oder andere Entwicklungsabteilung fand das aber interessant.

    Hier das Memo an mich selbst:

    https://www.felusch.de/?p=2961


    sag Bescheid wenn Du es gelöst hast

    Gruß

    Bodo

    Ich nutze eine FIR-Messsoftware und dafür eine DSP-Plattform mit 6144 Taps.

    Und du?

    Hallo hermste,


    mit welchem DSP Controller arbeitest Du?


    Ich experimentiere grade mit dem Mini DSP 2x4HD, da ist schonmal die Sonne aufgegangen aber ich vermisse folgende Features:


    - professionelles Netzteil

    - hochwertige, symetrische trafolose Ein- und Ausgänge

    - passwortgeschütztes Preset Locking

    - Preset Recall via irgendwas einfachem wie Knöppkes, Display+Rad, GPIO ...was auch immer


    Über eine Antwort und Tipps würde ich mich freuen

    Gruss

    Bodo

    Ich finde, die Ursprungsfrage hat so viel mehr Potential. Beantwortet wurde sie konkret nicht...

    Von den hier beschriebenen Antworten abgesehen, sowie unter Deinen Einschränkungen gibt es keinerlei Klangunterschiede und schon gar nicht was Bearbeitungen durch EQ/Comp und Co. betrifft. Also z.B. Trim runter -> Treshold runter, EQ bleibt usw. Da passiert überhaupt nichts außer den von mir beschriebenen Re-Quantisierungs Artefakten, welche allerdings nicht beschriebenen Yamaha Exemplaren erstellt worden und außerdem normalisiert wurden ...um das klarzustellen für den der hier einsteigt!


    Wir haben genug Yamaha Konsolen ...irgendwas ist immer da, ruf mich vorher an und komm gerne vorbei zum experimentieren.

    Kannst Du den Pegel noch herausfinden? Ich finde den schon wichtig zur Einordnung.

    Wenn man den Pegel vernachlässigt, würde man z.B. bei jeder analogen Schaltung Rauschen finden, das ist immanent. Da sind wir uns ja auch einig, daß der Pegel eine Rolle spielt.


    Und ich gebe Dir Recht, Pegel ist nicht alles, aber es ist eben doch ein Unterschied, ob wir bei Artefakten über -30, -50 oder -70dB reden.

    Nein, sorry das ist nicht mehr möglich. Führe doch deine eigenen Experimente durch dann hast Du auch selber alles im Griff und kannst Dir die Fragen selber beantworten weil Du alles kennst, denn du hast es ja selber gemacht. ...es geht ja schnell, ich hab die Session nicht gespeichert und werde das jetzt nicht nochmal wiederholen, das Ziel hatte ich ja vorher geschrieben war ein anderes. Viel Spaß beim Experimentieren. ....mehr macht jetzt auch glaub ich in so nem Thread und speziell in diesem keinen Sinn, die Ursprungsfrage ist längst beantwortet und abgedriftet sind wir auch schon. Das endet in einem "welches Pult klingt besser" Thread und die Antwort ist wie immer "das mit dem DU besseren Sound machst".

    man nehme ein (am besten unkomprimiertes) wav-file und erzeuge davon ein mp3 file.

    sodann legt man beide signale pegel- und zeitmäßig exakt übereinander und dreht eines davon in der phase.

    Weil ich grad in Laune bin hab ich das zum Frühstück mal kurz gemacht ...es hat keinen Wissenschaftlichen Anspruch auf Perfektion!


    Vergleich A

    Quelle: 192kHz/24bit AIF

    Vergleich A: MP3-320kbps



    Vergleich B

    Quelle: 192kHz/24bit AIF -> Konvertiert in 44,1kHz/16bit

    Vergleich B: MP3-320kbps


    zur Konvertierung wurde itunes mit der Quicktime Engine genutzt ...sorry hab grade keinen Weiss SRC zur Hand :)


    DAW:

    - Logic X 64bit Engine

    - nur Polarität auf dem MP3 Kanal invertiert

    - Export in Original Quellenauflösung mit PowR2 Dither & Normalisierung

    -> Anschließend die 192kHz Version mit Quicktime auf 44,1kHz zurück damit die Vergleichsdateien gleich sind.







    Hörbeispiele:

    https://hearthis.at/bodofelusch/set/mp3-nulltest/

    also ich habe schon dienstleisterfirmen erlebt, die eher die 0,50ct schiene bedienen... und das ist gar nicht sooo selten.

    kenn ich auch, wenngleich nur als Randerscheinung in meinem Alltag ...jedesmal wenn ich soch Exemplare treffe und anspreche sind sie allerdings der Meinung ganz großes Kino zu liefern :) ...das unterscheidet sie von den Köchen!


    ...und ist wahrscheinlich den oben beschriebenen Gesetzmäßigkeiten geschuldet ...boah "Gesetzmäßigkeiten" wie anmaßend klingt das jetzt? ...hab grad kein besseres ersetze es durch was Dir besser gefällt :)

    Es gibt zwei generelle Ansätze bei der Optimierung der Audioqualität.


    1. Relativierung von einzelnen Parametern mit anderen

    2. Optimierung von jedem möglichen Parameter


    ...ich bevorzuge die zweite, bilde mir über den Erfolg mein eigenes Urteil und versuche anschließend die Gründe zu erschließen.


    Dazu muss einem natürlich Qualität erstmal wichtig sein, es gibt ja noch andere relevante Parameter!

    ...grade im Event Geschäft


    Es ist eine häufige Fehlannahme unter Audiokolegen, das die Signalkette nur so gut ist wie ihr schwächstes Glied. Kontraproduktiv wird es dann in Bezug zur Audioqualität, wenn diese Annahme auf Ansatz Nummer 1 trifft. Ein Beispiel ist z.B. HiRes Zuspielung vs. MP3 auf minderwertigen Lautsprechern auch hier lassen sich mit geschulten Gehören unter Kollegen Trefferquoten von größer 70% leicht erzielen und der Parameter "Emotionale Wahrnehmung s.o." bei ungeschulten Menschen nachvollziehen ....sie hören länger und aufmerksamer zu oder fangen Gespräche an drängen die Musik in den Hintergrund. Zitate wie "ich höre da keinen Unterschied, aber das eine das hat mir irgendwie besser gefallen" sind keine Seltenheit. Jedem Toningenieur muss klar sein das es sich unter Fachleuten ähnlich verhällt. Der eine hört bewußt Dinge die der andere nicht nachvollziehen kann. Mit Aussagen wie "das hört man doch eh nicht" würde ich vorsichtig umgehen ...denn sehr oft kommt einer der hört es doch :) Ebenso falsch aus meiner Sicht ist die Haltung "Der Gast hört das doch eh nicht" Das hat für mich wenig mit Berufsehre zu tun. Bisher hatten wir da wenig Probleme aber die Zeit wird kommen. Die Köche machen uns das vor, man kann auf einer Veranstaltung bei einem Lieferanten 5* für die Chefs a 500€ und Hundefutter für die Crew a 0,50€ bestellen und wird von jedem Caterer der Welt beliefert. ...Probier das mal bei einem Dienstleister für Tontechnik :)

    Gehen wir mal von einer Akustik-Gitarre aus, die mit 85dB(A) beschallt werden soll. Das Publikum liegt bei 60dB(A) vor Getränken. Wir haben also einen Noisefloor bei 25dB unter Nutzsignal.

    Ah sorry ...ich muss noch einmal nachtreten :) ...nicht böse sein ist lieb gemeint!


    Ich denke Die Annahme ist nicht ganz zutreffend. Man kann nicht nur von Noisefloor reden, der Grund dafür liegt in der Tatsache, dass der Rundungsfehler selber zwar in diesem versinken mag, aber er sich auch mit steigenden Kanalzahlen bei der Summierung akkumuliert und letztendlich gar nicht wie hier extrem dargestellt wahrnehmbar wird, sondern sich in Parametern wie Räumlichkeit, Tiefenstaffelung, Quellen Separation, "Kleben im Stereobild" usw. äußern. Stand der Technik heute ist, man geht bei 24bIt Quellen und doubble Precission Processing mit 64bit Float davon aus, das dies der analogen Vorbilder genügt. Ein Vergleich ist nur auf DAW Ebene möglich, sobald echte Hardware ins Spiel kommt addieren sich weitere Parameter wie Clock und PLL usw. Analoge Summierer verkaufen sich ja so gut weil sie eben nicht transparent und linear sind, einer Tatsache der man auf digitaler Ebene nur durch Emulationen etwas entgegensetzten kann. ...ist ja grade ein Trend. ...dabei werden natürlich wieder A/B Vergleiche zur Summierung selbst hinfällig. ...ich behaupte das nach dem bewußten Hören die Qualitätswahrnehmung ab einem gewissen Break Even nur noch emotional greifgbar wird und sich somit Zwecks technischer Vergleiche komplett disqualifiziert.

    Ich weiß nicht, was diese Aggressivität soll, Herr Felusch. Ich finde, das gehört hier nicht hin.

    Wenn meine Aussagen bei Dir aggressiv angekommen sind so tut es mir Leid, lass Dir versichert sein, so wurden sie nicht gesendet!


    Wie kamst Du jetzt zu der Annahme?


    Das ich Deine Fragen nicht verstehe ist mein Problem, die Rückfragen dienten der Klarstellung dessen über was wir reden. So ging es mir im übrigen auch bei der Eingangsfrage des TE! ...ich habe da nur ein relevantes Thema rausgehört, "Re-Quatisierung" ...da rein spielt Summierung ...daraus wird Klangunterschiede ...daraus wird nicht 1:1 vergleichbare Esotherik ...zuminest sobald echte Hardware im Spiel ist. ...spätestes da bin ich raus

    ...ich dachte einfach wir sind jetzt durch mit dem Thread ...kam ja auch nicht mehr viel Input


    Also noch ens: Sorry für jede angekommene Aggressivität, nichts läge mir ferner!!!

    ...so ne Forumsdisskussion ist vielleicht einfach nix für mich, ich hatte halt das Bedürfnis nach all der Terminwerbung, die ich hier reinspamme mal bei einem Thema was mich auch interessiert mit zu reden ....das scheint sich so nicht auszugehen und ich ziehe mich wieder zurück in das bequeme Nest meiner wirren Gedanken.

    Ich habe mal ein Klangbeispiel dazu erstellt:


    Quelle: AIF Datei 192KHz/24 Bit


    Bearbeitung:

    Beispiel A - mit Gains


    CH1: Original

    CH2: Bearbeitung: -12dB -> +12dB -> Polarität Invertieren


    Bounce -> Normalisieren



    Beispiel B - ohne Gains


    CH1: Original

    CH2: Bearbeitung: Polarität Invertieren


    Bounce -> Normalisieren



    DAW 1 - Logic 9 mit 32 Bit Floatingpoint interner Berechnung


    DAW 2 - Logic X mit 64 Bit Floatingpoint interner Berechnung





    Ergebnisse & Hörbeispiele

    Logic 9 - 32Bit Float -> Keine GAINS nur Poarity Invert + Normalisierung



    https://hearthis.at/bodofelusch/bounce-logic-9-no-gains/KoQ/


    Logic 9 - 32Bit Float -> Mit GAINS und Poarity Invert + Normalisierung



    https://hearthis.at/bodofelusch/bounce-logic-9/OUD/




    Logic X - 64Bit Float -> Ohne GAINS nurPoarity Invert + Normalisierung



    https://hearthis.at/bodofelusc…gic-x-64bit-no-gains/uvA/




    Logic X - 64Bit Float -> Mit GAINS und Poarity Invert + Normalisierung ...sieht man nur ganz gering und geht im Rauschen unter, lässt sich auch nicht weiter normalisieren?!

    https://hearthis.at/bodofelusch/bounce-logic-x-64bit/7oO/



    Alle Hörbeispiele im Set

    https://hearthis.at/bodofelusch/set/re-quantisierung/





    Die nächste Frage/Behaputung die jetzt kommt ist ...im Mix hörst Du das doch eh nicht

    ...hier schonmal prophylaktisch die Antwort: ...wenn Du das sagt! :)



    Christian: sind wir jetzt durch oder ist das immer noch zu theoretisch? ....es hilft Dir die ganze Praxis nix, wenn man ständig Äpfel mit Birnen vergleicht und sich mit jedem Schritt noch 10 andere Parameter ändern!

    Man kann ja noch nichtmal 2 Pulte nehmen den gleichen Mix 1:1 durchschieben und das vergleichen ohne z.B. Clock und PLL gleichzeitig mit in die Gleichung einzubauen ....oh Gott jetzt hab ich die Reizworte gesagt ...Achtung für Shitstorm :)












    Ich verstehe schon wieder Deine Frage nicht ...sorry


    ist das so richtig:


    Gitarre oder sonstiges Signal -> analog In 1


    CH1+2 Quelle ist ADC#01 & Preamp ist auf ca. -30dB Peak LED ausgesteuert

    CH2 Digital Gain to -5dB Peak LED, d.h. +25dB


    CH1 EQ + Kompressor einstellen, dann -> Copy to CH2


    CH2 Kompressor -> Treshold Offset enstsprechend dem Preamp Gain ändern


    EQ ist mal angenommen nur passiv und dämpft um Übersteuerung in CH2 auszuschließen


    CH2 LEVEL = -25dB -> Ziel ist, das Processing und die Ausgangspegel von CH1+2 sind exakt gleich.



    Daher darf ich doch wenigstens verwundert sein, wenn dann jemand (so sehr ich dessen fachliche Arbeit und das öffentliche Hinterfragen und Querdenken zu schätzen weiss) erzählt, dass die Berechnung nur mit 24Bit Festkomma durchgeführt wird.

    Du hast Recht, auch diese Behauptung ist nicht mehr als das und somit haltlos. Es war zu Zeiten von M7 und eben diesen aufkommenden 32Bit Float Marketing Kampagnen der Wettbewerber als mir intern vermittelt wurde, dass die Yamaha eigene CPU mit 24bit Festkommaberechnung arbeitet. Ob das überhaupt stimmt ist fraglich, da nicht dokumentiert. Bitte streicht das aus Eurem Kopf!


    Beschränken wir uns auf die theoretischen Hintergründe.


    Es ist eine Tatsache, dass der Prozess Quantisierung dem Signal Quantisierungsverzerrungen hinzufügt, welche sich in ungünstigen Fällen in der Addition von harmonischen Obertönen sowie darin begründeten Intermodulationsprodukten äußern kann, insbesondere zu tiefen Frequenzen hin. Das kann jeder in seiner DAW ausprobieren, indem er einen 100Hz Sinusgenerator anwirfft und anschließend einen "Bitcrusher" o.ä. Effekt hinzufügt, der in der Lage ist die Wortbreite zu veringern aber auch nur die Wortbreite! ...kann man hier ein Video anhängen?


    In der digitalen Bearbeitung und sei es nur ein "Trim" passiert das gleiche, wenn anschließend der resultierende Wert auf die vorhandene Skalierung gerundet werden muss (Re-Quantisierung)


    In der folgenden Summierung ebenfalls, da auch hier Werte herauskommen die auf das passende Raster gerundet werden müssen.


    Fließkommaberechnungen haben den Vorteil, das der darstellbare Zahlenraum ungleich größer wird und der mögliche Dynamikbereich damit so groß wächst, das man quasi intern keine Übersteuerung mehr provozieren kann.


    ...aja ich glaub so gehts Moment ...ne Mist geht doch nix hier kann man nix hochladen

    dann findet ihr hier ein geheimes Video auf Facebook ....das geht immer ...ich hoffe ihr könnt es sehen:


    https://www.facebook.com/BodoF…g/videos/962762310525752/

    ...das ist jetzt natürlich extrem und in keinem Mischpult so zu hören, wir reden dann immer von Räumlichkeit, Tiefenstaffelung und Abbildung und auch hier dürften teilweise die Unterschiede so gering sein, dass man es nicht mehr hören kann sondern nur fühlen. ...jeder der seinen Scheiß so optimiert hat bis nix mehr geht, weiß das irgendwann der Punkt kommt wo man es nicht mehr bewusst wahrnimmt sondern nur fühlen kann. ...eine Herausforderung an die Beweisführung der sich die nächsten Generationen stellen müssen. ...ich hingegen muss damit leben im Audiomittelalter als "Spinner" abgestempelt zu werden :)



    Was folgt ist die Frage ob es in der Praxis relevant ist.

    ...Achtung OFF Topic:

    Ja, ...und zwar immer dann wenn mir jemand versucht seine 80bit Float Maschine als das best klingendste Pult zuverkaufen das es je gegeben hat aber nicht in der Lage ist mir dies gegen den vorhandenen Bestand belastbar zu beweisen :) ...wenngleich ein Mischpult in Symbiose mit dem bedienenden Mensch natürlich einen wesentlichen Einfluss auf das klangliche Erlebnis hat! Es gibt zwei Extreme von denen Stand 2017 nur eine bewiesen ist. Ersten, der Mensch hat einen großen Einfluss auf den Klang und zweitens die Summierung (und NUR die Summierung!) auch. ....ich habe noch keinen sinnvollen verblindeten A/B Vergleich erlebt. ....los wo sind die Studenten?