Audioqualität und möglichen Qualitätsverlust durch Kompression prüfen

Naru schrieb:
Es wird nichts entfernt, was die Klangqualität beeinflusse - Es ist eine simple Stauchung, also das Stauchen der Wellenlänge auf das Potenzial hin, das wird von dem Decoder aufgerechnet, richtig, und das Stauchen von Platz durch die Bits, die eine Form aufweisen und diese angepasst wird, sodass sie wie inf ast luftdicht ineinandergehen, zumindest insoweit, dass die Identifikation durch die Quantisierung im Rahmen der Präszision liegt.

Eine Quelle die eine Stauchung belegt, wäre bestimmt auch interessant.
 
Gracee schrieb:
An sich müsste der Inhalt von .flac und .wav Dateien ja identisch sein, nur halt effektiver verpackt, oder?
In dem Fall dürfte es ja kein Problem sein, .flac und .wav Dateien, welche beide aus der selben Quelle stammen (z.b. CD), zu vergleichen und festzustellen, dass diese inhaltlich identisch zueinander sind, während .mp3-Dateien geschnitten sind. Und meine Frage diesbezüglich wäre eher die Frage, mit welchem Programm man dies am besten macht (bspw. visuelle Darstellung der Tondateien).

Wie schon mehrfach gesagt, flac in wav umwandeln und dann vergleichen.
Ja die Frage wäre also "mit welchem Programm kann ich zwei .wav Dateien Grafisch vergleichen?"
 
Gracee schrieb:
Sprich: die .wav-Dateien, die man aus CDs zieht, verhalten sich in etwa wie .mp3-Dateien, da beide auf einen gleichbleibenden kBit/s-Wert (320 bei mp3, 1411 bei CD bzw .wav) getrimmt wurden und die entsprechende Audioqualität dabei eine untergeordnete Rolle spielt, solange nur die kBit/s passen. Versteh ich das so richtig?
Nein! Ein gleichbleibender kBit/s-Wert sagt nichts über die Audioqualität aus (eher im Gegenteil).
Ich versuche das zu illustrieren: Stell dir ein grosses Orchester vor, das ein sehr dynamisches Werk spielt. Die Musik, die dein Ohr hört, setzt sich also aus verschiedenen Tonhöhen, Lautstärken, Richtungsinformationen, Klangfarben, Spieltechniken, Atemgeräuschen etc. etc zusammen. Also eine ziemlich komplexe Angelegenheit.
Nehmen wir zusätzlich an, dass der Tonmeister eine "Live"-Aufnahme macht, also rein Stereo, vielleicht mit einer Jecklin-Disk. Aus dem Mischpult kommt also eine Stereosumme.
Wird die nun in CD-Qualität codiert (44,1 kHz/s), wird das Audiosignal in 44 100 Schnippsel pro Sekunde zerteilt, in 16-bit Auflösung. Daraus errechnet sich eine Datenrate von 1411,2 kbps (Es gibt Leute, die dies für zuwenig halten - diese Diskussion blenden wir hier aus).

Jede Reduktion dieses Datenstroms verschlechtert die Auflösung der aufgenommenen Signale. das gilt insbesondere für die Kompromierung der Lautstärkewerte, und darauf ist unser Ohr besonders empfindlich. Die Effekte lassen sich mit psychoakustischen Mitteln weitgehend kaschieren - aber diese Effekte werden von geübten Hörern teilweise 'durchschaut', also gehört [in einer gewagten Analogie: Es gibt vor allem jüngere Spieler, die können ein Spiel mit weniger als 60 fps nicht geniessen. Eher ältere Semester haben Gehirne, die noch an die 25 Bilder/s des klassischen Kinofilms gewohnt sind und haben deshalb weniger Mühe mit 30 fps].
rg88 schrieb:
Ganz einfach nochmal zusammengefasst: wav ist umkomprimiert, flac ist komprimiert. Beides aber verlustfrei.
Das ist richtig und auf den Punkt gebracht.
Aber:
Die ganze Diskussion um den Nachweis von lossy bzw. lossless geht eigentlich am Thema vorbei. Denn es ist NICHT so, dass der bessere technische Prozess automatisch zu einem besseren Resultat führt! Die Steuerung der Parameter der Aufnahmetechnik, des Encoding bzw. des Decoding, sogar die Hardware und natürlich die Eingriffe ins Signal wie Equalizing, Komprimierung bzw. Limitierung etc. etc. wirken sich stark auf die Signalwandlung des Originals in ein bearbeitetes Signal aus.
Das könnt ihr am PC überprüfen: rippt eine CD mit dynamischem Material (beispielsweise Jazz mit Naturinstrumenten) mit zwei unterschiedlichen Softwares - und ihr werdet schon so Unterschiede hören (mit Pop oder anderer Mainstream-Musik braucht ihr das gar nicht zu probieren, das Zeugs ist auf eine reale Dynamik von maximal 12 dB totkomprimiert). Wer's mit den PC-Kopfhörern nicht hört, soll mal auf eine grosse, gute Tonanlage wechseln.

Fazit: Die Qualität von (bearbeiteten) Musiksignalen ist nicht in erster Linie eine technische Frage, sondern kann nur individuell definiert werden. Da sind die Unterschiede gross. Wenn der Umwandlungsprozess sorgfältig und mit geeignetem Tonmaterial gemacht worden ist, können unterschiedliche Techniken zu guten Resultaten führen.

Abschliessend wie ich es mit meinen Musikaufnahmen mache: Speicherplatz ist heute kein Thema mehr, also rippe ich CDs 1 zu 1 auf die HD und speichere sie als*.wav. Das Rippen erfolgt ohne jede Filterung, also insbesondere auch ohne Klangregelung.
 
ldasta schrieb:
Wie schon mehrfach gesagt, flac in wav umwandeln und dann vergleichen.
Ja die Frage wäre also "mit welchem Programm kann ich zwei .wav Dateien Grafisch vergleichen?"

Google: Audio analyzer
Ergänzung ()

zazie schrieb:
Nein! Ein gleichbleibender kBit/s-Wert sagt nichts über die Audioqualität aus (eher im Gegenteil).
Ich versuche das zu illustrieren: Stell dir ein grosses Orchester vor, das ein sehr dynamisches Werk spielt. Die Musik, die dein Ohr hört, setzt sich also aus verschiedenen Tonhöhen, Lautstärken, Richtungsinformationen, Klangfarben, Spieltechniken, Atemgeräuschen etc. etc zusammen. Also eine ziemlich komplexe Angelegenheit.
kBit/s-Wert ist kein gängiger Begriff, das was du meinst nennt sich Datenrate.
Das Audiosignal enthält wirklich nur die quantifizierte Information der aufgenommenen Druckluftschwankungen (Schall). Tonhöhen, Lautstärken, Richtungsinformationen, Klangfarben sind Dinge die unser Gehör samt Hirn aus dem Signal heraus interpretieren. Wobei Audio welches unser Hirn als komplex wahrnimmt durchaus gut komprimierbar sein kann. Eben weil das Gehör samt Nervensystem nicht all zu sauber arbeitet, kann man mitunter sehr viele Informationen wegschmeißen, ohne dass es stört.

Wird die nun in CD-Qualität codiert (44,1 kHz/s), wird das Audiosignal in 44 100 Schnippsel pro Sekunde zerteilt, in 16-bit Auflösung. Daraus errechnet sich eine Datenrate von 1411,2 kbps

kHz/s entspricht 1/s² was eine wirklich putzige Einheit ist. Was du meinst sind samples/s bzw. Hz ;)

Jede Reduktion dieses Datenstroms verschlechtert die Auflösung der aufgenommenen Signale. das gilt insbesondere für die Kompromierung der Lautstärkewerte, und darauf ist unser Ohr besonders empfindlich.

Was meinst du mit Datenstrom?
Man kann die Amplitude ganz wunderbar ohne Informationsverlust komprimieren. Die Frage ist immer wie man es macht. In leisen Passagen wo nur Bruchteile der maximal darstellbaren Amplitude genutzt wird, kann man problemlos ein Bruchteil der Quantifizierung aufwenden. Mitunter kann man leise Passagen recht problemlos mit 10bit quantifizieren ohne jedweden Qualitätsverlust.

Die Effekte lassen sich mit psychoakustischen Mitteln weitgehend kaschieren - aber diese Effekte werden von geübten Hörern teilweise 'durchschaut', also gehört [in einer gewagten Analogie: Es gibt vor allem jüngere Spieler, die können ein Spiel mit weniger als 60 fps nicht geniessen. Eher ältere Semester haben Gehirne, die noch an die 25 Bilder/s des klassischen Kinofilms gewohnt sind und haben deshalb weniger Mühe mit 30 fps].

Wäre die Analogie zur optischen Wahrnehmung nicht eher Bildkompression, wo gerade bei Bewegtbildern allerhand Information verworfen werden kann, ohne dass es großartig auffällt und wenn es gut gemacht ist fällt es Niemanden außerhalb eines unbewegten Einzelbildvergleichs auf.



Fazit: Die Qualität von (bearbeiteten) Musiksignalen ist nicht in erster Linie eine technische Frage, sondern kann nur individuell definiert werden. Da sind die Unterschiede gross. Wenn der Umwandlungsprozess sorgfältig und mit geeignetem Tonmaterial gemacht worden ist, können unterschiedliche Techniken zu guten Resultaten führen.

Es gibt wissenschaftliche Methoden zur Bestimmung der Wiedergabetreue. Sowohl rein messtechnisch / mathematisch sowie mit doppelt blinden A/B-Tests mit Menschen. Es lässt sich also sehr präzise sagen, wie gut die Wiedergabetreue von div. Audiolösungen ist.
Zu seinem eigenem Wohl sollte man damit nur nicht anfangen, zum einen weil sich kaum Geräte finden die keinen Schindluder mit dem Signal betreiben und zum Anderen weil die Diskussionen mit "Audiophilen" müßig sind.
 
Es spielt keine Geige, welche Abtastrate, solange die Bittiefe nicht mitzieht, doch summa summarum sind ohnehin bloß die Bitrate und die Bittiefe ausschlaggebend, solange in mindestens die *echten* 44.1 KHz anliegen, denn in weniger (24 KHz) fällt das Frequenzspektrum der Lautsprecher merklich ab, dann sind sogar die Doppelschwingspulen der Schallwandler kein Allheilmittel mehr.
 
Piktogramm schrieb:
kHz/s entspricht 1/s² was eine wirklich putzige Einheit ist. Was du meinst sind samples/s bzw. Hz ;)
zazie schrieb:
das Audiosignal in 44 100 Schnippsel pro Sekunde zerteilt, in 16-bit Auflösung
Ich finde technik-lastige Klugscheisserei wenig geeignet, um über Musik zu diskutieren. Eine Sprache à la "44.100 Abtastungen pro Sekunde = 44,1 kHz = 44,1 kS/s -> Audiosample" (Auszug Wikipedia => "Abtastrate") bringt keinen Mehrwert. Wir sind ja hier kein Forum von Elektroingenieuren.
 
@Naru
Du wirft Begriffe ja noch Schlimmer durcheinander -.-
Bitrate, Bittiefe, ... da rollen sich die Zehennägel hoch.
Die Abtastrate gibt es als gängigen Gegriff wirklich und ist eine von zwei essentiellen Größen, die die Auflösung von Audiosignalen bestimmt und ist damit von der Bedeutung her weit weg von "keine Geige spielen".
 
zazie schrieb:
Ich finde technik-lastige Klugscheisserei wenig geeignet, um über Musik zu diskutieren. Eine Sprache à la "44.100 Abtastungen pro Sekunde = 44,1 kHz = 44,1 kS/s -> Audiosample" (Auszug Wikipedia => "Abtastrate") bringt keinen Mehrwert. Wir sind ja hier kein Forum von Elektroingenieuren.

Nunja, hier wurde nach Kompressionsverfahren gefragt. Der Spaß ist wie die ganze Signalverarbeitung auch in Algorithmen und Hardware gegossene Mathematik / Physik und damit pure Technik / Wissenschaft.
Das dies kein Forum für E-Techniker ist stimmt, aber angeblich geht es hier um Computer und die Dinger funktionieren auch nur, weil die elektronische Informations- und Signalverarbeitung sich strikt nach diesen physikalisch / mathematischen Grundlagen richtet.
Ergänzung ()

Naru schrieb:
So, Herr Schlaumeier, dessen sprachdidaktische Kenntnis ebenso wenig gegeben ist wie seinesgleichen Kenntnis zur Etymologie:
https://de.wikipedia.org/wiki/Samplingtiefe
https://de.wikipedia.org/wiki/Bitrate

Lies deinen Text nochmal ;)

Du schreibst selbst, die Datenrate sei nicht wichtig, die Bitrate hingegen schon, wobei der Wikiartikel auf den du linkst deutlich macht (siehe grauer Kasten auf dem Wikiartikel), dass die Begriffe synonym verwendet werden. Du widersprichst dir da also selbst.
Ansonsten ok, die Samplingtiefe wird bei Wikipedia auch als Bittiefe bezeichnet. Finde ich schrecklich, der Begriff wird aber anscheinend wirklich verwendet -.-

Richtig wäre halt: Samplingrate * Samplingtiefe = Datenrate ;)
 
Zuletzt bearbeitet:
Ach, dann sage doch gleich, dass Dich die Definitionen ankotzen, welche in der Geselleschaft für ein verschiedenes Synonym sogleich stehen! ^^

Die Abtastrate ist nicht die Datenrate/die Bitrate! Zu diesem Konsens musst Du mich zuerst einmal bringen! ^^
Ergänzung ()

Piktogramm schrieb:
Ergänzung ()

Richtig wäre halt: Samplingrate * Samplingtiefe = Datenrate ;)

Wenn die Bittiefe echt ist, von der Aufnahme hergehend bis zum Überspielen, dann ja, aber ansonsten bringt es Dir gar nichts, etwas von 16 zu 24 Bit zu konvertieren!
 
Der TE rippt doch von einer CD. Also reden wir von 16 bit/44.1 kHz. Wozu das ganze blabla :rolleyes: :D
 
Naru schrieb:
Ach, dann sage doch gleich, dass Dich die Definitionen ankotzen, welche in der Geselleschaft für ein verschiedenes Synonym sogleich stehen! ^^

Nein. Generell verstehe ich nicht warum du überhaupt so viel Stuss schreibst? Praktisch jeder deiner Posts ist extrem weit von der tatsächlichen Realität entfernt, daher kannst du auch keine Quellen liefern, da es einfacher wäre Quellen zu finden, die die Gravitation als Lüge abstempeln und behaupten an unseren Schuhen wäre nur Kleber.

Bei praktisch all deinen Posts (nicht nur dieser Thread) merkt man, dass du dich extrem weit ausserhalb deines Hoheitsgebiets befindest. Warum dann überhaupt etwas schreiben? Vorallem handelt es sich hier um recht einfache Dinge, die wirklich jeder nachlesen kann. Warum also du nicht? Warum schreibst du el*len*lange Posts ohne Informationsgehalt, welche faktisch auch noch falsch sind?


Logischerweise bin ich Elektroingenieur und eine weiterführende Quelle wäre bestimmt interessant gewesen, aber leider scheint Müll zu posten eher deine Passion zu sein.
 
Lade z.B. alle Dateien in Audacity, schalte die Tracks auf Spektrum um und du kannst sehen, welche Frequenzbereiche bei MP3 weggeschnitten wurden. FLAC und Wave werden identisch aussehen.

Irgendwie so wird es dann sein müssen.
 
Naru schrieb:
ansonsten bringt es Dir gar nichts, etwas von 16 zu 24 Bit zu konvertieren!
Doch. Ob es sinnvoll ist, aus 5 MB 500 (Extrembeispiel) zu machen, ist so naja. Upsampling bzw. Upscaling ist ja nicht neu. Audio klingt besser, und Video sieht besser aus.
 
Martha Focker schrieb:
Upsampling bzw. Upscaling ist ja nicht neu.
Es wäre weder das eine noch das andere, sondern eine Erhöhung der möglichen Genauigkeit. Ein 16 Bit Int ist in 24 Bit genau der gleiche Wert, nur noch mit ein paar (unnötigen) Nullen.
 
Tja, was soll's? Für mich zählt nur, ob ich die klangliche Verbesserung beliebig oft überprüfen kann. Da gibt es ja mehrere Spielwiesen, auf denen man sich austoben kann, auch ohne technisches Fachwissen. Erfahrungswissen halt, mehr nicht.
 
Martha Focker schrieb:
Upsampling bzw. Upscaling ist ja nicht neu. Audio klingt besser,

Dieser Effekt ist sehr gering, wie als wenn während der Wiedergabe ein Resampler von 48 auf 96 KHz zugeschalten ist und so dieses Signal digital zu einem Amplifier übertragen wird, der es umsetzen kann.
Mit einem herkömmlichen Class-A/-B/-AB/-H-Amplifier kann diese zusätzliche Präzision in der Abtastung nicht herausgehört werden, dafür ist allein die Methodik per Pegelumsetzer verantwortlich, dass der Digital/Analog-Verstärker kein Präzisionskünstler ist.
Mit meinem Class-D-Amplifier sind die Abstufungen der Beats feiner und das harmonisiert nicht immer, manchmal klingt 's zu unrhythmisch, summa summarum ist der Klang identisch und er verliert kein bisschen von seinem digitalen, geradezu kalten Charakter.

Martha Focker schrieb:
und Video sieht besser aus.

Es glättet die Zeilenstruktur von den Konturen, das sieht man aber nur in einem Standbild, in Bewegtbildern unmöglich, ausgenommen von schlechten Quantisierungen, unzureichenden B/I/P-Frames, wie so mancher alter DVD-Rip von Fansubs, aber aus wenigeren Farben werden trotzdem nicht mehr: Was nicht da ist, das kann nicht erzeugt werden!

Ist das Quellmaterial von Akagami no Shirayuki-hime ins MPEG-4 Part 10 - High Profile 10 (H.264 - YUV 4:4:2 / x264 - YUV 4:4:2) überführt und ins MPEG-4 Part 12 - High Profile 12 (H.264 - YUV 4:4:4 / x264 - YUV 4:4:4) dann sind die Farben beibehalten, aber ins MPEG-4 Part 10 - High Profile (H.264 - YUV 4:2:2 / x264 - YUV 4:2:2) sind ein Teil derer verloren gegangen, diese holt keine erneute Berechnung zurück, weder das MPEG-H Part 2 - High Profile 10 (H.265 - YUV 4:4:2 / x265 - YUV 4:4:2), noch das MPEG-H Part 2 - High Profile 12 (H.265 - YUV 4:4:4 / x265 - YUV 4:4:4).

Bei Videos macht die Farbtiefe gar nicht so viel aus, wie um sie beworben wird, denn in Bewegtbildern nimmt sie das Auge kaum wahr, ganz anders als wenn ich Fotos gegenüberstelle, diesen Versuch bin ich bei Akagami no Shirayuki-hime angegangen, wo einzig zu Beginn der ersten Episode, also Shirayuki durch den Wald spaziert, der von den prächtigen Pflanzen und den Sonnenstrahlen erleuchtet ist, es zeigt sich nur dort und an vereinzelten Stellen, was mehr Bittiefe der Farbkammern bringen kann.
 
Zuletzt bearbeitet:
Was hier für Pfeifen unterwegs sind ist ja nicht mehr feierlich.

Zum Thema:

Wenn du überprüfen willst ob zwei Signale identisch sind, lade beide in Audacity, invertiere eines der Signals und führe dann die Spuren zusammen. Sind die Signale identisch erhälst du überall NULL, quasi Stille. Sind die Signale nicht identisch, dann kannst du dir nach dem zusammenführen die Differenz anhören, anschauen.

Zur Funktionsweise von Flac und warum es lossless ist:

Flac macht im ersten Schritt ähnliche Dinge wie MP3, also ein Signal mit Verlusten erstellen und extrem Redundanz rausrechnen.
Allerdings wird zusätzlich die Differenz vom Original zu dem komprimierten Signal (also was dem lossy Signal fehlt) mit abgespeichert. Das macht das Ganze wieder lossless.
 
Zurück
Oben