Nun Blade, lamda hat ja diese schöne Software empfohlen – teste doch deine HF Anlage damit und schau, ob Du einen Unterschied hörst (mit einer Verlässlichkeit, die 50%
deutlich übertrifft). Wobei der Artikel sich ja eigentlich um die Kopfhörer dreht, und m.E.n. und der E. eines meiner geschätzten Audioexperten nach muss man ohnehin schon sehr viel investieren, um mit einer Anlage mit Kopfhörern gleich aufzuziehen.
Deine Ergebnisse würden mich interessieren. Ich werde das ganze auch noch mal aufrollen, vielleicht können wir es ja in einem separaten Thread präsentieren
Zur anderen Sache:
Selbstverständlich siehst Du Unterschiede im Spektrogramm! Wenn es nicht so wäre, würde es eine vollständige Identität zwischen komprimiertem und unkomprimiertem Material bedeuten, d.h. die Kompression wäre wirkungslos. In
diesem Bild sieht man sehr schön, wie die Codecs die Spekis verändern. Was zum Beispiel schön auffällt, ist, dass die Codecs alles über einer bestimmten Maximalfrequenz (vermutlich irgendwo bei 20 kHz) komplett wegschneiden, weil es der normale Mensch wie gesagt sowieso nicht hören kann. Junge Menschen hören theoretisch bis ~20-22 kHz – aber auch nur in Tests, in denen ihnen ein einzelner (Sinus)ton vorgespielt wird.
Solche verlustbehafteten Codecs machen sehr viele Dinge, aber u.A. entfernen sie nicht hörbare Informationen aus dem Material. Das Gehör nimmt z.B. leise Töne, die unmittelbar auf laute Töne folgen, nicht wahr. Ergo muss man diesen leisen Ton gar nicht erst abspeichern.
Zusammenfassend: Es
gibt Unterschiede (physikalisch gesehen) und man kann die mit den entsprechenden Utensilien auch visualisieren – aber das heißt nicht, dass man sie auch hören kann. Das einzige, was hier zählt, ist ein Blindtest.
Zu den 24 Bit: Man spielt in 16 Bit und nimmt mit 24 Bit auf. Das liegt aber nicht daran, dass 24 Bit für den Menschen "besser" sind als 16. Der Grund dafür ist ziemlich kompliziert zu erklären; in kurzform: Das Problem ist das sogenannte Quantisierungsrauschen, das dadurch entsteht, dass das analoge Signal durch die digitalen Stufen nicht immer exakt getroffen wird. Es entsteht also eine Abweichung, die sich als Rauschen bemerkbar macht. Jetzt ist das Quantisierungsrauschen bei 24 Bit tatsächlich kleiner als bei 16 Bit, da die Stufen feiner auflösen. Das an sich ist nicht der Grund fürs Mastern mit 24 Bit. Schon das Signal-Rausch-Verhältnis bei 16 Bit liegt bei 96 dB, was absolut bombenstark ist (analoges Fernsehen ist oft bei 40 dB rumgeeiert).
Nun hat man aber folgendes Problem: Man weiß beim Aufnehmen von Musik nicht mit Sicherheit, wie laut der lauteste aufzunehmende Ton sein wird. Man will aber unbedingt den vollen "Hubraum" der 16 Bit ausnutzen, d.h. man möchte, dass der lauteste Ton im Zeitverlauf genau den Abtastwert aus 16 mal der 1 trifft oder knapp darunter bleibt.
Nimmt man nun mit 16 Bit auf und legt das Signal so rein, dass es den Hubraum gut ausfüllt, kommt es sehr schnell zum Clipping. Daher nimmt man im 24 Bit Raum auf und nutzt nur etwa das mittlere Drittel so, dass die meisten Töne mit ihrer maximalen Aussteuerung in diesem Bereich bleiben. Kommt nun doch ein sehr lauter Ton, ist genügend Reserve vorhanden.
Anschließend hat man das fertige Stück, welches man bequem hinüber in den 16 Bit-Raum wandeln kann. Man hat nun ein clippingfreies Audiostück mit nicht wahrnehmbarem Q-Rauschen in günstiger 16-Bit-Hardware.
Dass mittlerweile auch 24 Bit Musik und die zugehörige HiFi verkauft wird, ist, knallhart formuliert, Geldmacherei und nutzt gezielt aus, dass die Leute nicht wissen, warum 24 Bit beim Aufnehmen nötig sind. Beim Abspielen braucht das kein Mensch. Die sich selbst als Audiophile bezeichnenden Leute sind bereit, sehr viel Geld für sowas liegen zu lassen. Der Unterschied ist nicht wahrnehmbar