Eine Audio Datei wird bitweise deterministisch decodiert. Soll heißen, dass wenn ich die gleiche Datei 1000 mal decodiere, dann erhalte ich bitweise das gleiche Ergebnis.
Eventuelle Verluste sind Rundungsfehler bei der Berechnung und eventuelle Interferenzen sind abhängig von der Qualität des Decoders (Rechenzeit). Mit gleicher Software und Hardware ist es trotzdem deterministisch.
Das Codieren einer digital vorliegenden Datei ist ebenfalls deterministisch. Soll heißen, dass wenn ich die gleiche Datei 1000 mal codiere, dann erhalte ich bitweise das gleiche Ergebnis.
Mache ich Decodieren und Codieren also im Wechsel 1000 mal, dann sollte ich (theoretisch) bitweise das gleiche Ergebnis bekommen, außer - und nun kommts:
Das Ergebnis verändert sich in der Praxis dann, wenn
- Sich die Rundungsfehler potenzieren --> Spielt keine Rolle, wenn ich das einmal mache, bei 1000 mal eventuell schon.
- Die verwendete Software oder Einstellung beim (De-)codieren ist auf "schnell" oder sowas eingestellt. Damit wird nicht bitweise decodiert und es können Interferenzen und andere Effekte auftreten, die das Ergebnis verfälschen = verschlechtern. Das potenziert sich ebenfalls mit der Anzahl.
--> Es ist also möglich, dass die Qualität immer schlechter wird. Der Grad der Verschlechterung hängt aber vor allem von der verwendeten Software (und deren Einstellung) und der Anzahl der Decodieren/Codieren ab, mit der sich die Verschlechterung potenziert.
Somit behaupte ich: Das was du schreibst stimmt zwar irgendwie, aber nur unter bestimmten Bedingungen. In der Realität mit einmal decodieren und einmal neu codieren sollte das alleine keine hörbare Verschlechterung bringen.
Ich halte jetzt keinen Vortrag über Nachrichtentechnik, deshalb nur der Link:
https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem
Szenario 1:
Quelle: "Lossless" Audio Datei
Übertragung: Kabel.
Ergebnis: Kein Verlust durch einen Codec
Szenario 2:
Quelle: "Lossless" Audio Datei
Übertragung: LDAC.
Ergebnis: Datenverlust beim Komprimieren in ein kleineres Datenformat und bestimmten Umständen. Immer noch bessere Qualität als bei einer Audio-CD!!
Szenario 3:
Quelle: AAC 320 kBit/s Audio Datei
Übertragung: LDAC / aptX HD
Ergebnis: Es muss einmal decodiert werden und dann in ein Format codiert, welches eine höhere Bitrate sowie höhere Auflösung zulässt. Es müssen keine Daten weggelassen werden und somit auch nicht "nochmal" irgendwelche Frequenzen abgeschnitten werden, so wie du es beschreibst.
Ein Unterschied durch sollte hier nicht hörbar sein (im Vergleich zu dem gewünschten Lossless BT Codec).
Szenario 4 a und b
Quelle 4a: AAC 320 kBit/s Audio Datei
Quelle 4b: "Lossless"
Übertragung: SBC
Ergebnis: Bei 4a muss einmal decodiert werden und dann in ein Format codiert, welches eine trotz höherer Bitrate weniger Daten als das decodierte Original zulässt. Somit kann es sein, dass hier zusätzlich Informationen verloren gehen SBC schlechter klingt als AAC und schlechter als Szenario 3.
Ergebnis 4b. Hier kann direkt in SBC codiert werden. Da das Übertragungsformat hier der Flaschenhals ist, halte ich es für unwahrscheinlich (aber möglich), dass 4b besser als 4a klingt.