Jesterfox schrieb:
@Sound-Fuzzy: das hat bei DVI nichts mit -I oder -D zu tun sondern damit wie es die Grafikkarten handhaben. Bei ATI hat man spezielle Adapter gerbraucht die der GPU gemeldet haben das nun ein HDMI Gerät dran ist, bei NVidia konnte man das im Treiber forcieren. Bei den aktuellen Karten geht das aber eigentlich nicht mehr da sie ja alle direkt HDMI Ausgänge haben (früher war das notwendig da HDMI nicht bei jedem Modell direkt vorhanden war)
Doch, das hat es, zumindest ist dies die Regel.
Es gab zwar mal Ausnahmen in einer Übergangsphase, wo mit speziellen Adaptern gearbeitet wurde oder ein Kabel von der Grafikkarte auf einen SPDIF-Anschluss am Board ging, aber die Zeiten sind lange vorbei.
Grundsätzlich gilt: Kann der DVI-I auch auf HDMI adaptiert werden und gibt Bild aus (was nicht immer der Fall ist...), dann klappt es meist auch mit dem Ton. Aber das ist dann wirklich eine Frage der Karte und Kabelbeschaltung, verlassen würde ich mich nie darauf.
Aktuelle Grafikkarten haben nur noch digitale Ausgänge (DP, HDMI, DVI-D), und die können i.d.R. alle Sound ausgeben.
Bis zur 900er-Serie von Nvidia gab es noch Karten mit einem einzigen DVI-I, welcher oft keinen Sound ausgeben aber dafür eben auch auf VGA adaptiert werden konnte, was mit einem teilweise parallel verbauten DVI-D nicht geht, aber dafür kann der dann auch sicher Sound wiedergeben. Seit der 1000er-Serie fällt VGA und DVI-I komplett weg (zumindest kenne ich keine einzige Karte mehr mit analogem Ausgang) und alle digitalen Ausgänge können Sound.
Bei AMD ist dies afaik schon seit der 400er-Serie so.
Bei den Mainboard-Anschlüssen sind aktuell i.d.R. keine DVI-I mehr in Verwendung, die DVI-D-Anschlüsse können praktisch alle Sound weiterleiten. Wenn ein aktuelleres Board noch einen analogen Anschluss bietet, dann ist es VGA, wo bekanntlich auch nicht auf HDMI adaptiert und auch kein Sound übertragen werden kann.