Re: Review Gigabyte 6800 non GT mit Heatpipe
sebbekk schrieb:
Es scheint mir aber insofern unangebracht, den Video-Support an der Schnittstelle fest zu machen, als dass man
hier und
hier erkennen kann, dass sich PCIe- und AGP-Karten gleichen Modells zwar im Video-Support unterscheiden (mit Ausnahme eben der 6600 GT), sich der Unterschied zwischen Support und keinem Support aber einzig und allein aus dem verwendeten Chip begründet, welcher nun mal entweder über PCIe oder AGP (bei 6600 GT PCIe UND AGP) angebunden ist.
Das ließ zwar vermuten, dass man anhand der Schnittstelle zwischen Supportarten unterscheiden könne, aber dass eine Schnittstelle nicht Videos decodiert, sondern der daran angebundene Chip ist logisch.
Und so sieht es nun mal aus: Der NV 43 ist der einzige Chip der auf einer PCIe und einer AGP Karte zum Einsatz kommt und er beschleunigt auf beiden Modellen HD-WMV!
Nun, daß er auch in der AGP-Version HD-WMV9 bleibt momentan noch die Behauptung von nVidias Promotion-Seite. Eine verläßliche Erfolgsmeldung habe ich dazu bislang noch nirgends lesen können.
Zur Schnittstellenproblematik:
Natürlich leistet die GPU die Arbeit (wenn sie es denn tut) und nicht das Interface. Problematisch könnte aber sein, daß insbesondere beim HD-Material eine größere Datenmenge anfällt. HD-MPEG2 ist AFAIK mit bis zu 20MBit/s spezifiziert.
Wenn nun die GPU, wie im Falle von HD-MPEG2, wirklich die gesamte "Endstufe" der Verarbeitung leistet und das Bild dann ausgibt, sollte es egal sein, ob PCIe, AGP8x, AGPx4 oder gar AGPx2.
Wenn nun aber die GPU nur Teile der Decodierung übernimmt und bsw. der Datenstrom nochmal zurück in die CPU müsste (man beachte den Konjunktiv), da irgendeine Zwischenstufe nicht (wie geplant) von der GPU ausgeführt werden kann, braucht man schon mind. zwei Downloads (CPU->GPU) und einen Upload (GPU->CPU). Da AGP aber nicht parallel Up- und Downloaden kann, könnte man, je nach Implementierung der Dekodierung, schon an die Begrenzung der Bandbreiten stoßen.
Da vermutlich nicht ein komplettes Bild auf einmal dekodiert wird, sondern Blockweise, ähnlich der 3D-Graphik, könnte es sogar sein, daß pro Block mehrmals hin- und hergeschaltet werden muss zwischen Up- und Download. Da würden bei HD-Auflösung und entsprechende Anzahl der Blöcke (im 100k-Bereich) allein schon die entstehenden Latenzen das Problem verursachen.
Das ganze würde auch gut zu der Story passen, daß irgendwas im HD-WMV9-Codec so gelaufen ist, wie M$ das vorher angekündigt hat. Denn dieses Dilemma klänge nicht so, als könne man es nicht vorhergesehen haben. Vermutlich sollte die komplette Endverarbeitung auf der GPU erfolgen, so daß kein hin- und herstreamen nötig geworden wäre.
Du hast sicherlich die vielen Möglichkeitsformen bemerkt - ich habe für o.g. keinerlei Beweise. Es sind lediglich Beobachtungen und daraus resultierende Schlussfolgerungen. Ich erhebe keinen Anspruch auf Vollständigkeit und/oder Korrektheit.
Erst recht nicht, wenn ich AGP-6600-Karten sehe, die HD-WMV9-Dateien ordentlich beschleunigen.
So lange ist m.E. meine Theorie so gut wie jede andere.