vander schrieb:
Ich denke es kommt erschwerend hinzu das es schon einige Kartengenerationen von AMD gab die bei Belastung mit GPGPU Programmen überfordert werden und vor sich hin schmelzen(Furmark, AMD Treibertricks zur Leistungsbegrenzung um Überhitzung zu vermeiden).
Inwieweit das von AMD so beabsichtigt ist um eine ernsthafte Nutzung der vorhandenen Rechenleistung zu unterbinden oder ob hier einfach nur auf Teufel komm raus billig produziert und entwickelt wurde mag jeder selbst entscheiden. IMHO hat AMD auf dem Grafikmarkt zu Recht ein Image als Kinderzimmerhardwarehersteller, während nVidia auch für Wohnzimmer und Firmen entwickelt und produziert. Merkt man an den Produkten und dem technischen Support.
Ich vermute mal, du spielst hier auf die HD4870/4890 an, oder? Dass das aber totaler Bullshit von HT4U war, und einfach nur das Zusammenwürfeln von Messwerten und Technischen Daten komplett anderer Bauteile, das muss man ja nicht erwähnen. HT4U hat's ja auch nur in einer klitzekleinen Fußnote mitten im Artikel kurz erwähnt, dass ihre Aussage einfach nur Falsch war...
Komischerweise hatte AMD/ATI in letzter Zeit nie Probleme mit hohen RMA Quoten, NVidia hingegen hat ganze Serien austauschen müssen, weil sich die Lötstellen gelöst haben.
Dass NVidia bei FurMark auch drosselt (und sogar noch viel mehr als AMD), muss man als NV Fanboy ja auch nicht erwähnen. Das könnte man sogar bei HT4U nachlesen, wenn man wollte...aber das will mancher ja nicht.
Interessante Artikel über Video Recoding per GPU gibt's übrigens bei THG und Anandtech (bei Anandtech in einem Artikel über Brazos integriert).
Da scheint es sehr entscheidend für die Bildqualität zu sein, welchen Recoder man bei welcher GPU verwendet. Bei NVidia sollte man Badaboom verwenden, während Arcsoft und Cyberlink mit teilweise deutlich schlechterer Bildqualität keine gute Wahl sind. Bei AMD Karten hingegen war Cyberlink bei der Bildqualität recht gut, während Arcsoft nicht so überzeugen konnte (dafür deutlich schneller war). Insgesamt betrachtet, liegt AMD bei der Bildqualität in etwa gleich auf mit Intels QuickSync, und ist damit kaum schlechter als per CPU zu recoden. Bei NVidia erreicht man das nur mit Badaboom, weil das nicht die CUDA Libraries für's recodieren verwendet, sondern eigene. Da die Implementierung in Cuda scheinbar nicht so gut funktioniert, kommt es eben bei Arcsoft oder Cyberlink zu merklichen Qualitätsverlusten.
Ob einen die Verluste stören, ist natürlich subjektiv. Aber das Fazit beider war, wenn NV, dann Badaboom, wenn AMD, dann Cyberlink, und wenn es optimal sein soll, dann per Quicksync über Intel's SB (sehr gute Bildqualität mit unerreichter Geschwindigkeit). Da ist scheinbar noch ein ganzes Stück Arbeit von AMD und NV sowie von Arcsoft und Cyberlink.
M.f.G.