tatsächlicher Stromverbrauch neuer Grakas

@ eXEC-XTX

Er nicht unrealistisch, denn er ist ein real verfüg- und nutzbarer Benchmark. Zumal es den schon lange vor den HD4k gab. Und gegen den 3DM06 oder Vantage hat ja auch keiner was. Sind ebenfalls banale Benchmarks.
eXEC-XTX schrieb:
in keinem Game der Welt kommt eine HD4870 an ähnliche Verbrauchswerte
in keinem aktuellen Game der Welt kommt eine HD4870 an ähnliche Verbrauchswerte ;)
 
y33H@ schrieb:
@ eXEC-XTX

in keinem aktuellen Game der Welt kommt eine HD4870 an ähnliche Verbrauchswerte ;)

Sie wird auch in zukünftigen Spielen nicht an diese Verbrauchsgrenze stoßen, da die 5D Shader bestenfalls zu 80% ausgelastet werden. Das liegt einfach an dieser Architektur und nur synthetische Szenarien können diese 100&ig auslasten. Deshalb müsste schon eine Art Physikberechnung oder Ähnliches zum Rendern dazukommen, um die Last zu erhöhen.
 
Wer sagt, dass der Furmark die 5-Vecs 100%-tig auslastet? :D Aber ja, ist eher unwahrscheinlich. Clear Sky pumpt auch ziemlich, mal damit Strom messen.
 
Ja Clear Sky lastet die Shader gut aus was ein "gutes" Zeichen ist, da so weniger Performance verloren geht. DX11-Spiele müssten den Stromverbrauch dieser Karten noch weiter anheben als es jetzige Games tun, weil die Shader bzw. die ganze Architektur besser ausgelastet werden kann. An dem Beispiel DX10 vs DX10.1 sieht man gut wie viel Power einfach unbenutzt verloren geht.
 
DX10.1 lastet die ALUs nicht besser aus als DX10.0. Zumindest nicht per se. Liegt eher an Dingen wie Gather4 und Co.
 
@ y33H Woher weißt du denn, dass DX11/DX10.1 die Alus nicht besser auslastet? Durch optimierte Renderpfade oder andere Optierungen/Lastverteilungen ist das theoretisch möglich. Wenn die Performance steigt, muss das ja nicht nur alleine an der z.B. Tessaltion Unit liegen.

Ich erinnere mich daran in einem Dokument gelesen zu haben, dass Spieleprogrammierer unter DX10 die 5D Shader nur bis ca 80% auslasten konnten und unter Dx10.1 eine leicht höhere Auslastung erreichen konnten.
 
Meinst du, du findest das Dokument wieder? :)

DX11 sorgt dank OpenCL/Compute Shader sicher für eine bessere Auslastung, bei DX10.1 ist mir dergleichen noch nicht zu Ohren gekommen.
 
Ich versuche es mal zu finden;), es war glaub ich sogar hier auf CB in der News zu den 5 Spielen, die von DX10.1 profitieren, zu finden. Heute wird das aber nichts mehr.

Muss für meine erste Fahrstunde morgen ausgeschlafen sein.

cya

Edit: Habe das Dokument gefunden und muss meine Aussage etwas korrigieren. Dass die Shader nur bis ca 80% ausgelastet werden können kann ich nicht beweisen, weil es von einem anderen Member hier im Forum gepostet wurde. Er sollte aber Recht haben.

Und dass DX10.1 die Shader besser auslastet habe ich wohl etwas hineininterpretiert, obwohl es tatsächlich möglich ist. Eine Performanceverbesserung von teilweise über 20% kann nicht nur durch die Optimierung der ROPs entstehen. Meine Meinung.

Links: Post #61 und das Dokument von dem ich sprach
 
Zuletzt bearbeitet:
Man da hab ich ja ne Diskussion los getreten. Danke für die Links, ist zwar nicht ganz das was ich gesucht hatte, aber die 3 wichtigsten Grafikkarten sind dabei. Danke nochmal.
 
Das neue Review von Peter von HT4U ist das beste, was ich bisher gelesen habe. 15 Spiele und Furmark dazu, dann die Leistungsaaufnahme von 4 Karten betrachtet: http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/

Fazit:
[..] Die Frage, ob man Furmark also als repräsentatives Last-Szenarion für beide Chip-Häuser ansehen darf, um ein gerechtes Urteil der Leistungsaufnahme unter Last zu bilden, müssen wir nach dem heutigen Test erst einmal verneinen. [..] Um einen möglichst fairen Vergleich zwischen beiden Vertretern der Top-Grafikchipshersteller praxisnah ziehen zu können, müssen wir uns auf den etwas unbequemen Bioshock-Test festlegen. [..]
 
Zuletzt bearbeitet:
Zurück
Oben