Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Feuerferkel schrieb:
"Wie bitte soll das gehen?", sagt mein Gott der Thermodynamik. Verbrauch ist Verbrauch. Die Abführung der erzeugten Wärme senkt nicht selbigen. Es sei denn, ein Großteil des Verbrauches wird für die Kühlleistung benötigt. Das bezweifle ich aber ganz stark. Ich bitte um Erklärung!

DANKE, das du mir die Arbeit abgenommen hast ein Post gleichen Inhalts zu schreiben! War mir gestern nähmlich zu spät. Hatte exakt den gleichen Gedanken dazu gehabt wie Du! ;)
 
ich finde NV hat ein rundes Produkt rausgebraucht nur leider stosst es mir auf wenn ich die Preis Leistung sehe... man zahlt das doppelte pro Frame als mit einer geforce 460 ... der abnehmende Ertrag lässt Grüßen.

Solange man aber auf DX11 in spielen verzichten kann man aber getrost NV umgehen.... wer diese jedoch haben will kommt bei NV nicht vorbei ...
 
Feuerferkel schrieb:
"Wie bitte soll das gehen?", sagt mein Gott der Thermodynamik. Verbrauch ist Verbrauch. Die Abführung der erzeugten Wärme senkt nicht selbigen. Es sei denn, ein Großteil des Verbrauches wird für die Kühlleistung benötigt. Das bezweifle ich aber ganz stark. Ich bitte um Erklärung!

Stichwort Leckströme. ;)

Bei einer 4xx sinkt z.B. mit einem Komplettwasserkühler die Leistungsaufnahme auch deutlich, weil 1.der Lüfter fehler und 2.die Leckströme weniger werden aufgrund der niedrigeren Chiptemperatur.

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php

@test

Zitat "Damit ist der Lüfter zwar ohne weiteres beim Spielen zu bemerken und kann dabei durchaus auch unangenehm werden, störend wird das Kühlsystem aber zu keiner Zeit."

Unangenehm definiere ich auch als störend. :rolleyes:
 
Zuletzt bearbeitet:
War doch schon immer so Bullz und ist überall so das man für das" beste " im Produktportfolio eines Unternehmens auch übermäßig dazu bezahlen muss. Wobei abolut gesehen die Preise für High-End Karten gesunken sind.

EDIT: Btw. Ich denke Cayman wird es nicht leicht haben......

In DX 9 bzw DX10 Spielen ist der Abstand jetzt nicht so ganz gewaltig, aber in DX11 hat AMD ganz klar das nachsehen hier liegt die GTX580 gut 50% vor der HD5870. Ich glaube nicht das Cayman das aufholen oder gar überholen kann.
 
Zuletzt bearbeitet:
Ist wohl eine feine Karte, der GTX480 weit überlegen und sehr sehr schnell, aber der Preis ist ein Witz!
 
akuji13 schrieb:
Stichwort Leckströme. ;)

Bei einer 4xx sinkt z.B. mit einem Komplettwasserkühler die Leistungsaufnahme auch deutlich, weil 1.der Lüfter fehler und 2.die Leckströme weniger werden aufgrund der niedrigeren Chiptemperatur.



Was heißt denn deutlich? Einen absoluten Wert bitte. Mir ist klar, dass mit zunehmender Temperatur der Widerstand steigt, also mit fallender Temperatur auch wieder sinkt. Jedoch bezweifle ich nochmal lautstark das dies 20-30% bei Luftkühlung ausmacht. Pro Grad Temperaturerhöhung steigt der Widerstand um 1/273 seines Wertes und nach P= U im Quadrat / R kann man schon Überschlagen, dass der Unterschied von der Messungenauigkeit geschluckt wird.
 
Im Test wurde doch ganz klar gesagt, das Nvidia die Effizienz deswegen verbessert hat, weil sie die Architektur durchleuchtet haben und die schnell schaltenden Transistoren durch langsam schaltende Transistoren getauscht haben. Und diese langsam schaltenden Transistoren, verbrauchen weniger Strom weil weniger Leckströme entstehen....
 
Es geht hier/mir auch nicht um das was irgendwo geschrieben wurde, sondern um das was hier ein User behauptet hat.

Kasmopaya schrieb:
Des weiteren ist die Karte hier nicht so ineffizient, stromschuckend wie hier alle denken, mit einem ordentlichen Kühler(VRMs) kann man ca. 20-30% weniger Verbrauch rausschlagen und rückt somit im Idle und Last ganz dich ran an eine Referenz 6870 1GB. Selbiger ist sowieso Pflicht außer man will sich eine 55db Turbine ins Gehäuse hauen.

Mein Fazit: Top Karte, da man sich eh einen neuen Kühler drauf macht und der Stromverbrauch daher noch weiter fällt, das größte Manko von Fermi I+II ist damit Geschichte...
 
Ich ebenfals... zwar nicht die Welt aber: 3x 120mm Lüfter @ GehäuseFront haben den verbrauch um exakt 3% reduziert ( blasen direkt auf die SpaWas. )
Daraus werden nochmal 2% wenn ich die Lüfter der Karte selbst dauerhaft auf 100% schnalle.
 
Wie misst du denn das? Lüfter und Pumpe laufen auch nicht mit heisser Luft.. Das Netzteil verhält sich je nach Auslastung anders und spielt auch noch mit rein..
Somit können IMO ein paar Watt schlicht vergessen werden, zumal die Raumtemp ja auch nicht konstant sein dürfte.
 
@Topic: Bitte die Preistabelle korrigieren, die HD 5970 beginnt bei 389,- EUR und nicht wie angegeben 498,- EUR.
Die Karte ist für den Preis nicht lieferbar und damit zählt da snicht. Irgendwelche Mondpreise kann sich ja jeder Shop ausdenken :)

Ist da jetzt ein Fehler unterlaufen der noch geändert wird?
Auf den ganzen Folien ist doch mit 1.4 HDMI geworben worden.
Das war ein Fehler unsererseit. Denn es ist HDMI 1.4a, nur HD-Bitstream geht nicht, was normalerweise bei 1.4a immer geht. Aber bei den HDMI-Specs ist vieles optinal, weswegen wir da ziemlich durcheinander gekommen sind.

@Wolfgang
Die angegebene Pixelfüllrate in der Tabelle ist falsch. Du hast wohl mit 32 ROPs anstatt mit 48 ROPs gerechnet.
Die Angaben sind (mittlerweile) richtig. Hier ist des Rätsels Lösung zu lesen :)
https://www.computerbase.de/artikel...-test.1211/seite-2#abschnitt_technische_daten

Mir ist da gerade etwas beim performancerating aufgefallen - hat sich da etwa der Fehlerteufel eingeschlichen?

Nur die "falsche" 6850 war schneller als die 5850. Die richtige hat durchweg weniger Leistung als die 5850... Mir scheint ihr habt hier die daten der falschen eingetragen.
Sehr gut beobachtet und ist korrigiert =)
Vor lauter Hektik damals beim 6850-Artikel haben wir vergessen unseren Dummy, aus denen wir alle FPS-Werte immer importieren, auch zu ändern.

Ich hab ne Zeit lang nur eine GTX 470 drin gehabt und bei CoD:MW2 durchschnitt ÜBER 100 fps bei allen Treiber und Gameeinstellungen, 1920x1080 8xAA/16AF. Ich hatte auch nie unter 90 FPS. Wie kommt Ihr bitte auf ein Durchschnittswert von diesen 60-70? LOL
Da kommt es schlicht und ergreifend auf die Testszene an :)
 
d-Raven-b schrieb:
Wie misst du denn das? Lüfter und Pumpe laufen auch nicht mit heisser Luft.. Das Netzteil verhält sich je nach Auslastung anders und spielt auch noch mit rein..
Somit können IMO ein paar Watt schlicht vergessen werden, zumal die Raumtemp ja auch nicht konstant sein dürfte.


Wenn er die SOC hat wie ich, gibt OC Guru den Aktuellen verbrauch in Watt oder wahlweise in Stunden an :-)
Rest ist reine Kopfsache.


Aktuell zieht die Karte bei mir bei 0.89v - 1.19 Ampäre ausm NT :) (GPU)

OC werte siehe Sig, 4 Stunden Crysis einfach mal nur doof getestet wie weit es erträglich ist, alles auf sehr hoch bei voll AA/AF volles Pfund.. durchschnittlich 24fps höchstwert war 53fps naja flüssig ist was anders @durchschnitt aber lief akzeptabel - fürs doofe rumlaufen und doof rum ballern zum testen .. *g*

Und der Verbrauch war: 309Watt/h :D bei 77°c


EDIT:

5°c Kühler geworden nun sind aus 0.89v und 1.19 Ampäre 1.16 Ampäre geworden ;P (GPU)
 
Zuletzt bearbeitet:
Feuerferkel schrieb:
"Wie bitte soll das gehen?", sagt mein Gott der Thermodynamik. Verbrauch ist Verbrauch. Die Abführung der erzeugten Wärme senkt nicht selbigen. Es sei denn, ein Großteil des Verbrauches wird für die Kühlleistung benötigt. Das bezweifle ich aber ganz stark. Ich bitte um Erklärung!

Ganz einfach.
Man muss sich etwas mit der Elektrodynamik auskennen und schon ist es erklärt.
Also:
Die GPU besteht hauptsächlich aus dem Halbleiterelement Silizium.
Dieses Element ist ein HTC sprich Heißleiter, wodurch sein elektrischen Widerstand durch die Temperaturveränderung abhängig ist.
Ein Heißleiter ist bei größer werdender Temperatur leitender, so wie es der Name schon sagt.
Also bei größerer Temperatur sinkt der elektrische Widerstand von Silizium und der Stromfluss nimmt zu bzw. wird größer da immer die gleiche Spannung anliegt.

P = I * U bzw. in diesem Fall übertragen, P = U/R * U wobei R eben der variable Widerstand darstellt.
Leistung = Stromstärke * Spannung

Erhöht sich die Stromstärke, erhöht sich die Leistung.
Noch Fragen ? ;)

Zum Thema:
Ja die GTX580 ist endlich das was die GTX480 hätte sein sollen.

Aber es gibt auch Kritik.
Dieses Sample scheint selektiert worden zu sein, um besonders niedrige Leistungsaufnahmen und geringere Lautstärkepegel zu erreichen.
Erkennt man schön an der GPU-Spannung, die deutlich niedriger scheint als es bei den dann offiziellen Karten zu kaufen gibt.
Laut http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/30.html ist die GPU Spannung bei 1,05 Volt. Hier aber bei dem Test kommen nur 1,012 Volt zum Einsatz !

Zitat: CB
"Die GPU-Spannung des 3D-Beschleunigers liegt wahrscheinlich bei 1,012 Volt."

Ist in meinen Augen somit als Test nur bedingt brauchbar, da es sich nicht um die Kaufvariante handelt !
Zumindest der Lautstärken und Verbrauchstest ist so nicht übertragbar.
Natürlich zeigt es was möglich wäre, aber das ist eben nicht das Produkt was der Endkunde in seinen Händen hält.

Auch der obligatorischen Test, der wohl bei den NVIDIA-Karten nie fehlen darf, ist eben das Game "Batman Arkham Asylum", welches besonders die AMD-Karten mit ihrer 20 FPS PhysX-CPU-Limitierung schlecht darstellt.
Warum testet man das immer noch so ?
AMD-Karten können kein PhysX !

Klar kann man damit vergleichen wie gut die neue GTX580 im Gegensatz zu den älteren NVIDIA-Karten abschneidet, besonders was PhysX betrifft.
Aber warum müssen die AMD-Karten alle auch noch mit drauf sein, die so gar nicht funktionieren können ?

Schön das CB diesen Test nicht in die Wertung einbezieht.
Aber solange die AMD-Karten kein PhysX beherrschen, ist ihre Einbeziehung in diesem Spieletest recht sinnbefreit und suggeriert auf provokativer Art und Weise eine Unterlegenheit, die so in einem unbefangenen Test nicht vorhanden sein sollte.
Versteht mich bitte nicht falsch !
Ich habe nichts gegen diesen Test generell.
Nur ist eben die Darstellung recht NVIDIA-lastig anzusehen.

Ansonsten ein recht schöner Test und eine deutlich bessere NVIDIA-Karte, die zeigt, das sich NVIDIA den Kritiken der User angenommen hat.
Wenn sie nur nicht so teuer wäre. :(
Aber mal sehen was passiert wenn die HD6970 erscheint.
 
Zuletzt bearbeitet:
Samples die selektiert sind, gibts doch von jeder Sparte und Hersteller. Wer macht das nicht... AMD ja genauso. Ist auch Fair... beste stück vom Kuchen abgeben ;)
 
ca. 16% mehr leistung bei 20 watt weniger verbrauch ist ein guter schritt in die richtige richtung.
ob der aufpreis von 40% zur 480 damit gerechtfertigt ist, lass ich mal dahingestellt ;)
 
Auch wenn die neue Nvidia GTX 580 ein sehr gutes Hightechprodukt ist, hat sie keinen mehrwert gegenüber Leistung/Verbrauch/Nutzen.

Teuer ist sie nicht nur für uns Kunden, sondern auch unnötig verschwenderisch. Die MP-Kids (Mama-Papa-Kinder: Lässt sich alles machen/bezahlen) wirds freuen, haben die ja überhaupt keinen durchblick, welche Folgekosten so ein System mit superteuren Komponenten hat (Sponsert by Papa). Da sitzen solchen Typen vorm Bildschirm und wollen ihren virtuellen Penis den anderen zeigen (Mein System ist schneller als deins). Und Mama bringt Dir auch noch das Essen auf den Computertisch, das ist ja auch gratis von Papa :-)

Was ich damit sagen will? Einem Topverdiener ist es shice-egal wieviel die Karte kostet oder was sie verbraucht..der kauft die eben. Braucht die Karte aber sehr wahrscheinlich garnicht, nur eben das mit dem Penis halt. Die MP-Kids wollen nur das eine: Immer erster sein, egal in was. Hauptsache beim Overclocking holt man noch 2FPS mehr raus als die virtuelle (Penis-)Konkurrenz. Aber Ottonormalverbraucher wird sich garantiert nicht so ein unnützes Stück Hightech zulegen. Weil: die meisten Spiele ja immer noch mit der 2 Jahren alten Karte funzt, weil Strom nunmal nicht kostenlos ist und man schon spart wo man kann (Thema eigene Wohnung, also kein MP-Kind) und weil man immer wieder sieht, welch mittelmäßige bis ultraschlechte Spiele sich nur auf die Grafik ausruhen, aber keinen großen Spielewert haben (zB Crysis und Konsorten).

Die Entwicklung von Graka's ist ja schon ok und wichtig. Keine Frage. Aber geht sie im Moment komplett in die falsche Richtung. Daran sind aber nicht die Entwickler, sondern die Konsumenten schuld. Würden die nicht immer gleich jeden shice kaufen (immer noch Thema Energieverbrauch), dann würde es endlich mal in den Köpfen von zB Nvidia und ATI klingeln: "Oh, die Kunden wollen ja gar keine Stromverschwender...hm, dann machen wir mal die Schublade auf, wo die alten Blaupausen für die 50Watt Karten drin sind, die genauso schnell sind"

In diesem Sinne...

;)
 
Was geht'n bei Dir? Kauf Dir doch eine 5550. Da hast du dein 50W Karte. Nur kann die nicht ganz soviel leisten. Irgendwo muss die Rechenleistung ja herkommen. Und solange die Strukturen nicht kleiner werden, gibt es nun mal ein gewisses Limit.

Ansonsten ein schönes Schubladendenken.
 
Zurück
Oben