Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Scrush schrieb:
480 euro. nvidia hat ncht mehr alle tassen im schrank -.-

dachte 250-280 euro aber so mit sicherheit nciht

Das ist aber untertrieben. Ich werde tatsächlich gucken, ob ich die Grafikkarte von mir loswerde und schaue ggf., ob ich eine 580 unter 450€ kriege. Ggf. auf die Veröffentlichung der Ati 6950/6970 und den Preiskampf abwarten.

Kartenlehrling schrieb:
Ältere FurMark sind wohl nicht betroffen,
Nvidia kann die Program im Treiber eintragen und wann sie abriegeln sollen.

90C° bei 80% Fan sind mit Furmark möglich trotzdem scheint der Kühler gut ausgelegt zu sein für die gtx580.


http://www.fudzilla.com/reviews/ite.../20788-geforce-gtx-580-review-is-here?start=6

Ich habe mir die Bilder dazu angesehen. Das wäre ja schon mal eine Riesenscheiße mit Furmark. Wie oben erwähnt will ich damit die Stabilität messen, und halt auch die Thermik. Das geht doch schlecht, wenn der jede Minute Pause macht. :grr: Zumal ermittle ich für mich damit, ob der Kühler wirklich reicht. Und bei der 470 ist es auch der Fall. Die pendelt sich auf ca. 92 Grad ein, während die Lüfterdrehzahl zwischen 80 und 87% ist.

Und die alte Furmark-Version haut nicht so dolle rein?

Mr_Blonde schrieb:
Du hast Dir die Frage bereits selbst beantwortet.;)

Versenkt.

KainerM schrieb:
Banger: Furmark ist wertlos für Stabilitätstests, es sei denn es geht um die Thermische stabilität. Furmark ist darauf ausgelegt Grafikkarten zu zerstören, mehr nicht. Spiele sind ein wesentlich besserer Stabilitätstest, da die Karte viel mehr gefordert wird. Furmark testet nur energieintensive Operationen, aber sonst nichts.

Spiele werden beim Zocken mit verwendet, wenn es um die Stabilität geht. ich nutze also beides. Ich habe mal meine Karte die Spannung bisschen abgedreht. Mal kurz in Furmark rein und kein Absturz. Aber nach einer halben Stunde Just Cause 2 hat sich die Karte aufgehängt. Also raus und die Spannung um eine Stufe höher. Auktuelle bin ich mit Standardtakt bei 0,975V. Standardspannung hat meine von 1V.
 
Zuletzt bearbeitet:
FurMark ist sicherlich nicht dazu da um GPUs zu zerstören, genau so gut könnte ich sagen Prime ist dazu ausgelegt CPUs zu zerstören, was für ein Unsinn.

Genau so könnte man behapten, fahren Sie ihr Auto nicht immer kurz vor dem roten Bereich, das Zerstört es nur. Sicher wird ein Motor, der nur im Teillastbereich arbeitet länger halten, als einer der immer Volllast liefern muss. Das sollte er aber für die Garantiezeit schon tun und bei Graifkkarten sollte es genau so sein.
 
Ganzir schrieb:
FurMark ist sicherlich nicht dazu da um GPUs zu zerstören, genau so gut könnte ich sagen Prime ist dazu ausgelegt CPUs zu zerstören, was für ein Unsinn.

*w0rd*

Mit Furmark habe ich noch keine einzige Karte zerstört. Selbst, wo der Lüftersteuerung mal gespackt hat, was vermutlich mit Afterburner zusammenhing und wo die Karte plötzlich auf 105 Grad war, hat sie keine Anstalten gemacht bezüglich runtertakten und Abschalten. Da hat es doch kurz den Lüfter auf 100% geknallt. Ansonsten taktet die sich runter oder schaltet sich ab. Doch nicht so einfach, die mit Furmark zu schrotten. ;)
 
Zuletzt bearbeitet:
@CB habt ihr die Karte mal unter F@H getestet ? wie macht sie sich da gegenüber 480? binn am überlegen ob ich nicht aufrüsten soll.
Ja das ist also die 580 also mir gefällt sie und zur Furmark ganz klar das muss eine Karte (ob AMD/nV) mindestens 24/7 aushalten. Genau so muss man in seinem Gehäuse CPU und GPU @ 30°C Raumteperatur noch VOLLLAST ( Furmark und Prime95) schaffen. Wenn das nicht möglich ist hat man was falsch gemacht.
 
Zuletzt bearbeitet:
@Wolgang


"Unter Furmark-Last zieht die GeForce GTX 580 aber 10 Watt mehr aus dem Netzteil, sofern man eine ältere Version als 1.8 verwendet. Denn bei Version 1.8 drosselt Nvidia die Grafikkarte auf die halbe Taktfrequenz, um nach eigenen Angaben die Grafikkarte vor zu hoher Last zu schützen. Laut Nvidia sollen zukünftige Treiber auch ältere Furmark-Versionen drosseln, die Möglichkeit zum Deaktivieren dieser Funktion soll den Nutzern nicht eingeräumt werden. Für anspruchsvolle Spiele sei Ähnliches zunächst nicht geplant: "So far we have not seen any real world games that are affected by power monitoring or need power throttling to stay within spec.""

Quelle Heise

mich würden die Crunchingpower und das Verhalten der Karte unter Last insbesondere bei Milkyway@home interessieren. Die Karten werden immerhin fast 100% ausgelastet und scheinbar kann das die Karte nicht ab und wird künstlich gebremst.
Ich finds bezeichnend, dass man die Karte per Software bremsen muss um sie vor Schaden zu bewahren. Anders ausgedrückt, der Kühler ist zu schwach und man würde die Karte sonst grillen oder müsste zugeben, dass sie eigentlich viel mehr Strom braucht.
 
Zuletzt bearbeitet:
Es gab in letzter Zeit nicht gerade wenig User die ihre Geforce mit Furmark oder ähnlichen Programmen geschrottet haben. Ich schätze darauf hat Nvidia nun reagiert.
 
@ AT Soldat ich verstehe einfach nicht das solche Tests nicht mit aufgenommen werden denn eine Graka kann ja eigntlich mehr als nur hübsche Bilder zaubern. Und mit Cuda wird ja auch geworben, ist ja bei AMD genau so.
@ Ion kann ich überhaupt nicht verstehen das Furmark ne Karte schrottet. Ach doch ja, wenn man Aussehen usw. über Funktionalität (was ein wort) stellt.
 
Zuletzt bearbeitet:
Es handelt sich trotz der Namensänderung „nur“ um ein kleines Update der GF100-GPU und keine neue Architektur, wobei in Zukunft noch zahlreiche weitere Modelle folgen sollen: Es sollen mehr oder weniger sämtliche GeForce-400-Produkte mit der Zeit ersetzt werden.

Jo denke ich mir auch das die mit der Zeit die 400Serie untergehen lassen, stattdessen die 500Serie weiter ausbauen um die ganzen Mistakes von der 400Serie zu korrigieren (obwohl man gegen die 460er nichts sagen kann)

Wird die modifizierte 480 wahrscheinlich die 570, die 470 die 560, die 460 die 550, so ähnlich halt.

Besser spät als nie. (Hätte halt nicht sein dürfen, aber naja)
 
443,97€ jetzt gerade bei Mix ab Lager, so schnell kanns gehen. Wenn das jetzt die Sparkle mit dem Accelero drauf wäre würd ich schon ins überlegen kommen :D Aber eigentlich ist es mir immer noch viel zu viel, aber der Preis ist erst ein Tag nach Launch schon 40€ gefallen.

Glaub wer jetzt kauft ist verrückt, wenn 6970 eine vergleichbare Performance bieten sollte werden die Preise schnell purzeln und wir erleben endlich mal wieder Konkurenzkampf im HighEnd Segment.
 
Also wie so eingie der Meinung sind das die 580 zur 480 nicht in der Effieziens um 20% gestiegen ist schau sich bitte volgenden Link an:
http://techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/28.html
Also so viel zu dem Thema AMD Jünger
#@ Über mir: Ich geb dir völlig Recht abwarten für die die eine neue/andere Graka haben wollen ist obererstes Gebot. Noch dazu da keiner weis wie Gut die neuen 69xx werden vielleicht erleben wir da auch eine Positive überraschung wie bei der 580. Denn wenn man ehrlich ist keiner hat erwartet das sie so wird wie sie ist
 
Zuletzt bearbeitet:
Gute Arbeit die nVidia da geleistet hat. Klar ist der Verbrauch immernoch etwas hoch, aber nichts desto trotz geringer als der einer 480GTX bei deutlich mehr Leistung! Dazu die DX11 Korne, was im High End Bereich für viele interessant sein dürfte -> Nettes Produkt
 
mich würde interessieren wie die karte unter 3ds max performt. bei der 4xx serie soll es ja viewport probleme geben. und render benchmarks mit dem neuen mental ray (das jetzt CUDA cores nutzt) wäre auch nett.

schade, dass CB nur spiele und 3dmark testet
 
Kasmopaya schrieb:
Nö zählen auch nicht, die einzige Schande die sich CB hier erlaubt ist die Dual Fake-FPS Balken überhaupt mit in die Diagramme zu nehmen.
Du hast es erfasst! Die besten CPUs sind eigentlich auch die Single-Cores! Es ist eine Frechheit in einem Bericht zu behaupten ein Quadcore wäre besser, schliesslich hat der ja auch mehr Kerne!
Deswegen darf das so nicht verglichen werden. Kann ja jeder kommen und mehr Dies zusammenlöten! Wo kommen wir denn da hin? Hexacores? Octacores? So ein Blödsinn! Weniger ist eben oft mehr!
Und es gibt ja schliesslich auch viele Programme, bei denen Multi-Core CPUs gar nichts bringen, warum also mehr ausgeben und den höheren Strobverbrauch in Kauf nehmen?! Und die ganzen Probleme mit Multicore CPUs, zB in Arma oder Empire.. Ne ne, da muss mir keiner was erzählen!

(Ich nehme an dir ist die Ironie dahinter nicht entgangen?)

KainerM schrieb:
Das und die Tatsache dass die HD5970 auch noch empfindlich teurer ist.
Das ist sie in der Tat! Allerdings ist die vorgestellte Karte auch nicht gerade ein Schnäppchen. Insofern ist der Vergleich ja durchaus gerechtfertigt.

Antimon schrieb:
Die Frage die sich trotz allem stellt ist, sieht der Normaluser diese Unterschiede überhaupt? (...)
Und solange nicht bekannt ist, wie stark der Einfluss des Monitors auf diese AF Geschichte ist halte ich für meinen Teil die Geschichte für Überzogen, man kann sich ja auch vom Hundertstel in´s Tausendstel verrennen.Von daher, erstmal Mücke & Elefant ;)

Da kann ich dir nur voll und ganz zustimmen. Zumal den Usern auch die Vergleiche fehlen. Wie will ich wissen wo das AF besser ist, wenn ich es immer nur auf meiner ATi sehe? Wenn ich mir eine neue Karte kaufe, dann ist die schneller, ich schalte mehr Bildverbesserungen ein und das Bild ist so oder so besser..

Kasmopaya schrieb:
Dual-GPU Karten dürfte man schon im Diagramm lassen, aber dann 40% FPS abziehen wegen dem Frame Versatz, der ja immer vorhanden ist, ob du das bemerkst oder nicht, spielt keine Rolle für die Balken...

Das ist Unsinn und dessen solltest du dir bewusst sein. Es ist nicht entscheidend ob was vorhanden ist, sondern ob es auffällt.
Die GeForce 8/9er Karten hatten einen Fehler im Speichermanagement: Trotzdem der Chip schneller war, ging ihnen in hohen Auflösungen zu schnell die Puste aus und während die Radeon HD3850(256MB) in zB Oblivion mit 1920x1080 noch ausreichend schnell renderten, blieb die 8800GTS(320MB) auf der Strecke.. Was nützt dir da der grössere Speicher? Vorhanden ist er, aber sichtbar ist es nicht.

Konservativ betrachtet fallen selbst empfindlichen Naturen die unterschliedlichen Framezeiten bei SLI/CF-Systemen nur unter 40FPS auf - bei Einzelchips mag diese Grenze tiefer liegen und bei 30 angesetzt werden.
Schau dir doch mal die Benchmarks an zwei, drei Spiele in extremen Auflösungen und Qualitätseinstellungen bei denen die GTX580 in diesem Bereich bleibt, die HD5970 darunter fällt? Der ganze Rest nutzt weder die Leistung der Radeon noch der GTX aus..

Und da misst sich NVidia mit einer Karte die schon bald ein Jahr alt ist.
Ich finde AMD hält gut dagegen. Und das ist auch der Grund weshalb die HD5970 kaum im Preis gefallen ist..
 
Danke für den Test, so kurz danach bereits 433 Kommentare, wow.

Bei mir wird's wohl der Preis gepaart mit Stromverbrauch entscheiden da meine 2 4870er einfach zu viel verbraten.
Ich hoffe auf ne 6970er um die 400 Euro.

So, wo bleibt Cayman? :D
 
Zuletzt bearbeitet:
Die DX 11 Krone im S-GPU-Bereich hatte nVidia auch davor und ein Vergleich mit der 5970 ist meiner Ansicht nach nicht angebracht da es sich um ein DGPU-Karte handelt -da sprechen andere Dimensionen- welche GENAU GENOMMEN immernoch einen kleinen Ticken schneller ist als die GTX580.
Davon ab aber finde ich DGPU-Karten mehr als uninteressant.
 
Kasmopaya schrieb:
Des weiteren ist die Karte hier nicht so ineffizient, stromschuckend wie hier alle denken, mit einem ordentlichen Kühler(VRMs) kann man ca. 20-30% weniger Verbrauch rausschlagen und rückt somit im Idle und Last ganz dich ran an eine Referenz 6870 1GB. Selbiger ist sowieso Pflicht außer man will sich eine 55db Turbine ins Gehäuse hauen.

Mein Fazit: Top Karte, da man sich eh einen neuen Kühler drauf macht und der Stromverbrauch daher noch weiter fällt, das größte Manko von Fermi I+II ist damit Geschichte...

"Wie bitte soll das gehen?", sagt mein Gott der Thermodynamik. Verbrauch ist Verbrauch. Die Abführung der erzeugten Wärme senkt nicht selbigen. Es sei denn, ein Großteil des Verbrauches wird für die Kühlleistung benötigt. Das bezweifle ich aber ganz stark. Ich bitte um Erklärung!
 
ATI Soldat schrieb:
...
mich würden die Crunchingpower und das Verhalten der Karte unter Last insbesondere bei Milkyway@home interessieren. Die Karten werden immerhin fast 100% ausgelastet und scheinbar kann das die Karte nicht ab und wird künstlich gebremst...


du meinst Programme auf CUDA Basis, die die Karte ähnlich stark wie Furmark auslasten können?

Zeig mir mal bitte son Programm was ähnlich stark wie Furmark auslastet, die meisten GPGPUs werdens wohl nicht sein. F@H verbraucht zb 70W weniger als Spielelast auf ner GTX580 und Furmark wäre ne völlig andere Liga.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/37789-nvidia-geforce-gtx-580-review-20.html
 
Als Referenzdesign sollte man die Karte nicht kaufen, das Kühlsystem wie schon erwähnt, ist laut, das habe ich schon auf den Bildern gesehen, sie ist eine teure leichte Verbesserung von der GTX480. Im Endeffekt lohnt sich die Karte nicht. Die Spiele die es gibt nutzen die meisten sowieso keine HighEnd Karte aus.
 
Irgendwie halte ich diesen test für "nicht ganz so glaubwürdig" ...

Wenn man bei den Frames für die grafikkarten schaut, frag ich mich wie man bei manchen Karten auf solche lächerlichen durchschnittframes kommt?

Ich hab ne Zeit lang nur eine GTX 470 drin gehabt und bei CoD:MW2 durchschnitt ÜBER 100 fps bei allen Treiber und Gameeinstellungen, 1920x1080 8xAA/16AF. Ich hatte auch nie unter 90 FPS. Wie kommt Ihr bitte auf ein Durchschnittswert von diesen 60-70? LOL

Klärt mich bitte einer auf?

MfG PsY
 
Zurück
Oben