Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Hätte ja nicht gedacht das die Karte so gut wird. Jetzt hat man freie Auswahl GTX 580 1,5GB oder HD 6970 2GB. Genial :daumen:
Jetzt muss Cayman zeigen was er kann, wird nicht ganz einfach, erst recht nicht wenn man ein paar % Abziehen muss weil sie immer noch schlechteres AF verwenden. Im Endeffekt heizt Fermi den AMD Karten vorallem durch das gute skalieren mit den Temps ein. Recht viel Unterschied wirds dann nicht mehr geben. Das einzige wo Cayman klar punkten kann sind die 500MB mehr Vram, das ist einfach ein Wort, da kann Fermi trotz perfekten Vram Management nicht mithalten...

Hätte ich niemals gedacht das die GTX 580 so schnell und so gut wird und vorallem so früh Released wird. Ich denke das wird ein Kopf an Kopf Rennen, hoffentlich mit anschließender Preisschlacht. :daumen:
 
mr.man schrieb:
Ich hab mal 'ne kurze Frage: Ist die 5970 schneller als die 580? In den Spielebenchmakrs ist mal die 5970 und mal die 580 vorne.
Du hast Dir die Frage bereits selbst beantwortet.;)
 
Computerbase schrieb:
AMD hat der GeForce GTX 580 aktuell noch gar nichts entgegen zu setzen: 30 bis 40 Prozent Performancevorsprung ist keine Selten- sondern Gewohnheit.
Die Ignoranz die in diesem Satz mitschwingt grenzt schon fast an bewusste Irreführung..

AMD hat der Karte sehr wohl etwas entgegen zu setzen!

Ach, ich vergass; Dual-Core Karten zählen ja nicht..

@mr.man
Ich würde sagen das Performancerating spricht für sich..
 
Ach, ich vergass; Dual-Core Karten zählen ja nicht..
Nö zählen auch nicht, die einzige Schande die sich CB hier erlaubt ist die Dual Fake-FPS Balken überhaupt mit in die Diagramme zu nehmen. Eigentlich darf man single FPS und dual FPS nicht so einfach miteinander vergleichen, sondern nur getrennt bewerten. Eben so wie es PCGH macht...
 
erstaunlich ist doch, das alle Board-Partner (+ Mitarbeiter!) stillschweigen gewart haben! Oder hätte es ansonsten ne deftige Ansage von NV (oder sonstwem) gegeben ?! :P

edit: ahh okay hat sich erledigt *g*

Man (nV) gibt zu, dass man die Partner sehr spät informiert habe – dies allerdings mit Absicht, weil man dafür Sorge tragen wollte, dass die Planungen so lange wie möglich gegenüber der Öffentlichkeit geheim bleiben.
 
Zuletzt bearbeitet:
Mal schauen wenn wirklich ne neue Generation kommt, dann chick ich meine 260 auch in Rente ansonsten sehe ich da absolut kein grund bei den Namensspielereien seitens der Hersteller! Desweiteren kann ich immernoch alles mit Full spielen...
 
Also so langsam habe ich echt keine Lust mehr auf die Tests von Computerbase. Dual-Karten tauchen zwar im Test auf aber zählen nicht wegen Rucklern, die nur unter 30 fps vorkommen und von vielen gar nicht gesehen werden. Dabei kommt die 5970 in fast allen Spielen nie unter 30 fps, außer vielleicht Crysis. Es fehlen Frameverläufe, die das belegen.

Die HD68xx Karten werden ab sofort nur noch mit veränderten Einstellungen getestet
, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.

Als Beweis soll ein Video von HL2 dienen und Screenshots von drei Spielen?

Das Fazit ist überhaupt nicht aussagekräftig in den meisten Tests.

Ich frage mich echt, was als nächstes kommt. Ich will hier niemandem irgendwas vorwerfen, aber das macht langsam echt keinen Spaß mehr...
 
davon abgesehen ist sogar der Dual-Balken manchmal kürzer als der von der GTX 580, was ich für eine beträchtliche Leistung halte. Und das nur weil ein Spiel verwendet wird das mit der Architektur gut zusammenarbeitet - was zeigt, dass die Fermi karte eine brutale Rohleistung hat, der AMD absolut garnichts entgegen setzen kann. Wenn die nicht ganz gewaltig aufpassen und der HD6970 einen ordentlichen Boost gegenüber der letzten Generation geben gibts wieder ein Debakel nach der Machart HD2900. Große Töne spucken und dann nicht mithalten können - auch wenn die Ausgangssituation für sie diesmal besser ist. Sie müssen mindestens 50% auf die Leistung einer HD6870 draufpacken, und das wird schwer. Taktmäßig ist keine Luft mehr drinnen, und von den Sahdereinheiten kann man sagen: 70% mehr als Barts, aber 4D-Shader, die nicht unbedingt gleich effizient sind, da eine Einheit fehlt und deren Funktion von den vier anderen Übernommen werden muss...

Nichts desto trotz rendern die AMD-Karten aktuelle Spiele effizienter.


Banger: Furmark ist wertlos für Stabilitätstests, es sei denn es geht um die Thermische stabilität. Furmark ist darauf ausgelegt Grafikkarten zu zerstören, mehr nicht. Spiele sind ein wesentlich besserer Stabilitätstest, da die Karte viel mehr gefordert wird. Furmark testet nur energieintensive Operationen, aber sonst nichts.

mfg

edit: Derschlambi, dass die BQ bei AMD sichtbar schlechter ist braucht nicht mehr diskutiert zu werden, daher ists nur OK die Karten auch mit gleichen Anforderungen zu testen. Ich könnte ja auch zwei Drucker miteinander vergleichen, und sagen A druckt schneller als B, wenn aber die Auflösung bei Drucker A von Werk aus geringer ist sollte man mit gleichen Einstellungen testen. Und wenn dann B schneller ist, ist das nur Fair so. AMD hat da ganz böse gespart - und nachher die Qualität der alten Karten klammheimlich verschlechtert damit es nicht so auffällt. Für mich ist die Flimmerei auf der HD6800 nicht akzeptabel, auch wenn manch ein anderer sagt es stört ihn nicht.
 
Zuletzt bearbeitet:
mr.man schrieb:
Ich hab mal 'ne kurze Frage: Ist die 5970 schneller als die 580? In den Spielebenchmakrs ist mal die 5970 und mal die 580 vorne. Da aber die 5970 eine Dual GPU Grafikkarte und die 580 nur eine Single-GPU Karte ist, müsste erstere doch schneller sein, oder?

Dual GPU Karten haben keine Vor- sondern Nachteile. Denn es gibt das Problem, dass durch die Berechnung von zwei GPUs die Frams mit unterschiedlichen Abständen an den Monitor gesendet werden. Werden diese Abstände zu hoch, entsteht das, was man als "Mikroruckler" bezeichnet. Fällt in höheren FPS Bereichen aber quasi nicht auf.
 
@derschlambi

Ist doch allseits bewiesen, dass AMD Karten schlechter Filtern und dass sich das gerade mit der "neuen" Generation nochmal verschlechtert hat. Das ist nicht nur Computerbase aufgefallen!

http://www.3dcenter.org/artikel/amd...00-mit-rueckschritten-bei-der-filterqualitaet

http://ht4u.net/reviews/2010/amd_radeon_hd_6800_reloaded/index9.php

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Das sich dadurch andere Testbedingungen ergeben ist doch klar. War bei der 5er/7er Serie bei nVidia auch nicht anders. Damals eben zu gunsten von ATI.

Und das sich Dual GPU Karten abgesehn von deren Problemen nicht mit Single GPU Karten messen lassen, ist doch mit reiner Logik zu begründen. 2 > 1 = Unfair :)
 
Zuletzt bearbeitet:
ach, die Mikroruckler sollen ruhig so sein, muss man nicht merken. Aber die Problematik mit den Profilen, die sehr oft auftretenden Probleme mit neuen Spielen etc. sind halt KO-Kriterien. Das und die Tatsache dass die HD5970 auch noch empfindlich teurer ist.

mfg
 
@Mr.Zweig

Schöne Logik. Normalerweise sollten sich die Karten mit ihren Kontrahenten in der gleichen Preisregion messen. Im Endeffekt ist es immer noch eine Grafikkarte, auf der halt zwei GPUs werkeln.
 
Scrush schrieb:
480 euro. nvidia hat ncht mehr alle tassen im schrank -.-

dachte 250-280 euro aber so mit sicherheit nciht

*Ironiemodus EIN*



250-280€ ? Bist du wahnsinnig!
Die schnellste und beste Grafikkarte der Welt sollte maximal! umsonst sein. Aber fair wäre es natürlich, wenn sie noch einen Ferrari mit in die Packung schmeissen würde. Und lass dir bloss nichst einreden. Du hast es verdient. :)



*Ironiemodus AUS*
 
...feiner Test, feine Karte! Ist im Allgemeinen das, was man von der Karte erwarten durfte.

Nochmal an alle, die der GTX 580 "zu hohen" Stromverbrauch unter Last vorwerfen: wenn ich richtig gelesen habe, ist die 580 im Schnitt etwa 32% schneller als die HD 5870 und verbraucht 34% mehr Energie beim ganzen System. Also für mich ein durchaus logisches und gleichwertiges Ergebnis.
 
Mr.Zweig schrieb:
@derschlambi

Ist doch allseits bewiesen, dass AMD Karten schlechter Filtern und dass sich das gerade mit der "neuen" Generation nochmal verschlechtert hat. Das ist nicht nur Computerbase aufgefallen!

Die Frage die sich trotz allem stellt ist, sieht der Normaluser diese Unterschiede überhaupt? Im Thread zum Thema hab ich nachgefragt, was für ein Monitor verwendet wurde und es handelte sich um eine Referenzklasse die im Handel 1000€ kostet. Nun stellt sich mir die Frage wie schaut das mit meinem Standard 300€ Monitor aus, weil ich hab bei den AF Test keinerlei Unterschiede gesehen.

Ich hatte auch die Anregung gegeben, dass man bei den künftigen Tests unter Testsystem auch den verwendeten Monitor mit angibt, wurde zwar als gut befunden, geschehen ist es, wie man am heutigen Test sieht, leider noch nicht.

Und solange nicht bekannt ist, wie stark der Einfluss des Monitors auf diese AF Geschichte ist halte ich für meinen Teil die Geschichte für Überzogen, man kann sich ja auch vom Hundertstel in´s Tausendstel verrennen. Es kann in meinen Augen einfach nicht sein, dass auf Monitoren der Spitzenklasse getestet wird, in den Kommentaren allerdings den Lesern Monitore für 160€ zu teuer sind.

Von daher, erstmal Mücke & Elefant ;)
 
Was heißt AMD hat dem nichts entgegenzusetzen, wenn der Cayman jetzt 3 - 4 Monate auf sich warten ließe, könnte ich dieser Aussage zustimmen.

Zum anderen ME, Risen und Anno, spiele die ich er sehr gerne Spiele (2560 x 1600) das ist sie 10 - 20% schneller. Und das nachdem sie 14 Monate nach der 5870 erschienen ist.

Nun gut schneller ist schneller, aber dann sollte man auch den Preis beachten. €480 zu €260 (ich beziehe mich hier auf Preise zu denen die Karten als Verfügbar gelistet sind).

Dann müsste sie um diesen Preis zu rechtfertigen 184% schneller sein (und zwar überall) als die 5870.

Bevor der Vorwurf kommt, ich wäre ein Fanboy, zur Zeit besitze ich eine 295 GTX, aber das nur am Rande.
 
Zuletzt bearbeitet von einem Moderator:
Also für mich ein durchaus logisches und gleichwertiges Ergebnis.
Auf CB ein wenig geschönigt, die AMD Karten schneiden hier sehr schlecht ab, was automatisch die NV Karten besser da stehen lässt.

Dual-GPU Karten dürfte man schon im Diagramm lassen, aber dann 40% FPS abziehen wegen dem Frame Versatz, der ja immer vorhanden ist, ob du das bemerkst oder nicht, spielt keine Rolle für die Balken...
 
usopia: naja ganz so isses auch nicht - die Karte braucht doch ordentlich mehr Saft. Realverbrauch 246W vs. 158W.
Also 55% Mehrverbrauch bei 34% Mehrleistung. Aber, das ist schon um einiges besser; eine GTX 580 mit der Leistung der HD5870 würde bei 183W liegen, also 16% Mehrverbrauch. Das ist nicht soooo dramatisch wie es AMD (und deren Jünger) gerne darstellt. Gewaltig ist auch die Verbesserung gegenüber der GTX 480; gleicher Verbrauch mit fast 20% Mehrleistung.

Und der Preis ist voll in Ordnung, selbst mit dem sehr niedrig angesetzten Preis und der UVP für die GTX 580 sind die beiden Karten fast gleichauf. Wenn sich die Preise mal eingeregelt haben wird das vermutlich noch "ähnlicher" werden. Und mit den Mainstreamkarten darf man wirklich nicht vergleichen, es handelt sich eben um das Topmodell beider Hersteller.

mfg
 
Tja, mir ist es eigentlich ziemlich Schnuppe. Die Einen so, die Anderen so. Ich habe nie was von Dual GPU Karten oder SLI gehalten. Weder von 3dfx, nVidia oder ATI. Ineffizient, laut, keine alternative Kühlung, teuer, Mikroruckler, Profilzwang, Teiberprobleme und Inkompatibilitäten. Von beiden Seiten. Soll ich weiter machen?

Deshalb würde ich persönlich von vornherein eine Single-GPU-Karte vorziehen. Da ich aber im Leben keine 400€ mehr für eine Grafikkarte aus dem Fenster werfen werde, kann mir die ganze Diskussion eigentlich voll am Arsch vorbeigehen.

Ich finde trotzdem einen Vergleich von Dual-Karten mit Single-Karten unfair. Und ich würde das auch genauso sehen, wenn hier ATI die schnellste Single-Karte hätte und nvidia mit einer Dual schneller wäre.

Nvidia ist halt mit einem Chip schneller, darum gehts hier. Wie sie sich das erkaufen, finde ich fraglich. Dazu hab ich mein Statement aber schon abgegeben. Nachzulesen in diesem Thread. AMD hat im Moment keinen konkurrenzfähigen Singlechip und muss sich die Krone eben mit deren Zwei erkaufen. Ist ok, aber der Vergleich hingt.

Gute Nacht!
 
Zuletzt bearbeitet:
Zurück
Oben