Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Das Bild clonen wäre eine möglichkeit. Ne andere wäre, meinen PC monitor auszuschalten, und das bild NUR aufn TV zu legen.
Ne andere nette möglichkeit wäre das bild zu "erweitern". Also ich zieh den Film z.b. nach rechts ausm Monitor raus, und er wird dann im TV angezeigt :P Dort kann dann der film laufen oder so, während ich aufm PC monitor anderes mache. z.b. surfen, etc^^

weiß aber nicht, ob das alles auch ohne eyefinity geht.

Die von der AMD Marketing-Abteilung leisten tolle Arbeit :evillol:
 
Mir ist da gerade etwas beim performancerating aufgefallen - hat sich da etwa der Fehlerteufel eingeschlichen?

Nur die "falsche" 6850 war schneller als die 5850. Die richtige hat durchweg weniger Leistung als die 5850... Mir scheint ihr habt hier die daten der falschen eingetragen.
 
Das Geilste ist ja wohl die Nvidia Werbung zur GTX580 auf alternate:

"Schnell, Lautlos, Unbesiegbar

Nvidia Geforce GTX580 Grafikprozessor"

Die Firme der leisen Töne ist Nvidia ja nicht gerade Lol
 
Zuletzt bearbeitet:
terraconz schrieb:
Mit speziell meinte ich hier das die Monitore Displayports brauchen.

Weißt du überhaupt was propriäter bedeutet? Du kannst jeden Monitor als Eyefinity Gerät nutzen und hast auch keine Sperren o.ä. drin, wie es z.B. bei nvidia 3D Monitoren der Fall ist. :rolleyes:
 
terraconz schrieb:
Mit speziell meinte ich hier das die Monitore Displayports brauchen.
Was ist das denn für ein Argument? Sind vllt. Scart-Kabel speziell, weil sie die 3fach Cinch- oder Antennenkabel abgelöst haben? Und die Steckdose, weil sie eine andere Spannung, als der erste Generator von Werner von Siemens haben?
Displayport 1.2 hat zum Beispiel eine doppelt so hohe Datenübertragungsrate wie HDMI 1.4a. Ein Vorteil dieses Standards gegenüber HDMI. Ansonsten gibts preiswerte Adapter. Aber Eyefinity schlecht zu reden, weil es einen normalen Industriestandard nutzt, ist bescheuert.
Was soll AMD denn deiner Meinung nach nutzen? Zurück zu VGA-Anschlüssen?
 
Zitat: "...AMD hat der GeForce GTX 580 aktuell noch gar nichts entgegen zu setzen..."
Achja? Was ist mit der ATi Radeon HD 5970? Sie verbraucht weniger Leistung, ist schneller und ist für 389€ zu haben. Geizhals. Und kommt mir nicht mit Singlekarte. Die ATi 5970 ist der wahre Gegenspieler zur Geforce 580, wenn man alle Daten berücksichtigt (Preis, Performance, Leistungsaufnahme).
 
Zuletzt bearbeitet:
Airbag schrieb:
Es ist eine Verbesserung vorhanden und es gibt keine Konkurrenz. Was sollen sie den sonst schreiben?
Immerhin ist das CB Fazit auch recht wohlwollend formuliert und fällt ähnlich wie bei PCGH aus.

BTW

Wie gesittet es hier vorgeht. Da fehlen mal glatt drei User mit hoher Postzahl und schon sieht man die Auswirkungen.

Es ist eine Verbesserung, allerdings immernoch ein Manko, wenn man bedenkt, dass die GTX 580 unter Last mehr als die 5970 von vor einem Jahr zieht. Ich finde genau den Aspekt hat CB im Test berücksichtigt, dass der Verbrauch im Vergleich zur GTX 480 zwar gesunken ist, aber eben nicht zu den weniger stromhungrigen ATI Pendants. Ich denke jedoch, dass sich die 6970 in Sachen Leistungsaufnahme mit der GTX 580 messen wird, mal sehen ob sich dann die Leistungsaufnahme der GTX 580 immer noch so schön lesen lässt...
 
Zuletzt bearbeitet:
Phrozzen schrieb:
Ich hab sie mir bestellt und werde meine unsäglich schlechte Dual-PCB gtx295 endlich einmotten (so ein scheissteil)

Herzlichen Glückwunsch zu soviel intelligenz.... :rolleyes:

Pana schrieb:
Das ist eine Dual-GPU-Karte. Wenn Du das wirklich vergleichen willst, dann musst Du ein GTX 580-SLI gegenüberstellen.
Klar, und mit welcher Begründung?
Wer 400€ ausgibt, der kann auch gleich 1000€ für SLI ausgeben (Mainboard und Netzteil nicht eingerechnet...) :rolleyes:


Jocotty schrieb:
Hab noch nicht alle Post durchgelesen, aber warum verbraucht die 5970 auf einmal 25W mehr? oO
https://www.computerbase.de/artikel...est.1201/seite-26#abschnitt_leistungsaufnahme

Kannste dazu mal Stellung nehmen Wolfgang?

Little Britain schrieb:
Also wen Interessiert noch bei dem Preis der Stromhunger oder die Lautstärke, das sowas immer wieder unter den Negativ Eigenschaften fällt ist Total behämmert, sollen die doch mal ne Karte leiser und Energiearmer hinkriegen....wär sich ein Porsche Kauft dem sind die Spritkosten auch egal...:D

Es interessiert dich nicht, aber vielleicht mal deine Kinder ;)


KainerM schrieb:
Im Übrigen ist der Preis der gleiche, den sie für die GTX 480 verlangt haben, mal sehen wohin der sich entwickelt.

Jap, da hat man sich gerade nochmal aus der Schlinge gezogen.
Weil mit der Preiserhöhung ist sichergestellt, dass die 480 bzw jetzt 485 nicht in ein Gebiet rutscht wo man draufzahlen muss...

KainerM schrieb:
So gesagt etwa um die hälfte schneller bei Spielen die die Technologie auch nutzen. [...]
Tatsache ist dass die Fermi-Karten für die Zukunft gewappnet sind, während die HD5000 Karten mit gerade noch aktuellen Titeln optimal funktionieren
Definiere "Technologie" und "Zukunft"....


ATI Soldat schrieb:
Das Argument ist doch, dass es eine Multi GPU Karte ist, wenn das ATI Nachfolgemodell der 5870 kommt und die GTX580 verbläst, kontert Nvidia mit einer GTX460X2 und dann zählt das Multi GPU Argument nicht mehr. Wirst sehen ;-)
Die Vermutung hab ich auch :freak:

ATI Soldat schrieb:
"Wir empfehlen in diesem Fall aber generell noch dazu, im Zweifelsfall auf die Radeon-HD-6900-Probanden von AMD zu warten, die in Kürze das Licht der Welt erblicken sollten. Vorher ist es unmöglich einzuschätzen, in wie weit welches Produkt Vor- und Nachteile hat."

Es sind zwar alles Gerüchte, aber ich denke auch, dass sich das Warten richtig lohnt.

Und im Gegensatz zu Nvidia hat AMD bis jetzt ihre Releases eigentlich ziemlich gut eingehalten....

Torquemada4 schrieb:
Eine Frage: Wird es AMD jemals hinbekommen auf PhysX zu unterstützen oder ein eigenes kompatibles Programm zu erfinden?

Sie werden es nicht hinbekommen Phsyx zu unterstützen, weil Nvidia sie dann in der Hand hätte.

Ein kompatibles Programm wird es auch nicht geben, weil sie damit wahrscheinlich Physx Patente verletzen würden.

Genau deswegen wird sich Physx auch nicht durchsetzen.

Grafikkartenede schrieb:
Kompatibel zu Physx? Niemals.
Eher einen offenen Standard, sofern sich AMD mal endlich dahingehend was unternimmt.
terraconz schrieb:
Also auf einen offenen AMD Standard würde ich nicht hoffen denn wir wissen ja was dabei rauskommt. AMD lässt irgendeine kleine Klitsche die Arbeit für sich machen und genau danach sieht das Endprodukt dann auch aus. (siehe AMDs 3D Vision Konter, lol)
Was erwartest ihr?
Soll AMD Millionen von eure in einen OFFENEN Standard investieren, damit sich Nvidia in das gemachte Nest setzen kann und Millionen mit Physx verdient hat?

Wenn Nvidia die Geldkoffer sein lassen würde, würde der Markt sich schon zu einer Physx Lösung einigen. Denn die Schnittstelle (OpenGL, Cuda, Stream, DirectCompute) ist Sache der Hersteller, der Rest Sache der Spieleentwickler!


Xpect schrieb:
Darf man anfragen, ob ihr die HD6970 bereits zum testen erhalten habt? Ich schätze mal die blosse angabe "Ja ist da" oder "Nein ist nicht da" dürfte ja kein NDA Bruch sein ;)

Doch es fällt ins NDA.


Darkfight-666 schrieb:
Autokiller677 schrieb:
setzen 6!

Dai6oro schrieb:
Und schon kannste deine Rechnung in die Tonne treten. Das ist der Lastverbrauch des Gesamtsystems

Also 6 setzen und nochmal

/signed

Jenergy schrieb:
Schöner Test :)

Einzig bei den Frameverläufen hätte ich gerne den Vergleich zur HD 5970 gesehen, da diese der GTX 580 in den Benchmarks (bezgl. avg. fps) kaum überlegen ist.
/signed

Domi16 schrieb:
Ob man das Risiko von möglichen µRucklern bei der HD5970 eingehn will muss wohl jeder selbst entscheiden.

Die Risikominimierung nennt sich 14 tägiges Rückgaberecht...

terraconz schrieb:
So ein Vergleich macht doch bei einer High End Karte keinen Sinn, die Käufer dieser Art von Karten sollten sich über den Stromverbrauch keinen Kopf machen und wenn sie es doch müssen dann sollten sie nicht so teure Karte kaufen. Will ich Leistung kostet das Strom, Punkt! Solche Test machen höchstens ab Midrange Grafikkarten Bereich Sinn. Ich mache mir ja auch kein 4-Way SLI um mir dann meine perf/Watt auszurechnen. :freak:

Und Genau diese Anforderung hat eben ein vernünftiger Mensch.
Hey, der GF100 war ein Chip der auch für den Profi Bereich war.
Und genau das ist das, weswegen die Leistungsaufnahme so schlecht ist.
Profibereich und Gamerberich sollte getrennt gefüttert werden!

derschlambi schrieb:
Ich finde diese ewigen Autovergleiche zwar nicht gut, aber schau dir das hier mal an: BMW baut einen Serien-Öko-Sportwagen

Genau so muss das laufen!
Wenn die Leute meinen, dass Leistung einen hohen Energieverbrauch bedeuten muss, warum sollten sie dann besser entwickeln?
Die Menge nimmt es ja an.

Und ich hoffe, dass AMD zeigen wird, dass es auch anders geht...

PalimPalim schrieb:
Wieso schließen hier immer eigentlich Leute offenbar geringen Verbrauch und High End immer voneinander aus?

/signed

Begu schrieb:
Die 580 ist in meinen Augen noch ein Stück entfernt von Gut. Sie ist in allen Belangen besser als die 480, aber schlechter gings auch nicht mehr. Warten auf die 69XX von AMD, dann entscheidet sich, ob die 580 wirklich gut ist.

/signed

Ycon schrieb:
Zitat:
Negative Eigenschaften: Zu hohe Leistungsaufnahme
Zitat Ende.
Was soll denn diese Falschaussage? Die Performance-pro-Watt ist eindeutig besser als bei der 480 und 5870, also kann die Leistungsaufnahme eben nicht als zu hoch bezeichnet werden.

Bevor du hier Schauermärchen erzählst solltest du mal die Aussage erstmal anständig widerlegen....

PalimPalim schrieb:
Worauf ich hinaus will? Das habe ich bereits erklärt. High End muss sich nicht zwangsläufig durch hohen Verbrauch und dem Maximum an Leistung auszeichnen.
/signed
 
Dr.Duschlampe schrieb:
[...] Und kommt mir nicht mit Singlekarte. Die ATi 5970 ist der wahre Gegenspieler zur Geforce 580 wenn man sich alle Daten berücksichtigt.

Warum soll niemand mit Single Karte kommen?
Ist nunmal Fakt. Manche/viele nehmen Multi GPU Mikroruckler wahr.
Ergo ist es ein Nachteil und in meinen Augen nicht vergleichbar.
 
Bin ich der einzige, der der Meinung ist das Seite 28 den unwissenden in die Irre fuehrt ? Ich bin der Ansicht, dass die Preis/Leistung Diagramme so im aktuellen Stand zu nichts zu gebrauchen sind.

Jemand der auf 1680x1050 Resolution angewiesen ist, wird leider ab Seite 28 komplett den Verstand verlieren. Eine 5670 als Top GPU zu bezeichnen ist fast schon eine Blasphemie was der "Main/HighEnd-Gamer-Standard" anbelangt.

Ich finde man sollte auch neben den Prozent-Angaben auch die avg. fps notieren. Wer nun fuer +35% € das doppelt oder mehr an fps bekommt, macht nat. schnell einen Bogen um besagte GPU. Das ist aber leider, atkuell so der Fall, aus den Diagrammen nicht moeglich, eine GTX460-768 kostet ca. 1.5x mal mehr, rendert aber auch im Durchschnitt auch das 2x.

Das mag jetzt nicht das beste Beispiel darstellen, aber wenn man sich eine neue Karte zulegen will, so moechte man auch eine neue Karte haben die nat. in aktuellen Spielen auch ein Minimum an fps erreicht. Diese sollte dann auch eine gewisse Zukunftsicherheit haben, was bei einer 5670 nicht moeglich ist. Diese rendert bereits bei alten Titel am Limit, da bleibt nicht will uebrig[fuer mich eine 40€ gpu] fuer 2011...

Man moechte doch so vereinfacht wie moeglich, dem Konsument beibringen welche Karte man im Auge behalten soll. Dazu gehoert fuer mich, dass man ab Seite 28[wie bei diesem GTX580 Test] nebst den Prozenten auch die Preise samt avg. fps Werte mit angibt.

Zum Test;

Die richtige 480, mehr braucht man auch nicht mehr zu sagen. Freue mich schon auf den Test zur 6950/70/6990 Ende Nov. bzw. Anfangs Dez. 2010 :)
 

Anhänge

  • Untitled.png
    Untitled.png
    35,5 KB · Aufrufe: 492
Es ist wirklich witzig, wie sich die Nvidia Fanboyz in den letzten Seiten mit pseudo Argumenten überschlagen.
Schon mal was von Sachlichkeit gehört?
Kann man denn nicht ohne hang zu einem Hersteller eine Argumentation mit Argumenten statt Meinugn führen? Wohl nicht möglich.

MarV schrieb:
ATI Karten waren eine Lange Zeit auch nur mit gemoddeten Treibern zu gebrauchen, vielleicht sind sie es heute noch. Ich habe seit 4 Jahren keine ATI mehr im Rechner gehabt.

Ich wüsste nicht, dass man beim Treiber etwas modden müsste, damit AMD Karten zu gebrauchen sind.
Woher genommen? Erfunden?

CoNk3r schrieb:
Jemand der auf 1680x1050 Resolution angewiesen ist, wird leider ab Seite 28 komplett den Verstand verlieren. Eine 5670 als Top GPU zu bezeichnen ist fast schon eine Blasphemie was der "Main/HighEnd-Gamer-Standard" anbelangt.

Naja es geht ja auch rein ums P/L.
Für viele Gamer reicht eine HD5670 locker aus.

Ycon schrieb:
Die Ursache dieser Aussage ist meines Erachtens mal wieder die klare Favorisierung von AMD-Produkten seitens der Redaktion. Dies mahne ich schon seit Monaten an, aber es wurden keine Maßnahmen ergriffen, um die Objektivität der Tests zu rehabilitieren. Nachweis hierfür sind alle anderen Tests im Internet, in denen nVidia-Karten stets erheblich besser aussehen als hier,

Bei PCGH schneidet sie beim Verbrauch kaum besser ab als die GTX480.
Bei HT4U teils schlechter (Furmark) und unter Last zieht sie auch nicht weniger. (Effizienz allerdings besser).
Ich sehe da kein potenzial zur Kritik.
Guckst du in die neue PCGH Zeitschrift, siehst du, dass die GTX460 768 immer schneller ist als eine knapp 20% schnellere HD6850 (HT4u + CB). Etwas ungewöhnlich.
 
Zuletzt bearbeitet:
hmm - ich gerate in Versuchung von der GTX470 auf die 580 zu wechseln.
EVGA Step up sei dank, müsste ich rund 230.- draufzahlen...

Bis Ende des Monats kann ich mir es noch überlegen.
 
terraconz schrieb:
Nur weil es ein offener Standard ist heißt es nicht per se etwas ist schlecht oder gut. Sonst würden die meisten Leute Linux nutzten im Vergleich zu Windows, da dem nicht so ist muß man davon ausgehen das den meisten Leuten Windows besser gefällt.

Windows zeigt genau was passiert, wenn man ein Quasi-Monopol hat.
Die Dunkelziffer derjenigen, die Linux benutzen würden, wenn sie darauf zocken könnten ist riesig!

terraconz schrieb:
Und was ist mit Eyefinity das ebenfalls propriäter ist und für das man ebenfalls spezielle Monitore benötigt? Oder ist das was anderes weil es von AMD kommt?
Setzen sechs und mal nachschauen was "proprietär " überhaupt heißt...


Mr_Blonde schrieb:
Warum soll niemand mit Single Karte kommen?
Ist nunmal Fakt. Manche/viele nehmen Multi GPU Mikroruckler wahr.
Ergo ist es ein Nachteil und in meinen Augen nicht vergleichbar.

Aber eben nicht alle.
Und MGPU Karten von Vorneherein auszuschließen finde ich nicht fair.
Denn für diejenigen die die Ruckler nicht sehen sind sie nicht unbedingt schlecht.
 
31W im Idle ist zwar viel besser als die GTX480 mit ca. 45W aber im Vergleich zur ATI 5870
mit nur 21W immer noch ziemlich viel :(

ca. 20% mehr Leistung als eine 5870:) dafür aber fast 100W mehr im 3D Modus


250W TDP - Ich frage mich wo das noch alles hinführen soll ???
 
habe mir erst ne 6870 geholt, von der leistung her bin ich zufrieden.
die GTX580 ist ne nette karte, aber recht teuer.
wäre interessant wenns nen refresh von ner GTX470 geben würde, für sagen wir 300euro, da würde ich evt nochmal schwach werden.
 
Mal was zu Mikrorucklern: Hab neulich mal ne zweite 5770 von nem kollegen ausprobiert. zweiter PCIe slot hatte nur 4 Lanes anbindung. Mikroruckler waren deutlich zu sehen sowohl in 3D Mark Vantage, als auch in Heaven Benchmark (im letzteren hatten maximale einstellungen 522 punkte etwa, mit einer einzigen karte nur 142. Weiß net wieso^^ bei 3D Mark knapp 50% mehr punkte)

Jedoch in Games hab ich keine Mikroruckler feststellen können. Besonders bei Battlefield Bad Company 2 war der Bildlauf sogar flüssiger/sauberer als vorher.
 
CoNk3r schrieb:
Jemand der auf 1680x1050 Resolution angewiesen ist, wird leider ab Seite 28 komplett den Verstand verlieren. Eine 5670 als Top GPU zu bezeichnen ist fast schon eine Blasphemie was der "Main/HighEnd-Gamer-Standard" anbelangt.

Die 5670 schafft auf 1680x1050 durchschnittlich 28,5fps und nicht wie von dir angegeben 17pfs.
 
Witzig ist ich hab 7-8 Test überflogen und meisens gibt man der gtx580 eine Vorsprung von 15-20%,
auf die gtx 480 nur Gamestar.de besteht auf seine 25% Mehrleistung. :rolleyes:
 
eine leisere und kuehlere gtx480
die mehrleistung gegenueber der gtx480 entsteht durch den hoehren takt?!

da muss kein gtx 480 besitzer nervoes werden.
fuer leute die jetzt sofort ne high-end karte haben wollen gibts ab jetzt nur noch die gtx 580
eigentlich sollte man aber auf die top ATi karten warten, von den erhoffe ich mir auch keinen groesseren performance schub aber wer weiss :P
 
Zurück
Oben