Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Naja, die gängigen Tools werden in den nächsten Wochen angepasst und dann sind auch 100% Lüfterdrehzahl möglich, denke ich. War in der Vergangenheit ja ähnlich.
Da muss man als Ersterwerber ein bisschen Geduld mitbringen.
 
@Banger: so ganz hab ich noch nicht verstanden, warum du die 580 jetzt umtauschen willst?! Nur weil der Lüfter nicht auf 100% läuft?...:freak:
 
Er hat sie ja momentan noch selber, also ich habe ihn so verstanden, dass es ihn stört, nicht auf 100% Lüfterdrehzahl kommen zu können.
 
Ob nun 85% oder 100% Lüftergeschwindigkeit, das sollte auf die Temperatur der GPU kaum einen Einfluss haben, da der Luftstrom bei gefühlten 4'000rpm schon ordentlich ist.
 
Genau so ist es, bei 85% ist die Kühlung vollkommen ausreichend.
Ich habe gerade 1h BFBC2 gezockt, 26° in der Bude, da mir nach der Spätschicht kalt war, der Grafikkartenlüfter ist die gesamte Zeit bei 40% geblieben, die GPU Temperatur laut GPU-Z Log nicht über 55° gestiegen.
 
Hallo

Ich habe die Karte seit ein paar Tagen und bin absolut begeistert..mein Lüfter steht die ganze Zeit @ Stock also auf 40 %..ich spiele jeden Tag meine 4-5 Stunden BFBC2 es kommt mir so vor als läuft die Karte schneller wie meine 2 470 GTX die ich wieder zurückgeschickt hatte.

Ich muss mal schauen wie warm die wird.
 
Zuletzt bearbeitet:
Bad Company 2 ist ja auch ein Paradebeispiel dafür, wie wenig schlechte Konsolenumsetzungen aktuelle Grafikkarten beanspruchen...

Im Klartext: Das Spiel ist denkbar ungeeignet um die GTX 580 an ihre Grenzen zu treiben. Metro, Crysis oder Stalker sind hier eher zu nennen.
 
Mir geht es ums Prinzip, fertig, aus. Genauso die Kastrierungen. Wenn der Lüfter höher kann, denke ich, dass er die Temperatur in Furmark ( :rolleyes: ) mit ca. 87-90% halten kann, das kommt dann auf´s Ähnliche raus wie bei der 470.

@ #667: Da wird die Karte nicht richtig ausgelastet, oder? Wenn ich mal Just Cause 2 nehme, geht der Lüfter auch in den Bereich von 60-70% und ist knapp unter 90°C, eher gesagt, ca. 86°C. War bei der 470 auch ähnlich. Da kam ich zuletzt auf 88°C. Nur im Idle gehen sie auseinander. Mir kommt es so vor, dass diese Kühler etwas überbewertet ist, wenn es um Last geht.

Obendrein gehe ich zu Evga mit der Superclocked mit Backplate. Vielleicht auch eine andere mit verbesserter Kühlung von einem anderen Boardpartner.

Von Furmark kann jeder halten, was er will. Ich nutze es mit den Spielen als Stabilitätstest für Spannungsreduzierungen oder OC.

Und wenn ich schon fast 500 Ocken ausgebe, kann ich erwarten, dass nicht irgendwelche Mist gedrosselt wird. Dabei ist es egal, ob es sich um Nvidia oder Ati handelt.
 
@ Banger wiso wartest du nicht auf die neue von Sparkle mit den 3 Lüftern..

Ich hatte auch die POV 480 GTX Ultra Charged TFC edition damit und die Temps sind bedeutend besser..

Aber gerade habe ich auch mal auf GPU Z geschaut während BFBC2 lief und die Temp lag so bei 85° nach einigen Minuten..

Der Lüfter ging von alleine bis auf 65% hoch..ich bin jedenfalls sehr angetan von der Karte.

@ Mr Zweig

Metro werde ich morgen mal testen.

lg
 
Zuletzt bearbeitet:
GTX480 oder 580 von Sparkle mit 3 Lüftern? Ich schaue mal. die pustet die Abwärme ins Gehäuse, ist vielleicht nicht so schlimm, wenn die Karte beispielsweise nur 75°C macht. Zuletzt 3 Lüfter ins Gehäuse getan, machen guten Luftdurchsatz. ^^

Die übertaktete Point of View ist aber nicht mit Referenzdesign kühler. Oder handelt es sich um eine Wasserkühlung?

Für Grafikkarten wäre doch sowas wie eine H50 oder H70 interessant. Pumpe und Kühlkörper auf der Grafikkarte, Radiator am Heck des Gehäuses.

Edit: Meine Glaskugel sagt, dass die GTX580 von Sparkle mit 3 Lüftern mein Budget überschreitet und zudem über 500€ kosten wird.

http://www.calibrestyle.com.tw/news/CalibreX580/news_CalibreX580_en.html
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:

Umso schlimmer.
Videobeschleunigung, Flashbeschleunigung, Spiele.
Das alles läuft besser mit ner anständigen Grafikkarte...

CompuChecker schrieb:
So ich hab mir jetzt auch eine EVGA GTX580 bestellt.
Wisst Ihr ob mein Netzteil reicht? Enermax 620 Watt s.h. Signatur.
Locker

Banger schrieb:
(Nein, ich kaufe mir keine Ati. Die können kein Cuda, welches ich momentan nutze.)

Welche Programme nutzt du denn?
 
Spiele. Es gibt da sogar eins, was Cuda kann. ;)

Edit: Die GTX580 hätte mit Fremdkühlung und anderem PCB noch eine Chance. Aber ich kann mir denken, dass solche erstmal auch über 500 Steine zum Anfang kosten.
 
Zuletzt bearbeitet:
Die Preislage beim Referenzdesign wird auf jeden Fall so bleiben, wenn nicht sogar leicht anziehen, da die 6970 die GTX 580 nicht knacken wird und somit das (absolute, leistungsmäßige) High-End Segment stellen wird.

Von alternativen Designs, vielleicht sogar ner Zotac AMP! ganz zu schweigen, da wird der Preis bestimmt bei 529€ oder mehr liegen (wenn denn eine kommen wird, was ich sehr hoffe).
 
Ne AMP ist schon in den Preisvergleichen gelistet, schlägt mit 539EUR ins Kontor.
 
Apocaliptica schrieb:
Die Preislage beim Referenzdesign wird auf jeden Fall so bleiben, wenn nicht sogar leicht anziehen, da die 6970 die GTX 580 nicht knacken wird und somit das (absolute, leistungsmäßige) High-End Segment stellen wird.

Von alternativen Designs, vielleicht sogar ner Zotac AMP! ganz zu schweigen, da wird der Preis bestimmt bei 529€ oder mehr liegen (wenn denn eine kommen wird, was ich sehr hoffe).

Woran machst du das Fest?

Die gesteigerte Effizienz der 4D Shader + die Steigerung die man beim 5D Design der HD6870 sehen konnte (1120 Shader etwas mehr als HD5850 Leistung die bekanntlich 1440 Shader hat und etwas weniger Takt ) sollten schon Reichen um eine 580er zu knacken , laut gerüchten soll ja die HD6970 mit 1920 Shadern kommen was durch 4 Geteilt mindestens 480 1D Shadern entspricht fehlen nur noch 32 zu ner GTX480 da aber bekanntlich die 4D / 5D Shader mindestens zum Teil ausgelastet werden sollte da etwas mehr bei rumkommen , natürlich kann man jetzt sagen das die Designs nicht mit einander vergleichbar sind usw (Höhere Shader Takt bei Nvidia) usw..
 
Sp3cial Us3r schrieb:
Woran machst du das Fest?

Die gesteigerte Effizienz der 4D Shader + die Steigerung die man beim 5D Design der HD6870 sehen konnte (1120 Shader etwas mehr als HD5850 Leistung die bekanntlich 1440 Shader hat und etwas weniger Takt ) sollten schon Reichen um eine 580er zu knacken , laut gerüchten soll ja die HD6970 mit 1920 Shadern kommen was durch 4 Geteilt mindestens 480 1D Shadern entspricht fehlen nur noch 32 zu ner GTX480 da aber bekanntlich die 4D / 5D Shader mindestens zum Teil ausgelastet werden sollte da etwas mehr bei rumkommen , natürlich kann man jetzt sagen das die Designs nicht mit einander vergleichbar sind usw (Höhere Shader Takt bei Nvidia) usw..

Ein Indikator dafür wäre schon die Verschiebung der 6900er Serie, seien es nur ein "paar" Tage oder Wochen, sodass den Boardpartnern nicht mal das finale BIOS vorliegt.
Warum das auf einmal alles wie aus dem Nichts? AMD wurde - genauso wie ich - sehr vom überraschenden Launch der GTX 580 überrumpelt worden sein, anders kann ich es mir nicht erklären. Wenn man wirklich nen Ass im Ärmel hat und auf die eigene Technik vollkommen vertraut, dann braucht man nichts zu verschieben.

(Überraschend ist es nicht, dass eine - eigentlich als GTX 380/480 geplante Karte mit 512 Cuda Cores - doch noch kommt, da wurde schon beim Launch der GTX 480 und danach gemunkelt.)

Lieferschwierigkeiten/Produktionsschwierigkeiten wegen zu niedrigen Yields kann ich mir auch nicht mehr vorstellen, die Fabriken sollten die 40nm nun schon draufhaben, größerer Chip hin oder her.

Jenergy schrieb:
AMD wird alles daran setzen, dass sie es tut! :D

Ich vermute wirklich, dass der Core, Shader und Memory sowie deren jetzt bis an die Grenzen des Machbaren getrieben werden um den Abstand zur GTX 580 so gering wie möglich zu halten bzw. irgendwo bei nem spezifischen Benchmark vielleicht ein Prozent mehr rauszuholen.

Ich will mich jetzt nicht als Orakel, Schwarzmaler, Nvidia-Fanboy oder sonst irgendwas aufspielen, aber so in etwa schätze ich die Lage ein. Welche Karte in Sachen Preis-Leistungsverhältnis die Bessere sein wird, steht außer Frage ;)
 
Zuletzt bearbeitet:
Zurück
Oben