Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Was mich irritiert ist das sie nichtmal geschaft haben HDMI1.4a einzubauen wogegen AMD/ATI sogar DP1.2 einsetzt das erst mit diesem Monat zum VESA-Standart von allen Hersteller bestätig wurde.


http://www.golem.de/1001/72318.html
Displayport 1.2 überträgt Audio, USB und LAN
Multimonitor-Unterstützung über einzelnen Displayausgang
 
Hoffentlich bringen die Entwickler von Furmark eine neue Version raus, die den Scheiß umgeht.

Die Treibersperre kannst du doch locker mit früheren Furmark-Versionen als 1.8 umgehen.

Ob es aber ratsam ist, eine 500 € Karte auf diese Weise möglicherweise ins Jenseits zu rendern, steht auf einem anderen Blatt.

PS: Ich halte es nach wie vor für unglaublich, dass nVidia offenbar gezwungen ist, diese Sperre in den Treiber einzubauen, da bestimmte Software die Hardware sonst zerstören könnte. Und das passiert ausgerechnet noch beim neuen teuren Spitzenmodell.
 
Furmark zerstört die Karte nicht.

Aber Furmark bringt ein schlechtes Image, wo es die Geforce garnicht nötig hat.
Eine Geforce ist für 90% der Leute zum zocken da, und man kann sie auch weiter hin per Volt tweak übertakten und alles, für mehr Frames in Spielen.

Was aber Schwachsinn ist, ist eine Spielerkarte wie ne Geforce, bis anschlag zu übertakten mit mehr Spannung, nur um dann per Furmark den Worst Case @ Leistungsaufnahme zu ermitteln.

Ein Worst Case der so nie in keinem Spiel der Fall ist.

Leider machen das gefühlte 90% der HW Tester und es entsteht der Eindruck, als ob die Karte permantent 300W verbraucht, dabei sind es selbst im Grafiklastigen Crysis oder Metro nicht mehr als 230W.

Solange also kein Spiel die selbe Last wie Furmark erzeugt, solange find ich es legitim, dass man diese eine Anwendung ausbrembst.

Zumindest für DAUs.
Alle anderen können ja weiterhin die .exe umbennen, das PCGH VGA Tool nutzen oder andere Furmark Ableger.
 
Zuletzt bearbeitet:
@DVD_
Es gibt bereits Spiele welche die Grafikkarten auslasten ähnlich wie FurMark, wurde auch erst hier im Thread ein Titel genannt...
 
Eigenlich brauchen wir uns nicht aufregen AMD/ATI hat diese Sperre ja auch, aber nicht so scharf eingestellt.
Ausserdem ist es schon ratsam,
man brauch nur an den Treiber vor 2 Jahren denken wo entliche WOW-Rechner abgeraucht sind und die letzten Vorfälle in StarCraft2 wo auch die Nvidia Karten vom Hitzetot befallen waren.
 
@PalimPalim
Das mit dem Plural und Singular hast du imho nicht besonders drauf...

@all
Ich frag mich seit wann CB die Karte hat und seit wann man News aus irgendwelchen chinesischen Leaks siziert :evillol: Ich kann es zwar einerseits verstehen, aber andererseits haben solche Artikel irgendwie einen gewissen Beigeschmack... (?) ;)
 
Gamer_07 schrieb:
die Namensgebung bei AMD finde ich ganz und gar nich bescheuert im Gegenteil
neue Firma neue Namen zudem grenzt die 68** Serie deutlich vom High End Segment ab
letzteres trägt nun ausschließlich den Namen 69**
finde ich um einiges sinnvoller als zuvor mit 5850 sowie 5870 und 5970 ;)

Jeder, wie er will. Die Namensbezeichnung finde ich von Nvidia genauso bescheuert. Die Bezeichnungen "GTX475", "GTX485" und "GTX490" wären ja noch frei, sowie "GTX495" für eine Doppelchip-Karte. Aber letztendlich soll es mich nicht abhalten, diese Karte zu kaufen. Oder die GTX570.

Pilstrinker schrieb:
Die Treibersperre kannst du doch locker mit früheren Furmark-Versionen als 1.8 umgehen.

Vorhin habe ich doch irgendwo hier im Forum gelesen, dass bei späteren Treiberversionen auch ältere Versionen geblockt werden sollen.

DVD_ schrieb:
Furmark zerstört die Karte nicht.[/qoute]

Eben. Wenn es zu dolle wird, knallt der Lüfter auf 100% oder die Karte taktet runter oder schaltet sich ab.

Alle anderen können ja weiterhin die .exe umbennen, das PCGH VGA Tool nutzen oder andere Furmark Ableger.

Die im Nvidia-Treiber hinterlegte Exe? :)

PalimPalim schrieb:
@DVD_
Es gibt bereits Spiele welche die Grafikkarten auslasten ähnlich wie FurMark, wurde auch erst hier im Thread ein Titel genannt...

Das wäre echt der größte Scheiß, wenn ich Crysis* spiele und die Grafikkarte eine Pause macht, bloß, weil das Spiel so reinhaut wie Furmark.

*Kann auch ein anderes Spiel sein.
 
Zuletzt bearbeitet:
bei meiner GTX280 ist mir das des öfteren aufgefallen als mitten im Spiel die Karte plötzlich zu brüllen beginnt weil z.B. Wolken oder Nebel gerendert wurden. Es gibt Situationen, da wird ne Karte selbst in einem Spiel stärker gefordert als es eine Benchmarkschleife zulässt. Uns selbst wenn sie nicht zu 100% ausgelastet würde, so wirds doch Zeit ein Spiel auf den Markt zu bringen, das eine Karte ans maximale Limit bringt.
 
Ich hab mal eine ganz kurze Frage, ist es möglich eine 480er und eine 580er im SLI laufen zu lassen!? Nur so rein theoretisch
 
@ATI Soldat:

Wenn man dafür sorgt, dass keine andere Komponenten die Grafikkarte limitieren, läuft die Grafikkarte am "maximalen Limit", weil das "Limit" ja kein Limit ist :freaky:

@fxdev:

Nein, geht nicht.
 
PalimPalim schrieb:
@DVD_
Es gibt bereits Spiele welche die Grafikkarten auslasten ähnlich wie FurMark, wurde auch erst hier im Thread ein Titel genannt...

Welches Spiel und in welchen Settings soll das denn sein?
 
PalimPalim schrieb:
@DVD_
Es gibt bereits Spiele welche die Grafikkarten auslasten ähnlich wie FurMark, wurde auch erst hier im Thread ein Titel genannt...

FurMark ist ein spezielles Tool um Grafikkarten an ihr Limit zu bewegen
Computer Spiele schaffen es in der Regel nicht die Grafikkarte so auszulasten wie es FurMark tut
 
Zuletzt bearbeitet:
Gamer_07 schrieb:
FurMark ist ein spezielles Tool um Grafikkarten an ihr Limit bekommen
Computer Spiele schaffen es in den aller wenigsten Fällen nur ansatzweise die Grafikkarte so auszulasten wie es FurMark tut

Und was genau hast du an meinem Satz nicht verstanden? :freak:

Es gibt bereits Spiele welche ähnliche Lasten wie FurMark erzeugen können....
 
PalimPalim schrieb:
Und was genau hast du an meinem Satz nicht verstanden? :freak:

Es gibt bereits Spiele welche ähnliche Lasten wie FurMark erzeugen können....

FurMark lastet Grafikkarte über einen längeren Zeitraum zu 100% aus
in Computerspielen (zumindest konnte ich das bei meiner Grafikkarte beobachten) sind Grafikkarten nicht dauerhaft zu 100%
eher weniger
 
Ja und? Es nützt mir trotzdem nichts wenn ein Spiel die Karte so dermaßen beansprucht das die Karte instabil wird bzw außerhalb ihrer offiziellen Spezifikationen läuft und genau in dem Moment dann gedrosselt wird o.ä.
 
Respekt Nvidia! Das man sich so stark steigern kann hätte ich nicht für möglich gehalten.
 
@Bruno2k:

Im Ernst: Nach dem Fehlschlag der GTX 480, war es absehbar :rolleyes:
 
Joe schrieb:
Aha...ein MP-Kid? :-)

Nee Spaß beseite!

Scheinst meinen Beitrag net ganz verstanden zu haben. Was ich eigentlich damit zum ausdruck bringen wollte, ist die Vernunft. Schubladendenken haben nur Leute, die einfach kaufen ohne zu denken. Egal, Hauptsache schnell, cool und sonst so ein shice. Vernunft bleibt auf weite Strecken zurück.
Das mit der 50Watt Karte hab ich ja auch nicht wörtlich gemeint, soviel zu Schubladendenken ;-)

Mir ist das egal, weil es noch kein Spiel gibt (selbst die allerneusten), dass ich mit meiner 8800GT nicht flüßig spielen könnte. Man muss ja nicht immer alle Minidetails einschalten ;-) Auf meinem 24" bekomme ich bisher jedes Spiel das mich interessiert in 1920x1200 zum laufen und dabei auch noch flüßig spielbar. (Außer Spiele, die unsauber und verschwenderisch programmiert worden sind, wie zB Crysis und so..aber solche 08/15 Spiele leben ja nur von der Grafik...weit und breit nix vom Spiel zu sehen, also nix für ambitionierte Gamer)

Letztendlich siegt ja die Unvernunft...einfach kaufen, wird schon gut sein, sagt ja auch jeder. DAS, meine lieber Freund, die Schubladendenken.

;)

Du hast ja wohl hier das Schubladendenken. Schublade auf -> dein "MP-Kiddy" rein.

Und was war die 8800GT zu ihrer Zeit? Unwesentlich besser als die GTS und etwas sparsammer als die GTX. Aber kommt die auch nicht annäherd an deine Wuschträume von Leistung pro Watt. Schon damals haben sich alle das Maul zerrissen über die 8800 Serie die ja sooo viel Stromhunger hat (hatte ja sonst auch keinen Kritikpunkt).
Also passt die Karte nicht zu dir.
Und deine Argumentation baut ja quasi auch darauf auf, das DU mit DEINER 8800GT angeblich alles spielen kannst (auser Crysis - aber das ist ja auch scheiße). Aber die hat ja auch nicht jeder. Und wer schnell sein will kauft ne GTX580.
Wenn ich richtig gerechnet habe (mit den CB Wattangaben) dann verbraucht deine schnöde 8800GT 50% weniger bei gut 65% weniger Leistung.
Und jetzt denk mal scharf nach! Absoluter Verbrauch Höher, relativer Verbrauch weniger. Also.

Und ich kenne keinen Vater der seinem King ein 450€ teures Weihnachtsgeschenk machen würde - und die paar die vielleicht in deine Schubladendenke rein passen, die bewegen sicher keinen WELT-Konzern.

so far
par4
 
Es handelt sich trotz der Namensänderung „nur“ um ein kleines Update der GF100-GPU und keine neue Architektur, wobei in Zukunft noch zahlreiche weitere Modelle folgen sollen: Es sollen mehr oder weniger sämtliche GeForce-400-Produkte mit der Zeit ersetzt werden.

Das die 580 nun endlich die vollständige 480 darstellt, wie sie hätte sein sollen und deren Fertigung nun ein Ende findet ist klar erkennbar und absolut logisch. Aber deshalb eine 500er Serie einzuführen ist sowohl unverständlich als auch ärgerlich. GTX 485 hätte Sinn gemacht (bei GT200 hat ja auch eine 85 die 80 verdrängt). Natürlich lässt sich jetzt auch noch eine stärkere GTX 570 herstellen, vill. auch sogar ´ne 565 (wäre dumm, aber wer weiß...)

Doch dass auch Gf104 ersetzt werden sollte klingt unglaublich, was will nV denn an der 460 verbessern, außer die Taktraten anzuheben, die Low - End Karten brauchen auch kein Remake...

Glaubt einer von euch die ziehen das trotzdem durch?

Wenn ja wäre echter Müll; dann gibts keine 460 iGame zu Weihnachten. :stock:
 
Zurück
Oben