Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen

Boah immer dieses Tesselation-Gedöns. Wo sind denn all die Spiele wo ich die ganze T-Leistung benötige? DX 11 besteht nicht nur aus Tesselation, aber das scheinen einige zu vergessen. Gut Nvidia setzt massiv auf Tesselation. Und? Braucht bis jetzt kein Mensch. Das Fermi 3 Millarden Transistoren benötigt um diese Leistung zu bringen ist keine Effizienzleistung. AMD hat es beispielsweise geschafft (Vergleich 5850/6870) 400 Mill. Transistoren einzusparen und etwas Mehrleistung zu gewinnen. Das ist Effizienz.
 
Dai6oro schrieb:
Nvidia ist jetzt da angekommen wo ATI schon vor einem Jahr war! Was nicht heißt das AMD jetzt mit dem Cayman ein neues Effizienzwunder aus dem Ärmel schüttelt. Die werden sich bei der Leistungsaufnahme nichts schenken.
Nach dem Zitat wird man denken, das sich Nvidia verbessert hat und AMD mit Cayman die Cypress Leistung nicht verbessern wird.

Zudem ist die 5870 ein Jahr älter als die GTX580.
Vollkommen irrelevant.
Anders gesagt, AMD hat es bis heute nicht geschafft etwas besseres als die 5870 zu präsentieren.
Es wird verglichen was da ist. Bzw. es wird sein gelassen, GTX 580 hat ebenso wie die GTX 480 keine direkte Konkurrenz.

Dai6oro schrieb:
AMD hat es beispielsweise geschafft (Vergleich 5850/6870) 400 Mill. Transistoren einzusparen und etwas Mehrleistung zu gewinnen. Das ist Effizienz.
Takterhöhung um Transistoren zu sparen, ok. Macht im Vebrauch nichts aber AMD freut sich. Wenns dich auch glücklich macht ist es gut.
Aber die neuen Cheat Filter würde ich nicht als Effizienzoffenbarung ansehen.

Wenns dir um die tolle Effizienz geht, müsstest du eh Produkte vergleichen, die wenigstens ganz entfernt vergleichbar sind, als GTX 460 und 6870 oder 5850.
 
Dai6oro schrieb:
Quelle? Oder haste im Kaffeesatz gelesen?

Man brauch nur den gtx580 Test mit der Portfolie in Relation setzten,

HD6990 wird dann 6%-10% schneller als die HD5970
und die
HD6970 wird dann 10%-12% langsamer als die HD5970


https://www.computerbase.de/artikel...seite-20#abschnitt_performancerating_mit_aaaf
Test: Nvidia GeForce GTX 580 (20/29)

https://www.computerbase.de/news/grafikkarten/grafikkarten-roadmap-von-amd-antilles-spaeter.29376/
Grafikkarten-Roadmap von AMD: „Antilles“ später
 
Es wird verglichen was da ist. Bzw. es wird sein gelassen, GTX 580 hat ebenso wie die GTX 480 keine direkte Konkurrenz.
Ich sage schon die ganze Zeit dass da nix zu vergleichen ist.

Wenns dich auch glücklich macht ist es gut.

Nicht nur ich bin glücklich sondern auch ne Menge Leute die sich über ne wesentlich billigere GTX460/470 freuen dürfen.


Daran is nix neu. Die haben lediglich die Standard-Einstellung geändert. Bei mir ist sie auf HQ und gut ist.

Wenns dir um die tolle Effizienz geht, müsstest du eh Produkte vergleichen, die wenigstens ganz entfernt vergleichbar sind, als GTX 460 und 6870 oder 5850.

Deswegen sag ich ja. Warte auf Cayman und vergleiche dann!

Man brauch nur den gtx580 Test mit der Portfolie in Relation setzten,

Lol wenns so einfach wäre. Warum schreibste keinen Graka Block. Weißt ja offensichtlich schon alles. Einfach nur mit nem Lineal ausgemessen und schon isses da das Endergebnis. Made my day lol
 
Zuletzt bearbeitet:
Tja aber Tessellation ist nun mal Bestandteil von Dx11. Und wenn es zum Einsatz gebracht wird, gehen die einen in die Knie und die anderen nicht.

Ob die Softwareschmieden davon Gebrauch machen ist was völlig anderes. Wer wußte das denn schon wirklich wie es mal wird, welches Feature wie oft eingesetzt wird. Wenn das einer gewußt hätte, hätte es nur ein DirectX gegeben...
 
Ich denke Amd zieht erneut den kürzeren. Wenn sie jetzt die neue Architektur verkacken dann könnte nVidia vielleicht jedesmal sogar 1 Generation vorraus sein.
 
Wir werden es sehen.
 
Welche neue Architektur denn?

Die 6870er funktionieren doch gut und über die Nachfolger lässt sich doch noch gar nichts sagen
 
@Ganzir:

Die Architektur der HD 69xx ist im Vergleich zu den HD 68xx leicht abgeändert. Stichwort: 4D-Shader ;)
 
Mal zur abwechslung ein normaler Kommentar....

hab die karte heute geholt, eine Point of View GTX580. nach ein Paar testläufen bin ich rundum zufrienden. Sobald alle Spiele auf die Grafka abgestummen wurden wird auch alles supper laufen. einzig bei Hoher tesselation wird sie laut ansonsten ruhig wie meine vorherige GTX275.

Zudem hat es no das Prince of Persia gegeben O.o naja mal schauen wie viel das Wert ist war ja Gratis :-)

Kämpfe noch mit den treiber, werde wohl morgen nochmals neuinstallieren da es in Devil may Cry 4 mit 100fps mit 8xSSAA ruckelt -.- aber eben mmer 100 fps anzeigt ;-)
 
Laut Nvidia sollen die aktuellen GeForce-GTX-400-Karten zwar im normalen Energiesparmodus wie mit einem einzelnen Display arbeiten, wenn die Auflösung und die Frequenz beider Monitore identisch sind

Hat das schonmal jemand geschafft?
also mit meinen beiden 1920x1200 60Hz Monitoren bekomm ich das nicht hin, mit keinem Treiber, denn sollten die Karten das endlich schaffen, wäre es endlich mal was geiles.

Dieser halbe 2D Modus braucht mir trotzdem noch zuviel Strom und die Karte kommt nicht unter 45° mit 2 Monitoren im idle (GTX480 amp). Mit einem Monitor bin ich sehr wohl auf 35° unten.
 
sse3 schrieb:
Mal zur abwechslung ein normaler Kommentar....

hab die karte heute geholt, eine Point of View GTX580. nach ein Paar testläufen bin ich rundum zufrienden. Sobald alle Spiele auf die Grafka abgestummen wurden wird auch alles supper laufen. einzig bei Hoher tesselation wird sie laut ansonsten ruhig wie meine vorherige GTX275.

Zudem hat es no das Prince of Persia gegeben O.o naja mal schauen wie viel das Wert ist war ja Gratis :-)

Kämpfe noch mit den treiber, werde wohl morgen nochmals neuinstallieren da es in Devil may Cry 4 mit 100fps mit 8xSSAA ruckelt -.- aber eben mmer 100 fps anzeigt ;-)

Teste mal bitte mit Furmark 1.8, einem Spiel undd ggf. einem Benchmark, die gut auslasten. Möchte wissen, ob der Treiber da die Grafikkarte wirklich abkacken lässt. Danke.

Aktuell ist meine Planung, dass ich ca. 3 Wochen warte. Erstens hat HIQ sie spätestens dann, zweitens kommen hoffentlich die Atis, drittens der Preiskampf und viertens möchte ich nicht mehr als 450 Ocken hinblättern.

Edit: Ich habe auch das Prince of Persia - the forgotten sands bekommen, bzw. einen Runterladgutschein. Meine GTX470 trägt auch einen Aufkleber von Point of View.

Von Evga gibts diese 580 in der COD-Version. Ob da auch das Spiel Black Ops dabei ist? :rolleyes:
 
Zuletzt bearbeitet:
Die Architektur der HD 69xx ist im Vergleich zu den HD 68xx leicht abgeändert. Stichwort: 4D-Shader

Ja das habe ich auch nie abgestritten im Post vor mir war aber von "neuer" Architektur die Rede und eine leichte Abänderung (wie du schon richtig sagst) ist eben nur genau das und nichts wirklich neues.

Zumal da auch nicht das Problem zu liegen scheint sondern wohl darin, dass irgendwas für die Karte nicht so gut Lieferbar ist.

Wenn in Spanien gestreigt wird und keine Wasserpumpen mehr produziert werden, dann baut VW auch mal eben keine Autos mehr. So ist das eben bei just in time Fertigung.
 
Gravy schrieb:
Dieser halbe 2D Modus braucht mir trotzdem noch zuviel Strom und die Karte kommt nicht unter 45° mit 2 Monitoren im idle (GTX480 amp). Mit einem Monitor bin ich sehr wohl auf 35° unten.


Besonderheiten im Multi-Monitor-Betrieb bei NVIDIA

NVIDIA gibt in seinen aktuellen Dokumenten den deutlichen Hinweis, dass es Besonderheiten beim Multi-Monitor-Betrieb gibt. Solange es sich um zwei Monitore handelt, welche mit der gleichen Auflösung und Herz-Zahl angesteuert werden, verbliebe die GTX 580 (aber auch die GTX-400-Modelle) im Idle-Power-State, welcher dem Betrieb mit nur einem Monitor im Lastfreien Betrieb entspricht. Ändern sich die Umstände (Auflösung / Herz-Zahl), dann wechseln diese GPUs in den Power-State für Multi-Monitoring Betrieb.

Wir haben diese Aussage versucht nach zu stellen und in der Tat gelang es uns Konstellationen zu finden, die in der beschriebenen Weise dann tatsächlich Spannungen und Taktraten auf das geringe Niveau des Betriebs mit einem Monitor absenken.



Allerdings gelang uns das nicht immer! Es gelang uns beispielsweise nicht unseren Dell-U2711-Monitor gemeinsam mit einem BenQ G2400W im Idle-Power-State-Modus zu betreiben, obgleich die genannten Voraussetzungen genannt wurden. Der Betrieb erfolgte dabei an den beiden DVI-Anschlüssen der Grafikkarte. Wechselten wir hingegen in eine Kombination mit 1280 x 1024 Auflösung und betrieben zusätzlich einen der Monitore am HDMI-Anschluss, gelang es uns dann wieder diese Absenkung zu erreichen. An diesem Punkt warten wir noch auf eine Rückmeldung von NVIDIA, gleichzeitig bedarf es natürlich weiterer Überprüfungen. Gleichzeitig stehen wir zu dem Umstand mit AMD im Gespräch um zu klären, ob dort eine solche Umsetzung ebenfalls möglich ist. Eine Antwort fehlt aktuell noch.

GeForce GTX 580 mit zwei unterschiedlichen Monitoren

Im Falle der aktuellen GeForce GTX 580 kam es leider noch etwas schlimmer, denn offenbar ist hier in der aktuellen Firmware kein separater Power-State für den MM-Betrieb gesetzt. Wir haben das Problem gestern an NVIDIA gemeldet, da wir davon ausgehen, dass die nicht abgesenkten GPU-Taktraten auf einen ungewollten Firmware-Fehler zurück zu führen sind.

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index14.php
 
tja monitore kaufe ich deswegen sicher keine und solange das nicht einwandfrei geklärt ist heist es wiedermal warten, aber geil das es wenigstens mal news auf dem gebiet gibt. Bei ati funzt das ja auch nach wievor nicht, nur das die nochweniger strom brauchen. Das flimmern das bei geringen speichertakten auftritt scheint da noch immer das problem zu sein, bzw hab ich sowas vor kurzem als statement von ati gelesen.
 
Wüßte gar nicht wozu ich beim Zocken einen 2. Monitor gebrauchen könnte...
 
ich kann mich noch daran erinnern das bei der Vorstellung der HD5870 ne menge Boardies sich lächerlich über den Leistungszuwachs der HD5870 zur HD4870 gemacht haben, der ja immerhin bei 60 -70 % lag.
Also bei mir lag das daran weil der ach so tolle Vorsprung bei den hohen Settings gleich wieder verpufft ist, weil die Karte mit 1GB ins Vram Limit fuhr. Eine GTX 285 konnte die HD 5870 1GB überholen bzw. gleich ziehen. Nicht akzeptabel im Zusammenhang mit dem Preisschild. Noch dazu gab es eine extreme Abzocke der Händler, die einfach mal draufgeschlagen haben was möglich war, weil die Karten nicht lieferbar waren und das sehr sehr lange. Eine HD 5890 2GB hätte ich ohne mit der Wimper zu zucken gekauft, aber die kommt ja erst in ein paar Wochen.

Wenn ich mit der "kleinen" Gtx 460 bereits soviel fps habe, dann freue mich schon was da die Gtx 580 leisten wird.
Ich glaube da muss ich dich enttäuschen, bei deinen Settings und HD+Mods also 1,8GB und 2GB Vram Verbrauch wirst du mit der GTX 580 Probleme bekommen und die könnte dir dann auf GTX 460 2GB Niveau einbrechen. Würd mich mal bei der HD 6970 2GB umschauen, bei mir wirds ziemlich sicher die neue AMD, weil ich auch ein Fan von HD Mods bin und da geht nunmal Vram über fast alles. Und nein! Eine GTX 580 ist kein Vram Krüppel! Perfektes Verhältnis von Vram zur Rohleistung wie gehabt. Das perfekte Speichermanagement reißt so einiges, aber alles auch nicht. Gut zu sehen zb. bei
Metro 2033 - 2560x1600 1xAA/1xAF: v. 4xAA/16xAF: GTX 480 1,5 v. GTX 580 1,5
Wärend das Setting ohne AA noch mit 20% Vorsprung belohnt werden, spielt beim 4AA schon das Vram Limit mit rein und die GTX 580 verliert durch den Vram 7% an Vorsprung. Also eine GTX 680 oder 780 sollte dann schon beim Vram zulegen, sonst wirds zu knapp...

Die Architektur der HD 69xx ist im Vergleich zu den HD 68xx leicht abgeändert. Stichwort: 4D-Shader
"leicht" ist gut, die Shader sind quasi der wichtigste Teil einer GPU und belegen den meisten Platz und sind mitverantwortlich für die Effizienz einer Architektur. Leichte Änderungen sehen anders aus ala HD 5000.

Außerdem müssen sie komplett neue Erfahrungen mit den Treibern sammeln, wie man die 4D Shader am besten auslastet etc. Genau so wie das bei der 8800GTX und der HD 2900XT zum 1. Mal der Fall war. Also man sieht schon, ganz schön lange her das sich was an den Shadern geändert hat. Ganz großer Brocken, daher vielleicht auch die Verzögerungen, ein Zuckerschlecken war eine neue Architektur noch nie...

Ganz ehrlich die neuen Shader müssen auch Wunder vollbringen, von einer HD 6870 zur GTX 580 überholen ist es ein verdammt weiter Weg...
 
Zuletzt bearbeitet:
Gibt es denn eigentlich irgendwelche Infos über 28nm chips? Oder sind die erst mit Nvidia 6xx bzw AMD 7xxx zu erwarten?
 
Zurück
Oben