Boah immer dieses Tesselation-Gedöns. Wo sind denn all die Spiele wo ich die ganze T-Leistung benötige? DX 11 besteht nicht nur aus Tesselation, aber das scheinen einige zu vergessen. Gut Nvidia setzt massiv auf Tesselation. Und? Braucht bis jetzt kein Mensch. Das Fermi 3 Millarden Transistoren benötigt um diese Leistung zu bringen ist keine Effizienzleistung. AMD hat es beispielsweise geschafft (Vergleich 5850/6870) 400 Mill. Transistoren einzusparen und etwas Mehrleistung zu gewinnen. Das ist Effizienz.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Nvidia GeForce GTX 580 im Test: GTX 580 schlägt GTX 480 in allen Belangen
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Nach dem Zitat wird man denken, das sich Nvidia verbessert hat und AMD mit Cayman die Cypress Leistung nicht verbessern wird.Dai6oro schrieb:Nvidia ist jetzt da angekommen wo ATI schon vor einem Jahr war! Was nicht heißt das AMD jetzt mit dem Cayman ein neues Effizienzwunder aus dem Ärmel schüttelt. Die werden sich bei der Leistungsaufnahme nichts schenken.
Vollkommen irrelevant.Zudem ist die 5870 ein Jahr älter als die GTX580.
Anders gesagt, AMD hat es bis heute nicht geschafft etwas besseres als die 5870 zu präsentieren.
Es wird verglichen was da ist. Bzw. es wird sein gelassen, GTX 580 hat ebenso wie die GTX 480 keine direkte Konkurrenz.
Takterhöhung um Transistoren zu sparen, ok. Macht im Vebrauch nichts aber AMD freut sich. Wenns dich auch glücklich macht ist es gut.Dai6oro schrieb:AMD hat es beispielsweise geschafft (Vergleich 5850/6870) 400 Mill. Transistoren einzusparen und etwas Mehrleistung zu gewinnen. Das ist Effizienz.
Aber die neuen Cheat Filter würde ich nicht als Effizienzoffenbarung ansehen.
Wenns dir um die tolle Effizienz geht, müsstest du eh Produkte vergleichen, die wenigstens ganz entfernt vergleichbar sind, als GTX 460 und 6870 oder 5850.
Kartenlehrling
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.377
Dai6oro schrieb:Quelle? Oder haste im Kaffeesatz gelesen?
Man brauch nur den gtx580 Test mit der Portfolie in Relation setzten,
HD6990 wird dann 6%-10% schneller als die HD5970
und die
HD6970 wird dann 10%-12% langsamer als die HD5970
https://www.computerbase.de/artikel...seite-20#abschnitt_performancerating_mit_aaaf
Test: Nvidia GeForce GTX 580 (20/29)
https://www.computerbase.de/news/grafikkarten/grafikkarten-roadmap-von-amd-antilles-spaeter.29376/
Grafikkarten-Roadmap von AMD: „Antilles“ später
Ich sage schon die ganze Zeit dass da nix zu vergleichen ist.Es wird verglichen was da ist. Bzw. es wird sein gelassen, GTX 580 hat ebenso wie die GTX 480 keine direkte Konkurrenz.
Wenns dich auch glücklich macht ist es gut.
Nicht nur ich bin glücklich sondern auch ne Menge Leute die sich über ne wesentlich billigere GTX460/470 freuen dürfen.
Cheat Filter
Daran is nix neu. Die haben lediglich die Standard-Einstellung geändert. Bei mir ist sie auf HQ und gut ist.
Wenns dir um die tolle Effizienz geht, müsstest du eh Produkte vergleichen, die wenigstens ganz entfernt vergleichbar sind, als GTX 460 und 6870 oder 5850.
Deswegen sag ich ja. Warte auf Cayman und vergleiche dann!
Man brauch nur den gtx580 Test mit der Portfolie in Relation setzten,
Lol wenns so einfach wäre. Warum schreibste keinen Graka Block. Weißt ja offensichtlich schon alles. Einfach nur mit nem Lineal ausgemessen und schon isses da das Endergebnis. Made my day lol
Zuletzt bearbeitet:
Vanilla2001
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.734
Tja aber Tessellation ist nun mal Bestandteil von Dx11. Und wenn es zum Einsatz gebracht wird, gehen die einen in die Knie und die anderen nicht.
Ob die Softwareschmieden davon Gebrauch machen ist was völlig anderes. Wer wußte das denn schon wirklich wie es mal wird, welches Feature wie oft eingesetzt wird. Wenn das einer gewußt hätte, hätte es nur ein DirectX gegeben...
Ob die Softwareschmieden davon Gebrauch machen ist was völlig anderes. Wer wußte das denn schon wirklich wie es mal wird, welches Feature wie oft eingesetzt wird. Wenn das einer gewußt hätte, hätte es nur ein DirectX gegeben...
Vanilla2001
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.734
Wir werden es sehen.
G
Ganzir
Gast
Welche neue Architektur denn?
Die 6870er funktionieren doch gut und über die Nachfolger lässt sich doch noch gar nichts sagen
Die 6870er funktionieren doch gut und über die Nachfolger lässt sich doch noch gar nichts sagen
ATI Soldat
Banned
- Registriert
- Juli 2010
- Beiträge
- 570
Unyu schrieb:Aber die neuen Cheat Filter würde ich nicht als Effizienzoffenbarung ansehen.
du meinst den Nvidia Cheatfilter?
sse3
Lieutenant
- Registriert
- Jan. 2006
- Beiträge
- 721
Mal zur abwechslung ein normaler Kommentar....
hab die karte heute geholt, eine Point of View GTX580. nach ein Paar testläufen bin ich rundum zufrienden. Sobald alle Spiele auf die Grafka abgestummen wurden wird auch alles supper laufen. einzig bei Hoher tesselation wird sie laut ansonsten ruhig wie meine vorherige GTX275.
Zudem hat es no das Prince of Persia gegeben O.o naja mal schauen wie viel das Wert ist war ja Gratis :-)
Kämpfe noch mit den treiber, werde wohl morgen nochmals neuinstallieren da es in Devil may Cry 4 mit 100fps mit 8xSSAA ruckelt -.- aber eben mmer 100 fps anzeigt ;-)
hab die karte heute geholt, eine Point of View GTX580. nach ein Paar testläufen bin ich rundum zufrienden. Sobald alle Spiele auf die Grafka abgestummen wurden wird auch alles supper laufen. einzig bei Hoher tesselation wird sie laut ansonsten ruhig wie meine vorherige GTX275.
Zudem hat es no das Prince of Persia gegeben O.o naja mal schauen wie viel das Wert ist war ja Gratis :-)
Kämpfe noch mit den treiber, werde wohl morgen nochmals neuinstallieren da es in Devil may Cry 4 mit 100fps mit 8xSSAA ruckelt -.- aber eben mmer 100 fps anzeigt ;-)
Mnemikk
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 2.037
Laut Nvidia sollen die aktuellen GeForce-GTX-400-Karten zwar im normalen Energiesparmodus wie mit einem einzelnen Display arbeiten, wenn die Auflösung und die Frequenz beider Monitore identisch sind
Hat das schonmal jemand geschafft? also mit meinen beiden 1920x1200 60Hz Monitoren bekomm ich das nicht hin, mit keinem Treiber, denn sollten die Karten das endlich schaffen, wäre es endlich mal was geiles.
Dieser halbe 2D Modus braucht mir trotzdem noch zuviel Strom und die Karte kommt nicht unter 45° mit 2 Monitoren im idle (GTX480 amp). Mit einem Monitor bin ich sehr wohl auf 35° unten.
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.930
sse3 schrieb:Mal zur abwechslung ein normaler Kommentar....
hab die karte heute geholt, eine Point of View GTX580. nach ein Paar testläufen bin ich rundum zufrienden. Sobald alle Spiele auf die Grafka abgestummen wurden wird auch alles supper laufen. einzig bei Hoher tesselation wird sie laut ansonsten ruhig wie meine vorherige GTX275.
Zudem hat es no das Prince of Persia gegeben O.o naja mal schauen wie viel das Wert ist war ja Gratis :-)
Kämpfe noch mit den treiber, werde wohl morgen nochmals neuinstallieren da es in Devil may Cry 4 mit 100fps mit 8xSSAA ruckelt -.- aber eben mmer 100 fps anzeigt ;-)
Teste mal bitte mit Furmark 1.8, einem Spiel undd ggf. einem Benchmark, die gut auslasten. Möchte wissen, ob der Treiber da die Grafikkarte wirklich abkacken lässt. Danke.
Aktuell ist meine Planung, dass ich ca. 3 Wochen warte. Erstens hat HIQ sie spätestens dann, zweitens kommen hoffentlich die Atis, drittens der Preiskampf und viertens möchte ich nicht mehr als 450 Ocken hinblättern.
Edit: Ich habe auch das Prince of Persia - the forgotten sands bekommen, bzw. einen Runterladgutschein. Meine GTX470 trägt auch einen Aufkleber von Point of View.
Von Evga gibts diese 580 in der COD-Version. Ob da auch das Spiel Black Ops dabei ist?
Zuletzt bearbeitet:
G
Ganzir
Gast
Die Architektur der HD 69xx ist im Vergleich zu den HD 68xx leicht abgeändert. Stichwort: 4D-Shader
Ja das habe ich auch nie abgestritten im Post vor mir war aber von "neuer" Architektur die Rede und eine leichte Abänderung (wie du schon richtig sagst) ist eben nur genau das und nichts wirklich neues.
Zumal da auch nicht das Problem zu liegen scheint sondern wohl darin, dass irgendwas für die Karte nicht so gut Lieferbar ist.
Wenn in Spanien gestreigt wird und keine Wasserpumpen mehr produziert werden, dann baut VW auch mal eben keine Autos mehr. So ist das eben bei just in time Fertigung.
Kartenlehrling
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.377
Gravy schrieb:Dieser halbe 2D Modus braucht mir trotzdem noch zuviel Strom und die Karte kommt nicht unter 45° mit 2 Monitoren im idle (GTX480 amp). Mit einem Monitor bin ich sehr wohl auf 35° unten.
Besonderheiten im Multi-Monitor-Betrieb bei NVIDIA
NVIDIA gibt in seinen aktuellen Dokumenten den deutlichen Hinweis, dass es Besonderheiten beim Multi-Monitor-Betrieb gibt. Solange es sich um zwei Monitore handelt, welche mit der gleichen Auflösung und Herz-Zahl angesteuert werden, verbliebe die GTX 580 (aber auch die GTX-400-Modelle) im Idle-Power-State, welcher dem Betrieb mit nur einem Monitor im Lastfreien Betrieb entspricht. Ändern sich die Umstände (Auflösung / Herz-Zahl), dann wechseln diese GPUs in den Power-State für Multi-Monitoring Betrieb.
Wir haben diese Aussage versucht nach zu stellen und in der Tat gelang es uns Konstellationen zu finden, die in der beschriebenen Weise dann tatsächlich Spannungen und Taktraten auf das geringe Niveau des Betriebs mit einem Monitor absenken.
Allerdings gelang uns das nicht immer! Es gelang uns beispielsweise nicht unseren Dell-U2711-Monitor gemeinsam mit einem BenQ G2400W im Idle-Power-State-Modus zu betreiben, obgleich die genannten Voraussetzungen genannt wurden. Der Betrieb erfolgte dabei an den beiden DVI-Anschlüssen der Grafikkarte. Wechselten wir hingegen in eine Kombination mit 1280 x 1024 Auflösung und betrieben zusätzlich einen der Monitore am HDMI-Anschluss, gelang es uns dann wieder diese Absenkung zu erreichen. An diesem Punkt warten wir noch auf eine Rückmeldung von NVIDIA, gleichzeitig bedarf es natürlich weiterer Überprüfungen. Gleichzeitig stehen wir zu dem Umstand mit AMD im Gespräch um zu klären, ob dort eine solche Umsetzung ebenfalls möglich ist. Eine Antwort fehlt aktuell noch.
GeForce GTX 580 mit zwei unterschiedlichen Monitoren
Im Falle der aktuellen GeForce GTX 580 kam es leider noch etwas schlimmer, denn offenbar ist hier in der aktuellen Firmware kein separater Power-State für den MM-Betrieb gesetzt. Wir haben das Problem gestern an NVIDIA gemeldet, da wir davon ausgehen, dass die nicht abgesenkten GPU-Taktraten auf einen ungewollten Firmware-Fehler zurück zu führen sind.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index14.php
Mnemikk
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 2.037
tja monitore kaufe ich deswegen sicher keine und solange das nicht einwandfrei geklärt ist heist es wiedermal warten, aber geil das es wenigstens mal news auf dem gebiet gibt. Bei ati funzt das ja auch nach wievor nicht, nur das die nochweniger strom brauchen. Das flimmern das bei geringen speichertakten auftritt scheint da noch immer das problem zu sein, bzw hab ich sowas vor kurzem als statement von ati gelesen.
Vanilla2001
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.734
Wüßte gar nicht wozu ich beim Zocken einen 2. Monitor gebrauchen könnte...
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Also bei mir lag das daran weil der ach so tolle Vorsprung bei den hohen Settings gleich wieder verpufft ist, weil die Karte mit 1GB ins Vram Limit fuhr. Eine GTX 285 konnte die HD 5870 1GB überholen bzw. gleich ziehen. Nicht akzeptabel im Zusammenhang mit dem Preisschild. Noch dazu gab es eine extreme Abzocke der Händler, die einfach mal draufgeschlagen haben was möglich war, weil die Karten nicht lieferbar waren und das sehr sehr lange. Eine HD 5890 2GB hätte ich ohne mit der Wimper zu zucken gekauft, aber die kommt ja erst in ein paar Wochen.ich kann mich noch daran erinnern das bei der Vorstellung der HD5870 ne menge Boardies sich lächerlich über den Leistungszuwachs der HD5870 zur HD4870 gemacht haben, der ja immerhin bei 60 -70 % lag.
Ich glaube da muss ich dich enttäuschen, bei deinen Settings und HD+Mods also 1,8GB und 2GB Vram Verbrauch wirst du mit der GTX 580 Probleme bekommen und die könnte dir dann auf GTX 460 2GB Niveau einbrechen. Würd mich mal bei der HD 6970 2GB umschauen, bei mir wirds ziemlich sicher die neue AMD, weil ich auch ein Fan von HD Mods bin und da geht nunmal Vram über fast alles. Und nein! Eine GTX 580 ist kein Vram Krüppel! Perfektes Verhältnis von Vram zur Rohleistung wie gehabt. Das perfekte Speichermanagement reißt so einiges, aber alles auch nicht. Gut zu sehen zb. beiWenn ich mit der "kleinen" Gtx 460 bereits soviel fps habe, dann freue mich schon was da die Gtx 580 leisten wird.
Metro 2033 - 2560x1600 1xAA/1xAF: v. 4xAA/16xAF: GTX 480 1,5 v. GTX 580 1,5
Wärend das Setting ohne AA noch mit 20% Vorsprung belohnt werden, spielt beim 4AA schon das Vram Limit mit rein und die GTX 580 verliert durch den Vram 7% an Vorsprung. Also eine GTX 680 oder 780 sollte dann schon beim Vram zulegen, sonst wirds zu knapp...
"leicht" ist gut, die Shader sind quasi der wichtigste Teil einer GPU und belegen den meisten Platz und sind mitverantwortlich für die Effizienz einer Architektur. Leichte Änderungen sehen anders aus ala HD 5000.Die Architektur der HD 69xx ist im Vergleich zu den HD 68xx leicht abgeändert. Stichwort: 4D-Shader
Außerdem müssen sie komplett neue Erfahrungen mit den Treibern sammeln, wie man die 4D Shader am besten auslastet etc. Genau so wie das bei der 8800GTX und der HD 2900XT zum 1. Mal der Fall war. Also man sieht schon, ganz schön lange her das sich was an den Shadern geändert hat. Ganz großer Brocken, daher vielleicht auch die Verzögerungen, ein Zuckerschlecken war eine neue Architektur noch nie...
Ganz ehrlich die neuen Shader müssen auch Wunder vollbringen, von einer HD 6870 zur GTX 580 überholen ist es ein verdammt weiter Weg...
Zuletzt bearbeitet:
Darkseth88
Fleet Admiral
- Registriert
- Nov. 2010
- Beiträge
- 16.938
Gibt es denn eigentlich irgendwelche Infos über 28nm chips? Oder sind die erst mit Nvidia 6xx bzw AMD 7xxx zu erwarten?
Ähnliche Themen
- Antworten
- 222
- Aufrufe
- 33.395
- Antworten
- 125
- Aufrufe
- 26.176
- Antworten
- 204
- Aufrufe
- 53.611
- Antworten
- 7
- Aufrufe
- 1.308
- Antworten
- 142
- Aufrufe
- 45.613