News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

McDaniel-77 schrieb:
Warum wird soviel Wert auf diese unwichtige Tessellation gelegt?
Weils ein DX11-Feature ist, wofür die Karten u.a. gemacht wurden.

und weils gut aussieht. So detailierte Berge gabs bisher noch nicht.
http://www.youtube.com/watch?v=6nSvhlJC1gA

128 TMUs halte ich auch für unwahrscheinlich. Mal abgesehen von der Machbarkeit sollte sich das in noch deutlich besserer Performancce äußern. Es sei denn, nvidia hat den Aufbau der TMUs mal wieder geändert, wovon man bei so einem Refresh eigentlich nicht ausgehen kann.
 
Warum wird so viel auf unbestätigte Balkengrafiken gegeben?
Die sagen generell erstmal nichts aus bis tatsächlich ein Test von unabhängigen Medien wie beispielsweise CB vorhanden ist.
 
Wir treten offensichtlich in die heisse Phase ein - nun gut, nVidia hat vorgelegt, AMD to go!

Was die Karte angeht, für mich bedeutet diese Karte - so sie denn so kommt - dass nVidia die GTX470/480 sofort nach Release schon begraben hat. Denn diese wurde offensichtlich doch größer überarbeitet, immer vorausgesetzt, dass die Daten stimmen!

Wird hier seitens nVidia gemogelt und die Karte zieht auch wieder ~300 Watt bei rund 10 - 15% Mehrleistung (Cherry-Picking hat nVidia ja schon immer gemacht), käme das einem zweiten Fail gleich und unterstützt die Theorie, dass alles bei nVidia nur noch auf max. Leistung ohne Rücksicht auf Effiziens gebaut wird - zweifellos wäre das ein Schritt in eine falsche Richtung, der sich so leicht nicht wieder rückgängig machen könnte - oder aber ein Eingeständnis, dass die technische Abteilung von nVidia derzeit nicht sehr fähig ist!

Wir werden sehen, ich denke die nächsten Tagen / Wochen werden interessant!
 
Wieso ist das ein Schritt in die falsche Richtung? Ich finde es furchtbar das potentielle Karten zum teil äußerst stark beschnitten werden, nur um irgendwelche Energierahmen nicht zu sprengen.

Es handelt sich um die jeweilige High-End Lösung der Generation, da möchte ich die höchstmöglichste Ausstattung haben. Mich interessiert es nicht ob die Karte 100W oder 800W zieht, gekühlt wird das ganze sowieso mit dem Kompressor, ich will Leistung und ich bin bereit dafür zu zahlen.

Mercedes bringt ja auch keinen Elektro SLR auf den Markt oder?
 
Zuletzt bearbeitet von einem Moderator:
Ich glaube langsam das der GF100(GTX480) verfrüht,und nicht richtig optimiert rausgekommen ist.Irgendwie sah das sowieso nach einem "jetzt müssen wir sonst.." aus.Nvidia musste vor einem halben jahr reagieren,Ati hatte schon länger DX11 Karten auf den Markt,und Nvidia konnte einfach nicht mehr länger ihren GF100 auf die lange bank schieben.

Der GF110(GTX580) ist wohl der komplett fertige Chip,der eigentlich die GTX480 hätte sein sollen,aber nicht sein konnte,weil Nvidia zu sehr unter Zugzwang gestanden hatt.

Naja,nu kommt hoffentlich nach der gescholtenen GTX480,eine gelobte GTX580,ich drück jedenfalls die daumen.
 
an alle die sich eine gtx480 gekauft haben.. pech gehabt.... nvidia betreibt da ganz große abzocke..
mal sehen ob sie am ende wieder als sieger vorrangehen nach dem 6970 launch


aber so purzln hoffentlich die preise in den keller.. wenn konkurrenz besteht am markt
 
Zuletzt bearbeitet:
Du meinst wohl die HD6970 oder?
 
... ich bin der Meinung, dass dieser ganze Gerüchtekram um eine 580er gewollt ist - 'zufällig' gestreut. "Die" wollen nur AMD das Geschäft vermiesen, in dem die Kunden auf die neuen Nvidia-Karten warten. Und das die Emotionen vor dem traditionellen Weihnachtsgeschäft etwas höher kochen ist auch normal. Weihnachten ist halt Weihnachten, da möchte jeder gut aussehen und viel Umsatz vorzeigen können... in diesem Sinne: abwarten was wirklich kommt und wenn ja wie schnell es ist und wie teuer/günstig.
 
Verstehe die Konzepter nicht, wieder so nichtsaussagende Benches für pubertierende CS Gamer.

Geht ja wieder los wie zur 300 und 400er Reihe, vollmundig wurde versprochen bis zu 100% mehr Leistung etc.

Am Ende wurdens dann doch 10% mit 100 Watt Verlustleistung oben drauf zu einem erneut gestiegenden Preis.

Wer im Produktmanagement so schlechte Entscheidungen fällt, hat in einem Unternehmen dieser Art nichts verloren.

Und ich bin kein Gamer, kein ATI Fanboy oder ähnliches, mir gehts bei meiner Aussage nur um das Konzept.
 
nom3rcy schrieb:
an alle die sich eine gtx480 gekauft haben.. pech gehabt.... nvidia betreibt da ganz große abzocke..
mal sehen ob sie am ende wieder als sieger vorrangehen nach dem 5970 launch


aber so purzln hoffentlich die preise in den keller.. wenn konkurrenz besteht am markt

Midrange vs. High-End...

AMD's kommende High-End lösung @Verbrauch ist also auch reine Abzocke wegen Strombedarf? .... najaaa... man sollte schon High-End mit High-End vergleichen und nicht Midrange mit High-End ;)

Fällt Dir was auf?!
 
nein echt?
da will nivida doch tatsächlich die potentiellen kunden davon abhalten ein konkurenzprodukt zu kaufen?
ein schelm, wer hier etwas böses denkt.

ne mal im ernst. warum wird hier immer so oft erwähnt, dass die welt eine scheibe - ähhh kugel - ist?
das wissen wir doch dank google mitlerweile alle ;)


imho sollte mir nvida eine gtx 580 schenken, da ich einer ihrer liebsten kunden sein müsste.
ich hab doch tatsächlich ne 470 für 360 ocken damals gekauft. das sollten die doch mal gefälligst honorieren.


achso on topic: da gibts eigentlich nix zu sagen. mal wieder stimmen die gerüchte und auch die mehrleistung ist im erwarteten rahmen und wird auch ~ genauso bei unabhänigen tests aussehen.
p.s nein an der aussage gibt es nichts zu rütteln.
 
Sollte es so sein könnte sich die Performance ja schon mal sehen lassen.
Die Leistungsaufnahme gesenkt (wenn auch nur gering) bei höherer Lesitung - fein.

Wenn sich das ganze aber dann wieder durch hohe Temperaturen und einen lauten Lüfter erkauft wird - sehr schade.

Peace
 
T-DSC schrieb:
Sollte es so sein könnte sich die Performance ja schon mal sehen lassen.
Die Leistungsaufnahme gesenkt (wenn auch nur gering) bei höherer Lesitung - fein.

Wenn sich das ganze aber dann wieder durch hohe Temperaturen und einen lauten lüfter erkauft wird - sehr schade.

Peace

eine heatpipe mehr, und ein größerer lüfter
dazu weniger tdp

frage stellt sich jetzt nurnoch nach vcore und transistoren

aber ich schaue jetzt mal in meine glaskugel und sage:
sie wird kühler und / oder leiser
 
GTX 480 ist per Definition High-End - es gibt keine schnellere von Nvidia -.-
5970... High-End naja... gedrosselte MHz im Vergleich zur normalen RV870 in der 5870 (interessante Namensgebung ;))
High-End ja im Bezug auf Rechenleistung/ Lautstärke und Leistungsaufnahme, aber da zählt die 480er auch dazu, auch wenn es eine Bananenversion ist (reift beim Kunden).
BTW: Wen interessiert die Leistungsaufnahme wenn man sich die "beste" Graka zulegt?
 
Ich bin gespannt, die GTX 580 wird sicher keine neue 8800 GTX,
aber ein ordentliches Stück Hardware.

Viel mehr als eine GTX 580, könnte aber die GTX 570 interessant werden.
Eine GTX 570 mit dem Speed einer GTX 480 und dem Verbrauch einer HD5870.
Das wäre doch mal was... :daumen:
 
"wer zockt denn auf einem 30" tft? ich würde eine brille aufsetzen."


Hast Du den geistreichen Spruch auch schon vor 3 Jahren mit einem 24 Zöller gebracht?


Antwort bekommst Du trotzdem: Jemand (wie ich), der die Fähigkeiten moderner HighEnd Grafikkarten nicht nur auf dem Papier sehen möchte ;-)

Alternativ könnte ich mich auch wundern, warum mein 480er GTX SLI Verbund auf einem 19 Zöller irgendwie keine Leistung zeigt...
 
Zuletzt bearbeitet:
Vergleicht mal die Grafik mit den Benchmarks von CB.
Z.B. in Metro ist sie nur 20%-30% (im unspielbaren Bereich) schneller und nicht 60% wie in dieser gefakten Grafik.
Das scheint wie bei der Vorstellung von Fermi nur wieder eine geschönte Benchmarkliste zu sein.
 
Ich würde gerne auf 30" zocken..., leider muss ich noch das Kleingeld suchen...
und ja, ich glaube keiner Statistik die ich nicht selber gefälscht habe (ja ich weiß, die Welt ist eine Kugel).
 
hardtech schrieb:
wer zockt denn auf einem 30" tft? ich würde eine brille aufsetzen.
Dir ist schon klar, dass der Pixelabstand dort relativ gering ist. Aber auch ich zocke darauf, wüsste auch nicht was dagegen spricht, ist einfach mehr mittendrin ;)


Zu dem tollen Bild in der News, sowas kann ich auch basteln, allerdings ist das ganze ohne Angaben zur Einstellung etc. völlig sinnlos, und ob eine Karte nun 60% schneller von 5fps ist ist mir im Prinzip auch egal.

Bin trotzdem gespannt was in den nächsten Monaten von AMD und nVidia so kommt und wie sich das ganze preislich gestaltet.
 
Zurück
Oben