News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

diese Graka macht nur mit einem Intel i7/i5 CPU oder besseren CPU Sinn, die demnächst rauskommen. Bei mir limitiert schon der Q9550@3,7GHz und hat öfters 100% Auslastung und die fps bleibt konstant. Später kommen noch bessere Grafikkarten raus, aber da muss man anderes System aufbauen^^
 
aklaa schrieb:
diese Graka macht nur mit einem Intel i7/i5 CPU oder besseren CPU Sinn, die demnächst rauskommen. Bei mir limitiert schon der Q9550@3,7GHz und hat öfters 100% Auslastung und die fps bleibt konstant. Später kommen noch bessere Grafikkarten raus, aber da muss man anderes System aufbauen^^

Kann ich nicht bestätigen... hatte ganz zu anfang eine 480er drinnen... da war meine Auslastung im schnitt bei je kern bei 40-70% ...


 
Zuletzt bearbeitet:
Da bin ich mal gespannt was die für ne wirkliche Leistung haben. Will endlich mein SLI gespann los werden. Die zwei 8800 haben nun auch zu wenig Leistung. Ich merke das immer in BFBC 2! Da fängt es doch manchmal an zu ruckeln wenns heftig zugeht.
 
Mal sehen, ein Aufrüsten kommt für mich erst nächstes Jahr in Frage wenn SandyBridge entsprechend mit dazugehöriger Hardware in optionaler Anzahl am Markt vorhanden ist.
Ich denke eine neue Karte könnte da dennoch keine Fehlinvestiton sein. So hat man zumindest genügend Reserve nach oben, als momentaner AMD Nutzer, wird die Bildqualität wieder besser falls ein Wechsel zu Nvidia in Frage kommt.
 
-=OCC=-Raptor schrieb:
es wird immer interessanter! :D bin ich ja mal gespannt ob ATI noch etwas an der bildquali verbessern konnte plus mehr leistung als die GTX580 vorraussichtlich. na mal sehen was bald froh und munter meine pixel berechnet ^^

ATI sicherlich nicht eher AMD ;)
 
Ich hoffe mal das Nvidia aus den 1.5 GB noch 2 macht, dann sind sie gleich auf mit ATI, welche so wie ich gelesen habe mit 2 GB Vram kommen soll.

Wenn Nvidia die Karte mit 1.5 bringt dann hätten sie die doch gleich 490 GTX nennen können.

Aber alles ist zur Zeit nur Spekulation, ich kauf mir die..die bessere Leistung hat und stabiler läuft..

Nach meinem Disaster mit 5970 2x2 GB..und die MR mit 2x 470 SOC brauche ich bald eine neue Karte.
 
Dann bin ich echt gespannt ob nächste Woche Montag die ersten GTX580 Karten im Handel auftauchen oder nicht

Vorstellung/veröffentlichung ist nich gleich verkauf/im handel erhältlich, dass kann nachher noch paar monate dauern, bis man die Karte dann kaufen kann...
 
Naja irgendwie scheint mir das nicht ganz plausibel.
GF8: SP zu TMU Verhältnis 2:1.
200er: 3:1
480: 8:1 (zu wenige TMUs)
460: 6:1
580: 4:1

Klar, der GF100 hat zu wenig TMUs. Aber die gleich wieder verdoppeln? Irgendwie eine merkwürdige entwicklung. Bei einem neuen Chip hätte ich eher erwartet, dass das Clusterdesign vom GF104 übernommen wird. 48SP und 8 TMUs je Cluster. Aber jetzt sollen es anscheinend 32SP und 8 TMUs je Cluster sein.
Die Rechenleistung (imho momentan extrem wichtig) würde sich kaum erhöhen, es sei denn die Taktdomäne der Shader wird deutlich angehoben.
 
Naja, also 20% sinds nicht zur GTX480, das kann man auf den Balken prima ablesen.
Um das zu veranschaulichen müsste man die GTX480 bei 100% Einstufen, dann fällt die durch die Grafik augenscheinlich etwas stärkere Leistung zur GTX480, da der ausgagswert sinkt.
Laut Grafik sinds dann also 10 bis 15% und nicht wie die 20% im Artikel angegeben.
20% sind bei den Spezifikationen und nur gering angehobenen Taktraten nicht möglich, da muss man nur 1+1 zusammenzählen.

bensen schrieb:
Klar, der GF100 hat zu wenig TMUs.

Seh ich auch so.
Jedenfalls, wenn die Daten so stimmen, wird sich die Merhleistung sehr in Grenzen halten.
Anscheinend setzt Nvidia mehr auf den wohl wichtigeren Verbrauch und die Lautstärke.
 
meinetwegen kann Nvidia ein absolutes Sahnestück raushauen das leistungsmässig alles topt aber sie werden dann sicherlich wieder an der Preishürde scheintern und wollen sich den Arsch vergolden lassen ... zudem denke ich das Stromfresser nicht mehr in die heutige Zeit passen ...nur mikrige 6 Watt weniger ...
 
Zuletzt bearbeitet:
brabe schrieb:
Wie kommt ihr auf den Durchschnittswert?
...
Durchschnitt 1,53

Also ich lese da was anders aus der Graphik.
Typischer fall an "Lesen können" aber "PR-Tabelle/Benchmark nichts verstehen"

Heaven & Stone sind keine Spiele;-)

Und wenn man die von Nvidia manipulierten/bezahlten öh unterstützen Spiele wegrechnet alias Metro, dann senkt der Durchschnittsperformance weiter.

Die Zuwächse sind genau in den Bereich der Erwartungen eines GF100-B

Neben Performance-Steigerung ist dann noch der Stromverbrauch interessant alias Performance-pro-Watt.

Wenn diese auch um 15-20% steigen ist das IMO (fast) genausoviel Wert wie die Performance-Steigerung
Jetzt kommt es nur darauf an, ob die 244 W-TDP echt sind (@ Furmark) oder gefälscht (@ Spiele) sind.
 
Das sind durchschnittlich doch eher so 15% von 480 auf 580 in echten Spielen. Also absolut nichts atemraubendes.
Ein Refresh muss das schon hinbekommen sonst kann man ihn sich ja auch gleich ganz sparen.
Bei ner 6870 auf 6970 erwarte ich mir da deutlich mehr und dann sind die am Ende vielleicht sogar gleich auf.
 
Ich denke einer Sache können wir uns sicher sein:
Das wird ein heißes rennen...versteht Ihr? Heiß weill TDP und so mit Thermi ne heiß das...erm...ja ;).

Also jetzt mal Ernstmode.
Meine vermutung zum GF110 sieht folgender Weise aus, dass er dass ist was nVidia ursprünglich geplant hat. Für mich sieht das jetzt so aus, dass der GF 100 damals wirklich nur kam damit nVidia was in der Hand hatte, wie so viele schon vermutet haben.
Mein damaliger Beitrag wurde ja im Aquarium versenkt, als ich, zugegebener Weise, nicht sehr rational den Stromverbrauch des Fermi mit: ULTRA EPIC FAIL beurteilte.
Aber so ist es und eben der Punkt macht mich da wirklich, wie viele andere auch stutzig.
Die müssten schon wirklich deutlich was gedreht haben. Solch eine gestiegene Effizienz -welche mehr oder minder Nötig ist Im Vergleich zum GF 100-, kommt nicht von heute auf morgen.
Wenn das wirklich stimmt und ich bin da GAAAAAAAANZ vorsichtig, dann müsste nVidia das Ganze von vornherein geplant haben, mehr oder minder. Sie bringen den GF 100 raus, damit die Fans ihre (entschuldigt die Wortwahl) Schnautze halten und entwickeln im dunkeln fieberhaft am Vollausbau weiter. Doppelte TMUs, 20% Mehrleistung zur 480 und dabei gesunkene TDP bei (fast) gleichbleibendem Stromverbrauch und das Ganze in 6 Monaten? Merkste watt?
Jetzt wo AMD mit der neuen Serie um die Ecke kommt steht nVidia, wiedermals, im Zugzwang, WENN sie die Leistungskrone behalten wollen und wenn mich jemand fragt: Ist nVidia wirklich nur darauf aus? Dann antworte ich mit einem entschlossenem: JA!

Wollen wir hoffen nVidia hat die Zeit genutzt!
Ich jedenfalls halte das Diagramm solange für, zwar möglich, aber nicht bestätigt, bis CB den Test veröffentlicht. Ich bin gespannt. Popkorn und Bier steht schon bereit^^
 
Lord Horu$ schrieb:
... und das Ganze in 6 Monaten? Merkste watt?...

Warum glauben alle, dass die arbeiten am GF110 erst nach release der Fermis begonnen hat?:rolleyes:
 
Haudrauff schrieb:
Warum glauben alle, dass die arbeiten am GF110 erst nach release der Fermis begonnen hat?:rolleyes:

Weil wir Männer sind und Multitasking ein Fremdwort ist, das können nur unsere Rechner.
 
Naja Nvidia hat die TDP beim fast Vollausbau des GF100 ja extrem niedrig angesetzt.
Furmark veranstaltete Spitzen bis über 300watt und selbst Spiele übertrafen ja nach Auslastung die TDP von 250Watt.
Entweder Nvidia gibt die wirkliche TDP heraus( 244Watt) Dann wäre das ein Fortschritt, oder man gibt wieder eine "falsche" an und die Karte geht wieder an die 300Watt oder drüber.

Letzteres wird nach meiner Vermutung auch der Fall sein.
Um leise Modelle zu bekommen, wird man wohl wieder entweder eine GTX560 nehmen oder ne GTX580 mit solidem Kühler. AMP! FTW^^

Kartenlehrling schrieb:
Weil wir Männer sind und Multitasking ein Fremdwort ist.

Gab es denn bestätigte Gerüchte zum Tapeout?
Ich denk ja dass das n wahrer Paperlaunch erster Güte wird.

Die Gerüchte zur GTX580 kamen ja auch relativ spät und waren Anfangs generell nur Spekulation.
Nvidia wird womöglich eine gute Karte aus dem Hut zaubern, die gar nicht verfügbar sein wird, denn ich kann mir nicht vorstellen, dass sie in der kurzen Zeit nen adäquaten Refresh raushauen.
 
Zuletzt bearbeitet:
Kartenlehrling schrieb:
Weil wir Männer sind und Multitasking ein Fremdwort ist

Wieso Multitasking? Ich glaube sogar, dies wäre äußerst Kontraproduktiv.
Auf jedenfall ist Nvidia ein Weltkonzern mit mehr als 10.000 Dollar Jahresumsatz. Da kann man sich dann auch mal 2 Entwicklungs/Engineering-Teams leisten.
Ein Team um dem GF100 endlich in die Serienproduktion übergeben zu können, das andere Team werkelt bereits am GF110.
 
Skyspeed242 schrieb:
finde es schon etwas seltsam das eine ati ausgerechnet überall den gleichen wert erreicht!
da sieht man wieder wie da gefakt wird um zu verkaufen.
bin nvidia veteran seit jahren und werde es auch bleiben nur ist die tabelle unglaubwürdig in meinen augen.

oh man...Tabellen lesen ist wohl eine Kunst die manche nicht beherrschen...
die werte der AMD sind auf 100% - also 1 normiert, das (angebliche) Ergebnis der Nvidia dazu in Relation gesetzt
 
Zurück
Oben