News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
GHad schrieb:
Daher hat NVidia (wenn auch sonst alles verdoppelt wurde) sich von 240 auf 512 Cores gesteigert und dürfte damit 2*GTX285 etwas überflügeln, vielleicht bis 25%. Damit würde man in den Bereich einer HD5870x2 (Hemlock) kommen so dass das muntere ATI/NVidia Spielchen fröhlich weitergehen kann.

Bezieht sich diese Schätzung auf die Spiele-Performance, so lass dir gesagt sein, dass ähnliche Schätzungen auch bei ATIs 5870 gemacht wurden, (fast) alles Relevante doppelt zur 4890, selber Takt, geschätzte 100% Mehrleistung..., nun sinds 40-50%. Den Wert solcher Abschätzungen kann man auch bei 3870->4870, 8800GTX->GTX280 nachprüfen, und natürlich liegt die Abschätzung weitab von der realen Performance. ALUsx2 ist nicht gleich FPSx2.
Aber mal abwarten wie die Neuerungen der Architektur die ALU-Power auslasten kann, denn wenn sich da nichts tut, wirds nicht mehr als 50%-60% zur GTX285

Gruß
Raubwanze

PS: Rein FPS-Techn. aus Balkensicht haben die 2*GTX285 gegenüber einer hypothetisch theoretisch gleichstarken GTX380 hier mal den Vorteil an 2 Bildern gleichzeitig rendern zu dürfen. :D
 
stoneeh schrieb:
soweit ich weiss bleiben die single ops per clock per shader gleich. somit wären's dann 512 ops pro clock vs 240 beim vorgänger, 1700mhz angepeilter shadertakt vs 1475 auf der gtx285.. sind wir auf knapp 2,5facher leistung
Der GT200 hat 30 Streaming-Multiprozessoren, von denen jeder bei einfacher Präzision 8 MADDs und 8 MULs parallel ausführen kann.
Beim Fermi ("GT300") sind es 16 Streaming-Multiprozessoren, von denen jeder 32 FMAs parallel verarbeiten kann.
MADDs und FMAs werden jeweils als zwei Floating-Point-Operationen angerechnet, ein MUL als eine Operation.
So kommt man halt je nach Taktraten auf 1060 GFlops vs. 1700 GFlops bei einfacher Präzision.
 
hier wird über einen Shrink des GT200b spekuliert der vielleicht mit DX10.1 kommt :rolleyes:

wer sich heute noch ne DX10 bzw. DX10.1 Karte um 150 Euro aufwärts kauft, dem kann man nicht mehr helfen. nvidia würde auf den alten "neuen" karten sitzen bleiben, ok ein paar spinner kaufen sich vielleicht noch ne gtx290@850MHz :D
 
Da gebe ich GodCast recht:) Es wäre blödsinn sich noch eine DX10.1 Karte zu kaufen ( sollte nv wirklich noch ein g200c rausbringen) Außerdem wäre es eine Fehlinvestition auf Seiten NV. NV soll sich lieber darauf konzentrieren einen vernünftigen Grafikchip für gamer zu entwickeln, als ein "altenes" DX 10.1 :)
 
GHad schrieb:
Die 30 Seiten Comments haben sich wirklich gelohnt... viel zu Lachen, viele Infos und viel Müll. Für alle was dabei. Hab mich auch noch durch diverse Seiten wie Golem, Heise, Anandtech und Bittech gewühlt und würde zur Gamingleistung folgendes sagen:

Stimmt, war für jeden Geschmack etwas dabei.

GHad schrieb:
Daher hat NVidia (wenn auch sonst alles verdoppelt wurde) sich von 240 auf 512 Cores gesteigert und dürfte damit 2*GTX285 etwas überflügeln, vielleicht bis 25%. Damit würde man in den Bereich einer HD5870x2 (Hemlock) kommen so dass das muntere ATI/NVidia Spielchen fröhlich weitergehen kann.

Da wirst du meiner Meinung sehr stark enttäuscht werden. Das ist einfach unrealistisch.

GHad schrieb:
Allerdings denke ich, dass NVidia mit der massic erweiterten C++ CUDA-Unterstützung noch ein Ass im Ärmel hat: Dadurch dass die meisten Spiele in C++ geschrieben werden und (zum grösten Teil) nur für verschiedene Plattformen kompiliert werden, wäre es doch möglich eine GrafikEngine nativ auf der Grafikkarte laufen zu lassen, so dass Shader ohne jeglichen Umweg über PCIe oder CPU an Shader weitergegeben werden könnten. Sicherlich würde das Ausführen der Engine selbst auch Shader verbrauchen, allerdings sollte sich das doch prima optimieren lassen. Was mein ihr?

Autsch!!! Das würde sowas von in die Hose gehen, das glaubst du nicht. Im extremsten Fall (Single Threading, viele Datenabhängigkeiten im Code) könntest du eine einzige Streamprozessor auslasten.
Bei normalem Programmcode geht man davon aus, dass man unter Ausnutzung von ILP (Instruction Level Parallelism) etwa 2-3 ALUs gut auslasten kann. Das sieht man auch daran, dass AMD 3 ALUs/Core und Intel 4 ALUs/Core verbaut, wobei Intel 2 Threads/Core benutzt, also eigentlich 2 ALUs/virt. Core. Diese Zahlen stimmen aber nur für aktuellen CPUs, die extrem für solche Aufgaben optimiert wurden (große Caches, Out of Order Execution, Prefetching, Speculative Execution, Branch Prediction usw.). Bei den doch sehr einfachen Cores einer GT300 würde ich daher eher davon ausgehen, dass man eher auf Werte nahe 1 käme, d.h. pro Thread könnte man 1 von 512 Cores benutzen. Du kannst selbst ausrechnen was dann noch von der massiven Rechenpower übrig bliebe. Dabei sei noch zu Beachten, dass normaler Programmcode nur selten FMA-Befehle braucht, sondern meist einfach nur ADD und MUL, so dass die FLOPS nochmal halbiert werden müssen, da FMA Befehle üblicherweise als 2 Ops gelten.
 
Zuletzt bearbeitet:
Zanza schrieb:
Der punkt ist wer sich jetzt eine ATI kaufen will soll es gern machen, das alles wird uns nicht weiter bringen, warten wir ab und stauen wenn es soweit ist.

Ja staunen werden 98 % der Leute aber nicht die sich eine grafikkarte kaufen um zu zocken.Du kannst dich ja freuen wenn deine geliebte neue Nvidia Karte ein FIlm in 2 Minuten kodiert.:cool_alt:
 

Anhänge

  • 10yqrmt.jpg
    10yqrmt.jpg
    119,1 KB · Aufrufe: 503
ohja und wie =) ich mein das is wie beim auto von 0-100 in 2 sekunden ist halt besser wie von 0-100 in 4 sekunden :D

hahahah do oben is wieder so ein ATI fanNNnboy xD
 
Dass das bild ein Fake ist, da stimme ich dir zu! Aber Nvidia hat zu 100 Prozent etwas in der Hand! Jeder der sich etwas mit Hardware auskennt, wird das Bild als Fake ansehen;)
Ergänzung ()

Ich glaube aber nicht das das Bild von Nvidia stammt!
 
Wenn Nvidia wirklich noch keine richtige Karte hat (glaub ich eigentlich ehr weniger), dann ist das mit den Stromanschlüssen wohl auch noch nicht sicher, also kann man nicht viel über den Verbrauch sagen, aber ich sag mal der wird wohl ziemlich hoch sein, außer man fährt mit niedrigen Taktraten.
 
lol 600 nochwas kommentare und steigend ;D
und die news ist: nvidia kommt mit einer neuen GraKa raus :volllol:
ja ok n paar specs sind draussen, aber wie die Karte dann de facto im Alltag funktioniert und vor allem skaliert sehen wir wenn sie draussen ist. und guess what: von nem releasedate ist nirgends die rede^^
wirklich interessant finde ich den wechselnden fokus von nvidia, ob wie manche leute hier meinen die hd 5800 serie die letzte wirkliche grafikkarte ist wage ich jetzt zwar mal zu bezweifeln, aber wir werden sehen ;) bis nächstes jahr im sommer kann man ja dann auch mal die dx 11 gen kaufen.
 
das bild stammt von der Presents Leute lest euch hwlux forum durch

3dfx hat damals genau das gleiche gemacht... PCB ohne leiterbahnen unfassbar sowas
 
fake hin fake :D ich sag dazu nur ABWARTEN. ich hab auch gedacht die HD5XXX übertifft alles.
ABER die hat mich echt enttäuscht. da hab ich mehr erwartet. und wenn jetzt Nvidia mich mit der karte auch enttäuscht kauf ich nur noch INTEL ONBOARD xD
 
@Madbomb
Zitat :Drum würde ich gerne mal eine Quelle sehen die das belegt, weil ich mir das eigentlich nicht vorstellen kann.

48 ROPs are present, and a 384-bit memory interface mated to GDDR5 RAM. On the gaming side of things, DirectX 11 is of course supported, though Tesselation appears to be software driven through the CUDA cores. Clock targets are expected to be around 650 / 1700 / 4800 (core/shader/memory). It remains to be seen how close to these targets Nvidia can manage.
http://vr-zone.com/articles/nvidia-fermi--arriving-in-q1-2010/7786.html?doc=7786
 
Zuletzt bearbeitet:
was für ne datenbreite hat das monster dann? hat jemand eine formel zum berechnen da?
 
Und wenn's schon sein muss AMD hat hochkomplizierte chips seit R600 mit Absicht aufgegeben. Haetten sich auch an einem >3Mrd Transistoren chip gefunkelt bezweifle ich dass sie selbst das erste tape out bis jetzt geschafft haetten. Fuer den Gamer wie mich ist AMD's Strategie insgesamt auch die bessere. Erstens weil es keine Verspaetungen mehr gibt und zweitens weil AMD somit schafft die Preise bis zur Laecherlichkeit zu reduzieren.

Gamer ist für Ati.
 
Die 8800GTX und die Radeon 9800 waren wohl bis dato die einzigen Ausnahmen. außerdem ist ne 5870 schon doppelt so schnell wie die 8800gtx

Hab mir jetzt nicht alle Seiten durchgelesen, aber so die ersten 20, ist echt unfassbar was hier abgeht, von Mutmasungen und hin und her.

@Schinzie, ich glaub du bist crazy!(Ironie) Meine 8800GT 1024 GS GLH, macht jede 8800GTX platt, ausser in Fear und Fear2, weil dass das einzige Spiel ist wo von Bandbreite profitiert!

Die HD5870 ist in Stalker CS doppelt so schnell als ne HD4870, genauso wie in Risen, 100% Mehrleistung! Ich weiß echt nicht wie ihr auf 50% nur kommt ausserdem sind das Beta-Treiber, neue Treiber reissen da bestimmt noch einiges!

MfG!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben