News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@ Schaffe89

...was auch ok wäre, denn wenn Bild und FPS stimmen ist für mich alles grün. Wer sich jetzt hier über den Preis bei einem neuen Produkt den Kopf zerbricht, der sollte lieber warten bis sie im OEM-Markt angekommen ist.
 
Heretic Novalis schrieb:
ansonsten kann ihc nur hoffen, dass die neuen karten nicht solche monströsen ungetüme werden wie die vorgestellten 5xxxer-modelle von ati. irgendwann ist die belastungsgrenze der gehäuseschrauben nunmal erreicht :D
Keine Chance. Vermulich trifft das Gegenteil zu.
 
Artikel-Update: Fermi ist laut Nvidia die erste größte Überarbeitung nach dem G80-Chip. Die „Computational GPU“ wird im 40-nm-Prozess hergestellt und beherbergt satte drei Milliarden Transistoren. Der Chip besteht aus 16 Shadercluster mit je 32 ALUs, die im Fermi auf den Namen „CUDA Cores“ getauft sind. Insgesamt gibt es also 512 Shadereinheiten, die ein MADD pro Takt berechnen können. Als Besonderheit geben die Kalifornier an, dass man es geschafft hat, die Double-Precision-Leistung im Optimalfall um den Faktor acht gegenüber dem GT200 zu verbessern – wahrscheinlich erneut mit dedizierten DP-Einheiten. Der Thread-Scheduler sowie der Cache-Speicher soll auf dem Fermi einen großen Schritt nach vorne gemacht haben.

Der Fermi soll als erste GPU überhaupt eine komplette Unterstützung von C++ erhalten sowie mit IEEE-754-2008-Standard vollständig kompatibel sein. Da der Speicher für das GPU-Computing eine sehr wichtige Rolle spielt, hat man nicht nur die Caches optimiert beziehungsweise vergrößert, sondern darüber hinaus kann der Speichercontroller auch mit ECC-Speicher, der eine eigene Fehlerkorrektur aufweist, umgehen.

Der Fermi-Chip verfügt über 16 „Load/Store“-Einheiten, was nichts anderes als Textureinheiten sind. Inwieweit diese allerdings aufgebaut sind, ist unbekannt. Der Fermi setzt auch sechs 64-Bit-Speichercontroller, was in einem 384-Bit-Speicherinterface resultiert. Das 512-Bit-Interface vom GT200 hat Nvidia verworfen, wobei man als Ausgleich aber auf höher getakteten GDDR5-Speicher setzt. Die maximale Speicherausstattung des Fermi beträgt 6 Gigabyte, wobei da sicherlich nur auf professionellen Karten eingesetzt werden wird. Vier separate „Special Function Units“, die Berechnungen in Sinus oder Kosinus durchführen können, finden auf dem Fermi Platz.

Angaben über die Spieleperformance beziehungsweise allgemeine Leistungswerte des Fermis macht Nvidia leider nicht, stattdessen vergleicht man den Fermi in Teilbereichen mit dem GT200. Die Taktfrequenzen bleiben ebenso noch ein Geheimnis. Unschwer zu erkennen ist, dass Nvidia den Fokus vom Fermi auf das GPU-Computing gelegt hat. Inwieweit das auch den normalen Desktop-Consumer zu Gute kommen wird, muss sich erst noch zeigen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Kann sich jemand an die ersten veröfentlichten Specs der 8800GTX, vor über 3 Jahren, errinern? Ich glaube da kommt wieder ein ähnlicher Hammer. Wenn nicht sogar ein grösserer.
Hypemodus ON! :king:
 
Ich sehe die Ankündigung kritischer. Denn:

1.) Es ist viel von HPC die rede, weshalb ich glaube das die "normalen" GPUs allein aus Kostengründen doch abgespeckt erscheinen werden. Die "Ultramodelle" werden sicher sündhaft teuer werden.

2.) Laut Heise war der Tapeout erst im Juli so das wohl noch einige Monate ins Land vergehen werden bis NVidia ne halbwegs vernünftige Fertigung hat mit akzeptablen yield. Also gibt es die Karten wohl erst ungefähr ab Feb 2010.

Interessant auf jeden Fall, aber sehr hochgespielt. Es ist nicht brachial mehr als ATI derzeit hat, und dafür das NVidia länger entwickeln konnte durchaus ok. Aber marketingtechnisch natürlich absolut dramatisch hochstilisiert als sei es ein Weltwunder.
 
GodCast schrieb:
Da kann man sich ja dann selbst vorstellen wie dann wohl die Grafikleistung ausfällt.

Ich zumindest kann das nicht, da sich die neue Architektur doch recht heftig von der bisherigen Architektur unterscheidet. Daher kann ich keine Rückschlüsse auf die FPS mit Engine "X" ziehen.

Ich bin gespannt auf Testergebnisse. Alles andere sagt erstmal nicht so viel aus, denn wer außer Nvidia selbst weiß schon, wie effizient die neue Architektur wirklich ist?
 
Lol! Wir haben September 2009 und Nvidia spuckt große Töne über eine Karte die 2010 kommt. Da will wohl jemand verhindern dass zu viele Cypress GPUs verkauft werden, und das mit einem Papiertiger.

Alle schreien immer Paperlaunch, aber Papervorstellung ist jetzt cool? Bisher hat man immer alles geheim gehalten, bis zum Lauch (soweit es eben ging). Nun kündigt man schon Monate im Voraus an...
 
Die 88er ist einfach Kult. Ebenso die 9700/800 Pro von ATI. Abwarten, ob diese Karte auch das Zeug dazu hat.
 
@Schaffe89

kannst ja selbst nachlesen, der Chip rechnet bei doppelter präzision 4 mal schneller als der GT200

Edit 4,2X
 
Ich hoffe ja, dass nvidia es geschafft hat ähnlich gute Stromsparmechanismen zu implementieren.

Ansonsten hab ich wohl mitte nächsten Jahres wohl zum ersten mal eine ATI drin...

Bin mal ein paar Monate Teetrinken...
 
komisch. Fermi bedeutet "stehen", im Sinne von "Bewegungslos". Aber bei der Graka steht gar nichts. Da ist alles in Bewegung: Die Ausstattung, die Performance und der Preis. :freak:
 
w0mbat schrieb:
Lol. wir haben September 2009 und Nvidia spuckt große Töne über eine Karte die 2010 kommt. Da will wohl jemand verhindern dass zu viele Cypress GPUs verkauft werden, und das mit einem Papiertiger.
Alle schreien immer Paperlaunch, aber Papervorstellung ist jetzt cool? Bisher hat man immer alles geheim gehalten, bis zum Lauch (soweit es eben ging). Nun kündigt man schon Monate im Voraus an...

das denke ich auch. warschein ist die neu gpu nur für >GPGPU< gedacht und eine abgespeckte version kommt dan für den OEM Markt!
 
tja, sie haben anscheinend diesmal den Hauptaugenmerk auf GPGPU gelegt, anders lassen sich die implementierten Features nicht erklären. Für die normale Gamingleistung könnten manche Fähigkeiten sogar abträglich sein, da das Verhältnis der reinen Ausführungseinheiten zur Anzahl der Gesamttransistoren sinkt. Out of Order Execution riesige Caches oder FMA sind für Grafikberechnungen nicht notwendig blasen aber den Chip auf.

Meiner Meinung wird Fermi zwar sicher die HD5870 schlagen, aber durch die Auslegung auf ein gänzlich anderes Gebiet als nur Spielegrafikberechnungen wohl ganz neue Preisregionen erreichen.

Bin neugierig ob das Konzept für nVidia aufgeht, denn von ihrer Kernklientel könnten sie sich damit etwas entfernen. Vielleicht ist im GPGPU Bereich mehr Geld zu holen, für den normalen Anwender allerdings eher weniger wichtig (außer man wandelt extensiv Filme um :) )

edit: Hab mir jetzt mal das pdf von nVidia durchgelesen. Spiele standen anscheinend überhaupt nicht mehr im Zentrum bei der Entwicklung von Fermi. Der Chip wirkt wie eine extreme Annäherung an eine heutige Multicore CPU. Vorallem durch die 768 KB Cache pro SM und Prediction Units. Allein der Cache benötigt ja schon eine riesige Anzahl an Transistoren, bringt für heutige Spiele aber nichts, da kein Spiel in nutzt...
 
Zuletzt bearbeitet:
#67, NVidia Fanboys halt :)

Ich freu mich einfach darüber das ATI beim Release der neuen NVidias im Jan/Feb/Mär worhl die preise senken wird, dann hol ich mit ne 5xxxx.
 
Also ich bin mir nicht sicher ob die GT300 in Games wirklich so gut wird wie viele hier vermuten.

http://www.heise.de/newsticker/GTC-...der-naechsten-GPU-Generation--/meldung/146158

Laut dem Typ von Heise der sich IMHO wohl ein ganzes Stück mit GPU/CPU architektur auskennt klingt das ganze ein wenig ambivalent.

Von den rein theoretischen Flopzahlen und CO abgesehen siehts da auch nicht gerade nur 1a aus. Aber Flops sagen ja bekanntlich nicht sehr viel.

Dennoch hier der Auszug dazu aus dem Artikel:

"Bei gleichem Takt wie die Tesla C1060 müsste die theoretische Spitzenleistung (FMA) bei 2 Teraflop/s (SP) und 630 GFlop/s (DP) liegen, gegenüber 933 GFlop/s (SP) und 75 GFlop/s (DP) der C1060 und 2,7 Teraflop/s (SP) sowie 544 GFlops/s (DP ) bei AMDs Radeon HD5870. Das sind aber zum Teil reichlich schöngerechnete theroretische Werte (mit drei Flops/SP/Takt bei Nvidia SP, inklusive der Special Function Units), die echte erzielbare SGEMM/DGEMM-Leistung liegt zumeist deutlich darunter."

Der GT300 stellt wohl eher sowas dar wie eine mittelklasse CPU + high-end GPU in einem, ist wohl auch die Ursache für die 3 Mrd. Transistoren - ob er damit in einer reinen GPU Anwendung wie einem Spiel also so gut abschneidet - man darf gespannt sein.


Das wichtigste was ich dem ganzen jedoch entnehme ist:

"Der Haupt-Unterschied zum Konkurrenten AMD/ATI ist jedoch, dass dieser rechtzeitig zum Windows-7-Start mit DirectX11-fähigen Grafikkarten aufwarten kann, während Nvidia nach eigenen Aussagen mindestens noch bis Jahresende braucht, bis erste Karten verfügbar sind. Wahrscheinlich wird es noch erheblich länger dauern, denn Tapeout des gigantischen Chips war gemäß semiaccurate.com erst Mitte Juli und erfahrungsgemäß dauert es dann meist länger als ein halbes Jahr, bis ausgereifte Produkte auf den Markt kommen können. Da hat AMD/ATI also ein großes Zeitfenster."

Damit ists wohl offiziell bis mind. Januar ist die HD5k serie der allein P/L und Leistungskönig. Und erst wenn dann AMDs refresh oder shrink chips raus sind kann man mal wieder vergleichen. Mit AMDs HD6xxx ist ja dann wohl im Sommer/Herbst 2010 zu rechnen.
 
Ich freue mich schon auf den launch und vor allem wie Nvidia mit der imens hohen Verlustleistung umgehen wird.
 
Also ich weis ja das die Karte wohl schneller wird als eine GTX295 ABER viel schneller nicht, da in den News und Nvidea selber behauptet:

" 3D Leistung secondär, GPxyz ist wichtiger"

Ich kann mir nicht vorstellend as soviel noch übrig bleibt auch bei so einem Chip.
 
Am Anfang war ich über die "Spekulation" skeptisch, jetzt wo es offiziell ist, kann ich nur staunen. Wenn Preis / Leistung von den neuen Grafikkarten passt, dann hat nVidia aber ihre Hausaufgaben mehr als gut erledigt.
eek.gif
 
Für mich klingt dieser Chip nach einem Rechenmonster erster Güte. Ich glaube nicht dass NVidia das Hauptaugenmerk auf die Gamerszene geworfen hat.

Das Teil wird ne richtige Datenkreissäge! Gut das NVidia das vor macht. Dann können die Konkurrenten es besser nachmachen. :evillol:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben