News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Ja und sein NT hat offenbar keinen 8Pin... also so oder so...;)
 
Ich denke es bedarf hier einiger Überlegungen über die Unterschiedlichen Strategien von Nvidia und ATI/AMD.

AMD ist Hersteller dessen Kerngeschäft CPUs sind.

Sie haben somit eigentlich kein tiefergehendes Interesse daran eine GPU Architektur zu entwerfen die neben der Grafikberechnung noch ausgezeichnete GP GPU eigenschaften hat.

Damit würden sie an ihrem eigenen Kern Geschäft rütteln.

Nvidia hat kein CPU geschäft und kann langfristig nur überleben wenn sie mehr als nur reine Grafik Berechnungen anbieten.

Daher erweitern sie ihre Architektur speziell in CPU Richtung.

ATI zieht hier halbliebig mit.

Etwas längerfristig gedacht verpasst ATI hier aber denke ich die Chance sich gegen Intel durchzusetzen.

Auch Intel richt ja offensictlich den Braten und schwenkt auf Larabbee ein um nicht plötzlich auf einer CPU zu sitzen die nur noch für den I/O verkehr wichtig ist.
 
Neo_Xsendra schrieb:
Mir fällt da was ganz anderes spannendes gerade auf!

wenn NV eine Software lösung der tesselation bei dieser grafikkarte nutzt und daüfr auf die entsprechenden einheiten verzichtet hat könnte das bedeuten, das die letzte generation ebenfalls DX11 fahig gemacht werden aknn ... oder irre cih mich da?

Eher nicht da man für die Sofwarelösung ja die neuen 512 "CUDA Cores" benötigen wird und die generell andere Architektur des Fermi. (siehe: MADD, FAM, MUL, double precision usw).
Das wird man mit Sicherheit nicht auf den alten GT200 Karten emulieren können.
Ausserdem bleibt die Frage wie hoch die Leistunseinbuße sein wird, da emuliert nie so schnell sein kann wie in hardware. Andererseits könnte es durch diesen Schachzug auch sein das DX11 Tesselation das gleiche Schicksal ereilt wie ATIs Tesselation. Denn wenn das feature auf Nvidia Karten nur ätzend lahm läuft dann werden die Entwickler das nicht in ihre Spiele einbauen da sie ja dann auf einen großteil des Marktes verzichten müssten. (Markt an DX11 Karten, nicht den an DX9,DX10 Karten)
 
Ich bleib dabei, jetzt kaufen macht keinen Sinn. Warten was kommt und wenn beide Produkte getestet wurden kaufen. Im Moment kann ich echt nicht sagen was mehr Sinn macht. für alle die keine neue Karte benötigen ist warten wohl richtig und für alle die eine brauchen, weil die alte defekt ist oder einfach zu schwach ist eine ATI. Wobei sich die Frage stellt ob man dann nicht lieber eine billige nimmt und nochmal guckt was NV wirklich gezaubert hat.

Ich meine das NV dort ein Monster baut war mir klar aber das es so ein Monster wird habe ich nicht mit gerechnet. Wobei mir Strom und Wärme voll egal ist aber bei diesen Werten, hui hui hui. Wobei mein Netzteil sich freuen wird und mal zeigen kann was es wirklich kann.
 
Aus der News:
Insgesamt gibt es also 512 Shadereinheiten, die ein MADD pro Takt berechnen können. Als Besonderheit geben die Kalifornier an, dass man es geschafft hat, die Double-Precision-Leistung im Optimalfall um den Faktor acht gegenüber dem GT200 zu verbessern – wahrscheinlich erneut mit dedizierten DP-Einheiten.

Danach sieht es überhaupt nicht aus. Es wäre auch eine gewaltige Transistorverschwendung, 256 dedizierte DP-Einheiten zu verbauen. Vielmehr scheint Fermi die Multiprozessoren (SMs) so konfigurieren zu können, dass mit den gleichen Funktionseinheiten pro Multiprozessor entweder 16 DP-FMA-Operationen oder 32 SP-FMA-Operationen ausgeführt werden können. Im Whitepaper ist auch nichts von dedizierten DP-Einheiten zu sehen.
 
@lübke

horror gedanke :eek:

ich war immer beeindruckt von ihren neuen architekturen ... das wäre ein EPIC FAIL wenn sie jetzt den gamer markt mit der alten weiter vollwerfen würden :freak:

edit: @ terraconz stimmt auffällig daran hab ich nicht gedacht ... (wobei das leider auch nciht den horrorgedanken von lübke entschärft das sie für die gamer nen "billigen" refresh bringen könnten)
 
Zuletzt bearbeitet:
Limit schrieb:
Es ist eine Möglichkeit, allerdings nicht die einzige und Raytracing bzw. Raycasting ist sicherlich auch nicht der Weisheit letzter Schluss.
Sie sind für bestimmte Bildqualitäten ganz einfach weniger rechenaufwändig, als Rasterisierung. Durch die lange Fixed-Function-Episode in der Echtzeitgrafik wurde das kaschiert, aber jetzt:

I expect that in the next generation we'll write 100 percent of our rendering code in a real programming language—not DirectX, not OpenGL, but a language like C++ or CUDA. A real programming language unconstrained by weird API restrictions. Whether that runs on NVIDIA hardware, Intel hardware or ATI hardware is really an independent question. You could potentially run it on any hardware that's capable of running general-purpose code efficiently.

[...]

You could do that with enormous fidelity for complete 3D voxel environments now in real-time. You might even be able to do that on an NVIDIA GPU in CUDA right now. But whether or not you can actually do that today, I have little doubt that you'll be able to do that on processors from multiple vendors in a few years.

And what else could you do? You could do a ray tracing-based renderer. You could do a volumetric primitive-based renderer; one idea is to divide your scene into a bunch of little tiny spherical primitives and then just render the spheres with anti-aliasing. So you can get really efficiently rendered scenes like forests and vegetation.

There are really countless possibilities. I think you'll see an explosion of new game types and looks and feels once rendering is freed from the old SGI rendering model.
(Tim Sweeny 2008)


Limit schrieb:
... Natürlich kann man entsprechende Bibliotheken und Frameworks um C++ herumbauen, die das ermöglichen, allerdings stellt sich dann die Frage, warum man nicht z.B. einfach OpenCL dafür benutzt.
OpenCL ist doch auch ein Herumgebaue um die Programmiersprache C, wenn dieses Herumgebaue um Objektfähigkeiten erweitert wird, ist das doch toll. ;)

Limit schrieb:
...Allerdings wurde das ganze dadurch zunichte gemacht, dass Latenzen zu hoch und die Bandbreite zu gering war, so dass es keinen signifikanten Leistungssteigerungen gegeben hätte.
Ich bin sowieso dafür, dass die GPU einen richtigen Sockel auf dem Mainboard bekommt. Was einerseits wichtig für die Kühlung ist (verglichen mit dem Thermalright-Aluminiumblock auf meiner TDP 65W CPU ist der Kühler einer 180W GPU ein Winzling), bietet auch Möglichkeiten den gleichen Interconnect wie zwischen CPUs zu verwenden. Die GPGPU ist ein Coprozessor und sollte in Zukufnt auch entsprechend ins System eingebunden werden.
 
Zuletzt bearbeitet:
Wauw was für ein Teil. Ich bin mal gespannt wie viel Strom das Teil braucht, und wie heiss die Grafikkarte wird.

Was die Grafikkarte wohl im SLI Gespann bringt?

Hehe und der Stromverbrauch wird dann bei 2000W liegen;) muuaahh
 
Neo_Xsendra schrieb:
...wenn NV eine Software lösung der tesselation bei dieser grafikkarte nutzt und daüfr auf die entsprechenden einheiten verzichtet hat könnte das bedeuten, das die letzte generation ebenfalls DX11 fahig gemacht werden aknn...
Darauf verzichten heißt ja nicht, dass dafür keine Veränderungen vorgenommen wurden, um diese per Software zu emulieren. Und wahrscheinlich würde die Emulation sehr viel Leistung ziehen, dass selbst Midrange-DX11-Karten bessere Ergebnisse liefern würden.

Zum Thema Stromanschlüsse: Die gezeigte Karte ist ein Engineering Sample einer Tesla-Karte. Von daher kann man über den Stromverbrauch der "normalen" Consumer-Karten noch keine Rückschlüsse ziehen.
 
Gades schrieb:
könnte es nicht auch vielleicht so sein, das nvidia mit dem g200 refreshchip den grafikkartenmarkt bedient und mit dem g300 den gpgpu markt? nvidia will ja mit den refreshchip auch dx 10.1 einbauen und cuda zur physikberechnung haben die ja eh. sie brauchen open cl und dx11 ja nicht unbedingt

Die G200 Chips in 40 nm sind alle recht klein gehalten. Also was für dden Low-End Bereich. Der G300 wird dann das Mittelfeld und den High-End Bereich besetzen. Und natürlich den professionellen Bereich.
 
Wobei, wenn es so weiter geht ist bald die Steckdose was limitiert.

Wir streiten und jetzt nicht über 100 Watt aber bei 3300 Watt =16 A ist Ende. Wenn der Verbrauch weiter so nach oben geht rüsten wir Kabel und Sicherungen auf und nicht mehr die Grafikkarten. Mal einfach ne andere Sicherung zu nehmen geht wohl kaum. Im Altbau wohl gar nicht und in Neubauten nur bedingt da meistens 1,5mm2 Leitungen gelegt werden und da ist so oder so bei 16 A Schluss. Wenn das nicht auch schon geändert wurde im letzten oder Anfang diesem Jahr. Die Farben haben es ja wieder mal.
 
Sgt.Speirs schrieb:
Zum Thema Stromanschlüsse: Die gezeigte Karte ist ein Engineering Sample einer Tesla-Karte. Von daher kann man über den Stromverbrauch der "normalen" Consumer-Karten noch keine Rückschlüsse ziehen.
Genau. Viele scheinen noch nicht bemerkt zu haben, das Nvidia gestern keine Grafikkarte vorgestellt hat. ;)
 
tokad schrieb:
Nvidia muss bei solchen monströsen Chipdesigns aufpassen, dass sie nicht das Voodoo Schicksal ereilt.


Die Voodoo 5 6000 hat es jedoch nie zu solch einem Entwicklungsstadium geschafft wie der G300-Chip.

Bei Nvidia läuft jedoch bereits jetzt/bald die Massenproduktion an. Auch ist dieser Chip in meinen Augen ein Alles-oder nichts-Chip. Denn Nvidia setzt damit alles auf eine Karte. Wo die Reise hingehen soll dürfte hier jedem nun klar sein. Es wird ja auch immer wieder im white paper auf den G80 hingewiesen, der den Grundsten legte für GPGPU-Entwicklungen seitens Nvidia. Dieser Chip ist halt derVersuch(so kann man es im Moment nur nennen) für die Zukunft bestmöglich gewappnet zu sein. Ich hoffe die Rechnung geht auf für Nvidia und sind dann was die Entwicklung angeht zur richtigen Zeit am richtigen Ort des Weges.
 
das ding wird sicherlich eine hammer _performance_ haben, aber ich habe doch zweifel, ob diese sich diese _performance_ für die grafikdarstellung in (dx11) spielen umsetzen lassen wird.

aber davon mal ab, das wird sicherlich die volle ausbau stufe des g300 chips sein.
was wollen die für den mittleren und unteren leistungsbereich anbieten? umgelabelte g200b chips, ohne dx11? extremste kastrationen, die dann eigentlich was können und vor allem auch wieviel kosten sollen?
und lohnt diese volle ausbau stufe auch für die highperformance spiele grafikkarten? oder kommt da evtl auch nochmal was anderes? ich persönlich sehe diesen vorgestellten chip eher im wissentschaftlichen einsatz (simualtionen und vergleichbares)
 
Ralf T schrieb:
Und eines sollten jeden auch klar sein, wenn Nvidia keine Dual GPU Karte bringt und das werden sie lange nicht können, springen viele Enthusiasten ab und holen sich die X2 Karten von ATI.

Wenn ich eine reine nVidia Fanboy wäre würde ich sicher nicht wegen der Fehlende X2 bzw. GX2 Karte zur Konkurenz wechseln.
Und um was wollen wir wetten das nVidia doch eine GX2 des GT300 heraus bringt? Kann gut sein das es nicht zwei GTX380er wird sondern ev. zwei GTX360er oder so.
Um warum soll die 8+6Pin Strom stecker mich auch gross stören? Von der Leistung her wird die Karte sowieso schnell sein, und mein GTX280er hat auch schon ein 8+6Pin Stromanschluss.
Ganz ganz Grob gesagt, ca. doppelt so schnell wie der GTX280 und mit gleicher Stromanschlussbestükung ala 75 Watt + 150 Watt = Max. 225 Watt.
Dies kann mir nur recht sein, denn die ATI HD5870 braucht im Load auch nicht gerade wenniger als der HD4890, aber ist dafür auch schneller was bei der GTX380 sowieso der Fall wird.

Und dass die nVidia Karten mehr kann als nur ein normalere GPU soll mich nicht stören, solang Sie die Leistung vollbringen wie Sie sollte dann ist es doch ok.
Auch wenn ein Auto tonnenweise Optionen und Funktionen hat heisst es auch nicht das man alles unbedingt braucht, aber falls ja hat man es ;)
Und wie manche hier erkannt hat dass die Technik "zuerst" vorhanden muss bevor die Softwares dafür herauskommt.
 
Zuletzt bearbeitet:
Mister79 schrieb:
Ich bleib dabei, jetzt kaufen macht keinen Sinn. Warten was kommt und wenn beide Produkte getestet wurden kaufen. Im Moment kann ich echt nicht sagen was mehr Sinn macht. für alle die keine neue Karte benötigen ist warten wohl richtig und für alle die eine brauchen, weil die alte defekt ist oder einfach zu schwach ist eine ATI. Wobei sich die Frage stellt ob man dann nicht lieber eine billige nimmt und nochmal guckt was NV wirklich gezaubert hat.

Ich meine das NV dort ein Monster baut war mir klar aber das es so ein Monster wird habe ich nicht mit gerechnet. Wobei mir Strom und Wärme voll egal ist aber bei diesen Werten, hui hui hui. Wobei mein Netzteil sich freuen wird und mal zeigen kann was es wirklich kann.

Genau so sehe ich das auch. Hab mir erst vor kurzem ein neues Board+CPU+RAM gegönnt.
Leider musste ich feststellen dass meine treue 8800GTX wohl den Geist aufgegeben hat :(
Daher wollte ich gleich mal zur neuen 5870 greifen aber als ich heute die wahrscheinlichen Daten des GT300 gesehen habe, werde ich doch lieber noch etwas warten. Hab mir zum Überbrücken ne HD4350 für 29 EUR gekauft, gezockt wird währenddessen auf der Xbox.

Die ganze GGpu Geschichte ist zwar nett, aber wie hier schon öfters gesagt worden ist, möchte ich nicht für etwas zahlen was ich nicht brauche. Wenn ich schon gute 450 Öcken ausgebe, möchte ich maximale Spieleleistung. Mal sehen wann der GT300 überhaupt tatsächlich rauskommt, vielleicht wirds nach 3dfx und 10 Jahren Nvidia zum ersten mal doch eine ATI ;)
 
Zuletzt bearbeitet:
Bei mir verfestigt sich immer mehr der Gedanke, dass der GT300 wohl absolut nichts für mich ist. Ich brauche doch nur eine preiswerte und energieeffizienzte Karte, mit der ich ab und zu mal neue Spiele ohne Ruckelorgien spielen kann. Mit meinen Ansprüchen bin ich wohl wirklich besser bei AMD aufgehoben.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben