News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Wenn das wirklich alles stimmt, dann ist das die...


:D...DIE ÜBELSTE KRASSE NUMMER:D


mit der karte kann man ja Crysis 4 immer noch flüssig spielen:D
 
Mal ne Frage zum Video. Ist da wirklich nur ein Anschluss zu sehen? Das find ich selbst für ein Vorserienmodell zu wenig.
 
Mir kommt es ganz so vor als würde NVIDIA nicht mehr den enthusiast Gamer als bevorzugent Kunden sehen sondern eher in den Bereich des Super Computing auf Basis von GPGPU vordringen wollen. Die neue GPU (wenn man die überhaupt noch so nennen kann) ist jedenfalls deutlich mehr in diese Richtung optimiert. Es macht wirklich den Eindruck als würde das Ding nur so nebenbei noch eine ganz gut Grafikkarte abgeben.
 
ich verwette mein nächstes gehalt, dass auch damit crysis nicht vernünftig laufen wird :)
für mich persönlich muss das auch nicht unbedingt die über-gamer karte sein. etwas mehr leistung abseits des spielebereichs (wie z.b. auch die neuen intel cpus) begrüße ich durchaus.
 
So wie es aussieht versucht NVIDIA noch rechtzeitig das sinkende Schiff (PC Games) zu verlassen und setzt voll auf HPC. Man kann als gamer nur hoffen das nicht nur AMD/ATI überbleibt, auch wenn ich viel sympathie für die Firma ansich hege, ein Monopol ist immer schlecht.

Was auch schlecht ist, ist das es ja jetzt gesichert ist das AMD/ATI ein quasi Monopol bis zumindest Q1 2010 haben werden, was schlecht für den Markt ist, aber natürlich toll für AMD. Nvidia wird hoffe ich bis Februar die ersten lieferbaren Gamer Karten auf den Markt bringen und bis spätestens März werden sie dann großflächig verfügbar sein. Falls sie aber selbst diesen Termin nicht halten können dann wird es für Nvidia schwer in dieser Generation noch nen Fuß in die Tür der Consumer Karten zu bekommen. Andererseits sieht es ja so aus als ob das Nvidia eh latte ist, da sie ja voll auf HPC setzten und gaming nur am Rande mitläuft.

Fermi hat ja bis jetzt keinerlei Gamingrelevante Neuerungen und zielt vollkommen auf HPC ab, er kann ja nichtmal DX 11 Tesselation in Hardware. Bleibt aber natürlich die Möglichkeit das Fermi gar nicht der Consumer Chip ist und Nvidia diesmal einen eigenen HPC Chip gebaut hat und das der Consumer Chip erst noch vorgestellt wird, lasst uns hoffen das es so ist weil sonst werden die Grakas in nächster Zeit um einiges teuerer werden als jetzt. Die Architektur von Fermi ist imho ja sogar etwas problematisch für gaming (FDA @MADD) und könnte unschönes flimmern nach sich ziehen, aber alles natürlich nur Spekulation bis jetzt anhand der bekannten Daten.
 
@danko71: genau das dachte ich mir auch grad beim durchlesen. beeindruckend, aber nicht grad für spiele gedacht. die rohleistung allein sollte den chip aber auch für zocker sehr interessant machen ;)

allerdings rückt scheinbar als direkter konkurent immer mehr intel an die stelle von ati...
bin mal gespannt, wann der erste supercomputer auf g300-basis in betrieb genommen wird :D

@terraconz:
er kann ja nichtmal DX 11 Tesselation in Hardware
wo steht das denn? ich dachte tesselation ist bestandteil von dx11. hab ich was verpasst?
 
Zuletzt bearbeitet:
Es macht wirklich den Eindruck als würde das Ding nur so nebenbei noch eine ganz gut Grafikkarte abgeben.

Den Eindruck habe ich auch, DX11 kann sie zwar, aber Dinge wie Tesselation werden wohl über die Shader laufen.
Solange die Performance stimmt kanns einem eigentlich egal sein, dennoch sieht man ganz eindeutig das nVidia seinen Fokus klar weg vom Spieler bewegt.

Auch eine Frage wäre, ob es einen G300 gibt, der etwas mehr auf den Gamingbereich abgestimmt ist, oder ob es bei dem GT300 (T für Tesla wie beim GT200) bleibt.
Beim G200, der so ja nie rauskam munkelt man, das er keine Double-Precision Einheiten gehabt hätte und ein gutes Stück mehr Taktrate fahren würde.
Nunja, wir werdens wohl nie erfahren.
 
Zuletzt bearbeitet:
Steiner_mC schrieb:
Waaahnsinn oder doch nicht?!
Ich kann mit den angegebenen Specs nicht viel anfangen, zwar hab ich ein Semester Mikroprozessortechnik hinter mir aber die meisten hier scheinen echt die Gurus zu sein. Jedenfalls hab ich keine Vorstellungen, wie sich das hier dargestellte in Spielen auswirken wird...

So jetzt bitte weiter mit dem unqualifiziertem Geblubber…

Vermutlich können viele andere ebenfalls nichts mit den ganzen Details anfangen, tun aber so, als ob. ;) Für mich klingt das auch alles toll, aber ich hab keine Ahnung, was sich dahinter verbirgt und wie sich die Karte wohl praktisch schlagen wird. Doch dazu stehe ich! Ich warte lieber auf die Testergebnisse hier bei ComputerBase.

Seien wir doch mal ehrlich: Die Spitzenmodelle aus beiden Lagern sind klasse und bringen ihre Leistung. Und wo ist jetzt der Unterschied, ob ich ein Spiel mit 56 oder 58 fps spiele? Richtig, das Auge merkt es nicht, aber das Ego braucht es. :D
 
Warum reden denn alle über Hitze-Entwicklung???


NVidias Ingenieure werden sich dazu schon ihre Gedanken gemacht haben!

(Beim FX5800 haben sie es aber wohl vergessen :D )
Ergänzung ()

Gibts eigentlich irgendwo Fotos oder Bilder der Karte?
 
@ "GPGPU nutzt dem Gamer nichts"

Das ist teilweise Quatsch, denn in den kommenden (5-10) Jahren werden wir ein Revival von "Software-Renderern" erleben. Rasterisierung läuft ihrem Ende entgegen, weil man für mehr Qualität immer unverhältnismäßiger mehr Leistung verbraucht. (wenn man berücksichtigt, dass hübsche Grafik sehr viel mehr als nur verkleisterte Texturen ist) Das bedeutet eben, in den nächsten 5-10 Jahren werden die ganzen Fixed-Function-ROPs zu einer reinen Alibi-Technik für bestehende, dh. alte, Benchmarks und Schwanzlängenvergleiche verkommen, während sich die Zukunft der Echtzeit-Grafik (siehe id tech 6 Voxel Raycasting!) im GPGPU-Bereich abspielen wird. Double-Precision braucht man dafür vermutlich trotzdem nicht, aber volle C++ Unterstützung kann schon für den Engine-Programmierer nützlich sein. Zumal echte Physik, die nicht nur optisches Schmankerl ist, sondern rückwirkt, fürs Spiel auch wichtig sein kann. Ich freu mich jedenfalls, dass die wichtigste Spielerkomponente vom Füllratenschwanzvergleich wegkommt und lernt mehr zu machen, als Texturen zu kleistern - denn auch in Spielen ist Texturen kleistern nicht alles.
 
Zuletzt bearbeitet:
wie bereits einige gesagt haben schaut das alles für mich so aus als ob nvidia bei der generation mehr wert auf GPGU legt als auf graphikpower. l2 cache, ecc unterstützung bis zu 6gb ram das sind alles features die für die graphikleistung garnichts bringen und zum teil sogar bremsen.
ausserdem wurden keine neuen dedizierten einheiten für die neuen DX11 features wie tesselation erwähnt, ohne diese einheiten müssen alle directx11 features von den shader cores berechnet werden muss was eine mehr oder weniger grosser nachteil bei der performance sein wird.

da bei der vorstellung noch gar nichts über graphik features gesagt wurde denke ich aber, dass eventuell kurzfristig nur die reinen number cruncher karten (nachfolger von tesla) auf den markt kommen werden da diese weitaus teurer verkauft werden können und sich deshalb warscheinlich auch schon bei schlechteren yield raten lohnen. während dessen optimiert nvidia noch die chips für den graphik mark die dann etwas später vorgestellt werden.
 
Zuletzt bearbeitet:
chappy086 schrieb:
Jetzt übertreibst du aber!


deswgen ja auch die :D:D:D:D:D

ja... erst mal die Benchmarks abwarten...

Vielleicht waren das ja auch Daten der NVidia Quadros für Entwickler usw...
 
Vielleicht ist es die Kombination Spiel + z.B. Physik-Berechnungen, die wirklich einen großen Vorteil gegenüber anderen Karten bringt.
 
Sehe nicht nur Vorteile in Nvidias Hardwarepolitik! Wenn sie diese langsam umlenken in Richtung "GPU als CPU" mag dies nach diversen Aussagen von (selbsternannten) "Experten" wegweisend sein, im Gamebereich bahnt sich die Gefahr einer 2-Klassengesellschaft an.

Während ATI weiterhin darauf setzt die Leistung in den gewohnten Bahnen zu steigern, brodelt Nvidia sein eigenes Süppchen. Früher oder später werden eigene Standards mit viel Subventionsgeld am Markt durchgeboxt - auch um Vergleiche/Benchmarks mit ATI dem Kunden unmöglich zu machen.

Die "Propaganda"-Einblendungen von Nvidia "The Way It's Meant To Be Played"
ist bereits eine "Entwicklerhilfe" um die Spiele besser auf Nvidia zu optimieren. Ein kleiner, wenn auch wichtiger Schritt zur medialen Verblödungungspolitik des Volkes. Nur ein dummer Kunde ist ein guter Kunde!
Das Nvidia bereits besser aussieht, wenn ATI schlecht aussieht brauch ich keinem zu erzählen. Ich erinnere an die ATI-Probleme mit GTA4, Need For Speed Shift, Anno 1404. Alles Zufall, dass Nvidia davon selten berührt ist? Vielleicht zahlt Nvidia auch Geld, dass ATI Kunden erstmal dumm aus der Wäsche schauen? Da die Spieleentwickler dennoch auf das Geld der für blöd verkauften ATI Kunden angewiesen sind, behebt ein Patch - nach dem der erste Hype um das Spiel vorbei ist - plötzlich alle ATI Probleme. Auch eine willkommene Strategie mit seinem Produkt in den Medien wieder für Schlagzeilen zu sorgen.

Es spricht auch schon Bände, dass Nvidia sich nicht für DX 10.1 interessiert. Sie haben auch an DX11 kein großes Interesse - warum sich auch an Standards halten, wenn man auch eigene entwickeln kann?

Das "Exklusives" sich nicht langfristig auf dem Softwarespielemarkt durchsetzt, haben die Konsolenentwickler bereits schmerzlich erfahren. Microsoft setzt auf Halo und Forca 3, Sony auf GT und eine handvoll weiterer Titel...das wars aber auch schon. Während Spieleentwickler eher zur finanzpolitischen Höhstform auflaufen als grafische Topinnovationen fortzuschreiben, präsentieren sie sich heute Multiplattformfähig. Jüngstes Beispiel CryEngine3. Grafischer Rückschritt, lässt sich aber auf jahrealten Konsolen prima verkaufen. Das Quantität das Rennen der Niveaulosigkeit in unserer Gesellschaft bereits gegen Qualität gewonnen wird tagtäglich in der Presse dokumentiert: Politische Koalitionen werden stehts nach Mehrheiten gebildet.
Diese Erfahrungen wird auch Nvidia machen, es sei denn sie haben genug Macht um all ihre mafiaähnliche Geschäftspolitik durchzuboxen. Geld regiert schließlich die Welt.
 
Auf beyond3ds IRC Channel hat gestern ein AMD Mitarbeiter eingeräumt, dass NV für den Zielmarkt für Fermi einen Volltreffer gelandet hat.

Bleibt abzuwarten, wie gut die Gamer dabei wegkommen.

Edit: http://www.pcpop.com/doc/0/448/448052.shtml
Ein 8-Pin-Anschluss. Wer sagte nochmal, das Ding frisst Strom ohne Ende ;)?

Edit 2: Nvidia hat den Tesselator übrigens nicht mittels Hardware realisiert... da ist man wohl sehr zuversichtlich, was die Performance angeht.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben