News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Ich finde das Fazit von realworldtech.com sehr treffend:
Perhaps the most significant demonstration of Nvidia's commitment to compute is the fact that a great deal of the new features are not particularly beneficial for graphics. Double precision is not terribly important, and while cleaning up the programming model is attractive, it's hardly required. The real question is whether Nvidia has strayed too far from the path of graphics, which again depends on observing and benchmarking real products throughout AMD's, Nvidia's and Intel's line up; but it seems like the risk is there, particularly with AMD's graphics focus.
 
Kann mir jemand erklären welcher Flaschenhals gecached werden muss wegen den L1 und L2 Caches das dürfte doch eine Verschlimmbesserung sein. Oder?

Trotzdem wird das Ding bestimmt richtig Leistung stampfen. Da wir alle die CF Werte der HD5850 gesehen haben wissen wir wo der Weg hingehen muss für nVidia.
 
Oh Gott (sofern er existiere)... was zum Henker ist das? Kann man damit auch fliegen? Da scheint nVidia wirklich an der mal wieder heftigsten Grafikkarte auf dem Markt zu arbeiten. Der Schlagabtausch geht also mit ATI und nVidia wieder in die nächste Runde. Diesmal wird es allerdings etwas interessanter als nur ein höherer Chiptakt / mehr Speicher. Ich bin auf die DX11 Performance gespannt, obwohl es wohl in naher Zukunft keine (oder zumindest nicht viele) solche Anwendung für den Otto-Normal-Verbrauche geben wird.
Es lebe der Fortschritt. Die Preispolitik wird auch wieder lustig, aber bisher hatte ja da oft ATI die Nase vorn.
 
Tobi47 schrieb:
Wenn diese Zahlen auch in der Realen Computerwelt verwirklicht werden können, Anzahl = Leistung, dann ergebe das eine Leistungseigerung von über 200% zum GT200!
:lol: Atis 5870 hat auch über das doppelte an Transistoren, und schafft trotzdem nur ca 60% mehr.
Ziemlich sicher sind es weniger als 80% dazugewinn.
 
Also da bin ich wirklich enorm von den Daten beeindruckt. Der Enthusiast wird sich freuen :evillol:. Drei riesen oschis mal fix als Triple-SLI eingebaut. Ich glaube bei Nvidia ist es angekommen dass VIEL VIEL VRam auch gut ist (was heutige spiele auch oft beweisen).

Trotzdem wird die Graka vom CPU ausgebremst.

Ersteinmal abwarten und Tee trinken bis so ein Engineering Sample (wenn das so heißt^^) CB oder andere Seiten erreicht und das NDA in ein paar Monaten verfällt.
 
mace1978 schrieb:
:lol: Atis 5870 hat auch über das doppelte an Transistoren, und schafft trotzdem nur ca 60% mehr.
Ziemlich sicher sind es weniger als 80% dazugewinn.

Ein Teil des Die geht für den L1 und L2 Cache weg oder ist der nicht auf dem Die?
 
Hat zufällig irgendein Energiekonzern jüngst nVidia-Aktien gekauft? So hört sich das ganze für mich nämlich irgendwie an. Mal sehen, das dann in der Praxis davon in jeder Hinsicht übrig bleibt.
 
Hochinteressant. Das Teil wird extrem im Profi-Bereich performen. Und das wird, so sehen die Specs zumindest aus, ein irrer Codeknacker. Ob aber die Gaming-Leistung so wahnsinnig zunimmt, ist völlig unklar. Ich vermute mal, dass wir nicht mehr als 40% zur GTX 295 sehen werden.
 
Von AnandTech
Now this is cool. NVIDIA is announcing Nexus (no, not the thing from Star Trek Generations) a visual studio plugin that enables hardware debugging for CUDA code in visual studio. You can treat the GPU like a CPU, step into functions, look at the state of the GPU all in visual studio with Nexus. This is a huge step forward for CUDA developers.

Nexus running in Visual Studio on a CUDA GPU

Simply enabling DX11 support is a big enough change for a GPU - AMD had to go through that with RV870. Fermi implements a wide set of changes to its ISA, primarily designed at enabling C++ support. Virtual functions, new/delete, try/catch are all parts of C++ and enabled on Fermi.
 
1,5GB sind noch nichtmal bei Nvidia nötig.
1GB V-Ram bei ATI eicht völlig aus.
Ich glaueb irgendwie dass die Infos zu dem Cuda Zeugs da irgendwie allesamt stark übertrieben sind.
Letztendlich kommt nicht mehr als 60% zur GTX285 raus. Alles andere wäre unwirtschaftlich.
 
oldsqldma schrieb:
Nein, wie kommst du dadrauf.
Die GPU übernimmt immernoch die selben Aufgaben wie früher, und einfache und besonders paralelle, kann sie immernoch so verarbeiten wie sonst.
Der Cache ist nur da, damit man nicht so oft Daten aus einem 6 GB RAM laden muß, das würde schon etwas länger dauern..:freak:

danke habs jetzt verstanden:D
 
na wenn das jetzt so teuer wie die Asus mars wird hm xD...aber endlich hat sich da mal was getan nur statt die nummern auszutauschen z.b 8800gtx-9800gtx-gts250 oder sowas...war doch langweilig...wollte schon bei ati zuschlagen aber jetzt macht endlich nvidia mal was...gut so weiter so !...nvidia wieder an die MACHT ! xD
 
bin mal auf die preise und tests gespannt ... wann auch immer die kommen ;)
ansonsten kann ihc nur hoffen, dass die neuen karten nicht solche monströsen ungetüme werden wie die vorgestellten 5xxxer-modelle von ati. irgendwann ist die belastungsgrenze der gehäuseschrauben nunmal erreicht :D

IntelCyphe schrieb:
Ist da ein Fehler im Bild oder habe ich Tomaten an den Augen 3 Billion Transistoren?? Das ist ja überdimensional :-)
im englischunterricht nicht aufgepasst? ;)
 
Ach du heilige Kuh! Die GTX380 wird wohl sogar mehr als doppelt so schnell wie die GTX285 werden.
Grafikkarte mit L1/2 Cache?
Kann das jemand näher erläutern?
 
Dass sich die doppelte Leistung auf dem Papier nicht in die Realität umsetzen lässt zeigt ja bereits die 5870er Karte von AMD. Wie bereits erwähnt wurde, werden diese 3 Mrd. Transistoren auch ihren Tribut fordern...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben