News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
1x6 & 1x8 Pin ist nicht schön, aber die GTX280 hatte auch nicht weniger... - gekauft wurde sie trotzdem.

Vom G300 wissen wir immer noch nichts - das hie ist der GT300 ( Tesla ).
 
Nur was sagen uns diese Daten jetzt zur Spieleperformance??

Wenn Mercedes jetzt ein LKW 800 PS Fahrzeug vorstellt mit 2000NM, dann wissen wir, das wir da große Schwerew Anhänger ziehen können, aber die Daten sind ungeeignet fürs schnelle fahren auf der BAB.Für mich als Sportwagenfan bringt diese Vorstellung mit den Daten somit gar nichts.

Genasuo kommt mir die NVIDIA Vorstellung vor. Man kann also ganz tolle Supercomputer bauen mit der KArte. Klasse und wie siehts mit Spielen aus?? Denn das ist das was mich interessiert.
 
Wozu sollte Nvidia eine Refresh des G200b in 40nm mit DX10.1 rausbringen? Das wäre doch ein verlustgeschäft. Wer würde die denn dann kaufen?
 
QX9770-Freak schrieb:
@ Kasmopaya

Da gebe ich dir recht, gekauft ist es auch jetzt schon für mich ;)

PS: ich hoffe es wird den SLI support weiterhin geben:) Dann wandern 2 von den Dingern in meinen Rechner xD

Fanboys unter sich... :freak:
 
FortissimoIV schrieb:
Ich rechne mit Refresh-Chips des G200b in 40nm mit DX 10.1 zu Weihnachten und VIELLEICHT der Tesla-Karte für den professionellen Markt in einem ähnlichen Zeitraum.

Würde sehr gut erklären, wieso DX11 für NV nicht sooo wichtig ist...
 
@SH501

Da gebe ich dir recht! Wir haben zwar die Daten gesehen, aber noch keinen SPIELE Benchmark. Mich als Gamer würde das mehr interessieren, als das ich damit C++ programmieren kann.
 
Klingt nach einem Monster mit dem entsprechendem Strombedarf. Ist bestimmt auch nicht billig zu produzieren.
 
@QX: Wer das kaufen würde? Fanboys. :evillol: Es wurde hier ja schon diskutiert, daß nV vermutlich dieses Jahr nicht mehr mit G300 kommen kann, aber was braucht, um gegenzuhalten. Da können die DX 10.1-nVidias (gibt's ja schon für mobile Systeme) helfen. Ein auf 40nm geshrinkter G200 hat sicherlich noch Taktreserven, so daß sie performancemässig gar nicht so weit hinten anstehen.

Tatenlos wird nV nicht bleiben. Ausserdem haben sie's auch zwei Jahre problemlos geschafft, DX 10.1 zu ignorieren und zu blockieren, da werden die nicht davor zurückschrecken, das möglicherweise auch ein halbes Jahr bei DX 11 zu machen.
 
falls wirklich ein g200c in 40nm mit dx10.1 käme, würden den sicher viele kaufen, denn der shrink würde deutliche taktsteigerungen zulassen, wodurch man vermutlich wieder an der 5870 vorbeiziehn könnte. der vorsprung der 5850 zur gtx285 ist ja nur minimal, von da zur 5870 sinds dann auch nur winzige 20 %. falls nvidia wirklich noch ein halbes jahr brauchen würde, wäre so ein g200c eine gute übergangslösung für nv. dx11 gibt es noch so gut wir garnicht...
 
@ Robo32

Das DX11 für Nvidia nicht sooo wichtig ist, habe ich auch gelesen. Damit ist doch aber schon gesichert, dass auch ein großer Schwerpunkt auf sachen Gaming liegt, oder nicht? :)
 
@Lübke: Nunja, Battleforge hat einen entsprechenden Patch bekommen, Stalker: Call of Prypjat steht unmittelbar vor der Tür und auch Colin McRae2 und Aliens vs. Predator 3 kommen noch spätestens bis Weihnachten... das sind schon mindestens drei Kracher.

Aber ich stimme Dir zu, daß sich ein 40nm-Shrink des G200 gut verkaufen würde.
 
Lübke schrieb:
gibt es dazu eigentlich eine fundierte quelle? das haben hier schon viele geschrieben, aber woher kommt diese aussage?

Hier:
Following Nvidia CEO Jen Hsung Huang's keynote speech, details about Nvidia's next gen architecture Fermi are finally available, putting rest to months of speculation.

We reported most key specifications previously, but now we have most of our gaps filled.

First thing worth pointing out is that Nvidia sees clear potential in High Performance Computing and GPU Stream Computing - perhaps even more than gaming - and believe there is multi-billion dollar potential in the HPC industry, which is currently dominated by much more expensive and less powerful CPUs. As a result, Fermi is the closest a GPU has ever come to resembling a CPU, complete with greater programmability, leveled cache structure and significantly improved double precision performance. As such, today's event and whitepaper concentrates more on stream computing with little mention of gaming.

That said - GF100 is still a GPU - and a monster at that. Packing in 3 billion transistors @ 40nm, GF100 sports 512 shader cores (or CUDA cores) over 16 shader clusters (or Streaming Microprocessors, as Nvidia calls them). Each of these SMs contain 64KB L1 cache, with a unified 768KB L2 cache serving all 512 cores. 48 ROPs are present, and a 384-bit memory interface mated to GDDR5 RAM. On the gaming side of things, DirectX 11 is of course supported, though Tesselation appears to be software driven through the CUDA cores. Clock targets are expected to be around 650 / 1700 / 4800 (core/shader/memory). It remains to be seen how close to these targets Nvidia can manage.

Of course, at 3 billion transistors, GF100 will be massive and hot. Assuming similar transistor density to Cypress at the same process (RV770 had a higher density than GT200), we are approaching 500 mm2. In terms of DirectX/OpenGL gaming applications, we expect GF100 to end up comfortably faster than HD 5870, something Nvidia confirms (though they refuse to show benchmarks at this point). However, it is unknown as to where GF100 performs compared to Hemlock.

Products based on the Fermi architecture will only be available on retail stores in Q1 2010 - which is a rather long time away. This length delay and yields/costs could be two major problems for Nvidia. While there is no doubt Fermi/GF100 is shaping up to be a strong architecture/GPU, it will be costlier to produce than Cypress. We have already heard horror stories about the 40nm yields, which if true, is something Nvidia will surely fix before the product hits retail. However, this does take time, and Nvidia's next-gen is thus 3-6 months away. By then, AMD will have an entire range of next-gen products, most of them matured, and would perhaps be well on their way to die shrinks, especially for Cypress, which would might end up being half a year old at the time. There is no information about pricing either, although we can expect the monster that is GF100 to end up quite expensive. More economical versions of Fermi are unknown at this point too, which might mean the mainstream Juniper will go unchallenged for many months.

If you are in the market for a GPU today - we don't see any point in holding out for Nvidia's GF100. However, if you are satisfied with your current GPU or looking forward to much improved stream computing - Fermi/GF100 might just be what you are after.

In the meantime, we can expect price cuts and entry-level 40nm products from Nvidia. With all that has transpired today (being HD 5850 release day as well), there's one conclusion - ATI Radeon HD 5850 does seem like the GPU to get. If you are on a tighter budget, Juniper might have something for you soon.

Hier der Link!
 
@ Lübke

Dann würden sich die ATI Fans aber freuen^^ Sollte Nvidia wirklich den G200b in 40nm herstellen und der dann tatsächlich schneller sein,als eine 5870, dann wir ati wohl auch wieder zu legen.

Das wird ja wieder ein Performance Kampf ;)
 
@qx9770

gibt ja auch Kunden die auf Stromverbrauch und vor allem Lärm achten. Ne Karte mit den Leistungsdaten der G200 Serie mit weniger Verbrauch und daher leiser zu kühlen, würde sich in meinen Augen recht gutverkaufen, wenn der Preis stimmt. Den möglichen Performancegewinn mal außer Acht lassend.
 
sorry das ich die frage stellen muss kann man den damit in 4-sli jetzt endlich crysis auf alles hoch zocken^^ ?
 
@QX9770-Freak: davon kann man wohl ausgehen^^
mich würde es auch sehr freuen ;) und je knapper das rennen ausgeht, um so besser für uns konsumenten,
denn das bedeutet mehr optimierungen auf beiden seiten und einen härteren preikampf. :)

@dr.mutter: nein mit 4 gpus in sli oder crossfire kann man nur benchen aber nicht zocken. das ergebnis sind enorme lags und somit ruckelorgien, selbst bei höchsten fps-zahlen.
das maximum ist laut cb entweder 2 x ati oder 3 x nvidia. scheinbar hat nvidia trippel-sli schon optimiert. ratsam ist imho aber nichts von alle dem...
 
Zuletzt bearbeitet:
Aber auch der "neue" G200b wird dann ja immernoch auf GDDR3 setzten und das ist ja mit den Taktraten so ne sache. Allerdings besitzt die 285GTX ja auch einne 512bit Anbindung......... somit könnte aich auch etwas in sachen Bandbreite etwas tun. Bin mal gespannnt
Ergänzung ()

@ Lübke
Da haste recht!! ;):)
 
dr.mutter schrieb:
sorry das ich die frage stellen muss kann man den damit in 4-sli jetzt endlich crysis auf alles hoch zocken^^ ?

Das konnte man mit einem GT200 auch schon.


Zum Thema:

Ich bin eingefleischter Nvidia-Fan und freue mich sehr auf den neuen Chip und den neuen Technologien.



Gruß scheischmanfred
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben