News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
ich kenn sogar ne türkische seite die die 2900 in benchmarks vor der 8800gtx gesehen hat^^


gruß
 
Ich werf mal Folgendes in den Raum. Wie schlecht muss eigentlich diese Präsentation gewesen sein, wenn nicht mal 10% der Leute wissen, um was es sich bei diesem Siliziumklumpen handelt? Man hat was von C++ gehört, CUDA-Cores, L1 und L2 Cache, aber was die Karte letzendlich kann oder leistet wurde nie erwähnt. Man hat nichts über den GTX3xx Chip gesagt, keine Benches nichts. Ist fast schon so, wie wenn Volkswagen den neuen Passat als Simulation vorführt und dann sagt, dass er mit Luft läuft. Alle schreien "hurra" und keiner hat den Wagen in Wirklichkeit gesehen, da es ihn schlicht und ergreifend noch nicht gibt. Hier mit Spekulationen um sich zu werfen bringt doch eh nix, wenn wir nicht mal wissen was nVidia da vorgestellt hat. Die einen sagen Fermi die anderen Tesla, ja was denn nun?
 
QX9770-Freak schrieb:
Allerdings wäre er solange interssant, bis die Dx11 Karten von NV rauskommen. Es wäre auch taktisch nicht schlecht, wenn Nv den g200b in 40nm rausbringt, denn dann ist ati gezwungen die 5870 er zu refreshen bzw an der taktschraube zu drehen. So könnte nvidia ,Ati aus der reserver locken um dann 3 monate später den G300 rauszubringen.

Lübke schrieb:
@Zanza: und was genau kannst du mit einer über-gtx285 nicht mehr zocken? ;)

das hat nix mit GTX285 zutun sonder nur das der QX9770-Freak geschrieben hat. Es macht kein sinn jetzt denn GT200b zu überarbeiten und GTX295xxx auf markt zu bringen wenn dann neue Genaration nicht mehr nicht weniger, so eine scheiße mache ich erlich nicht mit wie bei GTX280/GTX285

@skylang

wie schon so offt hier gesagt wurde warte nocht paar Monaten dann siehtst du die neue Karte von Nvidia
 
Zuletzt bearbeitet:
@skylang: fermi ist die gpu, tesla ist ein vollständiges produkt aus gpu, speicher, pcb und kühler...

@Zanza: ob es sinn macht, hängt wohl davon ab, wie weit die g300-karten noch weg sind. auf die faule haut legen kann sich nvidia bei der derzeitigen situation sicher nicht. die gtx285 muss sich sogar der 5850 geschlagen geben, das bedeutet nur die nr3 der topkarten. da kauft dann kein mm-kunde mehr ne nvidia, wenn die in der computerbild nur unter ferner liefen in den benches auftauchen ;)

je nach entwicklungsstadium des g300 kann es also sogar wirtschaftlich notwendig sein, einen geshrinkten, aufgebohrten g200 auf den markt zu werfen, um in den benchmarkgrafiken ganz weit vorne aufzutauchen...
 
Zuletzt bearbeitet:
Naja für wenn war die präsentation?Für alle hier im Forum mit Sicherheit nicht.99 % der Leute intressiert der Gpgpu gesöcks eh nicht.
 
Ich zitiere unseren GpuGuru:

-Der Leistungssprung bzw. Innovationssprung vom G70 auf G80 ist gerade zu winzig im Vergleich mit GT200 auf Fermi.

Die flexiblen 512 Cuda Cores werden die Gamingleistung extrem steigern, macht euch da mal keine Sorgen. Flexibler, effizienter, schneller... Besser gehts nicht.

-Es ist eine komplett neue Architektur das hat mit G80 nichts mehr zu tun. Ich bleib dabei -> Quantensprung in jedem Gebiet, Gaming, GPGPU, Effizienz, Flexibilität, einfach alles -> der Über Chip

Und das ohne Übertreibung!

das wird so der überchip :lol:
 
johnieboy schrieb:
war grad im HW-Luxx Forum und dort haben ein paar User etwas zu der von Nvidia präsentierten Karte herausgefunden.

Jen-Hsun Huang hat keinen Prototypen des Fermi gezeigt!

aber seht selbst (mit großem Beweisbild):

http://www.hardwareluxx.de/community/showpost.php?p=12991799&postcount=1770



Haben wohl nicht genug Karten um einen echten Fermi zu zeigen.
Wie war das nochmal mit der 2% Yieldrate? :lol:

Naja Paperlaunch halt.Ein kleines ablenken damit paar kunden ebend nicht auf die 5800 Serie umsteigen...
 
Was für eine Pleite! Nvidia ist wohl noch meilenweit von der Fertigstellung entfernt und vielleicht ist der Chip auch eine Fehlentwicklung. Die Gerüchte über die mangelhafte Chipausbeute müssen wohl wahr sein! Das Nvidia mit einer abgesägten 285er versucht ATI die Show zu stehlen ist dann nur noch peinlich.
Kein Wunder das bei der Präsentation überhaupt nicht über die Spieleleistung geredet wird, das wissen offensichtlich nicht einmal die Entwickler selbst. Alles Theroie und mumpilz.
Peinlich, peinlich und die Presse ist darauf herein gefallen.... Nvidia hat damit defintiv zugegeben vor der neuen HD5000er Serie Angst zu haben.
 
Zuletzt bearbeitet:
wird hier ja auch von unseren experten empfohlen, bloß noch ein halbes jahr warten, dann kann man nochmal ein halbes jahr warten und auf die Radeon 6XXX setzen^^
 
also einige hier haben ma ne ziemlich hohe erwartungshaltung an den g300 Oô
da wirds wohl ne menge enttäuschter gesichter geben, wenn die gtx380 endlich gebencht wird ;)

leute übertreibt es nicht so, die gtx380 wird bei rasterisierungsengines leicht vor der 5870 liegen. mehr hat nvidia auch gar nicht vor. deren fokus liegt im mom ganz wo anders. für spiele reicht der chip auch so...
 
Verdächtig ruhig geworden bei der Truppe um Shurkien u. Co. seitdem die Bilder des "Prototyps" etwas genauer betrachtet wurden ... :).

Wird eventuell dieses Jahr doch nichts mehr mit dem GT300 ... ?

flipp
 
Vielleicht ärgern sich sogar auch einige, solange gewartet zu haben und nicht gleich zu ATI gegriffen zu haben... :)
 
naja, noch gibts die 5870 gar nicht verfügbar. hab schon vor ner woche bestellt und immer no nix. wenn der shop bald net antwortet stroniere ich des au.


gruß
 
Das Nvidia mit einer abgesägten 285er versucht ATI die Show zu stehlen ist dann nur noch peinlich.
Das ist kein 285er-PCB. Wenn überhaupt, dann Tesla. Eine solches PCB bei einer Desktop-Karte kenne ich nicht (iirc).
 
@Lübke

wenn so mir die Liste bei Geizhals sehe sind die neuen Karten bei ATI auch mangel da wird sicher noch paar wochen vergehen bis alle in guter menge vorhanden sind und dann wird es sicher soweit sein für denn neuen GT300
 
Das mit dem G200c ist so ne sache...ich denke auhc das man aus der 285gtx mit Gddr5 speicher und in 40nm noch einiges rausholen könnte, die frage ist nur ob sich das ganze wirklich lohnen würde. Außerdem würde dann ja das ganze umlabeln wieder von vorne losgehen und irgendwann steigt man da nicht mehr durch. Allerdings wäre es nicht schlecht für die ATI fans da dann natürlich weider ein preiskrieg beginnen würde..... naja ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben