News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@Schinzie: die gtx285 gibt es mit bis zu 702 mhz serienmäßig zu kaufen
http://geizhals.at/deutschland/a396719.html
http://geizhals.at/deutschland/a441450.html
http://geizhals.at/deutschland/a441265.html
http://geizhals.at/deutschland/a421635.html
http://geizhals.at/deutschland/a394443.html
(wakü-versionen mit über 720 mhz jetzt mal außen vor).
http://geizhals.at/deutschland/a455207.html
http://geizhals.at/deutschland/a406861.html
der g200b ist immerhin 38% größer als ein mutmaßlicher g200c. wenn nvidia durch wechsel auf gddr5 bei 256bit dann nochmal transistoren einsparen kann, wird die differenz noch größer. 40% sollten imho machbar sein.
 
Zuletzt bearbeitet:
@kasmopaya: was soll man jemanden Antworten der nach Quad-SLI für Crysis fragt?

Naja, mal abwarten wieviel von der Leistung dann beim zocken noch übrig bleibt.

Mich bestätigt das bisherige aber in meiner Haltung, dass ich nicht auf den G300 warten muss, das Teil wird am Anfang eh zu teuer sein. Die 5870 bietet momentan das was ich will zu einem vernünftigen Preis. In ein paar Tagen werd ich eine haben ;-)
 
noman_ schrieb:
Ich sehe die Sache eher skeptisch - persönlich interessiert mich GPU-Computing nicht die Bohne. Ich wüsste noch nicht einmal was ich damit eigentlich machen soll...

Folglich interessiert mich in erster Linie die Leistung in Spielen. CryEngine 3 ist wohl das zukünftige Maß aller Dinge. Wenn die neuen Karten in punkto Gaming wirklich so gut wären dann hätte Nvidia wohl die eine oder andere PP-Folie mit Benchmarks reingestreut - eine bessere Gelegenheit ATI das Geschäft zu vermiesen und eigene Kunden bei der Stange zu halten hätte es wohl nicht gegeben.

Wenn Nvidia aber zu diesem Zeitpunkt keine (Performance-) Zahlen auf den Tisch legt stimmt mich das eher zweifelnd. Dabei wäre mir ein Match zwischen HD5K und einem geistigen G80/G92-Nachfolger am liebsten.

Hallo
Bin ganz deiner Meinung. Lese seit letzter Nacht ständig die neuesten Berichte über den GT300 weil bei mir auch ein Upgrade heransteht.
Aber man liest nichts über Gameverhalten/Leistung. Das ist doch eigentlich für Nv untypisch.:(
Bin wirklich gespannt was am Ende dabei herauskommt.
(Hochgestapelt oder tiefgestapelt:D)

Wollte mir eigentlich zu Weihnachten ein tolles Geschenk in Form einer HD5870 machen.
Tja, warten oder nicht warten das ist hier die Frage.

Gruß
Klatty
 
Fast richtig :)
Lübke schrieb:
@Schinzie: die gtx285 gibt es mit bis zu 702 ghz serienmäßig zu kaufen

Schade, dass es nicht stimmt ;)
 
zum thema gaming-fähigkeit des g300: ich denke, wenn raytracing zum thema wird, kann der g300 gegenüber dem rv870 richtig auftrumpfen. allerdings ist es bis dahin wohl noch weit und imho werden wohl eher langzeitnutzer wie meinereiner diesen vorteil einer solchen karte nutzen können, weil sie bis dahin sicher ebensowenig aktuell sein wird wie meine 3850...

@Robo32: ups, kleiner fehler :D sry^^ wird sofort editiert...
 
Kasmopaya schrieb:
Die flexiblen 512 Cuda Cores werden die Gamingleistung extrem steigern, macht euch da mal keine Sorgen. Flexibler, effizienter, schneller... Besser gehts nicht.
Cuda Core = Shadereinheiten. Weiß nicht was daran flexibler sein soll, da Shader (Model 5) bereits alles können.

Einfach Dingen neuen Namen geben und schon ist der gemeine Pöbel davon begeistert.
 
Naja, mal abwarten wieviel von der Leistung dann beim zocken noch übrig bleibt.

Mich bestätigt das bisherige aber in meiner Haltung, dass ich nicht auf den G300 warten muss, das Teil wird am Anfang eh zu teuer sein. Die 5870 bietet momentan das was ich will zu einem vernünftigen Preis. In ein paar Tagen werd ich eine haben ;-)
Richtig Theorie und Praxis sind immer 2 Welten :rolleyes:

Aber du hast recht, wobei ich die hD 5850 1GB zur Zeit runder finde(auch vom Preis/Leistung) wie die HD 5870 1GB, bei letzterer währen 2GB nicht verkehrt...

Wer nicht mehr warten kann oder will ist mit der HD 5850 sehr gut bedient...


Cuda Core = Shadereinheiten. Weiß nicht was daran flexibler sein soll, da Shader (Model 5) bereits alles können.
Den Schwerpunkt legten die Kalifornier dabei auf flexible Nutzbarkeit und hohe Auslastung der 512 Shader-ALUs
http://www.pcgameshardware.de/aid,6...re-Bilder-und-Informationen/Grafikkarte/News/
Um die Einheiten mit möglichst hoher Auslastung betreiben zu können, stattet Nvidia jede SIMD-Einheit in Fermi mit zwei sogenannten Warp-Schedulern und Instruktions-Dispatchern aus.
Die Verteilung der Instruktionsformate ist dabei recht flexibel, Integer- und Gleitkommaformate können gemischt werden,
 
Zuletzt bearbeitet:
Macht ruhig weiter in der Entwicklung.

Allerdings braucht es z. Zeit gametechnisch kaum mehr als die Leistung z.b. zweier 260gtx´s im SLI.
Welches Game ist es zur Zeit Wert sich einen "Fermi" zuzulegen (meiner Meinung nach nicht mal Crysis).
Und bis die Game´s kommen, welche diesen Fermi "in die Knie zwingen", könnten wir schonmal beim nächsten Verkleinerungschritt sein oder? Ergo: ruhig die neue Ati kaufen und Spass haben.....
 
theorist schrieb:
Ähm nein, die Verwandschaft des Fermi mit dem G80 und dem GT200 ist doch immer noch mehr als offensichtlich. Vom G70 zum G80 erlebte man wirklich einen Architekturwechsel.
In meinen Augen gibt es drei GeForce-Generationen:
- GeForce 1 bis GeForce 4
- GeForce FX bis GeForce 7
- GeForce 8 bis heute (einschließlich Fermi)

Naja, sogar Nvidia sagte, der G(T)300 wird der "wahre" Nachfolger des G80. Und die Architekturänderungen sind ja nicht gerade so wenig. Jedenfalls im Bezug auf diese Tesla Karte hier. Glaube aber kaum, dass es im Gaming-Bereich großartig anders aussehen wird.
 
Lübke schrieb:
zum thema gaming-fähigkeit des g300: ich denke, wenn raytracing zum thema wird, kann der g300 gegenüber dem rv870 richtig auftrumpfen.

Weshalb? Soviel stärker ist der Fermi jetzt auch nicht gegenüber dem Cypress bei Computingzwecken. Bei einem reinen ADD oder MUL ist die Peak-Rechenleistung bei double precision beim Cypress sogar größer. Der L2-Cache ist beim Cypress auch nicht wesentlich kleiner (512 KiB vs. 768 KiB).

united3000 schrieb:
Naja, sogar Nvidia sagte, der G(T)300 wird der "wahre" Nachfolger des G80. Und die Architekturänderungen sind ja nicht gerade so wenig. Jedenfalls im Bezug auf diese Tesla Karte hier. Glaube aber kaum, dass es im Gaming-Bereich großartig anders aussehen wird.
Es ist natürlich immer schwierig, eine Grenze zu ziehen, aber an den grundsätzlichen Architekturkonzepten wie die Streaming-Multiprozessoren, die mit dem G80 eingeführt wurden, hält man offenbar immer noch fest. Die ALUs an sich haben sich gegenüber dem GT200 und dem G80 natürlich schon drastisch geändert, wobei der GT200 mit den dedizierten DP-ALUs ja schon einen Vorgeschmack gab. Aber das ALU-Design alleine macht für mich keine Architektur aus.
 
Zuletzt bearbeitet:
Lübke schrieb:
falls wirklich ein g200c in 40nm mit dx10.1 käme, würden den sicher viele kaufen, denn der shrink würde deutliche taktsteigerungen zulassen, wodurch man vermutlich wieder an der 5870 vorbeiziehn könnte. der vorsprung der 5850 zur gtx285 ist ja nur minimal, von da zur 5870 sinds dann auch nur winzige 20 %. falls nvidia wirklich noch ein halbes jahr brauchen würde, wäre so ein g200c eine gute übergangslösung für nv. dx11 gibt es noch so gut wir garnicht...
Das wage ich bezweifeln. Auch ein refreshter G200c wäre ein angestaubtes Stück Hardware von Gestern. Wer außer Hardcorefanboys und Ahnungslosen würde noch auf sowas setzen, wenn es doch schon dx11-Grakas gibt, die höchstwahrscheinlich auch noch leistungsfähiger sind.
 
@theorist: ist jetzt nur ne vermutung meinerseits, die nicht auf den (wenigen bekannten) zahlen, sondern auf die ausrichtung der neuen architektur beruht. diese nähert sich stark dem aufgabenbereich der cpu an und da nvidia ja bereits raytracing-projkte am laufen hat (cb hat schon news dazu gebracht), ist das imho eine logische konsequenz, dass die architektur auch gleich auf raytracing optimiert wird, besonders angesichts des lrb.
wie gesagt, ist nur ne vermutung und kein fakt. darum auch

@Exar_Kun: dx11 allein ist nicht alles, auch wenn m$ es gerne hätte ;). auf lange sicht wird es ganz sicher mehr anwendung finden als cuda, aber auch dann werden die "ahnungslosen" die schnellste karte kaufen und nicht die mit einem besseren feature, zumal sie nicht wissen, ob dx11 oder cuda besser ist. ich habe ja nicht gesagt, dass die sehr kleine minderheit der fachkundigen nutzer die karte kaufen, wobei sie auch hier käufer finden würde. und neben der reinen leistung spielt der preis noch eine rolle. es ist also durchaus potential da, um mit so einer karte am markt mitmischen zu können.
dazu ging dieser gedankengang auch von der überlegung aus, dass tesselation auf dem g300 ja softwareseitig durchgeführt wird und ob ein g200 dann alle vorraussetzungen für dx11 erfüllen könnte, falls diese software übertragbar sei...
letzteres bezweifle ich zwar, allerdings dürfte der g200c das gros der features von dx11 dann ebenfalls beherschen.
also als überbrückung im notfall (ausgangspunkt der überlegung war ja dass der g300 noch über ein halbes jahr auf sich warten lässt) wäre so ein chip keine schlechte option für nvidia, um das halbe jahr im rennen zu bleiben...
 
Zuletzt bearbeitet:
Allerdings wäre er solange interssant, bis die Dx11 Karten von NV rauskommen. Es wäre auch taktisch nicht schlecht, wenn Nv den g200b in 40nm rausbringt, denn dann ist ati gezwungen die 5870 er zu refreshen bzw an der taktschraube zu drehen. So könnte nvidia ,Ati aus der reserver locken um dann 3 monate später den G300 rauszubringen.
Ergänzung ()

:)
 
und was soll bitte das bringen ich muss blöd sein jetzt eine alte karte noch kaufen wenn ich doch dann die neue kaufen und der g200b kann kein DX11 sehr blöd
 
wurde bestimmt schn geschrieben aber egal
di ekarte hat einen 6pin und einen 8pin stromstecker dann sind ja schon 225 watt möglich und dann kommt noch der strom vom PCIe dazu.
also kann man sagen das die karte bis zu 300 watt ziehen kann?
 
@lübke
das die 300 watt zieht glaube ich auch net. damit hätten die einen gravierenden grund geschaffen auf ne ati zu setzen. das sie mehr ziehen wird als die 5870 wird wohl eintreffen. nur wieviel wird sich zeigen müssen
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben