Nvidia Roadmap-Umriss für 1H 2008

Hmmm, wieviel MHz geht mit GDDR4 aktuell wohl? Der 0.8ns der HD3870 rennt ohne großartige Mods mit knapp 1250MHz. Und man sieht ja am G92, dass die 256 Bit bei nur knapp 1 GHz bremsen. Wie in Post #16 sollten da schon so 1500 MHz stehen, da muss dann eben 0.7ns oder 0.6ns Speicher her - ob das 512 Bit nicht vll billiger wären zusammen mit GDDR3?

cYa
 
von samsung ist 0,7ns(1400mhz) gddr4 verfügbar
hynix hat sogar schon 0,6ns gddr4 gelistet

ich glaube auch kaum das ein größeres speicherinterface billiger kommt
sonst hätten wir schon viel eher ein 512bit SI gesehen
 
Zuletzt bearbeitet:
Dann wird das aber ein extrem teurer Spaß :evillol:

cYa
 
Die Namenänderung bezieht sich ja auch nur auf die Codenamen.
(g92 wurde ja soweit ich weiß zu d8p)
Die "echten" Namen der Grafikkarten sind davon ja nicht betroffen.
Ich bin aber mal echt gespannt, was die sich für bezeichnungen einfallen lassen.
 
Die Namenänderung bezieht sich ja auch nur auf die Codenamen.
(g92 wurde ja soweit ich weiß zu d8p)
Nein. Die Bezeichnung der 9800 GX2 (G92) ist z.B. D9E
 
Irgendwie erscheint mir das mit der 9800GTX komisch. Der G92 ist mit seinem SI von 256Bit bereits vollausgelastet. Auch die SPs sind bei der G92 GTS doch alle aktiviert. Was bleibt wäre einzig eine höhere Taktung der GPU. Ob das wirklich den gewünschten Performancevorteil gegenüber den anderen G92 Grakas bringt bleibt fraglich, da mit auch mit den Taktraten irgendwann mal am Ende ist.
Auf der anderen Seite haben wird die GX, welche 30% schneller sein soll als eine 8800Ultra.
Nun stellt sich mir die Frage: Wozu überhaupt eine GTX, wenn sie unterhalb der GX2 eingestuft werden soll?

Das passt doch nicht wirklich zusammen. Eine GTX zu einem späteren Zeitpunkt als die GX2 und zusätzlich schneller als diese selbst würde mir sinnvoller erscheinen.

mFg tAk
 
Ach du schei*e, wenn das stimmt wird das ein absolutes Monster - hoffentlich ohne VRAM-Bug :evillol:

cYa
 
Schick die News:

Obwohl es noch keine Benchmarks gibt, dürfte sich die Leistung gegenüber einer 8800 Ultra mehr als verdoppelt haben.

Genaue Angaben zur Verlustleistung der Grafikkarte liegen uns noch nicht vor, da sie allerdings im 55nm-Verfahren gefertigt wird, sollte der Stromverbrauch nicht exorbitant höher liegen als bei der 8800 Ultra. Wie eingangs erwähnt, wird die Karte zu Beginn des dritten Quartals vorgestellt und sollte sich damit dem R700 gegenüberstellen müssen, welcher zur selben Zeit erwartet wird.

Ich finde aber, dass die Karte ein Bisschen zu Spät kommt.
 
eine 9800 gtx mit diesen specs macht keinen sinn.
von der 9800 gx2 sind bis auf den takt die specs relativ bekannt und sogar schon bilder online. dann passt es einfach nicht, dass die gtx schneller als die gx2 werden soll.
 
Hallo

Meiner Meinung nach könnte das Grafikkarten-Portfolio von Nvidia im Sommer 2008 so aussehen:

- 9800 GX2
- 9800 GTX
- 9800 GTS
- 8800 GTS 512 Exo
- 8800 GTS 512
- 8800 GT
- 8800 GS


Im Herbst oder Winter 2008 wird dann die 9800 GT die 8800 GT und die 8800 GTS 512/8800 GTS 512 Exo ersetzen.



Aber am besten ist es wenn man den Launch abwartet... ;)


Gruss

Matthias
 
Der Preis der 9800 GX2 verrät es ja schon, es ist keine wirkliche Enthusiast -Karte, sonst würde sie >500€ kosten, wie alle GTX/Ultra Versionen am Anfang!

30% mehr Leistung halte ich für viel zu wenig, da man meistens bisher immer 100% Leistungs+ bei der nächsten Generation bekommen hat(GF FX --> GF 6 100% mehr, GF 7 --> GF 8 100% mehr, naja jetzt ist logischweise wieder eine Flopgeneration dran wie bei der Umstellung von GF 6 auf die ersten GF 7:freak:). Ansonsten einfach abwarten, die Karte wird zwar von Coolermaster gekühlt, aber 2x g92 GTS Kern mit 128 Stream Prozessoren so eng zusammen, ergibt bestimmt wieder 95Grad :freak:

http://en.wikipedia.org/wiki/Comparison_of_NVIDIA_Graphics_Processing_Units#GeForce_9_series

Wiki hat auch ein paar neue Infos auf Lager: Find es super das sie immer noch GDDR 3 verwenden, GDDR 4 hätte das Ding nur unnötig teuerer gemacht, mehr Strom fressen lassen und sogut wie gar keinen Leistungsgewinn gebracht, wie man ja schon bei der ATI 2900XT GDDR 4 bewiesen hat. Im Zusammenspiel mit der besseren Fertigung im 55nm Prozess, wirklich nutzbarem 1GB VRam und der besseren Kühlbarkeit, sag ich mal das die GTX schneller ist als der Doppelwopper GX2:D
 
@Sgt.Speirs: aber 8800 gt, die schneller als eine gts ist und ein re-release der gts machen sinn oder wie?

@Kasmopaya: klar, die gf7 war ja auch so langsam als sie rauskam :rolleyes:
weiß ja nich in welcher realitätsverzerrten zone du lebst, aber eine verdopplung der geschwindigkeit gab es mit der gf8 nicht, siehe. im vergleich dazu sieht die gf7 garnicht schlecht aus. vor allem wenn man in betracht zieht, dass sie sogar weniger strom als die 6800 ultra verbraucht, die 8800 gtx aber mehr als die 7950 gx2.
und dir ist schon aufgefallen, dass das ein REFRESH ist und keine neue generation, oder? zwischen gf7 und gf8 warn etwa 18 monate pause, der mittlerweile übliche entwicklungsrahmen eben.
sprich, ich halte es für sehr unwahrscheinlich, dass nvidia jetzt was grundlegend neues bringt. selbst bis märz/april fehlen da einfach ein paar monate, die bei der komplexität der heutigen grakas einfach nötig sind.

gddr4 verbraucht im übrigen weniger als gddr3 und erlaubt höhere taktraten. der geringfügig höhere preis der gddr4-chips dürfte doch grade gtx-käufer wenig bis garnicht kratzen.

€: ahja, wackypedia. das große lexikon der fakten voll mit gerüchten, heissa!
 
Zuletzt bearbeitet:
https://www.computerbase.de/2005-06/test-nvidia-geforce-7800-gtx-sli/9/#abschnitt_far_cry
Far Cry 1600x1200 | 4xAA/8xAF: 36% von GF 6 Ultra auf GF 7 GTX, vielleicht max 50% Steigerung mehr nicht! (es war hald nur ein refresh)

https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/20/#abschnitt_oblivion
Oblivion - 1600x1200 oder irgend eine andere Auflösung die nicht mit der CPU bremst. Sorry hab mich geirrt meistens 200% Steigerung mit der GF8!:freak:

Performancerating ist sinnfrei, weil hier die FPS mit eingerechnet werden die gar nicht mehr spielbar sind!! <20fps und auch games mit drin sind die, die GF8 mit der CPU blockieren, dadurch scheint es so als ob die GX2 noch mithalten kann, in Wahrheit, wenn wirklich GPU Power gefragt ist, ist sie aber 100-200% langsamer, das merkt man deutlich in games wie Battlefield, Bioshock und Crysis...

Bei nur 30% mehr Performance ist es wirklich nur ein refresh der GF8, anscheinend gibt es neue Leistungssprünge nur alle 2 Jahre...

GDDR 4 ist theoretisch sparsamer, und schneller aber in der Praxis bringt VRam speed so gut wie keinen fps Gewinn, also will ich dafür nicht extra bezahlen, auch als GTX Käufer nicht. Wenn doch sollen sie wie bei der 2900XT eine extra GDDR 4 Version bringen, dann kann jeder kaufen was er will...
 
Zuletzt bearbeitet:
riDDi schrieb:
eine 9800 gtx mit diesen specs macht keinen sinn.
von der 9800 gx2 sind bis auf den takt die specs relativ bekannt und sogar schon bilder online. dann passt es einfach nicht, dass die gtx schneller als die gx2 werden soll.

Wieso denn nicht?
Wenn man die GX2 jetzt einfach noch in die 8800er Serie "pflanzt" macht das durchaus sein.
Wenn die GX2 wirklich nur 30% schneller sein sollte als eine 8800Ultra, hätte eine 9800GTX dazwischen ja praktisch gar keine Platz mehr resp. wäre überhaupt nicht gerechtfertigt.

mFg tAk
 
Zurück
Oben