AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Crystal schrieb:
Wie kann NVIDA sowas eig. durchziehen? Alte Grakkas X-Mal umbennen und als neue Generation verkaufen (wortwörtlich). Allein aus den Firmenprinzipien sollte man das schleimgrüne Lager meiden.. ist ja grausam
EDIT: Leute berichtigt mich wenn ich Falsch liege sind diese G/GT/GTS3XX Serie nicht noch immer die alten GF8er? Evnlt. Dieshrink und minimale veränderung (die höchsten NV spürt/Einspart)?.
Nein, überhaupt nicht. Die GT200 Chips waren ein Refresh des G80, jedoch mit stark gestiegener Anzahl an Funktionseinheiten (Shader 240 statt 128, TMUs 80 statt 64, ROPs 32 statt 28), höherem Takt und mehr Speicherbandbreite (512 bit anstatt 384 bit).
Der GF100 ist dagegen eine wirkliche Neuentwicklung, habe auch was von MIMD Einheiten statt SIMD gelesen und natürlich wieder viel höherer Leistung. Nach aktuellen Gerüchten hat der Chip 512 Shader (weit entfernt von den 128 des G80), wobei dies bei Benutzung von SIMD Einheiten auf 480 schrumpfen würde. Bei dieser Shaderanzahl hätte eine GTX380 160 Textureinheiten bei unbekanntem Takt. ROPs sind davon unabhängig.
Wenn jedoch wirklich MIMD Einheiten mit 512 Shader verbaut werden, werden wir die restlichen Spezifikationen erst auf der CES erfahren.
Bei SIMD mit den oben gennanten Daten und einem Takt von 650/1300 MHz hätte es die GTX 380 allerdings schwer, sich in Sachen P/L gegen eine 5870/5850 oder gar eine etwaige 5890 durchzusetzen, da neue nVidia Karten immer sehr teuer sind.
Die Rohdaten würden dann so aussehen:
GTX 380
GFLOPs: 1900
Texel/sek: 104 GTexel
Pixel/sek: 42 GPixel
5890 (@950 MHz)
GFLOPs: 3040
Texel/sek: 76 GTexel
Pixel/sek: 30 GPixel
Ist natürlich alles nur spekulativ, aber trotzdem wird die Shaderleistung, vor allem unter DX11, ein Flaschenhals sein, der nicht zu unterschätzen ist.