ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Huch das ging aber schnell - im Preisvergleich gibts die 5870 sogar für 300,- € die von Sapphire.:eek:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

so endlich gibts mal wieder neue daten zu nvidias 300er reihe. leider aber nur zur mobilen :D
hierbei handelt es sich allerdings nicht um fermi-ableger, sondern um verwandte der gt240

xlba79.jpg


Quelle: http://www.notebookcheck.com/
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Tja Lübke die sind hier aber Off-Topic:
Kein DX11 siehe Thread Überschrift. Nur eine 300 im Namen reicht nicht :D

Der umlabel Thread ist aber auch irgendwo zu finden.. ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

na irgendwas neues zum g300 muss ja mal kommen :D

ati mobil 5 ist auch grad in arbeit :)
die sind dann wirklich wieder dx11 ^^

edit: naja, die daten zu den karten sind ja noch sehr dürftig...

2gwuc0o.jpg


Quelle: http://www.notebookcheck.com


es gibt endlich auch wieder was neues vom fermi zu vermelden. nvidia wird auf der ces etwas vom gf100 vorführen :):
NVIDIA Happy New Year to all GeForce Fans!!! Oh, and there will be a sneak peek of GF100 at our booth at CES in Las Vegas next week. Stop by and say hi!

Quelle: http://www.facebook.com/NVIDIA?v=feed&story_fbid=208604209109#/NVIDIA?v=wall
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Lübke
Lt. Golem und Nvidiahomepage unterstützen die "neuen" mobilen Chips von Nvidia kein DX10.1 mehr, sondern nur DX10.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die "neuen" Nvidia Chips sind natürlich auch 10.1.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nvidia behauptet dies zwar nicht, aber wissen die schon. :D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wie kann NVIDA sowas eig. durchziehen? Alte Grakkas X-Mal umbennen und als neue Generation verkaufen (wortwörtlich). Allein aus den Firmenprinzipien sollte man das schleimgrüne Lager meiden.. ist ja grausam :freak:

EDIT: Leute berichtigt mich wenn ich Falsch liege sind diese G/GT/GTS3XX Serie nicht noch immer die alten GF8er? Evnlt. Dieshrink und minimale veränderung (die höchsten NV spürt/Einspart)?.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Doch, unter "Features" steht das richtig. Nur unter den "Spezifikationen" haben sie sich da diesen dämlichen Fehler geleistet.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nein Fermi wird ein komplett neuer Chip bzw neue Architektur, wie der G80
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Crystal schrieb:
Wie kann NVIDA sowas eig. durchziehen? Alte Grakkas X-Mal umbennen und als neue Generation verkaufen (wortwörtlich). Allein aus den Firmenprinzipien sollte man das schleimgrüne Lager meiden.. ist ja grausam :freak:

EDIT: Leute berichtigt mich wenn ich Falsch liege sind diese G/GT/GTS3XX Serie nicht noch immer die alten GF8er? Evnlt. Dieshrink und minimale veränderung (die höchsten NV spürt/Einspart)?.

Nein, überhaupt nicht. Die GT200 Chips waren ein Refresh des G80, jedoch mit stark gestiegener Anzahl an Funktionseinheiten (Shader 240 statt 128, TMUs 80 statt 64, ROPs 32 statt 28), höherem Takt und mehr Speicherbandbreite (512 bit anstatt 384 bit).

Der GF100 ist dagegen eine wirkliche Neuentwicklung, habe auch was von MIMD Einheiten statt SIMD gelesen und natürlich wieder viel höherer Leistung. Nach aktuellen Gerüchten hat der Chip 512 Shader (weit entfernt von den 128 des G80), wobei dies bei Benutzung von SIMD Einheiten auf 480 schrumpfen würde. Bei dieser Shaderanzahl hätte eine GTX380 160 Textureinheiten bei unbekanntem Takt. ROPs sind davon unabhängig.

Wenn jedoch wirklich MIMD Einheiten mit 512 Shader verbaut werden, werden wir die restlichen Spezifikationen erst auf der CES erfahren.

Bei SIMD mit den oben gennanten Daten und einem Takt von 650/1300 MHz hätte es die GTX 380 allerdings schwer, sich in Sachen P/L gegen eine 5870/5850 oder gar eine etwaige 5890 durchzusetzen, da neue nVidia Karten immer sehr teuer sind.

Die Rohdaten würden dann so aussehen:

GTX 380

GFLOPs: 1900
Texel/sek: 104 GTexel
Pixel/sek: 42 GPixel


5890 (@950 MHz)

GFLOPs: 3040
Texel/sek: 76 GTexel
Pixel/sek: 30 GPixel

Ist natürlich alles nur spekulativ, aber trotzdem wird die Shaderleistung, vor allem unter DX11, ein Flaschenhals sein, der nicht zu unterschätzen ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

G/GT/GTS3XX Serie Das sind aber keine Fermis was da derzeit auf den Markt kommt - darauf hat Crystal sich bezogen. Diese mobilen Chips sind tatsächlich alles neue Aufgüsse, mit 3xx im Namen, von alten Modellen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Genau, danke Complication.

Hab auch nun die Meldung dazu gefunden. Also ist es nun sowas wie G80 umbenannt ->G92>G92b>200>300...

mit Strukturbreiten Veränderungen und evnlt. Kleinigkeiten? Aber im Prinzip nur ein G80 blos günstiger zum Herstellen da 40nm? Scheint ja so zu sein.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

mal ne Frage: Gibt es Programme, die die 5D (?)-Shadder von ATI voll ausnutzen und somit auch an die theoretischen Leistung herankommen?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wozu denn? Wäre jeder der Shader vollständig ausgelastet, hätte ATI ein Problem;) (Stichwort Throttling/Temperatur) Furmark z.B lastet ziemlich heftig aus. Shaderprogramme zu schreiben, die wirklich einen ganzen Streamprozessor (5D) auslasten können, ist sehr sehr schwierig und oft (in der Praxis, nicht zu Benchmarkzwecken) gar nicht möglich. Da hat es NVidia mit den 1D-SPs einfacher.

Kurz und Knapp: Als je 5 unabhängige 1D-Skalareinheiten kannst du ATIs SPs praktisch vergessen. Lass dich also nicht von solchen Zahlen wie 1600 Streamprocessors veräppeln, davon bleiben nicht viel übrig... Dazu eventuell etwas leichte Lektüre: http://www.hardware-infos.com/tests.php?test=43&seite=3 oder ausführlicher hier bei CB:https://www.computerbase.de/2009-09/test-ati-radeon-hd-5870/3/#abschnitt_technik_im_detail_part_1
Zwar kann jeder Shaderkern die 5D-Einheiten in 1D+1D+1D+1D+1D aufteilen, womit es sich prinzipiell um Vektoreinheiten handelt, die wie Scalar-Units agieren, dafür müssen die Berechnungen aber komplett unabhängig voneinander sein. Sind diese dagegen abhängig, können längst nicht immer alle ALUs ausgelastet werden und ein Leerlauf entsteht.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Naja, das davon sooo wenig übrig bleibt stimmt auch wieder nicht. Es ist ja sogar ein extra Prozessor verbaut, der die Aufgaben verteilt und schaut dass es keine Leerläufe gibt. Sicher sind nicht 1600 Streamprozessoren immer ausgelastet, aber auf die 320 wirds wohl ebenso selten zurückfallen.

Wird je nach Anwendung und Treiberoptimierung unterschiedlich ausfallen, irgendwo in der Mitte, mit Ausschlägen nach oben oder unten.

Die Shaderleistung der ATIs ist jedoch schon höher, wie gesagt bleibt schon ein Großteil dieser theoretischen Leistung übrig und die ATIs würden viel schlechter in Benchs abschneiden wenn sie die fehlende Fillrate nicht irgendwie ausgleichen könnten.

Und ich glaube kaum, dass Skalareinheiten teurer als Vektoreinheiten sind. Denn sie sind ja viel schlechter in der Leistung, denn auch theoretisch sinds nur 1D Shader und nVidia würde nicht immer viel mehr 1D Shader verbauen wenn sie teurer wären. Wären sie ja dumm, könnten sie ja gleich 5D Shader nehmen und sie als 1D benutzen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
Naja, das davon sooo wenig übrig bleibt stimmt auch wieder nicht. Es ist ja sogar ein extra Prozessor verbaut, der die Aufgaben verteilt und schaut dass es keine Leerläufe gibt. Sicher sind nicht 1600 Streamprozessoren immer ausgelastet, aber auf die 320 wirds wohl ebenso selten zurückfallen.

Wird je nach Anwendung und Treiberoptimierung unterschiedlich ausfallen, irgendwo in der Mitte, mit Ausschlägen nach oben oder unten.
Denke ich auch. Zwischen 2-3, selten 4 werden sicher ausgelastet sein (natürlich pro 5D-Vektoreinheit, nicht pro Chip:D)
Und ich glaube kaum, dass Skalareinheiten teurer als Vektoreinheiten sind. Denn sie sind ja viel schlechter in der Leistung, denn auch theoretisch sinds nur 1D Shader und nVidia würde nicht immer viel mehr 1D Shader verbauen wenn sie teurer wären. Wären sie ja dumm, könnten sie ja gleich 5D Shader nehmen und sie als 1D benutzen.
Habs mal aus dem Post rausgenommen. Jedoch erinnere ich mich, einmal gelesen zu haben, dass NVidias Skalareinheiten teurer sind als die Vektoreinheiten von ATI. Kann mich aber auch irren.

Afair sind die ALUs im RV870 auf ein MADD beschränkt, ein GT200 kann noch ein zusätzliches MUL berechnen, Das zusätzliche MUL kann entsprechend der SFU in der ATI-Vektoreinheit arbeiten (oder auch für andere Funktionen genutzt werden). Gleichstellen kann man die Skalareinheiten also nicht!
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
Nein, überhaupt nicht. Die GT200 Chips waren ein Refresh des G80, jedoch mit stark gestiegener Anzahl an Funktionseinheiten (Shader 240 statt 128, TMUs 80 statt 64, ROPs 32 statt 28), höherem Takt und mehr Speicherbandbreite (512 bit anstatt 384 bit).

Sorry schon mal fürs Klugscheißen..... Der G80 hatte nur 24 ROPs.

Und meinst du wirklich, dass selbst bei 512 bzw. 480 Shadereinheiten die Shaderleistung der Flaschenhals der GTX 380 sein wird?!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben