Hm, also die 2.5 GHz glaube ich erst wenn ich es sehe. Ansonsten scheint es als wuerden die "ausversehenen Leaks" starten die sich so einige erhofft haben. Schlecht sieht es immerhin nicht aus.
Novasun schrieb:
NV müsste Stand heute der größere Kunde eigentlich sein [wobei rein GPU gerechnet]...
Ausser, dass AMD GPUs, CPUs, und Custom Chips fuer PS5 und Xbox bei TSMC fertigt. Die duerften Nvidia da mittlerweile ueberholt haben von der Abnahmemenge. Und es scheint wahrscheinlich, dass Nvidia gepokert hat, aber im Endeffekt TSMC sich nicht darauf eingelassen hat.
B.L. Swagger schrieb:
Bei einer 80CU GPU hätte ich 12GB @384bit und einer Bandbreite wie bei der 3080 erwartet mit 16Gbps um etwas Geld zu sparen.
Das kann man nicht einfach so sagen sondern kommt extrem auf die Architektur an. Wenn AMD wirklich einen relativ grossen Extra-Cache nutzt, dann kann das das Interface fast komplett kompensieren. Man sollte Caches nicht unterschaetzen wenn die gut umgesetzt sind. (Programmier dir einfach mal deinen eigenen Prozessor fuer ein FPGA und packe dann einen Cache drauf und du wirst sehen was ich meine.) Ich sehe das Speicherinterface zwar selber auch noch als problematisch, aber es kann funktionieren. Kommt halt drauf an wie man mit Misses umgeht und wieviel die kosten. Der Cache koennte prinzipiell auch bei einer DLSS Alternative oder RT helfen. Das ist technisch bei einer GPU endlich mal was neues.
vander schrieb:
Bei DLSS ist zum einen fraglich ob sie das überhaupt stemmen und selbst wenn, wird es dann kompatibel oder sind noch mehr Anpassungen (für bereits DLSS lompatible Spiele) nötig? Damit wäre es IMO eine Totgeburt, dann sollen sie lieber die herkömmlichen Treiberfunktionen optimieren.
Dazu hat sich doch Microsoft selbst schon geaeussert und sie haben was von KI unterstuetztem Scaling geredet. Und nein, egal was AMD macht, es wird nicht fuer DLSS kompatibel, da das eben proprietaer ist.
t3chn0 schrieb:
"Hallo Herr Nvidia, wie oft möchten Sie sich dieses Jahr selbst ins Bein schießen?"
...."Ja"....
AMD hat das Marketing einfach an Nvidia ausgelagert.
Aber ja, bei dem was Nvidia da macht kann man nur mit dem Kopf schuetteln.
B.L. Swagger schrieb:
RDNA2 hat zwar ML, aber muss wie auch RT wenn es genutzt wird gut bei der Rasterisierungs Leistung Einbüßen, da sie keine extra HW wie NV nutzen.
NV ist da einfach weit vorraus noch.
Dir ist schon bewusst, dass Nvidia auch Leistung verliert bei RT? Sogar gewaltig? Die extra Hardware hilft da nur bedingt und kostet erstmal zusaetzlich Chipflaeche. Die normalen Einheiten werden auch bei Nvidia gebraucht. Welche Loesung besser laeuft wird man erst noch sehen. Falls es AMD aber schaffen wuerde die Einheiten dynamisch genug aufzubauen, so, dass sie fuer beides genutzt werden koennen, dann waere das um einiges weiter als Nvidia ist.