rockfake schrieb:
Traum wäre 250W TDP, 16GB und Leistung von 3080.
Leistung der 3080 ist durchaus sogar ein realistisches Ziel, ob es 250W TDP werden, wird man aber sehen müssen.
Viele lassen sich aktuell von der schieren Anzahl an CUDA-Cores von über 10.000 blenden und den 8000 für die RTX 3080, aber hier hat sich mein
anfänglicher Verdacht bestätigt.
-- Ab jetzt wird es etwas technisch, wer nicht mag, kann es überspringen--
Bei Turing gab es pro SM 64 FP32-ALU sowie 64 INT32-ALU. Ein Thread konnte bis zu 64 FP32 Werte berechnen, der andere Thread zur gleichen Zeit 64 INT32 Werte. In Ampere wird nun diese starre Aufteilung ein Stück weit gelöst und jede SM kann nun entweder 2 Threads mit je 64 FP32-Werten berechnen oder ein Thread FP32 und der andere Thread INT32.
Damit hat jede SM bei NVIDIA nun wieder wie bei Pascal 128 ALUs, statt aber in einem Block von 128, in zwei Blöcken mit je 64. Brauchen dabei aber auch aller Wahrscheinlichkeit 2 Threads. Es ist ein durchaus kluger Schachzug von NVIDIA, weil die 64 INT32-ALUs teilweise wirklich eher bescheiden ausgelastet wurden.
Gleichzeitig zeigt sich jedoch auch bereits beim Vergleich zwischen RTX 2080 TI und der RTX 3070, dass NVIDIA zumindest Anfangs ein massives Problem hat diese geballte FP32 wirklich auf die Straße zu bringen. Denn wenn die RTX 3070 auf dem Level der 2080 Ti liegt, muss man bedenken, dass sie "ganze" 35 % mehr Shader hat. Die
Beachtet man, dass eine CU (RDNA) mit 64 ALU gegen eine SM (Turing) bei der IPC ca. gleich auf ist und AMD bereits angibt, dass sie mit RDNA2 auch noch mal an den CUs arbeitet und da einiges heraus geholt haben will - wilde Gerüchte - könnte es seit langem dazu kommen, dass NVIDIA zwar massiv mehr TFLOPs auf die Straße bringt, aber die TFLOPs nicht ganz so gut auf die Straße bringen kann wie AMD.
Es könnte da einige Szenarien bei Spielen geben, in denen AMD mit ihren WGP »effizienter« arbeiten kann als AMD mit ihren SM.
Aber da wird man abwarten müssen. Nur den Untergang, den einige bereits jetzt herbei reden, sehe ich da nicht wirklich.
Zudem darf man nicht vergessen, dass einige Features, die NVIDIA jetzt mit großem Tamtam angekündigt hat, eigentlich Features aus DXR als auch DX12.2 sind, darunter eben RTX IO. Wenn die Grundlagen von RTX IO in DX12.2 liegt, dann wird RDNA2 das auch unterstützen.
Und man darf auch nicht vergessen: Bei den ganzen Leistungsversprechen ist die primäre Frage, wie viel davon ggf. auf DLSS zurück zu führen ist. Auch wenn ich selbst ein Freund von DLSS bin und das für mich durchaus ein "Killerfeature" ist, die Frage ist wie viel von den versprochenen 100% mehr Leistung wirklich am Ende an kommen. Hier heißt es abwarten und Tee trinken.
rockfake schrieb:
.. Ich werde mich freuen wenn die richtig in die grüne Suppe rein spucken.
Nein, das wird nicht passieren. AMD wird nach der GeForce RTX 30x0 auf den Markt kommen, das ist aber nicht schlimm. Es wird hier oft davon schwadroniert, dass man ja AMD die Chance gegeben hätte, wenn sie "früher" oder "zeitlich" gekommen wären usw.
Die Early-Adopter, die nun NVIDIA kaufen, würde AMD aber selbst bei einem zeitgleichen Release nicht abholen, die kaufen NVIDIA weil sie es wollen. Wer AMD wirklich in Betracht ziehen würde, der würde nun die Geduld aufbringen und diesen 1 - 2 Monate sogar warten, denn 4 - 8 Wochen sind nun wirklich keine Zeit.
Zu mal man in 2 - 3 Monaten die NVIDIA-Karten mit hoher Wahrscheinlichkeit besser als auch ein wenig günstiger erhalten können wird.
Damien White schrieb:
Das ist wie AMD versucht den Geforce 30xx Hype den Wind aus den Segeln zu nehmen?
Gehypt sind aktuell nur die, die von der Materie null Ahnung haben und sich von nackten Zahlen blenden lassen, ohne dass sie die architektonischen Besonderheiten von Turing bisher kannten und wie die SM bei NVIDIA jetzut strukturiert sind.
Klar, die 10496 Shader auf der RTX 3090 lesen sich im ersten Moment toll, die Frage ist nur, wie gut NVIDIA diese Menge an Shadern effektiv auslasten will, vor allem da diese recht Star angesprochen werden in 2 64er Blöcken und vor allem: Kein INT + FP zur gleichen Zeit, zumindest nicht, wenn man über 2 Threads mehr als 64 FP32-Werte drauf klatscht.
Nicht wie hier anfangs angedeutet, dass ja eine Shader nun »2« FP Berechnungen durch führt. … Nö, ganz schönde: Die zustäzlichen 64 INT-ALUs können nun auch für FP Berechnungen genutzt werden.
NVIDIA kocht halt auch nur mit Wasser.
iGameKudan schrieb:
Mich interessiert gerade brennend, wie viel Mehrperformance RDNA2 gegenüber RDNA1 bietet und wie sich RDNA2 gegen Turing und Ampere schlagen wird.
CU (RDNA) ist von der IPC auf dem gleichen Level wie eine SM (Turing). RDNA2 wird die CU weiter verbessern, das hat AMD als auch Microsoft bereits durchblicken lassen, RDNA2 wird also Turing auf jeden Fall schaffen.
Ansonsten:
iGameKudan schrieb:
Das werden zwar einige die diesen Beitrag lesen schon öfters gehört haben - aber wenn ne 499€-3070 die 2080Ti an die Wand nudelt und ne 3080 alles platt macht was gerade auf dem Markt ist sehe ich für RDNA2 ziemlich schwarz.
Die 3070 soll aktuell genau so schnell/etwas schneller sein als die 2080 Ti, für RDNA2 in nicht wirklich bekannter Konfiguration werden bereits 35% - 50% Vorsprung zur 2080 Ti gehandelt.
Die 3070 ist für AMD auf jeden Fall erreichbar und eine 3080 als "Ziel" ist durchaus nicht unrealistisch. Anders sieht es mit der 3090 aus. Aber man wird hier abwarten müssen. Aber wie mehrfach in diesem Beitrag schon geschrieben: Man sollte sich hier nicht von der nackten Shader-Zahl blenden lassen. Selbst Turing hat eigentlich doppelt so viele Shader wie bisher angeben.
Ich warte da selbst lieber ab, als jetzt schon ein Abgesang auf RDNA2 zu singen, wie es einige nun tun.
iGameKudan schrieb:
Nicht, dass AMD wieder im Dilemma steckt, dass jegliche Mühen um RDNA2 umsonst waren und wieder nur über den Preis und nur bis ans obere Ende der Mittelklasse konkurriert werden kann.
RDNA2 ist für AMD ganz sicher nicht umsonst. AMD kann seit RDNA die CUs sehr gut auslasten und trotz nominell zwar gleich viel ALUs wie eine Turing SM, hat letztere eigentlich 128 ALUs in 2 64er-Blöcke.
Es wird sich jetzt zeigen müssen, wie effektiv NVIDIA ihre nun 128 ALUs pro SM auslasten können und ebenso wird sich zeigen müssen, in welchen Workloads AMDs Aufbau der ALUs Vorteile hat. Synthetisch kann ich das bereits herleiten.
fraqman schrieb:
Ja, wir wissen es.. du magst AMD nicht, aber hör bitte mit deinem gebashe auf!
Ach, lass solche Leute, es sind immer die gleichen, die anderen vorwerfen Fanboys zu sein, selbst aber den gröbsten Fanboy-Müll ablassen.