sifusanders schrieb:
wie oft noch. Das sind nicht die gleichen Grafik-Settings. Nix 9 % langsamer.
… dir würde ich an der Stelle mal empfehlen meinen Beitrag, als ganzes zu lesen, statt dich wegen einem schnellen Überschlag hier zu echauffieren, der dein Beitrag einfach nur maximal peinlich wirken lässt.
Ich betrachte die Zahlen als das, was sie sind: Indikatoren. Bis RDNA2 auf dem Markt erscheint kann noch einiges passieren, was Treiber angeht usw.
Baal Netbeck schrieb:
Ich hatte bei den bisherigen Spekulationen befürchtet, dass Big Navi eher nur die 3070 als Gegner haben wird und an der 3080 scheitert.
Die 3070 ist alleine durch die Anzahl der »Alu« für BigNavi eigentlich kein Problem. Es stehen 48xx gegen 5120. Ansonsten sind sogar die »Eckdaten« von der Softwareseite nun für beide Architekturen ähnlich.
Aber ansonsten stimme ich dir aber zu, BigNavi wird sich vermutlich zwischen beiden Grafikkarten wieder finden, mal mit der Tendenz zu der einen, mal zur anderen.
Spricht in dem Fall dann aber das erste mal für »AMD«. Sie kommen mit nominell 42 % weniger Shadern dann »ran«.
Und bitte jetzt nicht damit kommen, dass ja bei »NVIDIA« 64 wegfallen, wenn INT kommt, bei AMD fallen dann von den beiden Vec32 auch eine weg pro CU theoretisch.
Benji18 schrieb:
könnte aber auch nur der kleine Navi21 gewesen sein somit die 6700 od. 6800 und man zeigt erst am 28igsten den 6900 der zwischen 3080 und 3090 liegt.
Klar könnte es auch nur eine kleine Navi21 gewesen sein. Wir wissen es nicht wirklich. Das ist an der Stelle aber egal. Genau so, ob man jetzt mit dem »CB«-Vergleich auf 9 % und 2,3 % kommt. Es sind erst mal nur Tendenzen und Mutmaßungen.
Also klar, es könnte sein, dass eine 6900XT zwischen 3080 und 3090 liegt, ich halte es aber persönlich für unwahrscheinlich. Ich weiß, dass AMD durchaus starke Titel hat und da halte ich die 3080 für ein realistisches Ziel, die 3090 wiederum weniger, weil hier selbst nach »Turing«-Rechung ein paar mehr Shader auf dem Schirm.
Wenn ich jetzt träumen würde und gleichzeitig realistisch bleibe, also die Streuung Leistung bei Spielen aus den letzten 10 Jahren beachte bei AMD, dann das 5120 Shader bei optimaler Auslastung dastehen, dann könnte man durchaus zwischen einer 3080 und einer 3090 liegen, aber genau so wird man sich kaum von einer 3070 absetzten können, das hängt dann stark vom Spiel ab.
Benji18 schrieb:
Was auch durchaus wahrscheinlich ist weil man ja absichtlich nur leaks zu dem kleinen Navis zugelassen hat, kann mir nicht vorstellen das man jetzt schon das Pulver verschossen hat.
Ich sag es mal so: Ich stapel aktuell lieber tief und nehme den optimistichen »Worst-Case« an, sprich zwischen 3070 und 3080 mit Tendenz zur 3080, als jetzt zu hoffen, dass man die 3080 schlägt und zur 3090 aufschließt.
ActionNews schrieb:
Wird interessant zu sehen ob Big Navi ein ähnliches Skalierungsverhalten hat oder vielleicht sogar besser ist in der Hinsicht.
Ja und Nein zur gleichen Zeit. AMD hat es durch die kleineren CUs mit 2 * Vec32 etwas einfacher die ALUs optimaler auszulasten und durch die WGP als Überordnung blockiert ein INT-Workload nicht gleich die hälfte der ALUs, man hat es also in 1080p und 1440p einfacher die Leistung auf die Straße zu bringen.
Gleichzeitig darf man aber nicht vergessen, dass man für die 80CU (40WGP) auch eine entsprechende Anzahl an Threads braucht und ebenso auch eine entsprechende Anzahl an Daten. Es könnte hier also durchaus auch passieren, dass man zwar besser skaliert, aber sich auch nicht so deutlich absetzten kann.
Vendetta schrieb:
Und das Totschlagargument, schau dir Control ohne DLSS mit RT an, da kommt die 3080 nichtmal auf solide 30FPS. Erst mit DLSS kann man Richtung 60FPS Lock kommen(plus ein wenig Optimierung)
DLSS ist durchaus ein Argument auf der Seite von NVIDIA, nur müssen wir hier auch abwarten, was AMD als ganzes in der nächsten Zeit vorstellt. MS hat ja bereits angedeutet, dass die neuen RDNA2 CUs durchaus auch verbesserte Funktionen für AI-Funktionen mit bringen.
Man darf in diesem Fall die »Tensor Cores« von NVIDIA dann auch nicht überbewerten, DLSS1.0 lief - wenn die Aussagen von einigen Mitgliedern hier stimmen - anfangs auch auf den Shader-ALUs statt auf den Tensor Cores. Es könnte durchaus so sein, dass ein »MLSS« (Machine Learning Super Sampling, weil DLSS ist ja belegt) auch schnell genug über die Shaders laufen kann.
Klar, NVIDIA hat dann den Vorteil, dass man DLSS »asynchron« auf den Tensore-Kernen berechnen kann, aber auch nur zum Teil, weil hier wieder: Wenn Daten fehlen, kann man nicht weiter rechnen.
Hier wird man nun abwarten müssen. Wenn ich aber ehrlich bin: DLSS als auch ein aktuell fiktives MLSS werden erst wirklich interessant werden, wenn sie nicht nur in ein paar »ausgewählten« Spielen implementiert werden, sondern als Standard in die Engines einziehen und noch besser: Als »Render«-Methode auf Treiberseite ohne Mitwirken der Entwickler implementiert werden.