News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

just_fre@kin schrieb:
Sofern das nicht als Ironie gedacht war: in welchem Szenario bringst du eine RTX 2080 Ti denn so ans Limit, dass du eine schnellere Grafikkarte benötigst?

Ich habe gestern GRB auf "nur" Hoch in UWQHD gespielt. An manchen Stellen dropped die Ti auf 80 FPS mit einem 120Hz Monitor. Oder nimm einfach Raytracing Szenarien. Da wird man wohl ne genügend Leistung haben können. Metro könnte dringend mehr FPS vertragen mit RT auf Hoch. Das läuft wie ein Sack Nüsse. DLSS (1.0) kann man in dem Game ja noch nicht verwenden. Sieht zu unscharf aus.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Mcr-King
modena.ch schrieb:
Die Shaderbeschränkung mit den 4096 Shadern von GCN gibt es nicht mehr und auch die Auslastungsprobleme
sind bei RDNA kein Thema mehr. Das ist jetzt wirklich ne Gamer GPU.
Es wird besser geworden sein. Dass es kein Thema mehr ist würde ich nicht behaupten.
Die 5700XT hat 11% mehr CUs als die 5700 und dazu noch im mittel 12% mehr Takt. Im Test ist sie insgesamt jedoch nur 12% schneller.
Die 40CUs scheinen also bereits nicht ganz so gut ausgelastet werden zu können wie die 36 CUs.

Um eine 2080Ti zu schlagen würden 80CUs aber trotzdem locker ausreichen, zumal die IPC ja auch weiter steigt^^
 
  • Gefällt mir
Reaktionen: Smartbomb, Onkel Föhn, Manfred_89 und 2 andere
ZeroStrat schrieb:
Ich habe gestern GRB auf "nur" Hoch in UWQHD gespielt. An manchen stellen dropped die Ti auf 80 FPS mit einem 120Hz Monitor. Oder nimm einfach Raytracing Szenarien. Da wird man wohl ne genügend Leistung haben können. Metro könnte dringend mehr FPS vertragen mit RT auf Hoch. Das läuft wie ein Sack Nüsse. DLSS (1.0) kann man in dem Game ja noch nicht verwenden. Sieht zu unscharf aus.

solche Szenarien und competitive Spieler mit 240HZ Monitoren. Ist selbst mit einer 2080ti nicht einfach auf einem WQHD 240HZ Monitor dauerhaft 240 FPS zu bekommen.
 
ZeroStrat schrieb:
Ich habe gestern GRB auf "nur" Hoch in UWQHD gespielt. An manchen Stellen dropped die Ti auf 80 FPS mit einem 120Hz Monitor. Oder nimm einfach Raytracing Szenarien. Da wird man wohl ne genügend Leistung haben können. Metro könnte dringend mehr FPS vertragen mit RT auf Hoch. Das läuft wie ein Sack Nüsse. DLSS (1.0) kann man in dem Game ja noch nicht verwenden. Sieht zu unscharf aus.

"First World Problem", mehr fällt mir da nicht mehr ein. Wenn ich sowas lese, frag ich mich ernsthaft, was ihr früher gemacht hättet, als bei Spielen noch Gameplay und Story im Vordergrund stand und nicht die Optik ...
 
  • Gefällt mir
Reaktionen: Smartbomb, Kodak und ThePlayer
Spielen gerade competitive Spieler eher nicht auf Ultra und haben ihr Problem mit den 240fps daher eher bei den CPUs?
 
  • Gefällt mir
Reaktionen: Rage und fox40phil
modena.ch schrieb:
Habe überhaupt keine Zweifel, dass der Grosse RDNA2 Chip ne 2080TI komplett plättet.
Wie gesagt, freut mich ungemein wenn es so kommen sollte, aber dann hat man noch immer "nur" aufgeholt. die 3080 steht wohl auch in den Startlöchern und falls da erneut ein größerer Leistungssprung kommen sollte, wärs wieder nur ein kurzfristiges Luftholen.
 
Taxxor schrieb:
Die 5700XT hat 11% mehr CUs als die 5700 und dazu noch im mittel 12% mehr Takt. Im Test ist sie insgesamt jedoch nur 12% schneller.
Die 40CUs scheinen also bereits nicht ganz so gut ausgelastet werden zu können wie die 36 CUs.

Bremst hier die Bandbreite des VRAMs nicht deutlich? Sind doch beide ähnlich getaktet.
 
  • Gefällt mir
Reaktionen: Manfred_89
ZeroStrat schrieb:
Bremst hier die Bandbreite des VRAMs nicht deutlich? Sind doch beide ähnlich getaktet.
Sind beide gleich getaktet, also kann gut sein. Viel Spielraum hat man dabei ja leider auch nicht. Und das würde auch bedeuten, dass für höhere CU Zahlen HBM zur Pflicht werden dürfte.
 
  • Gefällt mir
Reaktionen: Manfred_89
just_fre@kin schrieb:
"First World Problem", mehr fällt mir da nicht mehr ein. Wenn ich sowas lese, frag ich mich ernsthaft, was ihr früher gemacht hättet, als bei Spielen noch Gameplay und Story im Vordergrund stand und nicht die Optik ...

Natürlich sind das "First World Problems". Und nun? Ich will RT in maximaler Pracht auf meinem Bildschirm sehen und das mit guten Frametimes. Story ist natürlich auch wichtig, aber technischer Fortschritt in der Computertechnik ebenso. Sorry, ich verstehe diese "Kritik" nicht.
 
  • Gefällt mir
Reaktionen: Rage, MrNejo, incurable und eine weitere Person
johnieboy schrieb:
Mit der IPC Steigerung von RDNA2 und 500mm² sollte AMD dann hoffentlich auch gegen Nvidias kommende 3000er Serie bestehen können und für nen gesunden Wettbewerb sorgen.
Machen wir uns nichts vor, für einen gesunden Wettbewerb benötigt man auch eine neutrale und damit kaufwillige Kundschaft und da habe ich starke Zweifel dran, erst recht seit nvidia in den meisten Umsatzstarken Spielen die Finger drin hat und einseitige Optimierung bei PC Spielen so langsam zur Tagesordnung gehört.

Sehen wir es mal nüchtern, schnellere Modelle für AMDs Kundschaft.
 
  • Gefällt mir
Reaktionen: eXe777
true hero schrieb:
AMD hat mit Ryzen gezeigt, dass sie einem Platzhirsch das Fürchten lehren können. Intel hat auch mit den neuen Prozessoren kaum was entgegenzusetzen, weder bei der Leistung geschweige denn beim Preis.

Schwieriger Vergleich. Alle intel CPUs basieren noch auf der fast 5 Jahre alten Skylake Architektur und Intel hat Probleme bei der Fertigung, so dass Sie noch mit 14nm antreten.

Ja AMD schlängt die 5 Jahre alte Architektur und die alte Fertigung aktuell in vielen teilen, in manchen Aspekten noch nicht ganz. Spannend wird das ganze, wenn intel auch mal wieder nachlegt und neue Technik bringt. Hier wird sich längerfristig zeigen, wie sehr AMD Intel das fürchten lehrt. Aktuell stehen sie aber sehr gut dar.

Das Intel die Preise nicht freiwillig senkt, obwohl sie es könnten dürfte logisch sein. Sie verkaufen sich dumm und dämlich und wer nimmt weniger Geld, wenn er mehr bekommen kann? Du würdest ja auch nicht freiwillig für das halbe Gehalt zur Arbeit gehen.

Nvidia hingegen arbeitet ohne Pause an neuen Architekturen und Features zudem können Sie wie AMD auch auf TSMCs 7nm Fertigung zurückgreifen und sind aktuell trotz fast 2 Jahre alter Architektur und 12 statt 7nm noch vor AMD.
ZeroStrat schrieb:
Ich bin gespannt, wie sich das Pendant zu DLSS schlägt. Soll ja angeblich auf den Shadern laufen, was sicherlich nicht so performant sein wird wie Code auf dedizierten Tensor Cores.

Bin ich auch gespannt, denn da liegt extrem viel potential, auch für die Konsolen. Das DLSS auf den Shadern nicht optimal läuft, haben ja die ersten DLSS Versionen von nvidia gezeigt. Da RDNA2 auch keine dedizierten Raytracing Einheiten hat, wird es noch enger, wenn eine Art DLSS und Raytracing gleichzeitig berechnet werden soll.

Die normale Shadingleistung könnte also durchaus sehr ordentlich ausfallen, der Einbruch bei RT und DLSS könnte aber noch deutlich stärker sein, als bei Nvidia.

modena.ch schrieb:
Wieso das?
Schon eine doppelte Navi 10 (Mittelklasse/Performance Klasse) hätte mit der 2080TI den Boden gewischt.
Und es gab früher bei AMD immer wieder einen Big Chip mit den doppelten Shadern der Mittelklasse.

Hätte dann aber auch 450 Watt verballert. Zumal ja die letzten AMD Big Chips eindrucksvoll gezeigt haben, dass sie mit ihren Shadern wenig anfangen können, da Sie diese nicht ausgelastet bekommen.
modena.ch schrieb:
auch die Auslastungsprobleme
sind bei RDNA kein Thema mehr. Das ist jetzt wirklich ne Gamer GPU.

Woher weißt du das so genau? Bei Vega und Fiji kam die miese Skalierung durch das zu kleine Frontend. Wie ein Big Navi dort aufgestellt ist, wissen wir bisher nicht.
 
  • Gefällt mir
Reaktionen: Smartbomb, Onkel Föhn und incurable
just_fre@kin schrieb:
"First World Problem", mehr fällt mir da nicht mehr ein.
Jeder, der sich eine 2080Ti kauft, wird diese First World Problems haben, ansonsten wäre er auch mit einer schwächern Karte zufrieden gewesen.
Genau dafür sind Enthusiasten Karten doch da.
 
  • Gefällt mir
Reaktionen: Rage, .Sentinel., incurable und eine weitere Person
Taxxor schrieb:
Die 5700XT hat 11% mehr CUs als die 5700 und dazu noch im mittel 12% mehr Takt. Im Test ist sie insgesamt jedoch nur 12% schneller.
Die 40CUs scheinen also bereits nicht ganz so gut ausgelastet werden zu können wie die 36 CUs.

Um eine 2080Ti zu schlagen würden 80CUs aber trotzdem locker ausreichen, zumal die IPC ja auch weiter steigt^^

Da ist wie Zero Strat auch schreibt natürlich das SI das Problem. Das ist ja bloss ein kleines 256 Bit SI.
Da sieht es mit 384-512 Bit Si schon ganz anders aus.
Also bei ner doppelten Navi 10 hätte ich mit 60-80% Mehrleistung zu Navi 10 gerechnet.
Das wäre in dem Fall schon einiges über TU102.
Von RDNA2 sprechen wir aber noch gar nicht.

Wie gesagt, dass die TU102 verliert ist für mich gar keine Frage.
 
  • Gefällt mir
Reaktionen: fox40phil
just_fre@kin schrieb:
"First World Problem", mehr fällt mir da nicht mehr ein.
Also sollten alle bei maximal FullHD bleiben, oder was? So ein Argument in nem Technikforum ist schon sehr komisch. Nur beim anstreben von Grafik die immer mehr der Realität gleicht wirds immer wieder nicht reichen. Wenn man dann noch immersiver spielen möchte mit größeren Bildschirmen und VR geht die Auflösung zusätzlich in die Höhe. Aber jaja früher war alles besser.
 
  • Gefällt mir
Reaktionen: incurable
modena.ch schrieb:
Also bei ner doppelten Navi 10 hätte ich mit 60-80% Mehrleistung zu Navi 10 gerechnet.
Wenn das SI diese 60-80% auch mitmacht. Ich habe noch vage das Video von buildzoid im Kopf wo er gerechnet hatte, wie viel man im Bestfall rausholen könnte und ich meine am Ende waren es um die 70% wenn man ein 384bit SI nutzt, ein 512er war für ihn unrealistisch, da viel zu hocher Verbrauch.

Damit läge man 10-15% über der 2080Ti, allerdings bleibt der IPC Sprung da noch draufzurechnen, bei GPUs entwickelt sich sowas idR schneller als bei CPUs also von 15% gehe ich da mal mindestens aus.
 
  • Gefällt mir
Reaktionen: fox40phil
just_fre@kin schrieb:
dazu noch mit schlechterer Effizienz als vergleichbare Konkurrenzprodukte.
Das kann ich wirklich nicht mehr lesen - 5600 XT, 5700 und 5700 XT sind bei der Effizienz absolut auf Augenhöhe mit 2060, 2060 S und 2070 S. Einzig die 5500 XT liegt wirklich deutlich hinter der 1650 S

Und bevor mir jetzt wieder jemand mit "Nvidia nutzt nichtmal 7nm" kommt - Richtig, spielt für mich aber keine Rolle, weil ich mir keine hypothetische 7nm Turing-Karte in den Rechner stecken kann.
 
  • Gefällt mir
Reaktionen: Smartbomb, derSafran, Kodak und 5 andere
Joa, passt soweit alles ins Bild.
Navi 23 mit 240mm² wird dann die gemunkelte Neuauflage der 5700ér.
Navi 22 die 6800ér
Navi 21 die 6900ér
Dann hat AMD in 2021 ein komplettes LineUp aufwärts der Mittelklasse mit RT an Board.

Die Information über nur 240mm² bei Navi23 finde ich am interessantesten.
Wenn das die Neuauflage der 5700ér ist könnte man sich davon zumindest herleiten, dass AMD für seinen Raytracing-Ansatz scheinbar keine zusätzliche Chipfläche benötigt. (Navi10 = 251mm²)
Dadurch stiege dann entsprechend die Wahrscheinlichkeit, dass Navi21 doch über 5120 Shader und nicht nur über die zuletzt vermuteten 4352 Shader, verfügt.
RDNA2.jpg
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Manfred_89 und Mcr-King
Eine Highend GPU wird bei AMD auch auf einen große Basis an Ryzen treffen.
Wer mit Ryzen 7 und 9 zufrieden ist, wird auch nicht abgeneigt sein, eine teure AMD Grafikkarte anstelle von Nvidia zu kaufen, wenn die Leitung vergleichbar ist.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Manfred_89
just_fre@kin schrieb:
Sofern das nicht als Ironie gedacht war: in welchem Szenario bringst du eine RTX 2080 Ti denn so ans Limit, dass du eine schnellere Grafikkarte benötigst?

Je nach Auflösung und gewünschter FPS zahl, mit sehr vielen.
selbst in 1080p kannst du mit der ti nicht alles auf ultra zocken siehe dazu auch @HisN konstruktiven Beiträge.

Aktuell nenne ich mal RDR2 ab wqhd Auflösung
 
  • Gefällt mir
Reaktionen: Smartbomb, IIxRaZoRxII und incurable
Revan1710 schrieb:
5600 XT, 5700 und 5700 XT sind bei der Effizienz absolut auf Augenhöhe mit 2060, 2060 S und 2070 S.
Die 5600XT war sogar hinter der 1660 Super die zweiteffizienteste Karte im Test. Irgendwie hat das hier aber nicht so einen Effekt auf die allgemeine Meinung über die Effizienz von AMD gehabt^^
 
  • Gefällt mir
Reaktionen: Smartbomb, derSafran, fox40phil und 2 andere
Zurück
Oben