News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

Wenn man die Archs prozessbereinigt betrachtet, liegt RDNA1 weit hinter Turing zurück. Nicht umsonst scheint man mit RDNA2 einen großen Sprung machen zu können. 50% ist ne Hausnummer. Nvidia macht erst noch den Node-Wechsel. Zwischen Samsungs 7/8nm und TSMCs 16nm liegen Welten.
 
Shoryuken94 schrieb:
Hätte dann aber auch 450 Watt verballert. Zumal ja die letzten AMD Big Chips eindrucksvoll gezeigt haben, dass sie mit ihren Shadern wenig anfangen können, da Sie diese nicht ausgelastet bekommen.


Woher weißt du das so genau? Bei Vega und Fiji kam die miese Skalierung durch das zu kleine Frontend. Wie ein Big Navi dort aufgestellt ist, wissen wir bisher nicht.

Einen grossen Chip taktet man nich so hoch wie den Kleinen. Darum sie die auch gerne effizienter pro FPS. Und dann ist mit der grösste Verbraucher das Speicherinterface. Das hätte man kaum 512 Bitig ausgelegt.

Ich würde eher mit 300-350 W rechnen. Das wären trotzdem 60-80% Mehrleistung gewesen.
Und das hätte gereicht um TU102 zu schlagen.

RDNA hat effizientere Shader, Bessere Speicherkompression und grössere Caches und schleppt den Compute Balast nicht mehr mit rum im Vergleich zu GCN.
AMD hat ja kürzlich offiziell die Trennung der Game und Compute Karten vorgenommen.
Gaming Architektur ist RDNA.
Und man hat ja schon offiziell gelesen, was zu RDNA2 verbessert wird. TU102 ist da kein Gegner mehr. Schon RDNA1 hat die IPC von Turing.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Manfred_89
Edelhamster schrieb:

Diese Tabelle wird aber auch ansonsten recht komisch.

z.B. dass die Boost Taktraten allesamt sehr viel niedriger ausfallen, obwohl AMD für RDNA2 höhere Taktraten angekündigt hat.
Auch dass sie bei +50% Perf/Watt mit einer "6800XT" auf 275W kommen, also mit 22% mehr TDP gerade mal 20% mehr Rohleistung haben als die 5700XT.

Oder dass die 6900 in 7nm+ und den 50% Perf/Watt durch die Arch. mit einem 50% kleineren Chip und gleicher Rohleistung 20% mehr TDP hat als die 2080Ti
 
just_fre@kin schrieb:
"First World Problem", mehr fällt mir da nicht mehr ein. Wenn ich sowas lese, frag ich mich ernsthaft, was ihr früher gemacht hättet, als bei Spielen noch Gameplay und Story im Vordergrund stand und nicht die Optik ...

Jetzt kommen gleich wieder die "ein 50PS Polo reicht auch" Diskussionen...

Ich gehe ausschließlich für meine Firstworld Problems arbeiten, denn fürs reine überleben reicht der Gang zum Sozialamt.

Edit: @just_fre@kin ich will dich nicht persönlich angreifen. Deine Formulierung ist in einem eher enthusiasten Forum denkbar ungünstig gewählt:schluck:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rage, .Sentinel., demonicron und 2 andere
hier stand mist
 
DarkerThanBlack schrieb:
Relativ nahe beisammen? Also 240mm² 340mm² und 505mm² sind jeweils fast 50% mehr Fläche auseinander. DAs ist schon sehr weit gestreut in der Leistung und kann so einige Zwischenableger hervorbringen.
Weit gestreut? Wann hatten sie das letzte mal so viele GPUs Mittelklasse aufwärts?
 
Noch ein Zusatz dazu
just_fre@kin schrieb:
Wenn ich sowas lese, frag ich mich ernsthaft, was ihr früher gemacht hättet, als bei Spielen noch Gameplay und Story im Vordergrund stand und nicht die Optik ...

Auch früher gab es genug Leute, die immer das neuste und schnellste haben wollten, und da die Entwicklung heute langsamer ist als früher, haben die Leute damals dafür auch noch viel mehr Geld gelassen als heute, weil man da im Jahrestakt seine CPU und GPU tauschen konnte.

Selbst wenn man nicht so ewig weit zurückgeht. Wer sich 2007 eine 8800 Ultra gekauft hat, die Inflations- und Kaufkraftbereinigt damals übrigens genau so teuer war wie die 2080Ti heute, für den gab es 2008 bereits die GTX 280 mit 40% Mehrleistung oder nur etwas später im Januar 2009 die GTX 285 mit 55% Mehrleistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
DarkerThanBlack schrieb:
Relativ nahe beisammen? Also 240mm² 340mm² und 505mm² sind jeweils fast 50% mehr Fläche auseinander. Das ist schon sehr weit gestreut in der Leistung und kann so einige Zwischenableger hervorbringen.
Naja was hatten wir denn vorher? Die RX480/580/590er mit 231mm² und darüber direkt die Vegas mit 495mm², 115% mehr Fläche.
Mit RDNA2 haben wir dann gleich drei Designs die diesen Bereich abdecken, also ja im Vergleich zu vorher sind sie nahe beisammen und man muss auch bedenken, dass es pro Chip auch immer 2 Karten geben kann, die zwar gleich groß sind, aber CUs deaktiviert haben, dafür braucht es keine Zwischenableger mit eigenen Chips.
 
  • Gefällt mir
Reaktionen: KlaraElfer
7hyrael schrieb:
Such nach CoD Modern Warfare pixelated sights. Scheint zwar gestern ein Patch dafür gekommen zu sein, allerdings ist das eben nur ein Beispiel von mehreren und er scheint wohl nur Vega64 zu adressieren.
Meinst du das hier?
1588166273802.png

Das ist aber schon ein Engine Bug und hat nicht wirklich so viel mit den GPU Treibern zu tun oder?
 
  • Gefällt mir
Reaktionen: derSafran und GERmaximus
Selber schrieb:
Also sollten alle bei maximal FullHD bleiben, oder was?

GERmaximus schrieb:
Jetzt kommen gleich wieder die "ein 50PS Polo reicht auch" Diskussionen... Ich gehe ausschließlich für meine Firstworld Problems arbeiten, denn fürs reine überleben reicht der Gang zum Sozialamt.

Mir geht es nicht darum, dass sich jemand eine Grafikkarte für weit über 1000€ kauft. Ich fahre einen aktuellen Jaguar XE R-Sport, für dessen Kaufpreis ich mir ne ganze Euro-Palette von RTX 2080 TI Karten hätte kaufen können (nix Leasing!), also muss mir keiner mit einer VW (Polo) Diskussion kommen ;) .

Mir geht es in dieser Diskussion darum, dass man sich die besagte Grafikkarte - die das aktuelle Spitzenmodell am Markt darstellt - zwangsweise ja erst vor relativ kurzer Zeit gekauft hat und dann schon wieder direkt unzufrieden ist. Warum kaufe ich mir denn die Karte dann? Da kann ich mir genauso gut auch ne billigere Grafikkarte kaufen, wenn das Zeug, das ich mir kaufe für mich ab Tag 1 so oder so Schrott ist, weil ich auf ein hypothetisches Produkt warte, dass möglicherweise irgendwann mal am Markt platziert wird.

Taxxor schrieb:
Auch früher gab es genug Leute, die immer das neuste und schnellste haben wollten, und da die Entwicklung heute langsamer ist als früher, haben die Leute damals dafür auch noch viel mehr Geld gelassen als heute, weil man da im Jahrestakt seine CPU und GPU tauschen konnte.

Selbst wenn man nicht so ewig weit zurückgeht. Wer sich 2007 eine 8800 Ultra gekauft hat, die Inflations- und Kaufkraftbereinigt damals übrigens genau so teuer war wie die 2080Ti heute, für den gab es 2008 bereits die GTX 280 mit 40% Mehrleistung oder nur etwas später im Januar 2009 die GTX 285 mit 55% Mehrleistung.

Nochmal: mich stört nicht, dass sich einer ne 1000€ Karte kauft, sondern das Geschwätz von wegen wie schlecht die Karte (wohlgemerkt das Spitzenmodell auf dem Markt!) jetzt schon wieder sein soll - nichts anderes hat der Post nämlich ausgesagt. Hatte damals ne Geforce 8800 GTX, die war zwar nicht ganz so dolle wie die Ultra, aber auch recht teuer, damit hab ich aber einige Jahre Vorlieb nehmen können. Das "First World Problem" ist darauf bezogen, dass man sich etwas kauft und damit direkt wieder unzufrieden ist.

Selber schrieb:
So ein Argument in nem Technikforum ist schon sehr komisch.

Ich würde mir manchmal wünschen, dass die Leute hier im Technikforum nicht so engstirnig durch die Welt gehen und auch mal andere Perspektiven einnehmen, dann müssten die Mods und Admins hier beispielsweise bei den ganzen Corona-News, Apple-Nachrichten oder OEM-Fertigrechner Posts nicht immer manuell die Beiträge freischalten, weil bei so manchem hier der Horizont scheinbar nicht über den heimischen Kellerraum hinaus geht ...
 
  • Gefällt mir
Reaktionen: ThePlayer und Onkel Föhn
just_fre@kin schrieb:
mich stört nicht, dass sich einer ne 1000€ Karte kauft, sondern das Geschwätz von wegen wie schlecht die Karte (wohlgemerkt das Spitzenmodell auf dem Markt!) jetzt schon wieder sein soll

Es geht nicht darum, dass die Karte schlecht ist, sondern dass aktuelle Workloads, insbesondere mit RT, die Karte klein kriegen.
 
  • Gefällt mir
Reaktionen: Mcr-King
just_fre@kin schrieb:
Nochmal: mich stört nicht, dass sich einer ne 1000€ Karte kauft, sondern das Geschwätz von wegen wie schlecht die Karte (wohlgemerkt das Spitzenmodell auf dem Markt!) jetzt schon wieder sein soll - nichts anderes hat der Post nämlich ausgesagt.
Naja der Post war im Grunde nur die Antwort auf deine Frage, warum man denn von einer 2080Ti schon wieder aufrüsten wollen würde.

Unzufriedenheit mit der Performance in bestimmten Spielen kann ja logischerweise erst auftreten, nachdem man die Karte gekauft hat, und gekauft hat man sie weil man das schnellste wollte.

Und das angesprochene GRB wurde ja auch erst gekauft, nachdem man die Karte schon eine Weile hatte, von daher ist es doch legitim zu sagen, dass man dafür gerne eine schnellere Karte hätte und sich auf die nächste Gen freut.
Ergänzung ()

ZeroStrat schrieb:
Es geht nicht darum, dass die Karte schlecht ist, sondern dass aktuelle Workloads, insbesondere mit RT, die Karte klein kriegen.
Was aber, gerade weil es die erste Gen mit RT ist, zu erwarten war, soviel muss man sagen^^
 
  • Gefällt mir
Reaktionen: fox40phil
just_fre@kin schrieb:
Mir geht es in dieser Diskussion darum, dass man sich die besagte Grafikkarte - die das aktuelle Spitzenmodell am Markt darstellt - zwangsweise ja erst vor relativ kurzer Zeit gekauft hat und dann schon wieder direkt unzufrieden ist. Warum kaufe ich mir denn die Karte dann?

Weil es nichts stärkeres gibt :D
Ich verstehe aber was du meinst.;)
 
  • Gefällt mir
Reaktionen: Mcr-King und incurable
Taxxor schrieb:
Und das angesprochene GRB wurde ja auch erst gekauft, nachdem man die Karte schon eine Weile hatte, von daher ist es doch legitim zu sagen, dass man dafür gerne eine schnellere Karte hätte und sich auf die nächste Gen freut.

Was mir noch einfällt, ist RDR2, was mit Vulkan immer gerade so eben an der Stuttering Grenze läuft.

Taxxor schrieb:
Was aber, gerade weil es die erste Gen mit RT ist, zu erwarten war, soviel muss man sagen^^

Deswegen brauche ich ja nun moar Power! Gen 2 incoming...
 
just_fre@kin schrieb:
Mir geht es in dieser Diskussion darum, dass man sich die besagte Grafikkarte - die das aktuelle Spitzenmodell am Markt darstellt - zwangsweise ja erst vor relativ kurzer Zeit gekauft hat und dann schon wieder direkt unzufrieden ist.
Die 2080 Ti ist 1 1/2 Jahre alt und war damals nur ein kleiner Hüpfer im Vergleich zur 1080 Ti, welche wiederum schon 3+ Jahre auf dem Buckel hat.

Und ja, selbst mit moderaten 3440x1440 120 Hz gab es schon zum Launch Situationen, in denen die 2080 Ti nicht schnell genug war.
 
  • Gefällt mir
Reaktionen: Mcr-King und ZeroStrat
Taxxor schrieb:
Diese Tabelle wird aber auch ansonsten recht komisch.
Hätte erwähnen sollen, dass ich die Tabelle selbst erstellt habe und Ihr die aktuell bei TechPowerUp hinterlegten Vermutungen zu Grunde liegen.
5800XT
5900
5900XT

Die Angaben werfen definitiv Fragen auf, da stimme ich dir zu.

wccftech berichtet eben, dass Low-End RDNA2, aktuellem Kenntnisstand nach also Navi23, keinen RayTracing Support erhält und der Fouks auf Energieeffizienz läge. Somit ist meine Herleitung
Edelhamster schrieb:
Die Information über nur 240mm² bei Navi23 finde ich am interessantesten.
Wenn das die Neuauflage der 5700ér ist könnte man sich davon zumindest herleiten, dass AMD für seinen Raytracing-Ansatz scheinbar keine zusätzliche Chipfläche benötigt. (Navi10 = 251mm²)
auch keinen Pfifferling mehr wert :daumen:
https://wccftech.com/amd-raytracing-allegedly-exclusive-high-end-rdna-2-navi-2x-gpus/

5120 Shader hin oder her, 21, 22, 23 - nach Vega10, Vega20 und dann Navi10 - mir fehlt hier noch immer Navi20^^

edit: wäre eigentlich ganz cool wenn AMD erstmal einen, angenommen, 4352 Shader Navi21 bringt und damit die 2080ti schlägt. Wenn Nvidia sich dann im Anschluss auf dem Markt mit Ihren neuen Karten positioniert hat legt man mit dem 600mm² und 5120 Shader Navi20 nochmal ein Schippchen drauf.
Und ich seh mich jetzt schon kotzen wenn ich daran Denke, dass AMD hier eine von Nvidia´s Tugenden übernehmen könnte und Hardcore Fans wie mich zweimal abmelken wird mit Ihrem geilen Scheiß, weil ich nicht warten kann und schon vor Release Navi21 vorbestellen werde :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Onkel Föhn und Mcr-King
incurable schrieb:
Und ja, selbst mit moderaten 3440x1440 120 Hz gab es schon zum Launch Situationen, in denen die 2080 Ti nicht schnell genug war.

Hab damals GRW gespielt auf der 1080 Ti. Knapp um die 60 FPS auf Hoch. Ich dachte dann, dass mit 2080 Ti ja einiges mehr drin sein muss. Hatte dann sogar noch die Settings ein wenig hochgeschraubt -> ca. 70 FPS. :freak:
 
  • Gefällt mir
Reaktionen: Klopskopp und incurable
Edelhamster schrieb:
wccftech berichtet eben, dass Low-End RDNA2, aktuellem Kenntnisstand nach also Navi23, keinen RayTracing Support erhält und der Fouks auf Energieeffizienz läge.
Als Konkurrenz zur Turing GTX16er Serie? Dafür hat man Navi 14 schon.
Und es würde keinen Sinn machen einen 240mm² Chip der, wenn er ohne RT kommt, nicht langsamer als eine 5700XT sein dürfte, gegen eine 1650 oder 1660 zu stellen.
 
ZeroStrat schrieb:
Hab damals GRW gespielt auf der 1080 Ti. Knapp um die 60 FPS auf Hoch. Ich dachte dann, dass mit 2080 Ti ja einiges mehr drin sein muss. Hatte dann sogar noch die Settings ein wenig hochgeschraubt -> ca. 70 FPS. :freak:

Diesen ernüchternen Effekt hatte ich als ich extra für RDR2 (testweise) eine 2080 drin hatte. ne handvoll fps mehr, die ich kaum merkte, dafür in dx11 Titeln deutlich langsamer.
Also die 2080 wieder weg und meine 1080ti behalten.
Fairerweise muss ich aber auch sagen das die 2080 ein OC Krüppel war (knapp über 1900 Mhz mehr nicht) während meine 1080ti echt gut im Futterliegt.
Aus irgend einem Grund schafft die in RDR2 auch deutlich über 2100mhz bei mir (2139mhz). Jedoch auch NUR in diesem einem Game.

Eigentlich müsste ich mal am Community Bench teilnehmen, würde mich echt mal interessieren wie die da im Vergleich zu darsteht.
 
  • Gefällt mir
Reaktionen: bad_sign
Zurück
Oben