News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

@Taxxor
Ok, du argumentierst damit, dass AMDs Vega64-Architektur Schrott war, aber jetzt hat AMD das Zauberpulver im Keller gefunden und macht NVidia mal so richtig nass?!
Danke, dass du die ganze Argumente für mich schon machst. Erspart mir viel Zeit.
Danke.

Und plötzlich reicht doch nur noch für Leistung zwischen 3070 und 3080 ^^
So sweet. Nacht John-Boy.
 
Shoryuken94 schrieb:
Uebergrosses Zitat entfernt
Aber Xbox und das DX11 inkl. LL war ja nicht annähernd kompatibel zum PC. Jetzt nutzen beide DX12, selbe Hardware, selbe API, sogar die CPU ist die selbe (wenn man Renoir verbaut hat)
Ergänzung ()

c2ash schrieb:
@Taxxor
Ok, du argumentierst damit, dass AMDs Vega64-Architektur Schrott war, aber jetzt hat AMD das Zauberpulver im Keller gefunden und macht NVidia mal so richtig nass?!
Danke, dass du die ganze Argumente für mich schon machst. Erspart mir viel Zeit.
Danke.
Du machst dich hier echt lächerlich :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LoRDxRaVeN, Rambo5018, Holgmann75 und 28 andere
AMD ist bei mir leider raus weil kein CUDA 😐
 
c2ash schrieb:
Ok, du argumentierst damit, dass AMDs Vega64-Architektur Schrott war, aber jetzt hat AMD das Zauberpulver im Keller gefunden und macht NVidia mal so richtig nass?!

bad_sign schrieb:
Du machst dich hier echt lächerlich :D
Zustimmung, aber ich versuchs trotzdem noch mal

Ich argumentiere, dass du nicht verschiedene TFLOP Werte vergleichen kannst, wenn sich die Architektur dahingehend grundsätzlich verändert hat.

Bei GCN5 vs Pascal hatte Vega das deutlich schlechtere TFLOP/FPS Verhältnis.

Bei RDNA1 vs Turing hatten beide ein vergleichbares TFLOP/FPS Verhältnis, da AMD hier mit RDNA1 stark an der Auslastung ihrer Shader gearbeitet hat.

Bei Turing vs Ampere hat nun Ampere das deutlich schlechtere TFLOPs zu FPS Verhältnis, was einfach an der Art liegt, wie Nvidia bei Ampere die Shaderzahl erreicht.

RDNA2 vs RDNA1 bleibt bei der gleichen Herangehensweise und erhöht nur die IPC pro Shader, hier wird das TFLOP/FPS Verhältnis also steigen.
Wenn du also die Gaming Performance von RDNA2 ableiten willst, dann musst du bei RDNA1 ansetzen und nicht bei Ampere.

c2ash schrieb:
Und plötzlich reicht doch nur noch für Leistung zwischen 3070 und 3080 ^^
So sweet. Nacht John-Boy.

5700XT x 1.94, wie in meinem Post beschrieben ist, was ich erwarte, also auf dem Niveau der 3080, wie auch in deinem Video vermutet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rambo5018, Holgmann75, cbrk und 5 andere
Features für Streaming sind mir egal. Raytracing ist nice to have aber kein Muss. Damit kann ich noch was warten denn vermissen kann ich nix was ich noch nicht hatte.

Wenn Navi 21 wirklich 16 gb hat und +- rtx3080 Leistung hat bei weniger Verbrauch bin ich dabei. Darf die Karte auch gern 700€ kosten.

Aber abwarten und Tee trinken. Ich mag amd und hatte nie eine NVIDIA karte , dennoch werde ich warten und vergleichen.

Sollte die RTx 3080 die bessere Wahl sein Kauf ich diese such gern.

Letztendlich will ich für mein Geld das beste . Egal ob 500 1000 oder 1500€.

Aber wie so oft, Geduld ist eine Tugend ... mal sehen was kommt ;)
 
  • Gefällt mir
Reaktionen: Wow4ikRU, dohderbert, Orok91 und 2 andere
Hoffentlich kommt da auch was für den sehr kleinen Geldbeutel. Meine 3GB GTX 1060 geht jetzt langsam immer mehr die Puste aus. Eigentlich liebäugle ich zur Zeit ja mit der RTX 2060.
 
Es wird noch sehr spannend, wie AMD die geringe Speicherbandbreite tackeln wird (sofern die 256Bit SI stimmen)
@Discovery_1
Su hat gesagt RDNA2 wird das komplette Lineup ersetzen, also früher oder später kommt was^^
 
  • Gefällt mir
Reaktionen: yummycandy
c2ash schrieb:
Der Typ hat seit Monaten Infos zu Ampere gehabt und nahez alles hat gestimmt.
Und laut seinen Infos kommt auch die größte AMD-Karte nicht an die 3080 ran.
Hör nicht auf mich....hör auf ihn.

Eh ja... Einige seiner Leaks stimmen. Einige nicht. Laut ihm sollte die Raytracing Performance auch 4 mal höher sein, als bei Turing, Ampere mit 2GHz plus Takten, Ampere sollte laut ihm super Übertaktbar sein und NVCache als Vram Ersatz genutzt werden können. Er behauptet zwar das NV Cache und RTX IO das gleiche ist, dass man RTX IO als virtuellen Speicher nutzen kann hat Nvidia aber schon verneint.

Er hat die gleichen Quellen wie viele andere. Schau dir doch mal sein aktuelles Video an... dort greift er auf, dass RDNA an die 3080 / 3090 rankommt. Ist es deiner Meinung nach nun offiziell?

Er berichtet auch nur das, was andere ihm Zuspielen. Mal ist es richtig, mal falsch. Er hatte auch mal von 384 Bit für Big Navi berichtet, stellt sich wohl auch als falsch heraus.

Die Quellen scheinen sich also noch etwas uneinig zu sein ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75, Alpha.Male, Slayn und 10 andere
c2ash schrieb:
Ok, du argumentierst damit, dass AMDs Vega64-Architektur Schrott

Ja beim Gaming da es extrem schwer war sie richtig auszulasten, aber bei Profi Anwendungen war sie sogar der RTX20er ebenbürtig. Naja zumindest bis sich da dasd RTX Zeug breit gemacht hat.

Was sich aber mit drr RX6900 wieder ändern kann. 😉
 
c2ash schrieb:
OK, dann nimmst du einfach das am schlechtesten programmierte Spiel her und dann erhältst du vielleicht sogar nahe 0% Leistungsgewinn.
Ähmm....ihr konstruiert euch gerade die Geschichten wie ihr sie braucht.
Das Problem ist bei Ampere ein ganz anderes denn sobald nicht nur FP32 Code verwendet wird sondern auch noch gleichzeitig Int. Aufgaben anfallen halbiert sich die FP32 Shader Leistung und er fällt hier wieder auf das Niveau von Turing zurück. Genau das ist bei Spielen Streckenweise der Fall wodurch die theoretisch mögliche Leistung praktisch nicht ankommt.
 
  • Gefällt mir
Reaktionen: GUN2504, Holgmann75, dohderbert und 7 andere
bad_sign schrieb:
Es wird noch sehr spannend, wie AMD die geringe Speicherbandbreite tackeln wird (sofern die 256Bit SI stimmen)
@Discovery_1
Su hat gesagt RDNA2 wird das komplette Lineup ersetzen, also früher oder später kommt was^^

Durch einen Trick nennt sich Extrem schneller Chache der Großer ausfällt als der Standard. Auch Infiniti Chache genannt wird.
 
Manno, das wird wieder spannend 😬 War damals im Vorfeld von Vega so dermaßen gehyped, das die gelieferte Leistung richtig schmerzte.. Besonders Linus tat mir damals beim Vorstellungsevent sehr leid 😅
Aber es war ja auch schon mit den Furys kaum anders..

Trotzdem bin ich wiedermal sehr gehyped auf die neue Generation 👌😎
 
  • Gefällt mir
Reaktionen: Che-Tah
c2ash schrieb:
@Taxxor
Ok, du argumentierst damit, dass AMDs Vega64-Architektur Schrott war, aber jetzt hat AMD das Zauberpulver im Keller gefunden und macht NVidia mal so richtig nass?!
Danke, dass du die ganze Argumente für mich schon machst. Erspart mir viel Zeit.
Danke.

Und plötzlich reicht doch nur noch für Leistung zwischen 3070 und 3080 ^^
So sweet. Nacht John-Boy.
Ganz ehrlich was stimmt nicht mit dir? Ist es die Uhrzeit? Vielleicht ist es besser dass du jetzt schlafen gehst.
Jedes deiner Argumente wird entkräftet und du machst trotzdem weiter. Und bringst sonst Quellen als beweist die deinen Standpunkt entgegen wirken.
Also langsam überlege ich ob du bei mir nicht ins Aquarium Wandertest.
Du machst dich langsam mit deinen Aussagen nur lächerlich. Und man merkt wie du von Post zu Post immer aggressiver wirst.

Also ich bin immer fester der Meinung das BigNavi genauso schnell sein wird wie die 3080. Ich kann mir sogar vorstellen das BigNavi zwischen 3080 und 3090 liegen wird.
Allein schon die Tatsache das Nvidia 50w mehr Power bei der 3080 aufbringt für 5% mehr Performance. Kann nur folgendes bedeuten:
1. Damit wollen sie mit der 3080 3-10% vor BigNavi liegen
2. Oder sie wollen weniger als 10% hinter BigNavi liegen.
Anders ist das nicht zu erklären.
 
  • Gefällt mir
Reaktionen: GUN2504, Holgmann75, Ernie75 und 8 andere
Taxxor schrieb:
Bei RDNA2 wird sowas aber nicht gemacht, daher dürfte man hier auch einigermaßen gut die Performance einschätzen können.
22.5TFLOPs zu 9.75TFLOPs der 5700XT = 2.3-fache Rohleistung.

Jetzt kommt es darauf an, wie gut 80CUs gegenüber 40 CUs skalieren, konservativ würde ich mal ca 60% annehmen, damit würde von der 2.3-fachen Rohleistung noch die ~1.8-fache FPS Leistung übrig bleiben.
Deine Einschätzung bezüglich der 60%igen Skalierung von 40 auf 80CU's ist viel zu konservativ.

Nachfolgend siehst du die laut Computerbase real anliegenden Taktraten der 5500XT.
Bei der für den Test herangezogenen Red Dragon handelt es sich übrigens ebenfalls um eine 8GB Karte.
Wie man sieht sind die Taktraten der 5500XT Red Dragon einige % oberhalb der 5700 REF (1650 -1700 MHz) angesiedelt.
5500xt real takt.png

red dragon vs 5700.png

Beim Test liegt die:
5700 45% vor der 5500XT
2304/1408 = 1.64
1.45 / 1.64 x 100 = 88%
Jetzt sollte man noch mitberücksichtigen das die tatsächlichen Taktraten der 5700 leicht unterhalb von 1.700 MHz angesiedelt sind. Entsprechend kann man nochmals ca. 6% obendrauf rechnen dabei kommt am Ende eine Skalierung von 94% heraus.
Übertragen auf Big NAVI (eher konservativ) würde das ausgehen von einer 40CU 5700XT mit 1.9GHz Takt eine Performance Steigerung von (2.2x80) / (1.9x40) = 2.32 x 0.9 (konsevativ) = 2.08 bedeuten.
Bezüglich der IPC lege ich zu deinen 10% (konservativ) nochmals 10% obendrauf.
Erwartete IPC Spanne 10-25%
Konservativ = 2.08 x 1.1 = 2.29
Optimistisch = 2.08 x 1.2 = 2.50

Die große Unbekannte stellt allerdings die Speicherbandbreite dar, die falls sie stark limitieren würde
diesen doch sehr beeindruckenden Leistungsanstieg wieder etwas relativieren würde.
Mit anderen Worten wenn das Speicher-Interface Big Navi keinen Strich durch die Rechnung macht
wird die 3080 beiläufig vernascht und das Rennen wird dann mit der 3090 ausgetragen.

Wobei ich anhand der TDP davon ausgehe das die Karte in etwa 300W ziehen wird und entsprechend mehr Übertaktungsspielraum zur Verfügung steht als es bei der 350W TDP 3090 der Fall ist.
Wenn es nicht mit dem Teufel zu geht müsste das eigentlich gar für die Performance Krone langen aber wir werden sehen.

spec all.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LoRDxRaVeN, GUN2504, Holgmann75 und 7 andere
Foxel schrieb:
AMD ist bei mir leider raus weil kein CUDA 😐
Bei mir leider genauso für das nächste aufrüsten. :(
Gefühlt ist CUDA abseits vom Gaming für fast alles notwendig. Insbesondere wenn es um irgendwas mit Ki und deep learning geht...
Hoffentlich kommt die geleakte RTX 3070Ti mit 16GB halbwegs zeitnah als Konter auf den AMD Release.
 
  • Gefällt mir
Reaktionen: konkretor
Mcr-King schrieb:
Durch einen Trick nennt sich Extrem schneller Chache der Großer ausfällt als der Standard. Auch Infiniti Chache genannt wird.
Ich hoffe nur das es dann bei PC Games besser läuft als seinerzeit der eDRAM bei Intels Iris Pro.
 
ArrakisSand schrieb:
Deine Einschätzung bezüglich der 60%igen Skalierung von 40 auf 80CU's ist viel zu konservativ.
Danke für die Ausführliche Erklärung, aber die habe ich auch selbst schon hinter mir und ist mir bekannt^^

Der Punkt dabei ist, dass auch GCN keine wirklichen Probleme mit der Skalierung im Bereich 20-40 CUs hatte, die fingen erst darüber hinaus an, wo man von 56 auf 64 CUs quasi nahe 0% Skalierung hatte und die beiden Vegas nur durch unterschiedliche HBM Taktraten und Powerlimits voneinander differenzieren konnte.

Generell gilt, dass die Skalierung schlechter wird, je mehr CUs man hinzufügt.
Wo das bei RDNA2 und 80CUs liegt, weiß man nicht, weil wir bisher auch in RDNA1 nichts über 40CUs hatten.

Bei Nvidias Turing war sie von der 2080S auf die 2080Ti auch nur bei ca 60%, daher waren 60% auch meine konservative Schätzung und ich würde optimistisch auch nicht von mehr als 75% ausgehen.
Ergänzung ()

ArrakisSand schrieb:
Die große Unbekannte stellt allerdings die Speicherbandbreite dar die falls sie stark limitieren würde
diesen doch sehr beeindruckenden Leistungsanstieg wieder etwas relativieren würde.
Hier glaube ich an AMDs gesunden Menschenverstand und gehe nicht davon aus, dass man einen so großen 80CU Chip designt, der teuer zu produzieren ist, um ihn dann an der Speicherbandbreite verhungern zu lassen, wodurch man auch einfach einen kleineren und günstigeren 60CU Chip hätte nehmen können.

Die Speicherbandbreite wäre übrigens auch ein Faktor bei deiner 5500XT Rechnung, denn obwohl sie ebenfalls 8GB besitzt, hängen die im Vergleich zur 5700 nur an einem 128bit Bus und schon bei der 5600XT wurde ja ein 192bit Bus verwendet, um sie noch ein Stück mehr von der 5700 fern zu halten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GUN2504, Holgmann75, Ernie75 und 6 andere
ArrakisSand schrieb:
Deine Einschätzung bezüglich der 60%igen Skalierung von 40 auf 80CU's ist viel zu konservativ.
Konservativ dürfte hinhauen hat er ja auch gesagt, aber ein vergleich der kleineren untereinander bringt nicht viel, weil die Skalierung nicht linear verläuft. Mit zunehmender Anzahl der CUs, wird die Auslastung dieser etwas schwieriger.

Edit: Wie immer bin ich ein Stück zu langsam... :freak:
 
  • Gefällt mir
Reaktionen: Ernie75, Piep00 und Taxxor
bad_sign schrieb:
Aber Xbox und das DX11 inkl. LL war ja nicht annähernd kompatibel zum PC.

Doch, nur war die alte XBox auf das Featurelevel von GCN 1.0 beschränkt.

Die alten Xboxen unterstützen auch DX12. Die Ur One und die S allerdings nur mit Featurelevel 11_1.

Die Optimierung für eine Architektur geht aber auch weit über die API hinaus. Das sieht man super an Horizon Zero Dawn auf dem PC, was sehr stark um GCN im Polarisausbau herum optimiert ist, den man so fast 1 zu 1 in der PS4 Pro findet. Und das obwohl es als Playstation Exklusivspiel ursprünglich überhaupt nicht auf eine am PC verfügbare API aufsetzt.

Die API ist auch weniger wichtig. Interessant ist das Featureset. Und das lag bei den alten Konsolen durch die Basismodelle bei GCN1. Nun wird die Nextgen Basis auf RDNA 2 als Baseline angehoben.
 
  • Gefällt mir
Reaktionen: Grimey, Tanzmusikus und Mcr-King
128 Bit Speicherinterface? Das ist auch für die kleinste RDNA 2.0 Karte etwas mager oder nicht? :rolleyes:
 
Zurück
Oben