News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Das AMD über 2.1Ghz sicher kann zeigen ja dieTechnischen Daten der Playstation 5 und die hat ein enges Powertarget.
8 Rasterengines bei 2ghz die leute die CS kompetitive spielen sind bestimmt gehypte :D
 
Zuletzt bearbeitet:
PS hat eine komplett eigene API und es wird wahrscheinlich fast nichts 1:1 übernehmbar sein. Und die alten Boxen unterstützen DX12 ja, aber es wurde früher nicht genutzt (und wohl heute noch kaum), weil es das damals noch nicht gab.
DX12 stammt aus Mantle und wird garantiert viele eigene Wege gegangen sein, ggü dem DX11 der Xboxen. Das ist nicht das selbe, wie ein DX12 für XSeX (super Name^^) und PC
 
ArrakisSand schrieb:
Deine Einschätzung bezüglich der 60%igen Skalierung von 40 auf 80CU's ist viel zu konservativ.

Du kannst von der Skalierung bei wenig Shadern nicht auf die Skalierung von vielen Shadern schließen.

Der Sprung von einer RX 560 auf eine RX580 skaliert auch fast 1 zu 1 mit den Shadern. Das trifft vom Sprung von einer RX 580 auf eine Vega 56 aber nicht mehr zu. Beim Sprung von der Vega 56 auf die Vega 64 gibts dann für die zusätzlichen Shader fast gar keine Mehrleistung mehr.

Irgendwo zwischen 36 und 56 Compute Units hört GCN in der gewählten Konfiguration auf ordentlich mit mehr Recheneinheiten zu skalieren. Zwischen 56 und 64 geht die Mehrleistung bei gleichem Takt gegen Null.
 
  • Gefällt mir
Reaktionen: fox40phil, yummycandy und Taxxor
Ich vermute immer noch, dass es Big Navi in zwei Varianten geben wird. In der Tabelle ist Navi 21 auch zwei Mal auf geführt und Gerüchte sagten auch mal was von GDDR6 und HBM Unterstützung. Vielleicht gibts dann eine 6900 mit 12GB GDDR6 und eine 6900XT mit etwas höheren Takt und 16GB HBM.
Reine Spekulation
 
  • Gefällt mir
Reaktionen: Haldi
Vergleiche der CU Skalierung nur innerhalb der Architektur denn hier hat jede ihre Eigenarten.
Genau deshalb sind auch die Werte von GCN für den Vergleich nutzlos und am ehesten könnte man noch die erste Navi Generation nehmen die in ihrem Vergleich sehr gut skalierte.
Wer hier definitive Werte für RDNA2 haben will muss einfach auf die Karten warten und beim gleiche Chip Takt selbst nachrechnen.
 
Wenn das alles stimmen sollte, dann würde ich mich richtig für AMD freuen: und wenn die preisen stimmen, dann könnte ich vielleicht nicht auf die 4000 Serie von nvidia warten...
Wie gesagt, sollte und könnte...
 
pipip schrieb:
Da kommt aber bestimmt noch board tdp dazu und nicht zu vergessen 16 gb gddr6. Aber es dürfte trotzdem weniger sein

Absolut korrekt. Man darf nicht vergessen vergessen, dass es sich bei den 200 bis 240 Watt um die TDP oder besser das „Socket Power Limit“ handelt.

Wenn man sich mal alle überschwänglichen, gemäßigten und negativen Prognosen ansieht und ganz genau (auch zwischen den Zeilen) ließt, dann halte ich folgendes Szenario für realistisch.
  • 2,0 bis 2,1 GHz Boost
  • 250 bis 300 Watt TDP
  • 16 GB GDDR6
  • Leistung einer 3080 (+/- 5%)
  • 600 bis 750 Euro
Damit wäre AMD wieder mit bei der Musik und würde mit der 3080 konkurrieren, die Nvidia als seine Gaming-Speerspitze bezeichnet.

Eine mindestens 1.500 Euro teure 3090 muss doch überhaupt nicht attackiert werden, da diese für Spieler überhaupt nicht interessant ist.

Wer mit Blick auf die nächsten 2-3 Jahre eine High-End-Karte kaufen möchte, wird dann wohl die Wahl zwischen einer 6900/16GB und einer 3080/20GB haben.

Das ließt sich doch erst einmal Klasse.

Die beiden Varianten Navi 21 a und Navi 21 b lassen auch die Aufteilung in 6900 und 6900 XT möglich erscheinen.

Warten wir es mal ab, ganz so angeschlagen wie viele meinten, scheint AMD dann doch nicht zu sein.

Konkurrenz belebt das Geschäft und ich finde das super, auch wenn ich dem Wahnsinn einheimgefallen bin und eine 3090 geordert habe. :D
 
  • Gefällt mir
Reaktionen: nikky, Ernie75, cbrk und 22 andere
Wadenbeisser schrieb:
Genau deshalb sind auch die Werte von GCN für den Vergleich nutzlos
Die sollen ja nur die Nichtlinearität der Skalierung aufzeigen, übersetzen auf RDNA lässt sie sich natürlich nicht und das hat auch keiner gemacht.
 
bad_sign schrieb:
PS hat eine komplett eigene API und es wird wahrscheinlich fast nichts 1:1 übernehmbar sein.

Doch, denn viel Anpassung an eine Architektur geht weit über die API hinaus.

Wie gesagt, sieht man super an Horizon, wenn man sich mal eine RX 580 und eine Vega 64 z.b. anschaut.

GCN muss ja Sonys GNM API auch unterstützen. Wichtiger als die Art wie man die Hardware anspricht ist das Featureset und die Flaschenhälse die man bei der Optimierung möglichst umgeht. Über welche API das am PC geschieht ist dann zweitrangig, da sich viele Prinzipien übertragen lassen.


bad_sign schrieb:
Und die alten Boxen unterstützen DX12 ja, aber es wurde früher nicht genutzt (und wohl heute noch kaum), weil es das damals noch nicht gab.

Neuere Spiele dürften es nutzen, außer verringerten CPU Overhead Bringt esmit dem Featurelevel von GCN 1. Die aktuellen GPUs sind aber eh auch alle voll DX11 kompatibel so das auch ohne DX12 auf die gleiche API zurückgegriffen werden kann. Durch die neuen Xboxen ändert sich also nur das Featureset, welches unterstützt wird. An der Optimierung hingegen wird es wenig ändern. Wir werden dafür aber in deutlich mehr spielen erweiterte DX12 Features finden.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und bad_sign
Ich verstehe nicht so ganz warum alle von den neuen Nvidia Karten so begeistert sind, für mich die schlechteste Generation der letzten Jahre......nur weil der Performancesprung (unter guten Bedingungen und wenn die Karte nicht schon zu viele Probleme an sich bereitet) diesmal wieder gut geworden ist, das allein sagt doch nichts aus.

Bin mir relativ sicher AMD wird zum Release die bessere GPU bereit stellen und das wird bei einigen Tränen in die Augen treiben. Allein das Nvidia für ihre Verhältnisse diesmal mehr oder weniger moderate Preise bei den Grafikkarten verlangen, spricht doch schon Bände.
Die wissen ganz genau das AMD was besseres bringt, muss ja nicht viel besser sein, aber das Gesamtpacket wird deutlich runder ausfallen.
Weil Nvidia aber wie immer nicht dumm ist, haben sie nun die GPUs an die Early Adapter gebracht und wenn AMDs Generation draußen ist, bringen sie Ampere 2.0 raus wie es hätte von Anfang sein sollen, mit mehr VRAM, stabiler und einem kleinen Leistungsplus um sich wieder vor AMD zu platzieren und die Wogen zu glätten.

Das war jetzt alles schnell schnell und mit dem Dampfhammer alles rausholen, Preise relativ niedrig halten, gute Grafikkartenverkäufe erzielen bevor der Gegenspieler bereit ist, die Aktionäre sind zufrieden, und anschließend die Zeit nutzen um das ausgereifte Produkt leicht verbessert als Konter parat zu haben und den Shitstorm abzuschwächen.

Kann sein das ich absolut falsch liege......aber das ganze stinkt so dermaßen genau nach dieser Story......
 
  • Gefällt mir
Reaktionen: nikky, EntelodonX, Einfallslos^99 und 9 andere
Wenn dank neuer Box und von Haus aus mehr DX12 gebaut wird, dann ändert sich zumindest auf CPU ebene was. Und zuletzt sieht man ja doch wieder einige hochmoderne Singlecore Games Crysis hust
 
Vielleicht gibts auch wieder CrossfireX mit Master und Slave. :D

Ach ich war wieder zu viel im Retro-Bereich unterwegs. ;)
 
  • Gefällt mir
Reaktionen: Blumenwiese, Alpha.Male, coda44 und 7 andere
Wieso wollen immer Alle das AMD die Leistungskrone gewinnt?

Müssen sie garnicht. Es reicht völlig aus wenn AMD Karten auf 3080,3070,3060... Niveau bringen zu einem günstigeren Preis und/oder mit mehr VRam.

Dann haben sie in meinen Augen Alles richtig gemacht.
 
  • Gefällt mir
Reaktionen: Holgmann75, Thorque, znarfw und 2 andere
Die kleinere Variante wird sogar mit 2,5 Ghz Boost angegeben, ggf. ist dann bei den größeren Varianten noch OC Potenzial vorhanden? Ansonsten bleibt natürlich die Frage ob die Shaderleistung auch 1zu1 in Gamingleistung umgewandelt werden kann - sollte dies wirklich der Fall sein, wäre die Karte schneller wie eine RTX 3080 (die RX 5700 XT hat mit 1/2 Shaderzahl ca. 55-60% der Leistung einer RTX 3080).

Abwarten und Daumen drücken, wegen meines FreeSync TV's und dem bisher fehlerhaften HDMI 2.1 supports der RTX 3080, bleibt mir eh keine sinnvolle alternative. Auf VRR / FreeSync verzichten käme für mich nicht in Frage.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Taxxor schrieb:
Danke für die Ausführliche Erklärung, aber die habe ich auch selbst schon hinter mir und ist mir bekannt^^

Der Punkt dabei ist, dass auch GCN keine wirklichen Probleme mit der Skalierung im Bereich 20-40 CUs hatte, die fingen erst darüber hinaus an, wo man von 56 auf 64 CUs quasi nahe 0% Skalierung hatte und die beiden Vegas nur durch unterschiedliche HBM Taktraten und Powerlimits voneinander differenzieren konnte.

Generell gilt, dass die Skalierung schlechter wird, je mehr CUs man hinzufügt.
Wo das bei RDNA2 und 80CUs liegt, weiß man nicht, weil wir bisher auch in RDNA1 nichts über 40CUs hatten.

Bei Nvidias Turing war sie von der 2080S auf die 2080Ti auch nur bei ca 60%, daher waren 60% auch meine konservative Schätzung und ich würde optimistisch auch nicht von mehr als 75% ausgehen.
Ergänzung ()


Hier glaube ich an AMDs gesunden Menschenverstand und gehe nicht davon aus, dass man einen so großen 80CU Chip designt, der teuer zu produzieren ist, um ihn dann an der Speicherbandbreite verhungern zu lassen, wodurch man auch einfach einen kleineren und günstigeren 60CU Chip hätte nehmen können.

Die Speicherbandbreite wäre übrigens auch ein Faktor bei deiner 5500XT Rechnung, denn obwohl sie ebenfalls 8GB besitzt, hängen die im Vergleich zur 5700 nur an einem 128bit Bus und schon bei der 5600XT wurde ja ein 192bit Bus verwendet, um sie noch ein Stück mehr von der 5700 fern zu halten.
4352 / 3072 = 1.42
2080s vs 2080ti FE = +22% (4k)
Realer Takt 2080s knapp 1.9GHz
Realer Takt 2080ti FE ca. 1.75GHz
(1.22*1.9)/(1.42*1.75)*100=93%
Wo soll die 2080ti FE eine Skalierung von nur 60% haben?
 
Zuletzt bearbeitet:
LäuftBesser2000 schrieb:
Danach kommt Nvidia mit einer 3080S/ti und konntert mit 20GB bei höheren Takt und Verbrauch.
Leistungstechnisch wird Nvidia die Nase vorne haben.
Ausgehend des Startpreises für eine normale / Founders Edition 3080 von 699€, den wohl sehr hohen Kosten für GDDR6X (im Vergleich zu GDDR6), dem Umstand dass die 3080 schon spürbar außerhalb des Sweetspots läuft, des eh schon relativ geringen Performance Unterschieds zwischen 3080 und 3090, dem sehr hohen Startpreis einer 3090 und was ich jetzt ad hoc vielleicht noch an (pessimistischen) Punkten übersehen ..., kann meinem Verständnis nach eine 3080 Super / TI kaum das leisten was du dir erhoffst, zumindest nicht für unter 800 bis 900€.
Wobei ... selbst wenn man für den Preis darauf verzichten würde am Takt der GPU zu drehen, würde man mit so einer Karte, zu so einem Preis die 3090 schlagartig derart verbrennen, dass man sie aus dem Verkauf nehmen kann. Berücksichtigt man nämlich diese, dann müsste eine 3080 Super / Ti mit 20GB Vram und ohne weitere Takterhöhung bereits locker 1000 bis 1100€ kosten und für "noch mehr" Takt gut weitere 100€ drauflegen.

Wobei... auch dann dürfte die 3090 noch immer ziemlich "überflüssig" sein. 20 oder 24GB Vram machen für den potentiellen Käufer, der mit so einer Karte nicht seriös Geld verdienen will (Zocker und "Amateur / Freizeit Renderer und Dinge Berechner") kaum einen Unterschied, während eben die Leute die sowas "Professionell betreiben um damit ihren Unterhalt zu verdienen" eher zur entsprechenden Quadro greifen (inklusive zertifizierte Treiber & Treiber Support), auch wenn die (nochmal erheblich) teurer sein sollte.
 
  • Gefällt mir
Reaktionen: Duffy Duck und Shoryuken94
Also ich glaube nicht dass AMD gegen die RTX 3080 mit einer 69xxXT in Benchmarks anstinken kann. AMD bleibt eine Vernunft-Angelegenheit und keine 750+Watt NT -minimum- "Enthusiast"-Veranstaltung :cool_alt:
Habe die ASRock Taichi XT und die ist halt doch ~10% lahmer wie die NV 2070 aber P/L-King :streicheln: Was will man mehr als Schwohb?
 
ArrakisSand schrieb:
4352 / 3072 = 1.42
2080s vs 2080ti FE = +22% (4k)
Realer Takt 2080s knapp 1.9GHz
Realer Takt 2080ti FE ca. 1.75GHz
(1.22*1.9)/(1.42*1.75)*100=93%
Wo soll die 2080ti FE nur eine Skalierung von nur 60% haben?
In deiner Formel rechnest du den Performance Unterschied mal dem Takt der 2080S und teilst es durch den Shader Unterschied mal dem Takt der 2080Ti, warum?

Es ist aber in der Tat ein bisschen mehr.

2080Ti: 4352 Shader * 2 * 1750MHz = 15,23 TFLOPs
2080S: 3072 Shader * 2 * 1900MHz = 11,67 TFLOPs

15,23/11,67 = 30,5%

+22% FPS / +30,5% TFLOPs = +0.72 FPS pro TFLOP = 72% Skalierung



Für eine genauere Berechnung bräuchte man aber eine 2080Ti auf 1,9GHz oder alternativ eine 2080S auf 1750MHz, ich denke eine 2080S verliert bei 1750MHz (-8%) keine 8% an Perfornance, wodurch dann bei der Skalierung weniger als 72% rauskommt.
 
Zuletzt bearbeitet:
Zurück
Oben