News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

VinylUndKoffein schrieb:
Ich vermutete bisher auch dass Navi 21 es nicht mit der 3080/90 aufnehmen können wird und eher der 3070 Konkurrenz macht. Auf der anderen Seite stellt sich einem, mit Blick auf den Hickhack den sich Nvidia im Moment leistet, aber schon die Frage, warum Nvidia mit dem Launch der Oberklasse-Karten nicht noch abwarten wollte und die Mittelklasse später ins Rennen schickt.

Wird Big Navi am Ende doch eine kleine Überraschung?

Ich bin gespannt.
Naja Nvidia hat doch gar nicht gelaunched, die paar Karten die an die Beta Tester gehen..
Wenn AMD liefert dann sind wohl auch 3080/3090 gut verfügbar..
 
Klingt interessant. Warten lohnt sich in dem Fall.
Frage an alle: Sind die AMD Treiber inzwischen besser bzw. auf dem Niveau von Nvidia?
 
Taxxor schrieb:
Die 3070 soll laut Nvidia bei der 2080Ti liegen.

Für 2080Ti Performance würden mit RDNA1 15-16 TFLOPS ausreichen, mit besserer IPC bei RDNA2 auch schon um die 14.

Navi21 kommt auf >21(wie passend^^), also im Gegenteil, es wäre eine große Überraschung wenn sie nur der 3070 Konkurrenz machen.
Für die 3070 wird Navi22 zuständig sein.

Bei perfekter Skalierung von 14 auf 21TFLOPs käme man 50% über der 2080TI raus ( > 3090 ) und bei nur halbwegs anständiger Skalierung immer noch bei ~35% ( > 3080 )
Wobei man bei der 2080Ti den offiziellen Angaben nicht trauen darf der real anliegende Takt in einem
grösseren gaming parcour beträgt um die 1.72 -1.75GHz bzw. 15-15.2 TFLOPS
Allerdings beziehen sich die 21 TFLOPS auf NAVI 21a mit 80CUs bei 2.05GHz
NAVI 21b mit ebenfalls 80CU's soll 2.2GHz bzw. 22.5 TFLOPS besitzen.
Bei 22.5/15 kämme man allerdings ebenfalls bei +50% raus und die voraussichtliche IPC Steigerung ist dabei noch nicht mal mitinbegriffen.
 
2,5 GHz :o sieht aus als hätte Nvidia diesmal einen Haufen schwacher Kerne und AMD kommt mit mächtigen Hochfrequenzshadern daher.. krasser Rollentausch!
 
  • Gefällt mir
Reaktionen: Cassiopea, danyundsahne und PS828
5700 XT
  • RDNA
  • 2560 Shader
  • 225 Watt Package-Power, davon schätzungsweise 180 Watt für den Chip

6900 XT
  • RDNA2 -> laut AMD ca. 50% effizienter als RDNA
  • 5120 Shader, also 2x so viel wie 5700 XT
  • bis zu 238 Watt für den Chip und somit schätzungsweise 300 Watt Package-Power

50% höhere Effizienz bedeutet im Umkehrschluss eine Stromersparnis von einem Drittel für die gleiche Leistung.

Rechnen wir einmal nach: 225*2*2/3 = 300 Watt. Rein rechnerisch ginge dies also auf. Würde die 6900 XT also so takten, dass sie exakt die doppelte Leistung (wegen doppelt so vielen Shadern) erreicht wie die 5700 XT, könnte man hier durchaus mit 300 Watt Verbrauch rechnen, was sehr realistisch klingt.

Laut dem ComputerBase-Test der RTX 3080 ist die FE (bei UHD) ebenfalls exakt doppelt so schnell wie die 5700 XT. Die 6900 XT könnte somit also bei einem Verbrauch von 300 Watt in etwa auf Augenhöhe mit der 3080 FE sein - womit sie also sogar minimal effizienter wäre.

Nicht berücksichtigt ist bei der Rechnung, inwieweit die Architektur-Verbesserungen von RDNA2 zu einer höheren Leistung der pro Shader führen. Doppelt so viele RDNA2-Shader dürften bei gleichem Takt mehr als doppelt so schnell wie die einfache Anzahl an RDNA(1)-Shadern sein. Gehen wir also weiterhin von 50% höherer Effizienz pro Leistung aus, würde die 6900 XT also vermutlich etwas niedriger als der Vorgänger takten müssen, um dennoch die Leistung der 3080 zu erreichen. Lässt man den Takt gleich oder erhöht ihn sogar noch etwas, dürfte selbst die Leistung der 3090 knapp erreichbar sein - allerdings dann auch bei deutlich über 300 Watt Package-Power.

Ich denke, AMD steht diesmal tatsächlich gar nicht so übel da wie ursprünglich gedacht! Wie sich gezeigt hat, ist die 8nm-Fertigung von Samsung ja ein ziemlicher Mist und weit hinter der 7nm-Fertigung von TSMC. Es ist meiner Einschätzung nach also durchaus realistisch, dass AMD diesen Fertigungsvorteil für sich nutzen kann, um den eigenen Architekturnachteil zu kompensieren.

Meine Prognose daher: Die 6900 dürfte sich irgendwo zwischen 3080 und 3090 einpendeln und im schlimmsten Fall nur sehr knapp hinter der 3080 liegen. Aber warten wir es ab! :)
 
  • Gefällt mir
Reaktionen: GUN2504, Alpha.Male, GHad und 7 andere
modena.ch schrieb:
@daniel 1301
Ich finde die Zurückhaltung eigentlich gut, dass sie in der letzte Dekade so rumgetönt haben hat ihnen
nix gebracht, eher im Gegenteil Reputation gekostet.

Schlecht für die Reputation ist es nur wenn man Versprechen macht, die am Ende nicht gehalten werden können.
 
Zotac2012 schrieb:
Aber das sind alte Geschichten die wohl immer in Erinnerung bleiben werden, zumindest galt die GTX 970 damals zu Beginn des Release als P/L Monster die sich auch noch normal sterbliche Kunden leisten konnten.
Ich hätte mir sogar eine gekauft, wenn ich nicht eine 290 gehabt hätte, noch so ein Monster ;-)
Was aber schon damals bei Release der 970 merkwürdig war, war die niedrige SLI Performance. Da hat dann auch schon der normal sterbliche Kunde wohl den knappen Speicher bemerkt. ;-)
 
  • Gefällt mir
Reaktionen: Zotac2012
Taxxor schrieb:
Bei perfekter Skalierung von 14 auf 21TFLOPs käme man 50% über der 2080TI raus ( > 3090 ) und bei nur halbwegs anständiger Skalierung immer noch bei ~35% ( > 3080 )
Naja, Du hast jetzt hier im Thread gefühlt hundert Mal vorgerechnet was bei Big Navi an Leistung rauskommen muss und bist da bei einer Leistung zwischen einer RTX 3080 und 3090 oder sogar darüber. Das eine sind Rechenaufgaben auf dem Papier, was aber in der Realität letztlich auf dem Monitor ankommt, das werden wir spätestens dann sehen, wenn die Grafikkarten verfügbar sind.

Ich habe auch so manche Berichte von Usern gelesen, wo die Specs von Nvidia so ziemlich feststanden, da wurde auch deutlich mehr Leistung prognostiziert. Auch unser CEO Huang hat bei seiner Präsentation in seiner Küche deutlich übertrieben, am Ende zeigen erst unabhängige Tests, was wirklich gemittelt über alle Szenarien und Games, auf dem Desktop ankommt.

Ich verstehe natürlich auch die Sehnsucht, gerade von den Usern und Kunden, die AMD näherstehen als Nvidia, aber jetzt werden hier wieder Leistungen vorhergesagt und wenn AMD es dann nachher nicht liefern kann, dann wird wieder alles in Grund und Boden geredet und das Gezeter und die Enttäuschung sind groß.

Ich bin da eher Realist, ich erwarte da lieber etwas weniger und wäre alles andere als enttäuscht, wenn sich AMD zwischen der RTX 3070 und RTX 3080 platziert. Sollte am Ende dann doch noch mehr rauskommen, dann bin ich positiv überrascht und werde erstaunt sein, wie das AMD geschafft hat. Aber die jetzt schon wieder übertriebenen Erwartungen zu wecken, finde ich einfach nicht gut, weil dann nachher vielleicht die Enttäuschung umso größer ist.
 
  • Gefällt mir
Reaktionen: sebastian.fey, domian, tidus1979 und eine weitere Person
ArrakisSand schrieb:
Wobei man bei der 2080Ti den offiziellen Angaben nicht trauen darf der real anliegende Takt in einem
grösseren gaming parcour beträgt um die 1.72 -1.75GHz bzw. 15-15.2 TFLOPS
Weiß ich doch, dazu kommen auch die custom Designs, die allesamt eher Richtung 16.5 TFLOPs gehen und daher braucht man ca. 15-16 TFLOPs mit RDNA1, passt doch.
Die offizielle Angabe auf dem Papier ist mit 13.45 ja noch niedriger.

ArrakisSand schrieb:
Allerdings beziehen sich die 21 TFLOPS auf NAVI 21a mit 80CUs bei 2.05GHz
NAVI 21b mit ebenfalls 80CU's soll 2.2GHz bzw. 22.5 TFLOPS besitzen.
Hier bleibe ich bei AMDs bisheriger Vergangenheit, in der der reale Takt in Spielen immer 100-150MHz unter dem lag, was im Treiber drin stand, also real sehe ich dann eher 1.95GHz bei Navi21a und 2.05GHz bei Navi21b
 
Zuletzt bearbeitet:
IXI_HADES_IXI schrieb:
Das liest sich wirklich alles super. Wäre ein Traum wenn Leistung und Preis passt beerbt meine 1080 TI eine AMD Karte. An der 3080 stören mich 10GB

Die 10GB sind echt ein Gag und das hat mich extreme enttäuscht bei der Präsentation. Ich mein meine 1080TI hat mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alpha.Male, ChrisM und LukS
Ich bleibe dabei, irgendetwas ist nicht stimmig. Denn wenn Big Navi wirklich so gut wird, täte AMD gut daran mal ein paar Benches zu leaken, damit diejenigen die jetzt auf eine 3080 geiern einfach warten.
 
  • Gefällt mir
Reaktionen: CaptainPiett
Hm, also die 2.5 GHz glaube ich erst wenn ich es sehe. Ansonsten scheint es als wuerden die "ausversehenen Leaks" starten die sich so einige erhofft haben. Schlecht sieht es immerhin nicht aus.

Novasun schrieb:
NV müsste Stand heute der größere Kunde eigentlich sein [wobei rein GPU gerechnet]...

Ausser, dass AMD GPUs, CPUs, und Custom Chips fuer PS5 und Xbox bei TSMC fertigt. Die duerften Nvidia da mittlerweile ueberholt haben von der Abnahmemenge. Und es scheint wahrscheinlich, dass Nvidia gepokert hat, aber im Endeffekt TSMC sich nicht darauf eingelassen hat.

B.L. Swagger schrieb:
Bei einer 80CU GPU hätte ich 12GB @384bit und einer Bandbreite wie bei der 3080 erwartet mit 16Gbps um etwas Geld zu sparen.

Das kann man nicht einfach so sagen sondern kommt extrem auf die Architektur an. Wenn AMD wirklich einen relativ grossen Extra-Cache nutzt, dann kann das das Interface fast komplett kompensieren. Man sollte Caches nicht unterschaetzen wenn die gut umgesetzt sind. (Programmier dir einfach mal deinen eigenen Prozessor fuer ein FPGA und packe dann einen Cache drauf und du wirst sehen was ich meine.) Ich sehe das Speicherinterface zwar selber auch noch als problematisch, aber es kann funktionieren. Kommt halt drauf an wie man mit Misses umgeht und wieviel die kosten. Der Cache koennte prinzipiell auch bei einer DLSS Alternative oder RT helfen. Das ist technisch bei einer GPU endlich mal was neues.

vander schrieb:
Bei DLSS ist zum einen fraglich ob sie das überhaupt stemmen und selbst wenn, wird es dann kompatibel oder sind noch mehr Anpassungen (für bereits DLSS lompatible Spiele) nötig? Damit wäre es IMO eine Totgeburt, dann sollen sie lieber die herkömmlichen Treiberfunktionen optimieren.

Dazu hat sich doch Microsoft selbst schon geaeussert und sie haben was von KI unterstuetztem Scaling geredet. Und nein, egal was AMD macht, es wird nicht fuer DLSS kompatibel, da das eben proprietaer ist.

t3chn0 schrieb:
"Hallo Herr Nvidia, wie oft möchten Sie sich dieses Jahr selbst ins Bein schießen?"

...."Ja"....

AMD hat das Marketing einfach an Nvidia ausgelagert. ;) Aber ja, bei dem was Nvidia da macht kann man nur mit dem Kopf schuetteln.

B.L. Swagger schrieb:
RDNA2 hat zwar ML, aber muss wie auch RT wenn es genutzt wird gut bei der Rasterisierungs Leistung Einbüßen, da sie keine extra HW wie NV nutzen.
NV ist da einfach weit vorraus noch.

Dir ist schon bewusst, dass Nvidia auch Leistung verliert bei RT? Sogar gewaltig? Die extra Hardware hilft da nur bedingt und kostet erstmal zusaetzlich Chipflaeche. Die normalen Einheiten werden auch bei Nvidia gebraucht. Welche Loesung besser laeuft wird man erst noch sehen. Falls es AMD aber schaffen wuerde die Einheiten dynamisch genug aufzubauen, so, dass sie fuer beides genutzt werden koennen, dann waere das um einiges weiter als Nvidia ist.
 
domian schrieb:
Ich bleibe dabei, irgendetwas ist nicht stimmig. Denn wenn Big Navi wirklich so gut wird, täte AMD gut daran mal ein paar Benches zu leaken, damit diejenigen die jetzt auf eine 3080 geiern einfach warten.
Als ob AMD jetzt schon fertige Treiber hätte ^_^
 
  • Gefällt mir
Reaktionen: bad_sign
gerade wenn Chipfläche teuer is muss man den Takt knebeln so gut es geht. Deshalb machen die Specs schon durchaus Sinn, zb den kleinen Navi bis auf 2.5 Ghz Boosten auch wenn die Effizienz ggf. stark darunter leidet. Beim kleinen Chip kann man da etwas weiter gehen. Takt kostet ja in der Herstellung erstmal nichts direkt.

Alleine das klein Navi hier mit bis 2.5 Ghz im Gespräch ist gefällt mir. Möglich dass wir tolle OC Karten sehen die sich über 2,5Ghz raustakten lassen.

Wenn Big Navi z.B. diesen Boost im Alltag nicht abruft, dann sieht es mit Power Mod und Wasser ggf schon besser aus und ich denke die Takt-Oberkante ist bei Big und Klein Navi quasi gleich.

Speicher. Um diese hohe Leistung abzurufen bin ich gespannt was AMD da beim Speicher macht. 256Bit klingt fast etwas unrealistisch, außer man hat einen Weg gefunden über Chip internem Cache das abzufedern. 16Gb HBM wären mir aber irgendwie lieber ;)
Wenn hier ein quasi kleines Speicher Tier in der GPU zu finden ist dann greift dieses Tir wie jeder Cache gern mal daneben und dann hat man ggf wieder Microruckler je nach Titel.

Mir fehlen auch noch ein paar Benchmark Leaks. Fraglich ist auch wie gut AMDs RT Implementierung wird.
 
  • Gefällt mir
Reaktionen: domian
Novasun schrieb:
NV müsste Stand heute der größere Kunde eigentlich sein [wobei rein GPU gerechnet]... Und man nimmt eher doch einen langjährigen Partner mit auf die Reise des neusten Nodes....
AMD wurde vor kurzem hochgestuft zum VIP Kunden. Nvidia kauft einfach nicht genug ein, AMD ist jetzt genauso wichtig wie die Smartphone Chips. Yay.
 
domian schrieb:
Ich bleibe dabei, irgendetwas ist nicht stimmig. Denn wenn Big Navi wirklich so gut wird, täte AMD gut daran mal ein paar Benches zu leaken, damit diejenigen die jetzt auf eine 3080 geiern einfach warten.
Das wird man natürlich nicht machen, würde AMD jetzt irgendetwas leaken was auf dem Niveau der RTX 3080 oder darüber ist und am Ende deutlich weniger rauskommt, dann wäre der Shitstorm und die Häme groß. Zumal Benches von einem Hersteller immer mit Vorsicht zu genießen sind.

Würden die Benches zwischen der RTX 3070 und der RTX 3080 liegen, dann gibt es viele die sagen, habe ich doch gewusst und auf AMD gewartet haben um eine Kaufentscheidung zu treffen, die würden vermutlich dann doch sofort zu einer RTX 3080 greifen.
 
Maximale Leistung sind für mich zweitrangig.
Eine Gute Effizienz und ein Gutes P/L Verhältnis sind mir wichtiger. Da sollte die Reise mal wieder hingehen. Und in der Theorie ist AMD nach jetzigem Kenntnisstand bei der Effizienz jedenfalls für mich auf dem richtigen Weg. Jetzt muss nur noch der Preis dann noch stimmen.
 
  • Gefällt mir
Reaktionen: cmi777
Salamimander schrieb:
Also 3080 Leistung unter 250TDP ist gekauft. Blind !

Nur die Leistung kennen wir ja nicht.
Das mit dem blind kaufen … das hat jetzt bei den Nvidia Karten auch nicht so gut funktioniert. ;-)
Aber ja, Preis ist dann wirklich schon fast egal.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, mgr R.O.G. und Mcr-King
Zurück
Oben