News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Sorry - ich hab jetzt nicht jeden Beitrag hier gelesen.
Ich schätze wenn das Preis/Leistungsverhältnis stimmt kann es mit der Karte wirklich was werden. Wenn die Karte vielleicht so 10% langsamer wäre wie eine 3080 (alles jetzt theoretisch angenommen) und Preislich deutlich niedriger liegt dann könnte ich mir vorstellen dass sich das Ding super verkauft ähnlich wie bei den Ryzens. Ausseer die absoluten Freaks die außer ständigen Benchmarks um sich auf die Brust zu klopfen wie viele Frames ihre Karte schafft gibt es ja auch noch den "Normalzocker". Die wollen zwar auch gute Grafikleistung, kämpfen aber nicht um jedes Frame.
Ich kann nur hoffen, das AMD nicht den gleichen Fehler macht wie bei den Ryzens in dem manche Dinge versprochen wurden, die dann nicht gehalten worden konnten - zumindest am Anfang. Man wird sehen. Jedenfalls eine sehr spannende Sache.
 
SaschaHa schrieb:
5700 XT
  • RDNA
  • 2560 Shader
  • 225 Watt Package-Power, davon schätzungsweise 180 Watt für den Chip

6900 XT
  • RDNA2 -> laut AMD ca. 50% effizienter als RDNA
  • 5120 Shader, also 2x so viel wie 5700 XT
  • bis zu 238 Watt für den Chip und somit schätzungsweise 300 Watt Package-Power

50% höhere Effizienz bedeutet im Umkehrschluss eine Stromersparnis von einem Drittel für die gleiche Leistung.

Rechnen wir einmal nach: 225*2*2/3 = 300 Watt. Rein rechnerisch ginge dies also auf. Würde die 6900 XT also so takten, dass sie exakt die doppelte Leistung (wegen doppelt so vielen Shadern) erreicht wie die 5700 XT, könnte man hier durchaus mit 300 Watt Verbrauch rechnen, was sehr realistisch klingt.

Laut dem ComputerBase-Test der RTX 3080 ist die FE (bei UHD) ebenfalls exakt doppelt so schnell wie die 5700 XT. Die 6900 XT könnte somit also bei einem Verbrauch von 300 Watt in etwa auf Augenhöhe mit der 3080 FE sein - womit sie also sogar minimal effizienter wäre.

Nicht berücksichtigt ist bei der Rechnung, inwieweit die Architektur-Verbesserungen von RDNA2 zu einer höheren Leistung der pro Shader führen. Doppelt so viele RDNA2-Shader dürften bei gleichem Takt mehr als doppelt so schnell wie die einfache Anzahl an RDNA(1)-Shadern sein. Gehen wir also weiterhin von 50% höherer Effizienz pro Leistung aus, würde die 6900 XT also vermutlich etwas niedriger als der Vorgänger takten müssen, um dennoch die Leistung der 3080 zu erreichen. Lässt man den Takt gleich oder erhöht ihn sogar noch etwas, dürfte selbst die Leistung der 3090 knapp erreichbar sein - allerdings dann auch bei deutlich über 300 Watt Package-Power.

Ich denke, AMD steht diesmal tatsächlich gar nicht so übel da wie ursprünglich gedacht! Wie sich gezeigt hat, ist die 8nm-Fertigung von Samsung ja ein ziemlicher Mist und weit hinter der 7nm-Fertigung von TSMC. Es ist meiner Einschätzung nach also durchaus realistisch, dass AMD diesen Fertigungsvorteil für sich nutzen kann, um den eigenen Architekturnachteil zu kompensieren.

Meine Prognose daher: Die 6900 dürfte sich irgendwo zwischen 3080 und 3090 einpendeln und im schlimmsten Fall nur sehr knapp hinter der 3080 liegen. Aber warten wir es ab! :)


Pass beim Umrechnen der Effizienz auf. Die Effizienzsteigerung bezieht sich fast immer auf den Vergleich gleicher Grafikeistung mit älterem Arc, das kann man nicht einfach so umrechnen, dass die höhere Leistung dieser Effizienz entspricht. Laut NVIDIA Whitepaper ist Ampere 90% effizienter als Turing... Inwieweit die Mehrleistung dann skaliert wird hierdurch nicht beschrieben.

1601206105073.png
 
  • Gefällt mir
Reaktionen: MrNejo, SaschaHa, tidus1979 und eine weitere Person
Nightspider schrieb:
Wozu dann die zwei 8-Pin Strom-Anschlüsse?
Für bis zu 300W für Navi21b sind 2x 8-Pin doch ganz normal. Selbst die 200W Karten von AMD haben 2x 8-Pin, einfach weil man den Maximalverbrauch des Chips ja im Treiber bequem um 50% erhöhen kann.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, bad_sign, Mcr-King und eine weitere Person
nospherato schrieb:
Ich bin mal gespannt. Würde gern mal wieder eine AMD im Rechner haben wollen.

Dito. Eine AMD GPU samt AC Waterblock und hohem Takt. :D
 
  • Gefällt mir
Reaktionen: Haldi, Onkel Föhn und nospherato
Krautmaster schrieb:
Alleine das klein Navi hier mit bis 2.5 Ghz im Gespräch ist gefällt mir. Möglich dass wir tolle OC Karten sehen die sich über 2,5Ghz raustakten lassen.
Boost ist dieser Tage so gut, ganz besonders bei AMD, das die Karten wahrscheinlich so ausgeliefert werden das sie schon nahe am Limit ihrer Chips sind. Maximal das per Binning noch besonders gute Chips für OC Modelle gesammelt werden … viel zu gewinnen gibt es dieser Tage nicht in der "Silicon Lottery"
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zotac2012 schrieb:
Das wird man natürlich nicht machen...

Das ist absolut widersinnig, denn schliesslich sind sie sich ja Ihrer Sache sehr sicher (Twitter Posts, etc). Verlieren werden sie aus meiner Sicht eher, wenn sie jetzt nicht die Hosen herunterlassen und dann die Leistung abermals nicht der Erwartungshaltung entspricht.
 
Leute, diese Rechenspiele anhand von geleakten Specs führen doch zu nichts. Laut Nvidia war Ampere auch bis zu 1.9x so effizient wie Turing… Am Ende blieb davon nicht viel übrig, weil der Chip in den fertigen Karten (wie immer) zu Gunsten der Leistung nicht im optimal effizienten Performance/Watt Bereich läuft. Warum sollte man davon ausgehen, dass es bei AMD anders sein wird?
 
tidus1979 schrieb:
Warum sollte man davon ausgehen, dass es bei AMD anders sein wird?
Weil der Leak auch Power und Takt genannt hat. ;-)
 
  • Gefällt mir
Reaktionen: Taxxor
Zotac2012 schrieb:
Das wird man natürlich nicht machen, würde AMD jetzt irgendetwas leaken was auf dem Niveau der RTX 3080 oder darüber ist und am Ende deutlich weniger rauskommt, dann wäre der Shitstorm und die Häme groß. Zumal Benches von einem Hersteller immer mit Vorsicht zu genießen sind.

Würden die Benches zwischen der RTX 3070 und der RTX 3080 liegen, dann gibt es viele die sagen, habe ich doch gewusst und auf AMD gewartet haben um eine Kaufentscheidung zu treffen, die würden vermutlich dann doch sofort zu einer RTX 3080 greifen.

Die sollen ja nur Leaken was sie wirklich haben. Ich stimme da dem Kollegen oben schon bei.

AMD weiß stand heute sehr genau wo die Big Navi landen wird. Der Chip ist fertig und die Produktion ist seit einigen Wochen gestartet sein und man kann maximal noch an Treiber / Bios weiterentwickeln. Und wenn AMD Stand heute sichere Ergebnisse hat die ungefähr einer 3080 entsprechen, dann fände ich persönlich einige klug gesetzte Leaks schon als wichtiges Marketinginstrument.

Ansonsten muss man schon sagen verliert AMD zwischen September 2020 und Oktober 2020 einige 10.000 potentielle Kunden für die Big Navi "RTX 3080 Klasse".
 
Tyga schrieb:
Klingt interessant. Warten lohnt sich in dem Fall.
Frage an alle: Sind die AMD Treiber inzwischen besser bzw. auf dem Niveau von Nvidia?
Nein
 
DeadMan666 schrieb:
Ansonsten muss man schon sagen verliert AMD zwischen September 2020 und Oktober 2020 einige 10.000 potentielle Kunden für die Big Navi "RTX 3080 Klasse".
Wer anhand der bisherigen Leaks nicht auf AMD wartet, der kauft sowieso Nvidia.
 
  • Gefällt mir
Reaktionen: aldaric, ahuev0 und mibbio
Das mit der TDP ist ja sowieso immer so eine Sache. Als Beispiel sei hier mal genannt, das AMD seine CPUs anders spezifiziert wie Intel-CPUs. Da wird es wohl bei GPUs auch nicht anders sein. Am Ende zählt doch nur die Spieleleistung und welches Netzgerät ich dafür brauche.
 
domian schrieb:
Das ist absolut widersinnig, denn schliesslich sind sie sich ja Ihrer Sache sehr sicher.....
Wenn das so wäre, dass sie sich so sicher sind, dann hätten wir schon irgendetwas durchgestochen bekommen. Also ich habe bisher noch keine Leaks gesehen, die irgendwelche Benchmark Werte von Games betrifft.

Und dass was ich so zuletzt von AMD vernommen habe, war eher, dass man ruhig und besonnen reagiert und nicht irgendeinem Hype unterworfen hat. Von daher wüsste ich jetzt nicht, was daran widersinnig sein sollte. Bis jetzt finde ich, hat AMD doch alles richtig gemacht und bis zum 28. Oktober wird man mehr und mehr an Informationen und Werten sehen, ist doch immer so und hält die Spannung hoch. :daumen:
 
  • Gefällt mir
Reaktionen: domian
Redragonzensor schrieb:
Ist in 1 Spiel was ich habe (Minecraft ist mir mal egal) und in 2 die ich mir eventuell kaufen will.

Keine angst die kakke wird sowas von verbreitet, allein wegen cyberpunk wird der hype explodieren. Ausserdem VR DLSS wird ultra nutzlich. Endlich wird 4k pro auge eine möglichkeit es fehlen nur noch die headsets
 
Kacha schrieb:
Das kann man nicht einfach so sagen sondern kommt extrem auf die Architektur an. Wenn AMD wirklich einen relativ grossen Extra-Cache nutzt, dann kann das das Interface fast komplett kompensieren. Man sollte Caches nicht unterschaetzen wenn die gut umgesetzt sind. (Programmier dir einfach mal deinen eigenen Prozessor fuer ein FPGA und packe dann einen Cache drauf und du wirst sehen was ich meine.) Ich sehe das Speicherinterface zwar selber auch noch als problematisch, aber es kann funktionieren. Kommt halt drauf an wie man mit Misses umgeht und wieviel die kosten. Der Cache koennte prinzipiell auch bei einer DLSS Alternative oder RT helfen. Das ist technisch bei einer GPU endlich mal was neues.
Ein gut konzipierter Cache könnte nicht nur das langsamere Interface kompensieren, sondern auch für eine bessere Auslastung der vielen Recheneinheiten führen (Thema Skalierung). Aber wir werden sehen, was es tatsächlich bringt. Ja, endlich wieder einmal ein innovativer Ansatz. :)
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
PusteBlume0815 schrieb:
Das mit der TDP ist ja sowieso immer so eine Sache. Als beispiel sei hier mal genannt, das AMD seine CPUs anders spezifiziert wie Intel-CPUs. Da wird es wohl bei GPUs auch nicht anders sein.
Bei GPUs ist es bei beiden Herstellern genau gleich. TDP = maximale Verlustleistung des Chips, TBP = maximale Verlustleistung der Karte, wobei typischerweise die TBP angegeben wird.

Da es hier in der News aber nicht um Karten, sondern nur um die chips geht, sind die Werte hier auch nur die TDP des Chips, da dürfte eine 3080 auch nur bei um die 250W liegen.
 
  • Gefällt mir
Reaktionen: Apocalypse
bensen schrieb:
So werden alle Player ihre Karten ausspielen.
Sorry das sehe ich zum Teil anders. Denn TMSC braucht auch "Partner". Denn ein neuer Fertigungsprozess entwickelt man mit denen am besten an konkreten Produkten. Und wenn man als erstes intern ein existierendes Chipdesign "nur" shrinkt... Damit sehen dann alle Beteiligten wie gut der neue Prozess ist. Und wo es evtl. neue Probleme gibt... Und NV war zumindest in letzter Zeit nie einer der ersten die den aktuellsten Fertigungsprozess nutzte. 7nm nutzt NV ja nur bei irgendwelchen Quadros.. Da war aber die 5xxx schon lange draußen und Zen 3 ES gab es da vermutlich auch schon.
 
Der Vergleich wird richtig interessant werden. Bald kommt endlich 4k Gaming zu einem akzeptablen Preis
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Der AMD Hype train läuft
 
  • Gefällt mir
Reaktionen: Apocalypse
Zurück
Oben