News AMD Radeon RX 7000 („RDNA 3“): PowerColor zeigt roten Teufel, Leaker ersten Navi-31-Chip

MrHeisenberg schrieb:
60,9 FPS bei 304 W -> 4,99 W/FPS -> 112,61 FPS bei 375W und +50% Perf/W, wenn es denn linear skaliert,
So die Aussage von AMD, und wenn du für die XTX 420W annimmst biste bei 125FPS und damit bei >2x Leistung.
 
@MrHeisenberg korrekt, da ist mir ein Fehler unterlaufen, hab die 3080 in der Liste mit der 6900Xt verglichen, ist korrigiert, danke.

Die 3080 gibt es für ca. 800€, also kann man die 6900XT mit der 3080 vergleichen... da ist es dann um die 3080 geschehen. ;)
Wenn man RT braucht 3080 oder sonst die 6900XT.
 
  • Gefällt mir
Reaktionen: simosh und MrHeisenberg
FreedomOfSpeech schrieb:
So die Aussage von AMD, und wenn du für die XTX 420W annimmst biste bei 125FPS und damit bei >2x Leistung.
Du machst aber einen Fehler: die Performance steigt nicht linear zum Takt bzw. Verbrauch.
Die 7900XTX ist >50% schneller als die 6900XT bei gleichem Verbrauch (304 W). Der Rest kommt über den Takt und den minimal größeren TDP Headroom (75 W). Daraus werden keine 2x, wenn die Karte nicht 500W+ saufen soll und das sah man schon bei der 6950XT. Minimal mehr Performance für 130W mehr Verbrauch.
 
Junge!!!
Ne MCM-GPU.
Das gab es noch nie in unserem Leben und wir sind im Jahr 2022!!!
Das ist das krasseste Stück Silizium dieser Dekade!
Ich bin übertrieben Heiß auf die GPUs!!!
 
  • Gefällt mir
Reaktionen: simosh, M7.Cyrius, jo0 und 3 andere
MrHeisenberg schrieb:
Die 7900XTX ist >50% schneller als die 6900XT bei gleichem Verbrauch (304 W).
Ich gehe von den 50% bzgl. der fertigen Karte aus, weil sie nicht sagen "bei 300W", sondern einfach Generation Leap meinen. Wir werden heute abend wissen wessen Anahme richtig war.
 
Erstaunlich, dass selbst bis kurz vor Vorstellung von RDNA3 keine genaueren Leaks zur Leistungsfähigkeit der neuen Chips durchgesickert sind. Vermutlich haben selbst AIBs nur "verkrüppelte" Muster erhalten.
Angesichts einer Steigerung der Compute Units um sagenhafte +140% zur 6950XT und zusätzlich gemutmaßte Taktsteigerungen auf 3 Ghz könnte ich mir gut vorstellen, dass die Leistungssteigerungen von Navi21 deutlich höher liegen als gedacht. Da ist die stark umgekrempelte Architektur mit WGAs, die sicherlich nicht schlechter als die alte sein wird, noch gar nicht mit einbezogen. Einzig der ausgelagerte Cache könnte eine dämpfende Wirkung entfalten. Dafür kann die Chiplet-Technik massive Kostenersparnisse ermöglichen.

Meine aktuelle Prognose bzw. Blick in die Kristallkugel für heute Abend ist:
Die RX7900XTX wird beim Rasterizing um Faktor 2 schneller als die RX6900XT und die RTX4090 damit überflügeln. Beim Raytracing wird sie nicht ganz mithalten, aber die bestehende Lücke deutlich verkleinern.
Preislich werden ca. 1299$ aufgerufen. Neben niedrigeren Kosten kann AMD eine geringere Leistungsaufnahme, Standard-8-PIN-Stecker und den einfachen Einbau der Garfikkarten aufgrund kleinerer Dimensionen für sich geltend machen.
Die RX7900XT wird beim Rasterizing um ca. den Faktor 1,8 schneller als die RX6900XT und etwa gleichauf mit der RTX4090 liegen. Beim Raytracing vergrößerst sich der Abstand leicht. Insgesamt wird die Performance aber deutlich über der RX4080 liegen.
Preislich kann AMD die Karte für augenfreundliche 999$ anbieten.
 
  • Gefällt mir
Reaktionen: Fighter1993, Luuuc22 und Piak
Ich bin sehr gespannt.
So langsam müsste ich meine RX5700xt mal "nach unten durch vererben" :)
 
  • Gefällt mir
Reaktionen: simosh und Abe123
Um die 12000 Shader sind grob 130% mehr als RX6000, das würde locker reichen um die führung zu übernehmen. Ich glaubs aber nicht weil die Gerüchteküche noch so still ist, das heißt nichts gutes
 
engineer123 schrieb:
Stimmt, das wird easy machbar sein für AMD.
65 % mehr Leistung, wenn AMD alleine schon plant, dass man bei FPS/Watt mindestens 50 % zulegen will, ist für AMD durchaus machbar und wenn du etwas Ahnung von der Materie hast und dir die Zahlen ansiehst, die aktuell herum geistern, dann sind die 65 % eher als unterste Grenze zu verstehen. AMD legt beim Shadercount von 5120 auf 12888 Shader zu, dass sind 150 %. Beim Takt wird auch noch mal von 10 - 30 % gesprochen.

Die 4090 ist zwischen 50 - 80 % schneller als die 3090, je nachdem welche Spiele die jeweilige Seite testet, im Mittel ist die 4090 über alle Spiele, egal ob Raster oder RT, ca. 70 % schneller als die 3090, die 3090 ist je nach den Spielen zwischen 5 - 20 % schneller als die 6900 XT und die 4090 ist damit zwischen 55 - 100 % schneller als die 6900 XT.

MrHeisenberg schrieb:
Wo genau ist sie denn überlegen?
Eine Seite mit einer begrenzten Auswahl an Spielen, in der die 3090 stärker ist. Computerbase ist ebenso eine Seite mit begrenzter Auswahl an Spielen, in der die 3090 erst als OC ca. 10 % schneller ist.

Wenn man weitere Ergebnisse zusammenträgt, dann kommt heraus, dass die 3090 im Mittel zwischen 5 - 10 % schneller ist und erst mit RT dann 20 - 30 % voraus ist.

Heute Abend wird AMD die RDNA3-Architektur vorstellen und dann kann man weitere Mutmaßungen anstellen. Jenachdem, was kommt, kann RDNA3 für ADA richtig gefährlich werden, Ampere wird aber auf jeden Fall geschlagen und zwar nicht mit nur ein paar Prozent, sondern ordentlich.
 
  • Gefällt mir
Reaktionen: Colindo
Ist lang her, dass ich so gespannt war auf ein Stück Hardware.

Meine Hoffnung: unter 1000€ (also 999), Leistung der RTX 4090-10%, dafür 300W Stromverbrauch

Utopisch, ich weiß :D
Wenn AMD in Schlagweite der Leistung der 4090 kommt, werden sie das nicht verscherbeln, sondern ebenso zulangen.
 
Syrato schrieb:
Die UVP der RX 6800xt war 649.-, die UVP der RTX 3090 war 1499.-... WO WAREN DIE GLEICH TEUER.
er redet von seinen Straßenpreisen, bei der 6800xt damals als sie neu / aufgrund Corona teuer war und bei der 3090 mittlerweile, wo sie, immer noch zu teuer / "pseudo verschleudert" wird (wofür es erforderlich ist, dass die 4090 so teuer ist, weil die Käufer der 3090 dann sehen würden, dass sie zu viel zahlen und zum Nutzen der 4090, denn durch den zu hohen Preis der 3090 kann der Preis der 4090 "substantiell" gestützt werden) #SelbstErfüllendeProphezeiung

Dass er dabei gut 1 bis 2 Jahre unterschlägt... also wirklich... das ist doch wohl dein Problem... und all jener, die beim Denken eine gewisse Logik ansetzen...

facepalm
 
  • Gefällt mir
Reaktionen: Beg1 und Gerithos
Hutzeliger schrieb:
Mal schauen ob Sie es deutlich an einer 3090 Ti vorbeischaffen.
Lol, da ist ja schon die 6900 XTX in Schlagdistanz,

Die werden sie klar fressen, bei so viel höheren Taktraten und so viel mehr
Shadern zum Vorgänger.
 
  • Gefällt mir
Reaktionen: eXe777
MrHeisenberg schrieb:
Die 7900XTX ist >50% schneller als die 6900XT bei gleichem Verbrauch (304 W). Der Rest kommt über den Takt und den minimal größeren TDP Headroom (75 W). Daraus werden keine 2x, wenn die Karte nicht 500W+ saufen soll und das sah man schon bei der 6950XT. Minimal mehr Performance für 130W mehr Verbrauch.

Du machst den Fehler, dass die Angabe von 50% mehr Effizienz genau zutrifft. Das war aber nur das Ziel von AMD. Niemand weiß aktuell, was am Ende wirklich geschaffen wurde. Wenn die Effizienz sogar um 70% gesteigert werden konnte und man dann noch etwas mehr Strom oben drauf gibt, dann landet man durchaus auch über 100% mehr Performance.

Ich hoffe einfach das man nicht auf Teufel komm raus ganz oben bei der Performance stehen möchte, sondern ganz oben bei der Effizienz und das zu einem angemessenen Preis. Bin so gespannt...
 
  • Gefällt mir
Reaktionen: Colindo und Känguru
Hier mal mein naiver Ansatz wie die Leistung der RDNA3 zur 4090 aussehen könnte.

RTX 3090 Ti ~10750 Cores
RTX 4090 ~16400 Cores.
Core Faktor ~ x1.5
Reale Rasterperformance ~ x1.66 ( Die 4090 ist 1.66x so schnell wie die 3090 Ti)
- Die reale Leistung ist etwas höher als der Core Faktor weil die neuen Karten höher takten.

RX 6900 XT ~ 5100 Cores
RX 7900 XTX ~ 12300 Cores
Core Faktor ~ x2.4
Genau wie bei ADA soll auch RDNA3 deutlich höher takten als RDNA2.

Die nackten Zahlen können für eine stärkere Karte als die 4090 sprechen oder übersehe ich etwas? Was ich nicht weiß ob RDNA3 Kerne langsamer sind als RDNA2 Kerne? Aber selbst wenn diese 30% pro Core langsamer sind, sollte RDNA3 besser da stehen.

Was abseits der Zahlen gegen eine stärkere Karte spricht, ist das AMD seit dem 4090 Release recht ruhig ist.
 
bigdaniel schrieb:
RTX 3090 Ti ~10750 Cores
RTX 4090 ~16400 Cores.

RX 6900 XT ~ 5100 Cores
RX 7900 XTX ~ 12300 Cores

Die nackten Zahlen können für eine stärkere Karte als die 4090 sprechen oder übersehe ich etwas? Was ich nicht weiß ob RDNA3 Kerne langsamer sind als RDNA2 Kerne? Aber selbst wenn diese 30% pro Core langsamer sind, sollte RDNA3 besser da stehen.

Nvidia: Samsung ~10nm Äquivalent -> TSMC 5nm
AMD: TSMC 7nm -> TSMC 5nm
-> Alleine das ist ein gigantischer Vorteil für Nvidia bzw. die 4000er Karten. Nvidia hätte die gleiche 3000er Karte nochmal bei TSMC jetzt bauen können und wäre dadurch schon 50% effizienter unterwegs. Bei AMD sind das vielleicht 20% durch das neue Verfahren.
 
  • Gefällt mir
Reaktionen: Hutzeliger
@Ayo34 Dazu kommt noch der Cache Ausbau bei NVIDIA. AMD hatte die Energieeinsparungen durch den großen Cache schon bei RDNA2 mit drin. Bei NVIDIA kam dieser neu dazu. Da muss bei RDNA3 viel über die Architektur kommen um in sachen Energieeffizienz nicht hinten rüber zu fallen.
 
Man man hier wird spekuliert und behauptet und zwar Details und Einzelheiten, die nun wirklich niemand ausser AMD (und vieleicht XFX) momentan wissen kann.

Würde diese Hirnleistung statt für Spekulation und selbst erdachte Fantasiegebilde für die Lösung der Klimakrise verwendet, wären wir damit schon fertig.
(Ich mach das auch manchmal, daher verstehe ich Euch :D)

Wartet doch einfach mal bis 21:00 Uhr;)
 
Ghostshield schrieb:
1199€ und 4090 Raster Leistung
Du glaubst also das die UVP UNTER(!) 1000 USD liegt? Bei allem Respekt, davon könne wir uns verabschieden, es sei denn, man ist LEistungs-technisch sehr weit von der 4090 entfernt. Aber selbst dann, die 4080 16GB liegt bei 1199 USD und wird deutlich hinter der 4090 liegen.

Ergo muss das Topmodel über 1199 USD kosten.

Das Problem bei vielen ist leider immer noch, dass man USD = Euro rechnet. Das ist auch korrekt, aber ihr müsst noch die Mehrwertsteuer dazurechnen, sonst gibts Probleme mit dem Finanzamt ;) Als es über viele Jahre (zufällig) gepasst hat, das der Euro um die rund 20% mehr Wert war als der USD, konnte man NETTO USD = BRUTTO Euro rechnen. Jetzt ist es NETTO USD = NETTO(!) Euro. Ergo nochmal rund 20% aufschlagen und man hat den Europreis.

Selbst wenn AMD den GLEICHEN Preis als UVP angibt wie bei der 6900XT Anno 2020, würde der Euro UVP von 999 Euro auf mindestens 1199 Euro, eher 1249 Euro steigen. Ohne das AMD mehr Gewinn machen würde oder man denen Preistreiberei vorwerfen könnte.

Daher gibt es auch eine leicht unterschiedliche Wahrnehmung zum Preis der 4090. In den USA als recht okay angesehen, da nur 100 USD teurer als damals die UVP zur 3090, sind es hier direkt 500 Euro mehr und damit rund 1/3 mehr.

Ja, wir zahlen im Shop mit Euros und damit ist der Europreis interessant. Aber AMD, nVidia und Intel könenn nichts für den Wechselkurs bzw. dem rapiden Absturz des Euros.


Meine Erwartungen für heute Abend:

Topkarte: Raster = 4090 (Cherrypicked über 4090, real knapp dahinter); RT wird die 4090 rund 30-40% vorne liegen; 1499 USD = rund 1800-1850 Euro

Salvage 1: Raster ca. -15%, RT ca. -15%, Raster damit irgendwo auf halebm Weg zwischen 4090 und 4080, RT rund 15% hinter der 4080; 1099 USD = rund 1320-1350 Euro (vielleicht auch 999 USD bzw. rund 1200-1250 Euro)

Salvage 2: Nochmals alles -15%, Raster grob = 4080, RT -30% zur 4080 bzw. ca. 3080Ti/3090 RT Performance; 799 USD = rund 960-1000 Euro


Wobei ich mir nicht sicher bin, ob es 2 Salvage Lösungen geben wird. Evtl. gibt es nur eine bzw. eigentlich erwarte ich nur eine, aber aufgrund der (hohen) Preise könnte AMD entgegen der ersten Planung eine 2te Salvagekarte bringen, zumindest so lange, bis die Navi 32 Karten da sind um eine Karte für (deutlich) unter 1000 USD anbieten zu können.


Vielleicht gibt es noch eine Art Abverkaufsaktion zur Holidayseason:
Die 6950XT bekommt einen Holidayseason-Preis von 649 USD (780-800 Euro)
Die 6750XT bekommt einen Holidayseason-Preis von 399 USD (480 Euro)
Die 6650XT bekommt einen Holidayseason-Preis von 329 USD (390-400 Euro)

Das kann aber auch inoffiziell laufen ohne offizielle Ankündigung.


In ein paar Stunden werden wir es wissen, was AMD plant.
 
Zurück
Oben