News Mutmaßliche Benchmarks: Radeon RX 9070 XT auf Augenhöhe mit RX 7900 XTX

Vor zwei Wochen schrieb ich folgendes:

"Habe die News gestern gelesen und ein paar eigene Berechnungen gemacht. Ich bin dabei von der RX 7800 XT ausgegangen.

Die Gerüchte gehen von 3 bis 3,1 GHz Boost Takt aus bei der RX 9070 XT, also habe ich 3.050 MHz als Referenz genommen. Im Computerbase Test hat die 7800 XT durchschnittlich 2.386 MHz Takt in Spielen. Das würde bedeuten das die 9070 XT im Durchschnitt 664 MHz (3.050-2.386) schneller wäre. 664/2386 = 28%.

Die 9070 XT hat 64 CUs, also grob 7% mehr Rechenleistung. Sagen wir mal das 4% davon ankommt. Wenn wir nochmals von 4% IPC Verbesserungen ausgehen durch Architekturverbesserungen oder Vorteilen des monolithischen Dies kommt man auf folgenden Performancezuwachs:
1,28x1,04x1,04 = 38%

Wenn man in der Computerbase GPU Rangliste der 7800 XT Performance 38% hinzugefügt kommt man ziemlich genau auf 5% unterhalb der 4080 Raster Performance und 5% oberhalb der 7900 XT Performance.

In einer anderen News habe ich von 19% RT Verbesserungen gelesen. Nimmt man dann die 7800XT Performance von der Raytracing Rangliste und addiert den zusätzlichen Takt und die 4 zusätzlichen CUs zusammen mit den 19%, kommt man ziemlich genau auf RTX 4070ti super Level."

Es scheint, ich lag da ziemlich richtig. Nur das die 9070 XT die 4080 noch gewaltiger in die Eier tritt und in Raster sogar drüber liegt. Beim Takt und bei der Raytracingperformance lag ich genau richtig.

Man kann jetzt schon sehen das es bei Nvidia unterhalb der 5090 kaum Leistungsverbesserungen zur vorherigen Generation gibt. Ich schätze so um die 10% pro Kartenmodel. Man siehts auch an den moderaten Preisen unterhalb der 5090. Die 9070(XT) wird da ziemlich aufmischen.
 
  • Gefällt mir
Reaktionen: Lonex88, Nighteye, Slim.Shady und 3 andere
SVΞN schrieb:
In allen Ryzen AI 300 („Strix Point“) und Ryzen AI Max („Strix Halo“) steckt RDNA 3.5 („GFX11.5“).
Richtig. Aber (es lebe das Chaos) da heißen sie anders, nämlich dreistellig - 840M etc. Nur bei Strix Halo haben sie ins Schema passende 8000er statt 800er-Nummern.
 
Hmm, ähnliche Leistung und Verlustleistung bei kleinerer Fertigung und ähnlich großem DIE (angenommen AMD braucht auch etwas 45 Milliarden Transistoren).

Klingt für mich als könnte Nvidia effizienter packen oder macht der eigene Fertigungsprozess das?

Natürlich macht die Architektur auch was her, dabei glaube ich nicht Mal da die Archs auf RTL Ebene so groß unterschiedlich sind, einen Addierer oder Miltiplizierer kann man eben nur auf solche Arten bauen, die Anordnung macht's wohl?

Hab leider nur etwas VLSI gehabt, wie die Entwickler das genau handhaben, würde mich Mal interessieren.

Wir lernten leider nur, wie man Schaltungen mit VHDL beschreibt und dann auf RTL/TTL Ebene optimiert.
 
Immer wieder dieser Hype um AMD Karten um dann zum Launch wieder zu enttäuschen wie immer.:(
 
  • Gefällt mir
Reaktionen: DerFahnder, NoNameNoHonor und Apocalypse
@Experte18 Es ist nur eine Enttäuschung, wenn man sich hypen lässt. AMD macht sehr gute GPUs wenn man weiss, was man will/braucht.

Einfach die Tests abwarten und bis dahin die Spekulationen geniessen. Macht doch auch Spass.
 
  • Gefällt mir
Reaktionen: TheHille, DF86, flynn9 und 9 andere
TheInvisible schrieb:
Na hoffentlich gibt's dann einen shitstorm wenn es xtx Leistung mit dem 16gb downgrade gibt ;-)
Nö gibt es nicht, warum auch. 🤷 Der Unterschied ist und ich denke darauf spielst du an, dass die 9070XT mit einiger Sicherheit deutlich günstiger als die XTX wird, die immer noch bei über 900€ für das günstigste Modell liegt und das, um mal auf NVs Seite zu schauen, die mindestens doppelt so teuer RTX 5080 auch nur 16GB hat.

Die 5080 hat einfach zu wenig RAM für die Preisklasse, die 9070XT und 9070 gemessen am vermutlichen Preis ist adäquat ausgestattet.
 
  • Gefällt mir
Reaktionen: Lonex88, Wowka_24, badcompany4life und 3 andere
@MoD23 Keine Ahnung warum alle davon ausgehen, dass die Karte hier in Deutschland nur 500 oder 550 Euro kosten wird. Meine Schätzung für die 9070XT liegt da oberhalb oder gleich 600 Euro. Damit wird ein Vorteil beim Preis pro FPS geringer, verglichen mit der Ada Gen. (also 40x0) wahrscheinlich on par...
 
MoD23 schrieb:
...als die XTX wird, die immer noch bei über 900€ für das günstigste Modell liegt...
<klugscheiß> Nicht über 900. Gerade jetzt für 899 Oiro im Mindstar. </klugscheiß> :mussweg:
 
  • Gefällt mir
Reaktionen: MoD23
@Diablokiller999
Auf der low level RTL Ebene ist man ziemlich am Maximum. Das stimmt, allerdings gehört zu VLSI normalerweise auch die Transistorebene (Cadence, Genus, Virtuoso).

Man kann so einen Multiplizier aus Standardzellen zusammen basteln oder auch eine optimierte Customzelle dafür entwerfen. Nicht jedes Gate im RTL Design braucht eigenes Source und Drain. Transistoren in Reihe lassen sich gut zusammen schrumpfen, indem man Teile weglässt. Mit Eulerpfaden lässt sich da viel zusammenfassen.

Ansonsten gibt es die üblichen Design Entscheidungen über Weiten und Längen Verhältnisse (Fanouts) und Biasing (HVT,SVT,LVT,...) in der Kette, welche einen enormen Einfluss auf die Fläche haben.

Das Ganze muss aber auch noch auf den Metall-Ebenen Routable sein (darf also nicht zu verschachtelt sein). Das ist heutzutage häufig ein stark limitierender Faktor bei der Dichte. Änderungen von DRC Rules für die Metall-Ebenen sind heutzutage für die Transistordichte der wichtigste Punkt.

Was man dazu noch sagen muss:
Area, Performance, Efficiency behindern sich häufig gegenseitig.

Ein Design was ans Maximum der DRC Rules optimiert ist, ist nicht unbedingt taktfreudig. Zen5c ist da ein gutes Beispiel.

Vielleicht ist NVIDIAs high Level Architektur einfach so gut, dass sie 10-15% Maximaltaktverlust durch dichteres packen gut wegstecken können.
 
Araska schrieb:
<klugscheiß> Nicht über 900. Gerade jetzt für 899 Oiro im Mindstar. </klugscheiß> :mussweg:
Ja ok. Das ändert natürlich alles. 👍🤣
Ergänzung ()

NoNameNoHonor schrieb:
Keine Ahnung warum alle davon ausgehen, dass die Karte hier in Deutschland nur 500 oder 550 Euro kosten wird
Das habe ich ja gar nicht bezweifelt bzw. weiß es natürlich nicht. 🤷 Es ging nur darum, dass die 5080 für mich angesichts des Preises einfach zu wenig Speicher hat.

Also ich würde keine 1000€+ Karte mit nur 16GB RAM mehr kaufen.
 
Zuletzt bearbeitet:
Können die Mods hier im Thread mal aufräumen? Auf jeder Seite liest man denselben Blödsinn von wegen "AMD ist Nvidia technisch unterlegen blabla..." :freak:
 
Shoryuken94 schrieb:
Der Hype hat schon so manches gute Produkt gekillt, weil sich die Leute das blaue vom Himmel erhofft haben. War bei RDNA3 auch so.
Bei RDNA3 hat AMD selbst ganz massiv mitgemischt. Das was AMD zur Vorstellung von Navi 31 präsentiert hat, lag erheblich besser als das was Navi 31 abgeliefert hat.

Umso größer war die Ernüchterung als die unabhängigen Test kamen.

stefan92x schrieb:
Kann man. Aber man sollte sich bewusst sein, dass das nach wie vor alles Leaks und Spekulationen sind. Ich störe mich nur an absoluten Aussagen, die viele hier schon treffen, ohne die Realität zu kennen. Begründetes Spekulieren bin ich voll dabei, mach ich ja selbst, aber immer ohne Absolutheitsanspruch :p
Ich habe schon vor Jahren beschlossen es bleiben zu lassen, weil es immer in Wunschdenken ausartet.

Vor allem aktuell ist es absolut sinnlos. Die Chipgröße passt nicht zu der geleakten Anzahl der CUs.

Jede Menge Leaks die sich widersprechen. Und dann dieses Ausbremsmamöver von AMD.

Alles was hier gepostet wird ist Wunschdenken, in die eine oder andere Richtung.

relaxed_Guy schrieb:
Das ist richtig. Ändert aber nichts daran was ich geschrieben habe. Das finale Treiber sehr selten nur die Leistung negativ beeinflussen gegenüber Alpha/Beta Treibern. Ich hab mich mit der Aussage absichtlich nicht auf die spekulierten Performance Daten direkt bezogen.
Du hast den eigentlichen Punkt auf den ich raus wollte ignoriert. Die Zahlen auf Du Dich beziehst können falsch schein. Weil sei es ob Fake oder falsche Messung. Wenn die Messergebnisse nicht stimmen spielt es keine Rolle, dass der Releasetreiber mehr Performance bringt.

Yumix schrieb:
Es war glaube ich auch gegenüber Hardware Unboxed (oder Pauls Hardware) dass AMD meinte sie würden sehr deutlich unter der 1000 Euro marke liegen. Das wären für mich max 600-700 Euro
Es gab ein Gespräch mit Ian Cutress, Hardware Unboxed, PC Gamer und Hardware Unboxed.

Und in der Mitschrift von Ian Cutress ist nur die Rede davon dass AMD den "sub $1000 market" anstrebt". Dort wo die meisten Grafikkarten verkauft werden.
Rockstar85 schrieb:
Wenn nur die Hälfte von dem stimmt, was Leaks sagen, dann wird das eine sehr gute GPU.
Es gibt sich widersprechende "Leaks". Also wenn die Performance von ein bisschen schneller als 7900GRE zutrifft, wird es angesichts von ca 390 mm² Die Size keine seht gute GPU.
Rockstar85 schrieb:
Ja, sie reicht nicht an eine 5080 ist 5090, aber die 9070XT könnte sich zur einer stabilen Karte mausern.
Nur bitte dieses Mal weniger Hypetrain.
Du fährst gerade im Hypetrain.

Apocalypse schrieb:
Ja, und wenn nur die Hälfte der Gerüchte zu Hawaii, Vega, Polaris, Navi, RDNA 2 gestimmt hätten, wären die Karten auch alle besser gewesen :D
Du tust jetzt Navi und RDNA 2 ganz massiv unrecht. RDNA 2 wurde nach dem Launch Event von Nvidia in den Boden geschrieben. Nur durch den Teaser von AMD haben sich die Gerüchte ins richtige Fahrwasser bewegt. Navi war IIRC eine positive Überraschung. es gab zwar Treiberprobleme aber die grundsätzliche Performance war gut. Die größte GPU hatte halt nur 40 CUs.
 
  • Gefällt mir
Reaktionen: flynn9
blackiwid schrieb:
wo ist die 5070 denn schneller in der Rohpower wie ne 4080? oder willst jetzt mit den Tricksereien argumentieren?
Die 5070 Ti sollte doch gewöhnlich eher näher an der 5080 liegen als an der 5070.
Von der 5070 habe ich doch eigentlich gar nicht geredet.
 
@Sas87 Ja die Leaks sagen das die 9070xt so schnell wie ne 4080 ist, daher hab ich bisschen offenbar umständlich deinen Vergleich der 9070xt mit der 5070 versucht zu kritisieren weil die 5070 nicht an die 4080 ran kommt. Daher indirekt das es sehr wohl ca. 5070 ti erreichen wird.

Aber geb zu das ich das bisschen sehr umständlich ausgedrückt habe, hab grad beim Antworten selbst meine Logik fast nimmer verstanden ;D

Also nochmal einfacher, die 9070xt wird nach allem was wir bisher wissen die letzten Benchmarks die geleakt wurden bei der 4080 (super) ungefähr liegen, die dürfte ungefähr auf augenhöhe mit der 5070 ti sein also per Proxy ist dann die 9070xt auch ungefähr gleich schnell wie ne 5070 ti, was auch sinn macht mit der Namensgebung 9070 = 5070, 9070xt = 5070 ti.

Man wollte es ja angleichen, das scheint damit geschafft, nur ist die 9070 ohne xt besser wie die 5070 wegen 16gb vram... und die 9070xt besser wie die 5070 ti wegen Preis wenn nichts anderes.

NACHTRAG / ANMERKUNG:
Finds grad komisch mich interessiert die 7600 nicht und alles darüber hatte immer ne XT oder XTX Endung außer vielleicht die sehr komischen 7900 GRE, aber auch die hat ne Ende, hab grad oben 9070 statt 9070xt vor dem Edit geschrieben weil ich nicht gewohnt bin das es ne 9070 und 9070xt gibt also das das 2 verschiedene Karten sind:D

Aber klar es gab auch die 6800 ohne xt...
 
Zuletzt bearbeitet:
Über 3GHz macht meine 7900XTX auch ohne Probleme ^^
Bin jetzt nicht so beeindruckt aber wenn die 9070 XT grundlegend grob an dieses Leistungsniveau herankommt wäre ja fein.
Ist nur die Frage was der Verbrauch am Ende sagt.
 
Ich finde es cool das AMD voraussichtlich mit der RX 9050 und 9040 auch den Einsteigermarkt bedient.
Wenn die RX 9050 nicht so katastrophal wird wie die 6500 XT, wäre das schon die halbe Miete. :)
 
Zurück
Oben