Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Shoryuken94 schrieb:
Etwas hinter Lovelace bedeutet bei der 4080 gegen 7900XTX ca. 20% mehr Energie pro Frame in dem Beispiel von dir.
Bei einem Mehrverbrauch von ca. 60W einer 7900XTX gegenüber einer 4080 und 5 Stunden/6 Tage die Woche, macht das ca. 40€ Unterschied im Jahr. Zum jetzigen Stand kostet eine AMD Referenz Karte 1150€ und eine FE 4080 1400€. Die Mehrkosten der 4080 amortisieren sich nach etwas mehr als 6 Jahren. Muss jeder für sich entscheiden ob es das Wert ist.
Shoryuken94 schrieb:
Ganz zu schweigen von anderen Themen, wo die 7900XTX stand heute mehrere hundert Prozent schlechter abschneidet:
Ja. Das ist wirklich ziemlicher Mist von AMD. Hoffentlich lässt sich das per Treiberupdate beheben.
 
  • Gefällt mir
Reaktionen: Benji21
TKessel schrieb:
So, wer hat denn heute von euch Jungs eine 7900XTX im Briefkasten und gibt mal nen First-Hands Bericht ab? :-)
Mit Glück morgen Abend 😉
 
  • Gefällt mir
Reaktionen: TKessel und F4711
Mir fällt gerade auf, dass die 4090 in RT ein besseres Preis/Leistungsverhältnis hat als die 7900xtx (Fe vs Referenz).
Selbst wenn man RT und Raster zu jeweils 50% gewichtet ist die 7900 xtx nur ganz knapp besser.
Irgendwo ist das dann doch problematisch würde ich sagen, vor allem weil die 4090 auch die besseren Features mitbringt und auch den besseren Kühler hat.

Jetzt muss man sich mal vorstellen, Nvidia hätte den Vollausbau des AD102 gebracht - das wären nochmal 18% mehr SMs. Ich glaube einen größeren Performanceunterschied hätte es noch nie gegeben in einer Gen an der Spitze zwischen Nvidia und AMD. Und kommt mit nicht mit dem Preisargument, denn die Preise hätten wir nicht wenn AMD was konkurrenzfähiges (in RT und Raster) auf die Beine gestellt hätte.

Sollte eine 4080ti für 1200-1300$ gebracht werden hätte man +20% Raster und +50% RT gegen eine 7900 xtx. Die 4080 würde man dann bei 999$ ansiedeln, die 4070ti bei 800$ und die 4070 bei 600$.

So wie Nvidia mit der Bepreisung der 4080 ein Scheunentor für AMD offen gelassen hat, ist es jetzt auch umgekehrt geschehen.

Wisst ihr noch als Nvidia 900$ für eine fake 4080 aka 4070ti wollte? Die könnten sie nach der Vorstellung hier immer noch verlangen.
 
KingZero schrieb:
Das ist doch komplett uninteressant. Viel wichtiger ist der Verbrauch im Vergleich zur Leistung. Und da ist die 7900XTX nur etwas hinter Lovelace.
Anhang anzeigen 1297096
Der Verbrauch der 7000er Karten in der Realität ist halt ein Witz. Die meiste Zeit zockt man ja unter Umständen gar nicht sondern macht andere Dinge am PC. Ich schaue zum Beispiel häufig Videos. Und da brät dir ne 7000er Karte einfach mal eben über 100 Watt durch, weil Youtube läuft...
 
Philste schrieb:
dank der günstigen Fertigung durch Chiplets zu einer Gelddruckmaschine geworden wäre.
Mal davon ab das du Entweder eine NDA brichst oder deine Quelle "some dude on the /r/nvidia" ist, ich vermute letzteres, dürfte die beiden 7900 jetzt trotzdem Gelddruckmaschinen sein. Ob man je mehr Performance angepeilt hat darf auch bezweifelt werden, sonst hätte man nicht nur 300mm² für den Graphics Complex Die angesetzt. Die Karte hätte man auch teurer designen können und es wäre immer noch eine Gelddruckmaschine.
 
Uiuiui DLSS3 und Frame-Generation scheint im Witcher Next-Gen nötig zu sein um 60+Fps zu ereichen, wenn man wirklich Ultra spielt in UHD. Das ist heftig.

 
Iconoclast schrieb:
Der Verbrauch der 7000er Karten in der Realität ist halt ein Witz. Die meiste Zeit zockt man ja unter Umständen gar nicht sondern macht andere Dinge am PC. Ich schaue zum Beispiel häufig Videos. Und da brät dir ne 7000er Karte einfach mal eben über 100 Watt durch, weil Youtube läuft...
Jo, bleibt zu hoffen das das Problem bald behoben ist, es sieht ja noch einem Software Problem aus.
Ergänzung ()

sethdiabolos schrieb:
Uiuiui DLSS3 und Frame-Generation scheint im Witcher Next-Gen nötig zu sein um 60+Fps zu ereichen, wenn man wirklich Ultra spielt in UHD. Das ist heftig.
Mal schauen wieviel man davon wirklich braucht um einen Unterschied zu sehen, ich erinnere mal an SSAA 8x :D
 
  • Gefällt mir
Reaktionen: McTheRipper, Sly123 und Fighter1993
ThirdLife schrieb:
Das stimmt, würde aber vermutlich erfordern, dass der Entwickler hier im Prinzip zwei Spiele entwickelt. Eins auf RT Basis und eines mit nochmals neu designten Levels mit entsprechenden Technik-Tricksereien.:D
Was glaubst Du, warum so viele Studios jetzt auf Unreal 5 setzen. Die entwickeln mit einem unfassbar, unfassbar hohen Aufwand eine all- in one- Lösung, die jeweils immer einen brauchbaren Fallback zur RT Option liefert. Da entwickelst Du nur 1x und das Framework erledigt den Rest.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
DaLexy schrieb:
Dann hast du noch nie Control gespielt mit RT on und off, mach das mal und dann sag mir das gleiche statement nochmal !
Gerade in Control sehe ich wirklich fast keinen mehrwert.
Die Grafik ist generell eher altbacken, mit oder ohne Raytracing.
 
SLIPY050491 schrieb:
Verstehe ehrlich gesagt nicht was hier alle so auf Raytracing abgehen. Ich finde RT ist den Mehraufwand überhaupt nicht wert. Für mich ist RT eine Technologie für Benchmarks und um einen Grund zu haben überteuerte GPUs an den Mann zu bringen. Kosten/Nutzen ist ein Witz. Deshalb ist mir die RT Performance auch ziemlich egal.
Sobald AMD eine bessere RT Leistung hat als NV wirst Du eine Mehrheitsmeinung haben. War bei der Energieeffizienz genauso.
 
Danke für den Test!

Von der Leistung her enttäuschend, hätte etwas mehr erwartet.
 
refresh abwarten... neue treiber werden eher die performance hochtreiben, den Verbrauch aber nicht wirklich einfangen können.
 
Ich würde gerne von ner RTX2080 aufrüsten, in einigen Spielen ist die leider schon zu schwach für mein Setting.
Die Spannende Frage ist für mich daher nur: Wie wird sich nun der Mark entwickeln?
Ob Grün oder Rot - P/L ist doch für die meisten Menschen das entscheidende, dazu die Kompatibilität mit dem PC (Größe und Netzteil) .. also für mich und einige Freunde ist das so.

Preis:
800 Euro RX 6900XT -> viele auf Lager
880 Euro RX 6950XT -> viele auf Lager
1.150 Euro RX 7900XT -> genug auf Lager
1.250 Euro RX 7900XTX -> Ebay 1.500 Euro +
1.350 Euro RTX 4080 -> genug auf Lager

Größe:
Vorteil XTX / XT
RTX 4080 ist größer, aber viele XTX Modelle die man aktuell sieht sind ähnlich groß.

Strom:
Vorteil RTX 4080
Manche finden die oft erwähnten 80W nicht viel, aber das ist im Grunde ne CPU auf 100% - die Abwärme muss eben auch erst mal raus bekommen und sind bummelige 15-30 Euro im Jahr.

Ich hoffe auf einen Abverkauf der 69xx XT Karten - vielleicht sehen wir die 700 Euro?
Wenn dann die XTX oder 4080 ebenfalls 100/200 günstiger wird kann man zuschlagen. Je nach Tests / Treiber / Spiele wird es für den einen die 7900 XTX oder RTX 4080 sein.

Ich habe die XTX nicht gekauft weil sie mir in dem Moment (und immer noch) zu teuer ist im Vergleich zu einer RTX4080 (die auch zu teuer ist). FPS, Rohleistung und RAM zum Trotz, das Gesamtpaket fühlt sich nicht "Rund" an. Das mag sich mit neuen Tests und neuen Treibern ändern aber ich bin es Leid für so viel Geld auch noch Kompromisse einzugehen. Da ich aber auch KEINE 1.350 Euro ausgeben will - 1.250 war schon über der Schmerzgrenze als die XTX im Warenkorb war - warte ich auf unter 1.300 € bei der RTX4080 MSI/ASUS oder 1.150 € bei der RX 7900 XTX.

Wenn die Preise nicht so schnell sinken, kauf ich mir ne gebrauchte 6800 XT (500/600 Euro) um über die Feiertage zu zocken und schau mir an wie sich der Markt entwickelt, doch wollte ich eigentlich gleich auf die neue GraKa Generation wechseln.
Oder habe ich irgendwo ein Denkfehler und das Leben ist doch einfacher als man denkt? :)
 
  • Gefällt mir
Reaktionen: mazO! und b|ank0r
th3o schrieb:
Wovon redest du? Die 7900xtx wurde von AMD als 50-70% schneller als die 6950 vermarktet. Die Realität in den Tests zeigt im Schnitt eher 35-40% an. Dazu ist die 'Königsdisziplin' von AMD, der Stromverbrauch, diesmal an die 4080 gegangen. AMD hat im Vergleich zu der 6000er Serie relativ gesehen schlechtere Karten diesmal veröffentlicht. Und war noch die Karte mit der "9" im Namen, die 6900, noch ein Konkurrent zur 3090, so ist diesmal die "9er Karte" ein Konkurrent der 80er Nvidia Karte.
Die Realität zeigt uns, dass mehr oder weniger das gilt was AMD vorher mit Folien etc. präsentiert hat. Davon rede ich. Die Zauberwörter sind "Up to". Nirgends war die Rede, dass in jedem Spiel 70% mehr Leistung erzielt wird. Du kannst es selber prüfen. Schau dir die Folien an. Da werden Titel aufgelistet für 4K Raster, wo auf einer Hand eine Steigerung von z.B. 30% drin sind, auf der anderen Seite Titel mit einer Steigerung von 60%. Das Endprodukt spiegelt das wider. Die Benches der Tests spiegeln das wider. Wenn du die Präsentation von AMD falsch interpretierst, ist das nicht die Schuld von AMD.
 
  • Gefällt mir
Reaktionen: Apocalypse und Benji21
TempeltonPeck schrieb:
Kann mir mal jemand erklären warum die 4080er unbedingt deutlich geschlagen werden muss? Eine ebenbürdige (ohne RT) Konkurrenz ist ebenso gut. Stichwort Monopolstellung verhinden. Ein Kopf an Kopf Rennen ist wichtig.
Das ist eben überhaupt kein Problem. Ist nur eine Sache das Lagerdenkens und des Hypetrains, der vor jeder Generation in Fahrt gebracht wird.
An sich sind das gute Karten. Auch in Sachen RT. Ne 3090TI kann diesbezüglich schon einiges.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, daknoll und Benji21
schM0ggi schrieb:
Die Zauberwörter sind "Up to". Wenn du die Präsentation von AMD falsch interpretierst, ist das nicht die Schuld von AMD.
Ist mir schon klar mit dem "up to" das ist eben die Hintertür die man sich genehmerweise offen läßt. Lustig, wenn Nvidia das tut dann hagelt es von allen Seiten Kritik wegen Irreführung und bewusst manipulierender Grafiken, wenn AMD es tut dann ist es natürlich zu entschuldigen weil AMD ja die Guten sind.
 
  • Gefällt mir
Reaktionen: .Sentinel.
schM0ggi schrieb:
Auf der offiziellen Vorstellung wurde klar und deutlich gesagt, dass mit 4080 konkurriert wird.
Ja, tut man ja auch. Aber glaubt irgendjemand hier ernsthaft, dass man ein 300mm^2 +6×40mm^2 MCM Monster entwickelt, mit 24GB Speicher und 384Bit Bus und 5.3TB Bandbreite, um damit mit einem beschnittenen 380mm^2 Die mit 256Bit Bus zu konkurrieren? Wenn dem so wäre, müsste man eigentlich sämtliche Ingenieure feuern. Man muss nicht bei AMD arbeiten um zu erkennen, dass hier etwas ganz anderes geplant war. Genausowenig sollte man Intel glauben, dass die Arc 770 als 3060 Konkurrent geplant war. Ist das Selbe in Grün (oder in dem Fall eher blau).
 
DayvanCowboy schrieb:
Bitte einfach mal sachlich bleiben....danke!

Ja genau, die Tabelle natürlich schön ausschneiden! :freak: Fehlen ja nur zwei Karten...

1671019869473.png
 
Nogli schrieb:
Ich hoffe auf einen Abverkauf der 69xx XT Karten - vielleicht sehen wir die 700 Euro?

Ähm, den Gabs schon, man konnte schon mehrfach 6900er unter 700 € erwerben, aber das ist nun wohl erstmals wieder vorbei, die Lager sollen wohl leer sein
 
TempeltonPeck schrieb:
Kann mir mal jemand erklären warum die 4080er unbedingt deutlich geschlagen werden muss? Eine ebenbürdige (ohne RT) Konkurrenz ist ebenso gut.
Nun ja -dass die RX 7900XTX bei RT weit hinter die RTX 4080 zurückfallen wird, wurde allgemein erwartet. daher hatte man gehofft, dass als Ausgleich zumindest die Rasterrize-Leistung deutlich über der RTX 4080 liegen wird, also etwa zwischen dieser und der RTX 4090.

Das ist nun aber nicht eingetroffen. Außerdem fällt der Lastverbrauch viel höher aus als erwartet, wodurch die Effizienz geringer als bei der RTX 4080 wird.

Trotzdem ist die AMD natürlich keine schlechte Karte. Aber wenn die Custom-Modelle wie derzeit bei 1.200-1.300 € bleiben sollten und sich somit der Aufpreis zur Custom-RTX 4080 auf nur noch 50-150 € verringert, sehe ich eigentlich kein Argument pro AMD. Zumal dieser Aufpreis, wie hier schon ausgerechnet wurde, während einer durchschnittlichen Nutzungsdauer von 3-4 Jahren und 50 Cent/kWh ausgeglichen wird.

Wenn die Preise der XTX-Custom-Modelle (also die mit den brauchbaren Kühlern) dagegen auf sagen wir 900 € fallen sollten und die RTX 4080 bei 1.300 € bleibt, sähe die Sache natürlich wieder anders aus.

LG N.
 
Zurück
Oben