Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

schM0ggi schrieb:
Die Realität zeigt uns, dass mehr oder weniger das gilt was AMD vorher mit Folien etc. präsentiert hat. Davon rede ich. Die Zauberwörter sind "Up to". Nirgends war die Rede, dass in jedem Spiel 70% mehr Leistung erzielt wird. Du kannst es selber prüfen. Schau dir die Folien an. Da werden Titel aufgelistet für 4K Raster, wo auf einer Hand eine Steigerung von z.B. 30% drin sind, auf der anderen Seite Titel mit einer Steigerung von 60%. Das Endprodukt spiegelt das wider. Die Benches der Tests spiegeln das wider. Wenn du die Präsentation von AMD falsch interpretierst, ist das nicht die Schuld von AMD.
Ja, nur was dann raus kam lag trotzdem stärker hinter den Erwartungen zurück, nicht hinter dem was man als möglich erachtet hatte, aber zumindest hinter dem was man wahrscheinlich erachtet hat. So 10% mehr Performance war durchaus die Erwartung. Die 10% gibt es vielleicht sogar noch mit besseren Treibern, vielleicht auch nochmal 10% mit OC, aber eben nicht für die Release Reviews, klassischer AMD Move das man sich den Ruf für zwei Jahre festlegt mit einem solala Release der Referenzkarten. Man erinnere sich was für einen schlechten Ruf die 290x zum Beispiel hatte, obwohl die Karte, abseits vom Referenz Design, Spitze war.
 
  • Gefällt mir
Reaktionen: th3o
th3o schrieb:
Wovon redest du? Die 7900xtx wurde von AMD als 50-70% schneller als die 6950 vermarktet. Die Realität in den Tests zeigt im Schnitt eher 35-40% an.
Nun wenn Raytracing ins Spiel kommt, kann sich RDNA3 nochmal etwas besser absetzen. Und AMD wird sich für die Leistungsermittlung von RX 7000 sicherlich gut darauf laufende Spiele ausgesucht haben. Dass aktuell einige Spiele eher schlecht laufen, liegt sicherlich noch an Treiberproblemen. Vielleicht macht ein Ryzen-7000-System im Gegensatz zum hier verwendeten Intel-System einen weiteren Unterschied. Wie es eben immer bei eigenen Produkt-Präsentationen des Herstellers ist: man nimmt sich zumeist das Best-Case-Szenario.
th3o schrieb:
Dazu ist die 'Königsdisziplin' von AMD, der Stromverbrauch, diesmal an die 4080 gegangen.
AMD hat bezogen auf das Thema Energieeffizienz den Nachteil, dass sie ein Multi-Chiplet-Design verwenden und mit N5 den etwas schlechteren Herstellungsprozess haben. Zudem ist Nvidia mit Ada scheinbar eine sehr effiziente GPU-Architektur gelungen. Da kommt also einiges zusammen.
th3o schrieb:
AMD hat im Vergleich zu der 6000er Serie relativ gesehen schlechtere Karten diesmal veröffentlicht. Und war noch die Karte mit der "9" im Namen, die 6900, noch ein Konkurrent zur 3090, so ist diesmal die "9er Karte" ein Konkurrent der 80er Nvidia Karte.
Es kommt bei diesen Vergleichen immer auch auf die Auflösung an. Bei der Vorgängergeneration haben die RDNA2-Karten bis 1440p hervorragend performt, bei 4K haben sie gegen Ampere dann auf Grund des begrenzten Infinity-Caches leicht das Nachsehen gehabt. Das heißt der Gegner der RX 6900 XT war dann eher die RTX 3080.
 
Benji18 schrieb:
--> Die Frage die sich mir eigentlich stellt ist, sind die Strom Thematiken hier hauptsächlich auf ein falsch vom Treiber konfiguriertes Powerstate zurückzuführen und die schwankende Leistung auf einen unoptimierten compiler der die Shader stellenweise einfach nicht richtig auslasten kann (Navi 31 hat ja dual use shader sprich die können 2 sachen gleichzeitig abarbeiten) --> stellenweise wirkts halt so als wenn die GPU halt unter single use shader läuft.
Igor hat was gehrieben das gefühlt gar keine Powerstates schalten... Und ja entscheidend wird sein ob das Treiberseitig behoben werden kann oder ob da was in Hadware nicht stimmt..

Der Dual kann nicht immer voll belegt werden. Das liegt sogar in der Natur der Sache. Im Extrembeispiel setzt sich deshalb die 7900 auch kaum von der 6900 ab. Wobei das erst Mal nur eines aussagt - bei den Spielen wo das Auftritt läuft der Shader faktisch im SingelUse verfahren. Es kann sein das das so bleibt - kann aber auch sein das das Treiberteam das Spiel noch nicht gecheckt hat - kann also passieren das bei dem ein oder anderen Game das heute blöd läuft in Zukunft noch der Turbo schaltet...
 
  • Gefällt mir
Reaktionen: Benji18
MrHeisenberg schrieb:
Weil das hier dauernd behauptet wird. Zum Beispiel, dass in Portal selbst die 4090 ohne DLSS zu langsam sei.
Die 4090 erreicht mehr als 40 FPS in UHD ohne DLSS.
Zunächst mal das ist falsch. Ohne DLSS2 erreicht die 4090 in Portal 3 in 4k Ultra gerade mal um die 20fps mit dem ganzen Raytracing Gedöns, und darum gehts ja.
Mit DLSS2 dann um die 40 und dann knallt man noch DLSS3 oben drauf und dann bist du bei um die 90.
Und wenn man in Bezug auf die 4090 mit 60fps etwas unzufrieden ist dann liegt es eben daran weil die Karte wie man sieht unglaubliche fps anderweitig liefern kann. Kontext ist eben wichtig.
Niemand sagt dass jetzt allgemein 60fps gaming "unspielbar" ist.
Aber was ich schon sagen würde ist das: Mittlerweile kann man finde ich sagen dass 60fps das neue 30 ist, also die Baseline. Sieht man ja auch dass die neuen Konsolen sogut es geht versuchen die 30fps hinter sich zu lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaLexy und MrHeisenberg
Novasun schrieb:
kann also passieren das bei dem ein oder anderen Game das heute blöd läuft in Zukunft noch der Turbo schaltet...
Ja. Das doofe ist aber, wenn man "Nische" spielt. Ich rechne mit ernüchternder Performance in DCS und IL2 zum Beispiel, weil diese Anwendungsfälle 100% nicht im Fokus der Optimierungen stehen. Sehe mich schon irgendwann zähneknirschend (wieder) zu nVidia greifen, wenn das so weiter geht. Mehr Auswahl wäre wirklich schön ...
 
TigerherzLXXXVI schrieb:
AMD hat bezogen auf das Thema Energieeffizienz den Nachteil, dass sie ein Multi-Chiplet-Design verwenden und mit N5 den etwas schlechteren Herstellungsprozess haben. Zudem ist Nvidia mit Ada scheinbar eine sehr effiziente GPU-Architektur gelungen. Da kommt also einiges zusammen.
Das sind nicht die Probleme. Es ist allein das die Powerstates nicht laufen. So fühlte es sich für Igor an. Der Chip zieht auch in 3d immer einen tacken zu viel... Ich glaube Igor hat es so genannt - zu viel Strom um schon einen Basistakt zu fahren... (Im Vergleich NV aber eben auch im Vergleich zur 6er Gen)...
Damit wäre man eventuell trotzdem hinter NV gelandet - aber es wäre im Rahmen gewesen..
 
  • Gefällt mir
Reaktionen: Benji18
KingZero schrieb:
Bei einem Mehrverbrauch von ca. 60W einer 7900XTX gegenüber einer 4080 und 5 Stunden/6 Tage die Woche, macht das ca. 40€ Unterschied im Jahr. Zum jetzigen Stand kostet eine AMD Referenz Karte 1150€ und eine FE 4080 1400€. Die Mehrkosten der 4080 amortisieren sich nach etwas mehr als 6 Jahren. Muss jeder für sich entscheiden ob es das Wert ist.

Hängt am ende von vielen Faktoren ab. Der Unterschied in der leistungsaufnahme ist sehr unterschiedlich. Bei Igor sind es z.B. 80 Watt. Entscheidend sind auch die Stromkosten. Die schwanken heutzutage extrem stark. Aber auch bei den Preisen muss man genau die Modelle vergleichen, die man sich kaufen würde. Die 4080 gibt es mittlerweile öfters unter der UVP, eine 7900XTX war gestern zur UVP kaum zu bekommen und bei den meisten Händler teurer, so dass die Differenz je nach Modell auch schnell nur noch 100€ sind. Kommen also viele Faktoren zusammen.

Von der Mehrverbrauch ist völlig egal, bis, ich habe Ihn in ein paar Monaten raus ist da alles möglich. Muss jeder selbst gucken.

Der hohe Idle verbrauch ist halt gerade echt ein Thema. Aber das ist schon seit 2 Jahren ein Problem in vielen Umgebungen mit RDNA2. Da wird man sicherlich einiges fixen könne, aber beim Multimonitorverbrauch bin ich gespannt. Das ist echt ein No go.
 
Iconoclast schrieb:
Im Steam Forum schreiben Leute, dass sie mit einer 4080 mit allem an und Frame Generation aktiviert 120-130FPS haben, und ich mit meiner 6800XT
Der Vergleich hinkt auch irgendwie. Due 7900xtx hat (im Test bei Igor) 66% mehr RT Performance als die 6800xt, die 4080 95% mehr. Der Unterschied ist also in RT da, aber nicht gigantisch. Die 6800xt ist halt einfach eine deutlich günstigere Last Gen Karte und AMD hat auch beim Raytracing sich durchaus ansehnlich verbessert. Da aber Cyberpunk iirc generell besser auf Nvidia Hardware läuft, nehme ich mal an das der Unterschied bei Witcher auch etwas größer als der durchschnitt sein dürfte.
 
  • Gefällt mir
Reaktionen: Benji18
Novasun schrieb:
Das sind nicht die Probleme. Es ist allein das die Powerstates nicht laufen. So fühlte es sich für Igor an. Der Chip zieht auch in 3d immer einen tacken zu viel... Ich glaube Igor hat es so genannt - zu viel Strom um schon einen Basistakt zu fahren... (Im Vergleich NV aber eben auch im Vergleich zur 6er Gen)...
Damit wäre man eventuell trotzdem hinter NV gelandet - aber es wäre im Rahmen gewesen..

Genau das gibt mir aber auch zu denken. Wäre die Karte wie der Vorgänger aufgebaut, dann wäre es eine Frage der Zeit bis der Verbrauch in den verschiedenen Szenarien gut wäre. Mit dem neuen Design könnte es aber völlig neue Probleme geben, warum die Karte nicht richtig taktet und immer mehr braucht.

Es gibt ja auch nicht nur ein Bereich wo die Effizienz nicht stimmt. Wäre es nur Youtube, okay, kann man fixen, aber es ist überall. In den "Problem-Notes" steht auch nur das Problem im Idle.

Idle - hohe Auflösung - hohe Frames -> AMD 100Watt+
Multi Monitor Setups -> Katastrophe
Youtube -> AMD 80 Watt
Frames begrenzen, normal 300 Frames auf 144 Frames begrenzt -> AMD verbrauch in beiden Fällen 350 Watt
Bei Last -> direkt immer an der 350 Watt Grenze

Das Problem zieht sich also durch und irgendwas stimmt einfach noch nicht. Nvidia verbraucht 20 Watt, skaliert zur Leistung sehr gut, springt auf Framelimits deutlich an und selbst bei 100% Auslastung wird häufig weniger Watt benötigt. Ich habe auch 3 Displays angeschlossen über Displayport und dann noch zusätzlich den 4k TV mit 120hz. Läuft gut. Dazu kaum Leistungsverlust mit 250 Watt.
 
  • Gefällt mir
Reaktionen: b|ank0r
Hat jemand Leistungswerte zur 7900 XT, wenn man das Powerlimit in 10% Schritten runterregelt?
 
Caramelito schrieb:
Sind denn die Unterschiede zw. RT on und off so groß?

Auf den ersten Videos auf YT sieht man natürlich einen Unterschied, aber ohne side by side würde das niemals auffallen mMn. :D

Werde es die Tage mal mit der 3090 ti zocken .. die XTX kommt am WE im 2. Rechner, wird auch da probiert ^^
Es fällt deutlich auf, wie ich finde. Vor allem das Wasser. Aber bringt halt nix, wenn die FPS dann so im Keller sind.
 
TigerherzLXXXVI schrieb:
bei 4K haben sie gegen Ampere dann auf Grund des begrenzten Infinity-Caches leicht das Nachsehen gehabt.
Nein, diese Aussage ist falsch! RDNA2 verliert nicht auf Grund des Infinity-Caches gegenüber Ampere an Boden in 4K, sondern weil mit 4K langsam genug Pixel bei Ampere und auch jetzt Ada zusammen kommen, damit die beiden Threads/Task pro SM ordentlich ausgelastet werden können. Hier aus dem Release-Test.

Es zeigt sich sogar, dass die 6900 XT den Abstand zur 3090 - Ausgang ist der CB-Test - dass man relativ konstant ca. 5 - 7 % weniger Leistung wie die 3090 lieferte. Intersssanter ist zudem, dass man in 2160p ca. 22 % "mehr" relative FPS umsetzten kann, als in 1080p. Die 3090 schafft nur 13 % relative FPS mehr.

Auflösung6900 XT zu 5700 XT3090 zu 2080 Ti6900 XT zu 3090
1080p169 %128 %95 %
1440p191 %139 %93 %
2160p207 %145 %93 %
2160p zu 1080p122 %113 %
All das spricht eben nicht dafür, dass RDNA2 in 4K gernerell der Cache ausgeht, sondern das der Cache hier immer noch sehr viel bringt und es eben kein Bandbreitenproblem gibt, wie immer gerne von ein paar behauptet wird.

Es kann natürlich in einzelnen Titeln anders sein, aber pauschal stimmt das eben nicht!
 
  • Gefällt mir
Reaktionen: MasterAK
Ayo34 schrieb:
Am Ende gewinnt in jeder Disziplin, außer dem Preis, die 4080 gegen die 7900xt/xtx Karten. Hast von Tag1 eine runde Karte wo alles stimmt. Bei der AMD muss man noch hoffen... kann aber auch verstehen, dass man den Preis nicht dafür ausgeben möchte. Ich gehe von sinkenden Preisen im nächsten Jahr aus. Spätestens im Frühling.
Sehe ich ähnlich. Dazu kommt meine Überlegung, das die bei Release schlechte Verfügbarkeit bei AMD und der gesteigerte Umsatz durch Weihnachtseinkäufe erstmal keine Auswirkungen auf die Marktpreise zulassen.
Anfang nächstes Jahr, sollte AMD ausreichend produzieren, könnte sich da etwas Konkurrenz abzeichnen, falls sich die Preise bewegen. Aktuell hat ja jeder sein Level, keine Korrektur nötig, so lang man die älteren Generationen ignoriert.
Wenn die Preise aber zu lange stabil bleiben, ist irgendwann das Frühjahr auch wieder rum, dann macht der Kauf überhaupt keinen Sinn mehr, da ich die Heizung nicht mehr brauche und ohnehin mehr Hobbies draußen hab als drinnen. Zu lange warten bringt also auch nix 😞, zumal ich nicht nur die GPU aufrüsten müsste.
 
Apocalypse schrieb:
Der Vergleich hinkt auch irgendwie. Due 7900xtx hat (im Test bei Igor) 66% mehr RT Performance als die 6800xt, die 4080 95% mehr.
Naja, aber auch eine 7900XTX bietet kein Frame Generation und fällt damit krass hinter eine 4080 zurück und das fürs gleiche Geld. Die Effizienz der 7900XTX ist dazu ja auch noch ein Totalausfall.
 
vander schrieb:
Wo den? Ich sehe hier die günstigste 7900XT für 1229, während die günstigste 4080 noch knapp unter 1350 liegt.
Strombverbrauchsrechnungen kann man nicht seriös durchführen, da jeder ein anderes Nutzungsprofil hat. Man könnte den maximalen Mehrverbrauch (24/7) errechnen, was nicht sehr hilfreich wäre.


Wo hast du die XT unter 1200 gesehen, hab da nichts lieferbares mehr gefunden. Die XTX schein komplett weg zu sein. Ich denke es lohnt sich frühestens Mitte nächster Woche mal zu schauen wo die Reise (für alle GPUs) hingeht.
bei MF sind die referenzkarten für 1129 euro zu haben.
7900xt.jpg
 
  • Gefällt mir
Reaktionen: McTheRipper und vander
Wintermute schrieb:
Ja. Das doofe ist aber, wenn man "Nische" spielt. Ich rechne mit ernüchternder Performance in DCS und IL2 zum Beispiel, weil diese Anwendungsfälle 100% nicht im Fokus der Optimierungen stehen. Sehe mich schon irgendwann zähneknirschend (wieder) zu nVidia greifen, wenn das so weiter geht. Mehr Auswahl wäre wirklich schön ...
Joa Mann - wenn ich Produktverantwortlicher bei AMD wäre - weißt du was mich dann alte Nischen Games jucken würden... Und dich - wenn du ehrlich bist...
Da ist der Move das AMD in COD mit NV den Boden wischt deutlich mehr wert... Weil es gibt viel mehr Bekloppte die sagen das ist mein Game und holen sich deshalb dann ne AMD Karte..
Mal davon ab in DCS scheint ja schon die 6900 nicht so schlecht performt zu haben.. Und darauf sollten ja noch Mal 10% drauf kommen im Worst Case... Im Best Case dann um die 40 bis 50% ...
Und wenn die Spielehersteller dann noch FSR 3 implementieren würden... Wobei in VR wäre das vermutlich eher kontraproduktiv...
Ergänzung ()

Ayo34 schrieb:
Das Problem zieht sich also durch und irgendwas stimmt einfach noch nicht.
Was eben Igor sagte. Es scheinen gar keine Powerstates zu zünden... Was der Test mit dem Framelimiter zeigt...
Wobei wenn sie das mit dem Desktop hin bekommen schon viel gewonnen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute
Caramelito schrieb:
Meine Powercolor XTX von NBB soll am Fr/Sam ankommen.
Bin schon gespannt... 2 PCs dann hier .. 12700k/3090ti vs 13600k/7900XTX je mit DDR5 5600 :-)
Wenn eine davon ein neues Zu Hause sucht lass uns quatschen.
 
Ragnarök88 schrieb:
Gerade so mit Hängen und Würgen an die Rasterleistung der RTX 4080 aufgeschlossen Percentile langsamer, bei RT ist die RTX 4080 26% schneller. Insgesamt also wie erwartet, entgegen 98% der Usermeinungen hier auf dieser Plattform.
Die RTX 4080 ist somit insgesamt die etwas teurere aber klar besser Karte, auch das kommt wie erwartet.
Da ist mit besseren Treibern sicherlich noch einiges an Leistungspotenzial vorhanden für die Zukunft, wohingegen Nvidia erfahrungsgemäß dieses bereits weitestgehend ausgereizt haben dürfte. Zumindest sehe ich AMD mit deutlich mehr Luft nach oben, man braucht sich nur mal die stark schwankende Performance in den Spielebenchmarks anschauen. Das wird wohl nicht ewig so bleiben. Und man darf auch nicht vergessen, dass die allerste Multi-Chiplet-GPU im Gaming überhaupt auch gewissermaßen Neuland ist, selbst für den Hersteller der Ryzen-CPUs. Beim Raytracing hat AMD gegenüber RDNA2 einen ordentlichen Sprung gemacht. Dass es nicht für Ada reicht war schon im Vorhinein klar. Darüber hinaus gibt es bei RT-Spielen leider nur allzu oft Hersteller-exklusive Optimierungen für eine bestimmte GPU-Architektur sowie überwiegend viel zu grobe Anpassungsmöglichkeiten der RT-Qualität. Aber das ist ein anderes Thema für ein anderes Mal.
Ragnarök88 schrieb:
Man ist sogar in Raster schneller, wenn auch mit 3% knapp für Nvidia.
Wie meinst du das? Der Satz hat einen kleinen Logikfehler.
Ragnarök88 schrieb:
Der Hypetrain ist wie die letzten Jahre auf den letzten Metern zerschellt, das ist schade.
Aber eine schlechte Wahl ist AMD´s Karte dennoch nicht, wenn für maximal 1000 Euro verfügbar.
Nvidia hat eben auch nicht geschlafen. Im Gegenteil: sie haben mit Ada eine sehr gute Architektur geschaffen. Und eine kleine aber feine Sache wurde auch noch nicht einbezogen: wie performt eine RX 7900 XTX zusammen mit einem Ryzen-7000-System. SAM bringt noch einmal einen zusätzlichen Leistungsschub gegenüber einen Intel-System wegen AMD-internen Optimierungen.
Ragnarök88 schrieb:
RT Leistung häufig unterhalb der RTX 3090 ist natürlich bitter, wie auch die Frametimes, aber was war auch schon vorab bekannt.
Wie gesagt: mit besseren RT-Implementierungen in Spielen sollte man im Allgemeinen mit der Leistung schon weit kommen. AMD-Karten haben erst bei hoher Strahlenlast, also verschossene Rays pro Sekunde (RT-Genauigkeit), ein Problem. Wenn man in jeden RT-Spiel, wie bei Metro Exodus EE möglich, eben diese Genauigkeit einstellen kann, würde das Spiel nach wie vor sehr gut aussehen, die AMD-Karten würden aber verglichen mit den Nvidia-Karten auf einem guten Niveau performen.
 
  • Gefällt mir
Reaktionen: gecan
Khaotik schrieb:
Ich möchte an dieser Stelle meine Oma grüßen!

Bin sehr gespannt auf den Test - auf gehts!

Edit: Also für mich kein schlechtes Ergebnis. Die XTX auf Level der 4080, leider etwas mehr darunter als erhofft. Dafür mit attraktiverem Preis.
Die kleinere der beiden muss aber noch etwas an der Preisschraube drehen. MMn in Richtung 920-960€. Man wird wohl warten, wie NV die 4070 (ti) platzieren wird.
NVIDIA hat leider gar keinen Grund an den Preisen irgendetwas zu ändern. Ich behaupte mal wer so eine Karte kauft möchte auch RT aktivieren. Und dann passt der Preis prozentual auch ziemlich genau zwischen rtx4080 und 7900xtx.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und DayvanCowboy
Zurück
Oben