Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Nicop schrieb:
Und direkt mal den Test lesen! :-)
Danke für den ausführlichen Test. Es ist immer wieder eine Freude Eure Inhalte zu lesen, dass gilt umso mehr, wenn es um eines der wichtigsten Themen des Jahres geht👍
Wolfgang schrieb:
Kurz vor Weihnachten betreten nun auch AMDs neue Grafikkarten auf Basis von RDNA 3 den Markt. ComputerBase hat das neue Flaggschiff-Modell Radeon RX 7900 XTX und die Radeon RX 7900 XT im Test, die sich unter anderem gegen Nvidias GeForce RTX 4080 stellen und dabei mit Preisen von 1.149 Euro bzw. 1.050 Euro punkten wollen.

Zum Test: Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“
Danke für den ausführlichen Test. Es ist immer wieder eine Freude Eure Inhalte zu lesen, dass gilt umso mehr, wenn es um eines der wichtigsten Themen des Jahres geht👍
 
  • Gefällt mir
Reaktionen: Eld0r und Rockstar85
Hmmm.. also der Bringer sind die Karten leider nicht.

Das größere Modell ist gleichauf mit der 4080 aber in Ray Tracing deutlich schlechter. Und es fehlt natürlich DLSS2 und 3... bei einem Straßenpreis von knapp 1350 für die 4080 spricht leider vieles dafür. Vermutlich wird sie mit der Zeit noch günstiger werden.. der Preisunterschied ist für mich leider zu gering. Das kleinere Modell ist darüber hinaus vieel zu teuer, für das was sie bietet. Die sollte man eher bei 850 - 900 ansiedeln.
 
ALDeeN1982 schrieb:
Und es fehlt natürlich DLSS2 und 3.
Du hast doch FSR 2.1 und FSR 3.0 kommt doch jetzt auch...
 
@ALDeeN1982
Richtig.. die 7900XT ist zu teuer für die Leistung und auch für den Step zur XTX... Klassisches Upselling.
Und die bessere Alternative zur 7900XT ist am Ende die 6950XT... So hart es klingt, aber es ist so.

Mal was aus der Linux Welt:
https://www.phoronix.com/review/rx7900xt-rx7900xtx-linux
Da sieht man dann gut, dass der Windows Treiber das Problem ist

https://www.phoronix.com/news/RDNA3-AMDGPU-Firmware-Added
Leider fehlt hier die RTX4080, aber Nvidia wird sicher seine Gründe haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sammy2k8, Capet und xXDariusXx
Eld0r schrieb:
Aber mit DLSS können von der gleichen Karte viel mehr Pixel an den Ausgang geliefert werden.
Ein wenig Zukunftssicherheit ist doch nett und QualityOfLive: Daisy Chain von 4k high FPS?
Für wen oder was? Für 4k 144Hz reicht bisher DP 1.4 noch aus, und ich befürchte, wenn man das das bisher bei den Monitoren verfolgt, werden die Hersteller altes DP auch in neuen Monitoren verbauen, solange die Specs vom Panel eh nicht verwendet werden können (sprich, mehr Hz, höhere Auflösung, HDR, Farbraum,..).

Und wie gesagt, in 5-6 Jahren sprechen wir von ganz anderen Dingen, wo wir eh wieder neue GPU Generationen haben werden.
 
8K Widescreen ist nicht 8K.. die Panelhersteller sind weiter.
Sorry aber wie kann man einen Nachteil wie fehlende moderne Stecker als Vorteil rausarbeiten?
Und JA, es istz ein Nachteil! Außer man tauscht seine GPU alle 2 Jahre.

@malajo
Navi 10 ebenso. Aber lassen wir das. Da sieht man, dass man eben Einfach nur gegen AMD GPU anstinken will, zur not lügt man dreist. Und dann wird einem vorgeworfen, man wäre nicht Objektiv.. Ein Treppenwitz ansich.
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Die Auswirkungen kann dir noch keiner genau sagen. Im Worst Case sind die A0 Chips nicht über Treiber anpassbar und werden weiterhin massive Probleme beim Energieverbrauch haben und zwar im Idle, Youtube, Teillast und Lastbetrieb. Im Bestcase sind die A0 Chips genau so gewollt und in ein paar Wochen gibt es ein Treiberupdate und alles läuft wie gewünscht.

Ich kann mir vorstellen, dass die Karten unbedingt vor Weihnachten auf dem Markt kommen sollten und man daher die Probleme einfach hingenommen hat. Ob lösbar oder nicht wird sich zeigen.
AMD CPUs sind auch in der Revision 0 rausgekommen, hat es jemand interessiert?

https://de.msi.com/news/detail/Ryze...ableSoDo500And400SeriesMotherboardsBIOS122339
 
  • Gefällt mir
Reaktionen: Icke-ffm, Ragnarök88, rumpeLson und eine weitere Person
malajo schrieb:
AMD CPUs sind auch in der Revision 0 rausgekommen, hat es jemand interessiert?
Nö, es wird bloß ein Fass aufgemacht ohne, dass es bisher dazu irgendwelche Fakten gibt. Solange Igor oder z.B. GamersNexus dazu keinen Investigativen Bericht bringen der irgendwas aufdeckt (denn der kommt wenn es etwas zum aufdecken gibt) kann man das fürs erste ignorieren.

Man braucht halt was zum dran hoch ziehen.
PHuV schrieb:
Daher ist DP 2.1 eine einzige nutzlose Bloatware, wo sich AMD Jünger darauf versteifen, obwohl eh von denen kaum einer einen 8k Monitor mit 240 Hz leisten wird und kann. Für die meisten wird DP 1.4 locker lange ausreichen. Und bis in 2 Jahren, wo DP 2.1 Monitor entsprechend auf dem Markt verfügbar sein werden, ist eh schon bei Nvidia die nächste GPU Generation am Start. Die Käufer, die sich eh mit 8k Monitoren und DP 2.1 eindecken, werden auch eine neue GPU entsprechend leisten. Wer will dann noch eine olle AMD RDNA3, die dann auch schon wieder 2 Jahre veraltet ist?
Das mag in deiner High-End Gaming Welt so zutreffen, die Realität sieht nur anders aus. Die 1080 z.B. wird jetzt sechs Jahre alt, ist das eine schlechte GPU für Gelegenheitszocker? Nein ist sie nach wie vor nicht. Wer weder DLSS braucht oder RT der hat damit immer noch eine feine Karte im PC die so ziemlich alles stemmt (sicher nicht in 4k). Und jetzt verrate ich dir, dass ich in meinem engeren Bekanntenkreis zwei Personen mit 4k Monitoren habe, der eine ist Grafikdesigner der andere sitzt im Homeoffice. Beide haben eine 1060 im PC stecken, die reicht auch noch für ne Runde Valheim oder Battlefield. Ja, nicht in 4k aber in 1080p. Solche Menschen gibt es und ich behaupte mal, dass ist nicht die Minderheit sondern die Masse.

Also gibt es auch Gelegenheitsspieler die sich in 4 Jahren vielleicht ne gebrauchte 4080 kaufen, aber dann einen 8k Monitor Zuhause mit DP2.1 haben, weil sie vielleicht mehr Wert auf den Monitor als solches legen als die maximale Gamingleistung. Und dann ist die Halbwertzeit von diesen Produkten wegen mangelndem DP2.1 halt einfach nicht so geil. Für die Runde zwischendurch wir die 4080 nämlich in 5-6 Jahren auch immer noch funktionieren, nur schaut man dann vielleicht im wahrsten Sinne des Wortes in die Röhre was den Anschluss bzw. die Features betrifft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
8K Widescreen ist nicht 8K.. die Panelhersteller sind weiter.
Sorry aber wie kann man einen Nachteil wie fehlende moderne Stecker als Vorteil rausarbeiten?
Und JA, es istz ein Nachteil! Außer man tauscht seine GPU alle 2 Jahre.
Es bleibt eben alles Spekulation, das ist das Problem. Wir wissen nicht, wie viele Geräte auf dem Markt zu welchen Preisen auf den Markt kommen werden. Dazu müssen erst mal die GPUs dann auch 8k über 144 Hz gut befeuern können, da wäre dann eh ein GPU Wechsel notwendig. Wie Du siehst, man dreht sich hier mit einem neuen Feature im Kreis, der bei aller Liebe so nicht notwendig ist, wenn man genau darüber nachdenkt.
Ergänzung ()

Ayo34 schrieb:
Nochmal, finde DP2.1 nicht so wichtig, hätte es mir aber trotzdem gewünscht für die Zukunft. Ist aber für mich auch nur ein ganz kleiner Punkt im Gegensatz zu Raytracing.
Unterschied, RT ist heute da und anwendbar, DP 2.1...? Wir wissen es noch nicht. Ich bin ja sonst gerne für zukunftsträchtige Features zu haben, aber hier... sinnlos. Und für 8k mit 144 Hz wird man eh neue GPUs brauchen, da kommt eine 7900 XT(X) ja auch lange nicht hin.
 
PHuV schrieb:
Es bleibt eben alles Spekulation, das ist das Problem.
Sorry aber mal ernst.. Das war mit 4k und 1440p 144Hz nicht anders.. Selbst bei TN zu IPS...
Ich weiß bis heute, wie das gejaule Laut war als DVI starb..
Wenn es keine Displays gibt, die 8K/144Hz bespielen können, dann gibt es auch nicht den Mehrbedarf..
Wird als nächstes USB-C Angezweifelt, weil VR keiner braucht?
Du bist bei der Argumentation dann auch noch so Inkonsequent, weil bei RT ist es ja State of the Art und wichtig.. Okay nur 1% aller Spiele supporten RT, aber es ist wichtig!

Sorry, aber es war Exakt bei jeder Display Generation so.. Aber ich versteh schon, weil es durch AMD Initiiert wird, ist es halt schlecht.
Wie kann man bei solchen Aussagen eig noch objektiv bleiben? Die ganze Argumentation ist echt an den Haaren herbeigezogen.

Das ist wie der A0 Blödsinn, wo schon 2019 gesagt wurde, dass man dazu nichts bei NAVI10 sagen kann. Und ich wette nun kommen Leute auf die Idee einer Sammelklage, weil: Bei Intel bedeutet A0 ja auch Crap..
Sorry, aber manchmal Zweifel ich bei manchen an Sachverstand.
 
Zuletzt bearbeitet:
Ach Gott was soll dieser lächerliche Kindergartenstreit bezüglich DP2.1?
Für den einen ist es ein Nachteil und er hätte es gerne gehabt und für den anderen ist es eben kein Nachteil und er kann drauf verzichten.
Was soll eigentlich dieses absolut erbärmliche hin und her seit gefühlt 100 Seiten?
Ist es denn so schwer einfach den Standpunkt des anderen zu akzeptieren ohne immer weiter vom Gegenteil überzeugen zu wollen? Das ist einfach nur lächerlich und nervt extrem.
Diese ständigen Grabenkämpfe zwischen den Lagern und selbsternannten Experten ist einfach nur zum kotzen. Es macht überhaupt keinen Spaß mehr hier irgendwelche News zu lesen. Es ist eh jedes mal der gleiche Mist.

Darf hier nicht jeder kaufen und toll finden was er will ohne dafür fertig gemacht zu werden. Verhaltet ihr euch auch so im echten Leben?

@Topic
Ich finde alle Modelle der neuen Generation von Nvidia und AMD technisch sehr interessant und auch gut. Nur leider alles extrem teuer. Bei den Preisen finde ich sollte man dann aber auch wirklich Karten ohne Kompromisse bekommen, also alle mit DP2.1, geringem Verbrauch, kühl, leise und viel Leistung in Raster und RT. Das man hier selbst bei der 4090 wieder einen Kompromiss eingehen muss hat halt einen blöden Beigeschmack. (auch wenn ich DP2.1 nicht benötige)
Wirklich brauchen tut man die allerdings wirklich nur für neue AAA Games mit RT und so Zeug. Für reines Raster Gaming reichen auch die alten Karten dicke aus, meiner Meinung nach.
 
  • Gefällt mir
Reaktionen: Bengart
.Sentinel. schrieb:
Ich denke ja sowieso, dass sich hier z.B. viele Raytracing- Gegner garnicht darüber im Klaren sind, dass sie durch eine Anti- Haltung letztenendes günstigere Karten mit höherer Performance verhindern.
Im Gegensatz zum Rastern skaliert nämlich Raytracing über alle Ebenen. Auch Multichip.
Ich denke, dass es viel weniger Raytracing Gegner geben würde, wenn die GPU Preise für die GPUs auf denen Raytracing annehmbar läuft etwas humaner wären. Man redet sich ja öfters ein, dass man das was man nicht bezahlen will auch nicht braucht. Das dürfte hier auch so sein, auch wenns vielleicht unehrlich ist.

Wenn es dazu noch so ist, dass man alle 2 Jahre eine neue High End GPU braucht, weil Raytracing in neuen Titeln immer nur für High-End GPUs optimiert wird dann braucht man sich nicht zu wundern. Letztlich müssen die Spiele die Raytracing heute und morgen mitbringen zumindest noch auf einer Mittelklasse Ampere spielbar sein und nicht nur auf Karten die FG unterstützen.

Ich würde mir wünschen, die Entwickler würden die Raytracing Implementierungen in feineren Abstufungen einführen, damit für jeden was dabei ist. Also zwischen sowas wie Spiderman remastered und Witcher 3 4.0 sollte es doch möglich sein die Effekte so ein- bzw. auszuschalten, dass für jeden was dabei ist. Auch für die Hardcore Enthousiasten, die bei jeder neuen Generation nen 1000er drauflegen.
 
  • Gefällt mir
Reaktionen: Czk666
Fallout667 schrieb:
Das man hier selbst bei der 4090 wieder einen Kompromiss eingehen muss hat halt einen blöden Beigeschmack. (auch wenn ich DP2.1 nicht benötige)
Damit beantwortest du deine Fragestellung warum man darüber diskutiert selbst.
 
  • Gefällt mir
Reaktionen: PHuV
Rockstar85 schrieb:
Sorry aber mal ernst.. Das war mit 4k und 1440p 144Hz nicht anders.. Selbst bei TN zu IPS...
Nein, das war alles ziemlich zeitnah vorhanden. Und glaub mir, ich hatte einige Monitore mehr als der Durchschnitt hier.
Rockstar85 schrieb:
Ich weiß bis heute, wie das gejaule Laut war als DVI starb..
Schöner stabiler und zuverlässiger Stecker, aber ich hab damals auch als einer der ersten sofort auf DP gewechselt.
Rockstar85 schrieb:
Mal ernsthafte Frage: Denkst du über deine Aussage nach? Es war Exakt bei jeder Display Generation so.. Aber ich versteh schon, weil es durch AMD Initiiert wird, ist es halt schlecht.
Wie kann man bei solchen Aussagen eig noch objektiv bleiben?
Du bist doch nicht objektiv, was sollen den bitte schon wieder die Unterstellungen? Hast Du meine Aussagen mal richtig lesen? Das ist wesentlich durchdachter und überlegter als das, was Du da von Dir gibst, und es sind Fakten. Nenn mir doch bitte Stand heute irgend eine GPU, die mit durchschnittlich 60 FPS 8k Monitore befeuern könnten? Und selbst für nichtspielende Kollegen brauchst Du dann keine stromfressende 7900 XT(X). Hier nochmal gerne zusammengefaßt:

DP 2.1, ein Feature (Fakten):
  • das bis mindestens Mitte nächsten Jahres absolut nutzlos ist, da bis dato keine Monitore kaufbar auf dem Markt verfügbar sind
  • aktuell keinen Mehrwert bietet, sondern im Gegenteil, viel Strom zieht
  • wenn, dann eh nur Monitore befeuern kann, die mindestens oder mehrfach teurer sind als die aktuell teuerste GPU
  • die aktuell kaum von einer aktuellen GPU sinnvoll befeuern können. Welche GPU liefert heute bereits für 8k/60 Hz die volle Performance bei Ultra-Einstellungen?
  • und eh nur maximal 0,0001% der Spieler in den nächsten 2-4 Jahren betreffen wird, die sich auch entsprechende Monitore kaufen werden.
  • diejenigen, die sich solche Monitore kaufen, werden dann auch in 1-2 Jahren zu einer 5090 oder anderes wie RDNA4 wechseln.
So, und nun von Dir bitte mal ein gehaltvolles Gegenargument! Keine Spekulationen bitte, Fakten. Damit bist Du im Nachteil, weil Du (und dafür kannst Du aktuell nichts)... nichts liefern kannst, weil ja ... nichts da ist.
 
Und bitte, nun sind wir beim DP angelangt. Man kann es doch einfach so abkürzen: Der fehlende DP2.1 bei Nv ist jetzt aktuell mangels Hardware egal für alle User. Es könnte vllt für ganze wenige User in Zukunft ein Problem sein, die sich in ein paar Jahren eine ein paar Jahre alte Karte holen, die dann den gerade neu gekauften Monitor nicht befeuern kann. Über die Wahrscheinlichkeit dieses Szenarios brauchen wir glaube ich nicht zu sprechen.

Einigen wir uns doch darauf, dass das aller Voraussicht nach einige wenige Einzelfälle betreffen wird, die ärgerlich sind - jetzt aber sicher bis auf Einzelfälle niemanden von Kauf einer Ada abhalten wird.

Manchmal glaube ich hier wird jeder noch so kleine Strohhalm gesucht, um das eine oder andere Produkt schön- oder schlecht zu reden.
 
PHuV schrieb:
So, und nun von Dir bitte mal ein gehaltvolles Gegenargument!
Ersetze DP durch RT.... Sorry aber ich hab hier doch vor Seiten kritisiert was ich von Navi31 halte und 2 Dutzend Likes bekommen..
Ich bleib bei meiner Frage.
Und bitte zeige mir auf, dass der PC die Leadplattform ist, dann versteh ich auch dein Dilemma. Bis zur PS6 wird RT in 99% der Games Irrelevant sein. Darauf verwette ich sogar mein Motorrad.

@Chilisidian Sagte dazu alles... ich glaube das war aber auch vor 20 Seiten schon gegessen. DP2.1. ist auch nicht ein Killergrund eine Navi31 zu kaufen.. Das ist wie USB-C ein "Up" für die GPU..
Ich lese aber seit fast 30 Seiten nur noch Missionare.
Ich für meinen Teil habe nochn 32 Zoll 60Hz Monitor.. Killerfeature für DP ist bei mir halt Daisy Chaining.. Bis ich einen 240Hz Monitor habe, vergehen noch Jahre.
nur renn ich halt nicht in einen Thread und ziehe mir Argumente aus der Nase um ein Produkt schlecht zu machen. Das ist halt der Unterschied.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: m.obermueller
Sun-Berg schrieb:
Ich würde mir wünschen, die Entwickler würden die Raytracing Implementierungen in feineren Abstufungen einführen, damit für jeden was dabei ist. Also zwischen sowas wi... rdcore Enthousiasten, die bei jeder neuen Generation nen 1000er drauflegen.
Ich bin mir inzwischen garnicht sicher, ob man es nicht wie früher zum Anfang der 3d- Beschleuniger Zeiten hätte machen sollen.
Sprich- Dedizierte Karten dafür anbieten, die grunsätzlich zu 100% auf Path- Tracing ausgerichtet sind.
Gleich volles Rohr, ohne Raster- Zwischenschritte. Und dann natürlich auf disruptive Art und Weise Software dafür auf den Markt werfen, die komplett und kompromisslos dafür entwickelt sind.
Dann hätte man den Aha- Effekt geerntet, mit volldynamischen Szenen und nie dagewesener Berechnung des Lichttransports.

Dieser Hybrid- Ansatz ist vornehmlich das, was in alle Richtungen den Aufwand explodieren lässt.
Das war aber wohl selbst nVidia ein zu hohes Risiko, so dass man es anders auf den Markt zwingt/gezwungen hat.
 
  • Gefällt mir
Reaktionen: Apocalypse und ComputerJunge
.Sentinel. schrieb:
Was ist nicht von entsprechender Klientel bei Ampere auf den Stromverbrauch/Effizienz geschimpft worden und auch bei ADA gemutmaßt worden, zu welchem Anteil man seine Zentralheizung damit ersetzen könnte. Verbote und Obergrenzen wurden gefordert.

Das wird jetzt von einigen nonchalant übergangen. Plötzlich ist es dann einigen egal, was so ein Ding bei den "horrenden Energiepreisen" nun verbraucht, obwohl es doch vorher da einzig wichtige Kriterium gewesen zu sein schien, weswegen eine Karte unkaufbar sei.
Danke dafür. Das geht mir auch seit der OC Debatte durch den Kopf. Vor zwei Wochen konnte man noch regelmäßig das Geschrei über die 4090er und deren mögliche Verbräuche lesen und jetzt würde so mancher AMD-Boy am liebsten selbst gern ein 600W BIOS haben.😂

Offenbar sind bei AMD 450W+ viel effizientere Watts und viel weniger ökologisch schädliche Watts als die nVidia-Watts.:daumen:
 
  • Gefällt mir
Reaktionen: DayvanCowboy und PHuV
Zurück
Oben