Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Shoryuken94 schrieb:
Kann alles sein, aber wenn man AMDs Treiberdetails liest, dann sieht es ja so aus, als wenn sie der Meinung sind, dass viele Probleme damit gefixt werden können. Laut einigen Leakern wird das Radeon Softwareteam auch über den Jahreswechsel an dem Treiber arbeiten. Ein genereller Hardwarefehler kann es auch nicht wirklich sein, wenn man sich die ersten OC Ergebnisse mit Customkarten anschaut.
Ich glaube schon dass es an der Hardware liegt selbst wenn man einige Probleme mit dem Treiber oder BIOS angehen kann. Zumindest ist das für mich plausibeler. Dafür spricht auch der plötzliche Kurswechsel von Nvidia beim Verbrauch. Die Karten sind für 600w ausgelegt laufen jetzt aber deutlich drunter. AMD hat in den Präsentationen auch mehr versprochen als das was jetzt ankommt. Und wenn man sich die letzten 3-4 Jahre anschaut. Und was AMD da in Benchmarks versprochen und gehalten hat dann passt das nicht zusammen bei RDNA3.
Ich denke da gab es bei AMD und Nvidia ganz überraschte Gesichter als die ersten Karten getestet worden. Ich glaube auch das RDNA3 zwar hoch takten kann aber irgendwo ein Fehler im Design den Verbrauch zu sehr in die Höhe schnellen lässt. Das ist hier auch im Test zu 7900xt(x) festgestellt worden. Deswegen auch nur der sehr verhaltene Anstieg beim Takt im Vergleich zu RDNA2.
Aber Mal sehen was 2023 bringt und ob bald 6-12 Monate ein Refresh von RDNA3 erfolgt der das Thema Takt und Verbrauch angeht. Noch spannender wird es in 2 Jahren wenn AMD dann wirklich Chiplets in den Grafikkarten bringt.
 
Benji18 schrieb:
Wenn man in 5 Jahren RT Leistung der 4090 im unteresten Preissegment bekommt ja vielleicht aber aktuell sehe ich das schlicht nicht, nicht bei den exorbitanten Preisen
Selbst bei den jetzigen Preisen sollte RT in 5 Jahren tatsächlich unten angekommen sein, wenn man von heute 5 Jahre zurückgeht, damals war die 1080 ti die boss Karte. Deren Leistung bekommt man mit der 3060 12GB, die zwar immer noch viel zu teuer ist 😂 aber gebraucht bekommt man ne 1080 ti auch für 250 euro, also ich gehe schon davon aus das wir in 5 jahren alle rt nutzen können
 
  • Gefällt mir
Reaktionen: Laphonso
Tobi-S. schrieb:
Schade, nach der RX 6xxx Serie habe ich gehofft das AMD besser wird im GPU Bereich. Der Weg wäre ja schon in die richtige Richtung gegangen.
Die Generationen vorher waren ja nicht so effizient. (Radeon7, Vega64, RX590,...)
Ich würde sagen, die ganze Erwartungshaltung resultierte aus der Geforce 30er Serie, welche einfach nicht Nvidias beste Generation war. Meiner Vermutung auch, weil man auf Samsung 8 nm setzt, während AMD weiterhin auf TSMC N7 setzte und N7 schien immer die überlegender Fertigung gewesen zu sein. Darum ist jetzt auch der Sprung zwischen der 30er und 40er so beachtlich.

Die RX 6000 Serie war natürlich auch an sich eine gute Generation, aber trotzdem war ihr Gegner um einiges Einfacher als heute für RX 7000 die 40er. Und mit Einfacher meine ich, auf Augenhöhe. Hätte Nvidia bei der 30er ebenfalls auf N7 gesetzt, wäre die Wahrscheinlich der RX 6000 überlegen gewesen.
 
  • Gefällt mir
Reaktionen: voalirus und Traumsucher
MrHeisenberg schrieb:
Schau dir Quake RTX, Minecraft RTX, Metro EEE oder Portal RTX an.


Was meinst du damit? Path Tracing setzt eine RT fähige Graka voraus und das Ziel ist, irgendwann voll darauf zu setzen. Es gibt dann keinen Fallback mehr.
Mit was spiele ich dann die Spiele der letzten 30 Jahre?
 
b|ank0r schrieb:
u geringer Leistungszuwachs zu RDNA2 (6900XT zu XTX: +43% Raster +56% RT)
Also das als zu gering zu bezeichnen finde ich schon sehr seltsam.
 
  • Gefällt mir
Reaktionen: Benji21 und Traumsucher
Gerithos schrieb:
Selbst bei den jetzigen Preisen sollte RT in 5 Jahren tatsächlich unten angekommen sein, wenn man von heute 5 Jahre zurückgeht, damals war die 1080 ti die boss Karte. Deren Leistung bekommt man mit der 3060 12GB, die zwar immer noch viel zu teuer ist 😂 aber gebraucht bekommt man ne 1080 ti auch für 250 euro, also ich gehe schon davon aus das wir in 5 jahren alle rt nutzen können
davon bin ich eben nicht überzeugt, obenrum im preisbereich bei 1000€ plus ist der Fortschritt spürbar unten rum ist der Fortschritt nicht spürbar, da hat man eher das gefühl von stagnation.

die 3060 hat halt eine "witzlose" RT Leistung für einen unverschämten preis, die 1080ti hat kein RT. Ich bezweifle das RT halt wirklich praktikabel nutzbar sein wird in 5 Jahren für die breite maße bis dahin ists halt nur ein nice to have feature.
 
Benji18 schrieb:
Blase und so .... "erschwinglich" hahaha das erzählst den Leuten mit 1650 ;-) od. 1060 siehe Steam Statistik 70% der Gamer setzten nachwievor auf diese.
Es sind momentan 5,58%.
Davon abgesehen kannst du nicht erwarten, dass aktuelle AAA Games auf einer fast 7 Jahre alten GPU flüssig laufen. Davon abgesehen wird eine RTX 4XXX Einsteiger GPU mit FG auf jeden Fall in der Lage sein hohe RT Qualität bei gangbaren FPS in WQHD zu liefern.
Benji18 schrieb:
RT wird original nix anderes sein als ein Feature zum an und off schalten die "norm" wirds wenn die RT Leistung stimmt und das was eine 3060 Liefert ist ein witz in sache RT Performance.
https://www.computerbase.de/artikel...enchmarks_in_full_hd_wqhd_und_ultra_hd_update

Die reicht für RT in Full HD, bzw WQHD mit DLSS Quality, passt doch,, auch ne 2070 Super.
Benji18 schrieb:
So od. so die RT Leistung ist bei der Karte ein witz und einfach schlicht nicht ordentlich nutzbar.
Von welchem Spiel sprichst du da so?
Wir sind gerade dabei Witcher 3 Next Gen ein wenig zu testen und ja es reicht dafür auch eine RTX 3060 für WQHD und DLSS um ~40 FPS zu bekommen.
Als Witcher 3 herauskam schaffte eine R9 280x gerade 22 FPS.

Beim Witcher 3 Release gab es trotz sehr sehr niedriger FPS keinerlei Beschwerden.
 
MrHeisenberg schrieb:
Es gibt ja nicht nur die highend Karten. AMD wird ja auch noch eine 7700 bzw. 7800 XT auf den Markt werfen.
nochmal die RT Leistung unter 4080 ist halt ehrlicherweise witzlos, wenns sich das wirklich durchsetzen soll muss die leistung gut sein für einen schmalen taler, das sehe ich einfach aktuell nicht. Die 7700/7800 werden deswegen auch keine deutlich höhere RT Leistung haben und das denke ich wird bei Nvidia auch der fall sein.

das sich RT durchsetzen wird sehe ich eher in 10 Jahren, außer man macht einen deutlichen schritt nach vorne aber den will man ja aktuell ordentlich abmelken.
 
.Sentinel. schrieb:
Die Kundschaft mit einer 1060 ist nicht die Zielgruppe von AAA Produktionen.
Ob das so stimmt ohne Quellen sei mal so dahingestellt. Kenne genug Leute, die Cyberpunk beispielsweise mit ner 1070 zocken.
 
  • Gefällt mir
Reaktionen: Unnu und Benji18
Ragnarök88 schrieb:
Von welchem Spiel sprichst du da so?
Wir sind gerade dabei Witcher 3 Next Gen ein wenig zu testen und ja es reicht dafür auch eine RTX 3060 für WQHD und DLSS um ~40 FPS zu bekommen.
Als Witcher 3 herauskam schaffte eine R9 280x gerade 22 FPS.
sagt er und nennt 40FPS "flüssig" ... und dafür braucht man auch noch DLSS ...., hey könnte man ja Frame Gen nutze damit man die FPS auf ein erträgliches maß von 60-70FPS steigern kann, aso nee das funktioniert ja mit der Gen nicht weils Nvidia nicht umsetzten mag ....
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
@Wolfgang : Bildunterschrift: "PowerColor Radefon RX 7900 XTX Hellhound" Ich hoffe, dass der Höllenhund nicht nach Hause telefoniert, oder? :)
 
MrWaYne schrieb:
es gab genug Spiele die konnten das gleiche wie CP2077@RT. mit viel fps.
Nenne mir doch nur eines. Und es muss "das Gleiche" können wie CP2077 nur "mit viel fps".
 
  • Gefällt mir
Reaktionen: Ragnarök88
daknoll schrieb:
Mit was spiele ich dann die Spiele der letzten 30 Jahre?
Wie sonst auch? Die Karten können ja jetzt schon beides, aber irgendwann werden die Spiele nur noch auf RT setzen und keine hybride Technik mehr anbieten.
 
wird halt nicht in 5 Jahren passieren :)
 
Benji18 schrieb:
Wie gesagt, die Treiber sind eher alpha habe ich das gefühl den beta ... Ich glaube das wir gerade mal 60% von dem gesehen haben was Navi31 eigentlich kann. Die Frage ist kann AMD die Treiber gerade den Compiler so optimieren das die Shader wieder optimal ausgelastet werden wie bei RDNA1 und RDNA2.
Das wäre super, aber ich würde nicht damit kalkulieren. Generell würde es mich wundern, wenn man nicht zumindest in den Vorzeigespielen annähernd das Potenzial bereits ausgeschöpft hätte. Evtl. bekommt man die Ausreißer, in denen RDNA 3 nicht wirklich skaliert, noch mehr in den Griff.

Aber auch daran würde ich meine Kaufentscheidung gerade nicht knüpfen sondern davon ausgeben, dass die gezeigte Leistung final ist. Alles weitere kann dann positiv überraschen.
Als Negativbeispiel geht mir da ansonsten gerade Vega durch den Kopf.
 
MrHeisenberg schrieb:
Wenn AMD mehr RT Leistung bieten würde, würde sich das auch schneller am Markt durchsetzen, aber das tun sie nicht.
Bei 10 Prozent Marktanteil würde ich das nicht unterschreiben. Es sind die Preise, die relevant sind, um mit RT spielen zu können braucht man derzeit eine gpu für mind. 1k, selbst dlss oder fsr retten das für die kleineren Karten nicht immer. Auf die Konsolen braucht man auch nicht schauen, das sind 500 Euro Komplettsysteme, bis rt da Einzug hält mit relevanter Leistung vergehen noch ein paar Jahre. RT ist derzeit einfach Enthusiastenspielereivund und bleibt das noch für mind 2 bis 3 Jahre, eher 5.
 
  • Gefällt mir
Reaktionen: Benji18
SLIPY050491 schrieb:
Ich finde (...) Für mich (...) mir (...)
Danke für die persönliche Formulierung. Selten hier...

Ändert aber eben nichts daran, dass RT die Zukunft ist und immer mehr Titel auf die Technik setzen. Zuletzt hat man ja erst beim Witcher 3 Update gesehen, wie groß die Unterschiede sind.
Die lassen sich halt einfach nicht wegdiskutieren und sehen einfach besser aus.

Und deshalb hätten halt einige gerne auch gute RT Performance, um das noch mitzunehmen.
Klar wird es immer Leute geben, die lieber 300 Frames haben und auf alles verzichten und das ist auch nicht verwerflich. Und deshalb sollte ja auch keiner verteufelt werden, wenn er ne AMD mit besserem P/L Verhältnis kauft.

Aber die anderen Leute, die die gerne die beste Optik haben wollen müssen zwangsweise in den teuren Apfel beißen...
 
  • Gefällt mir
Reaktionen: Unnu
rumpeLson schrieb:
Das wäre super, aber ich würde nicht damit kalkulieren. Generell würde es mich wundern, wenn man nicht zumindest in den Vorzeigespielen annähernd das Potenzial bereits ausgeschöpft hätte. Evtl. bekommt man die Ausreißer, in denen RDNA 3 nicht wirklich skaliert, noch mehr in den Griff.
nur mal so als bsp. COD ist halt stark AMD lastig
1671011499180.png
 
Meh, zwar günstiger als Nvidia aber dennoch zu teuer für das Gebotene, außerdem sehr starke Schwankungen bzgl. Performance.

Glaube an dem Gerücht, dass einer oder mehrere Fehler bei RDNA 3 vorliegen ist was dran.
 
  • Gefällt mir
Reaktionen: Zenx_, DayvanCowboy, Unnu und eine weitere Person
Benji18 schrieb:
unten rum ist der Fortschritt nicht spürbar, da hat man eher das gefühl von stagnation.
Das stimmt, aber mekn Beispiel diente nur dem Vergleich, das man high end 5 Jahre später in der mittelklasse findet.
Aber ja, die mittelklasse wird immer witzloser. Aber trotzdem glaub ich dran, dass es in 5 Jahren alle nutzen können, dlss und fsr sind der Joker für die hersteller, so können sie sich hardwareseitig Entwicklung zu einem gewissen Teil sparen. Eine rtx 6060 wird sicher RT auf dem Level einer 4090 liefern, alles darunter wäre ein armutszeugnis
 
Zurück
Oben