Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRadeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090
Hm dann leben wir in verschiedenen Universen muss ich sagen.... Auch wenn die uvp günstiger sein mag wo bekommt man die aktuell? Ebay ist praktisch alles. 1500euro und mehr
Da bekommt man aktuell die 3090 fe günstiger denn die wird immer mal wieder zum uvp angeboten und Dank vieler Partnerkarten ist hier die chanse leicht höher eine zu bekommen
Den die 6900 ist noch neu und die Wiederverkäufer sind da sehr spitz drauf
Eine Gesamtwertung (Pro Auflösung) findet dann über alle Spiele statt, inkl. derer die DXR auf AMD als auch nVidia supporten. Für Leute denen dann das Ergebnis nicht passt, kann man dann per Checkbox DXR ausnehmen und hat dann halt ein nicht Vergleichbares Ergebnis (oder für die Person deutlich relevanteres Ergebnis). Zu sagen wir nehmen RT einfach nicht in die Wertung weil AMD da nicht konkurrenzfähig ist, ist Quatsch.
Nö, ist eben nicht so. Der Kühler ist deutlich besser bei der FE und die Nvidiakarten haben eben noch ihre Funktionen, wo die AMD-Karten keine Alternative derzeit darstellen, wenn man sie nutzt. Möglich, dass sich das noch ändert aber zur Zeit ist das eben nicht der Fall.
Es gibt ja auch soooo viele Spiele die RT nutzen und NVenc nutzen nicht Mal 10% des Marktes. Sorry aber die Aussage hättest du auch in eine Nvidia Folie schreiben können. Nicht Mal DLSS2 ist diese 500-600€ Aufpreis wert. Die 3090 ist gnadenlos zu teuer.
Und das RDNA mit den modernen engines besser performed, das ist in diesem Test dass eigentlich spannende. Und bezüglich Effizienz ist AMD auch besser, man bedenke, ohne das Anheben der TDP wäre Nvidia in allen Karten geschlagen worden.
Ich bezog mich da auf die Performance/Watt-Graphen. Wenn du zurzeit nur eine Handvoll RT-Games hast mit sehr starken Schwankungen bei der Performance, mal pro Nvidia, mal pro AMD, dann kann man daraus keine vernünftigen Mittelwerte bilden.
Ganz davon abgesehen sollte man sowieso für Performance/Watt nur Spiele nehmen, in denen die Watt auch am Maximum sind, CB berechnet nämlich, soweit ich weiß, den Wert nur aus Performance-Durchschnitt geteilt durch Verbrauch in Doom:Eternal. Das kann bei Spielen mit oder ohne RT zu Problemen bei so einem Wert führen.
Und warum ist die 3090 dann bei gleicher Leistungsaufnahme effizienter als die 6900XT, so wie man hier im Test sehen kann??
Noch dazu spielt RT für denjenigen der die jeweiligen Spiele spielt sehr wohl eine Rolle. Gleich geht's übrigens an CP2077, wenn ich heim bin. Ich hab genug Games wo ich von RT oder DLSS profitiere. BFV, Deliver Us The Moon, Mechwarrior, Final Fantasy 15 und SotTR sind erstmal die Games die ich bisher mit RT und/oder DLSS durch habe. Also ich kann mich nicht beklagen. Bei jedem 08/15-Game wäre das ja auch Blödsinn das drinzuhaben. Immerhin steht RT ja auch erst am Anfang in Echtzeit.
Auch der Punkt mit dem zu teuer kommt immer auf den Aufgabenbereich an. Schau lieber nochmal nach, womit die Karte von Nvidia beworben wird. Da ist die Karte nämlich schon fast ein Schnäppchen.
Ich bezog mich da auf die Performance/Watt-Graphen. Wenn du zurzeit nur eine Handvoll RT-Games hast mit sehr starken Schwankungen bei der Performance, mal pro Nvidia, mal pro AMD, dann kann man daraus keine vernünftigen Mittelwerte bilden.
Ganz davon abgesehen sollte man sowieso für Performance/Watt nur Spiele nehmen, in denen die Watt auch am Maximum sind, CB berechnet nämlich, soweit ich weiß, den Wert nur aus Performance-Durchschnitt geteilt durch Verbrauch in Doom:Eternal. Das kann bei Spielen mit oder ohne RT zu Problemen bei so einem Wert führen.
Und das sehe ich nicht grundsätzlich so. Wenn die Auslastung der GPU nicht bei 100% liegt (Insbesondere bei RT) und ein Engine Problem (hust valhalla hust) ausgeschlossen werden kann, dann ist ein Mieser Treiber (Ob AMD oder NV) nun mal Teil des Ergebnis und verhagelt dann einer guten GPU zu Recht ein besseres Ergebnis. Dabei ist es unerheblich ob es nur eine Hand voll Spiele gibt.
Der einzige propertiäre Quark ist momentan RTX.(x)
DXR normengerecht auf Allen lauffähig kann ja in nem Chart gezeigt werden.(z.Bsp. WQHD ohne DLSS)
(bei Vulkan-RT wirds wohl bald auch mehr Gemeinsamkeiten geben, da die Schnittstelle und Treiber soweit sind --> kann in den selben Chart)
(x) Ob nun einige alte grüne Games net mehr auf Vordermann/gemeinsamen Nenner gebracht werden ist ne andere Geschichte. (gibts halt weniger Verkäufe)
Wären dann logischerweise in AMD-Reviews auch nur unwichtige Fussnoten.
RTX ist Standard DXR Raytracing !
Weiß nicht ob einige wie Donald Trump glauben wenn man falsches oft genug wiederholt wird es plötzlich zur Realität
Wie Nvidia das intern löst ist deren eigene Angelegenheit!
AMD steht es genauso frei dafür Tensor Cores und Denoiser einzusetzen, solange letztendlich die MS Schnittstelle bedient wird
Und das sehe ich nicht grundsätzlich so. Wenn die Auslastung der GPU nicht bei 100% liegt (Insbesondere bei RT) und ein Engine Problem (hust valhalla hust) ausgeschlossen werden kann, dann ist ein Mieser Treiber (Ob AMD oder NV) nun mal Teil des Ergebnis und verhagelt dann einer guten GPU zu Recht ein besseres Ergebnis. Dabei ist es unerheblich ob es nur eine Hand voll Spiele gibt.
Ja, deine Argumentation kann ich nachvollziehen. In vielen Fällen hängt es dann von Nuancen ab, ob eine Karte voll ausgelastet wird oder nicht. Und dann ist die angezeigte Performance eben das, was gemessen wird.
Aber bei Effizienz muss man schon durch den echten Verbrauch teilen, sonst kriegt man nur Murkswerte heraus. Ich weiß allerdings gar nicht, ob die AMD-Karten auch bei den schlecht laufenden RT-Spielen am Powerlimit sind oder nicht. Wahrscheinlich ist es, und so gesehen wäre es auch ok, das ins Rating zu nehmen.
Mir gefällt die aktuelle Varianz bei RT nur nicht, ist statistisch nicht sauber.
Richtig, ein echte Übersicht ist es leider noch nicht, darf deshalb aber nicht aus dem Ergebnis fallen. Es gab eine Zeit, da konnte (war es AMD oder Nvidia? ka) eine Generation lang das DX??.1 Featureset nicht. Auch sowas muss dann einfließen. (Etwas weglassen das der andere nicht beherrscht ist Okay, um Spiele 1:1 zu vergleichen, MUSS sich aber negativ in der Gesamtbewertung bemerkbar machen. Schwieriges Thema)
Wann folgen eigentlich die nicht uninteressanten Anwendungsbenchmarks wie Blender, Blackmagic Video etc.? Ich hab ja gesehen, daß es hier noch Probleme gab.
Aufgebrezelt (mit Wasserkuehler, somit immer noch deutlich guenstiger als eine RTX 3090) schafft eine RX 6900XT auch eine (Rasterisierungs-)Leistung auf Augenhoehe mit einer RTX 3090, siehe nachfolgendes Video von Igor'sLab:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Tja, damit verliert eine RTX 3090 fast die Daseinsberechtigung (angesichts der nVidia Preisvorstellungen fuer diese), wenn man nicht in gerade einmal einem halben Dutzend gehypten Titeln RT-Raytracing und/oder DLSS nutzen will oder aber professionelle Software mit Hilfe der verbauten 24GB Speicher und fuer eine Gaming-GPU staerkere Compute-Leistung nutzen moechte.
So gesehen ist diese RX 6900XT gar nicht so schlecht/teuer fuer ein Halo-Produkt (im Vergleich zu dem RTX 3090 Halo-Produkt der Konkurrenz). Kaufen wuerde ich mir eine solche aber auch nicht und schliesslich will man sich noch (kuenstlich) mit einer kolportierten RTX 3080Ti seitens nVidia in den Benchmarks vor eine RX 6900XT schieben, aber natuerlich ohne Beruecksichtigung von OC bzw. schlechter Effizienz (auf RTX Ampere Niveau) .
Ergänzung ()
JayzTwoCents schaue ich mir auch gerne an, da i.d.R. sehr unterhaltsam, aber wirklich unvoreingenommen ist er (leider) auch nicht (da ist Steve Burke von Gamer's Nexus m.M.n. objektiver), das gibt er auch (in diesem Video) offen zu, dass er tendenziell ein nVidia Fan ist und zudem sammelt er seit der GTX 780Ti die Kingpin EVGA GPUs.
JayzTwoCents ist m.M.n. noch ein groesserer EVGA als nVidia Fan (auch wenn einige boese Zungen ihn als nVidia TechTuber titulieren), was ja auch okay ist, aber angesichts dessen sollte man einige seiner geaeusserten Ansichten eher mit Vorsicht geniessen und ich denke Igor's Rezension und auch die von @Wolfgang hier sind da um Klassen objektiver und besser gelungen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Um noch einmal auf JayzTwoCents zurueck zu kommen, ich teile aber seine Meinung, dass eine RX 6800(XT) da deutlich attraktiver und sinnvoller ist vom Preis-Leistungsverhaeltnis her als die vor kurzem vorgestellte RX 6900XT .
Ja, gut gesagt. Jay selber meinte auch im Video, dass diese Treiber-Sache ihm subjektiv stört und man auch andere Reviews anschauen sollte, um sich ein ganzes Bild machen zu können, da andere vielleicht gewisse Probleme nicht haben, denen es nicht stört oder ähnliches.
@foo_1337 das mit Pro Render hat mich aber auch ein wenig gewundert bei LTT. Beworben wird dies eigentlich nur für die Radeon Pro Modelle zusammen mit deren Treibern und zumindest auf meiner Radeon Pro habe ich bisher nichts derartig "unwatchable" gesehen wie bei ihm
Ist sicherlich auch nur eine Momentaufnahme. Wenn es schlussendlich am Treiber lag braucht sich keiner Wundern. Denn im Gegensatz zu den Game Treibern sind AMDs Pro Treiber ohne Ausnahme der Wahnsinn.
Ist sie nicht, aber egal..
Die Karte liefert bei einer TDP vergleichbar zu AMD weniger FPS. Und wie Colindo schon sagte, kommt es auch auf das Spiel an. Also bitte.
Und du solltest schon gelernt haben, das ein Test nicht aussagekräftig genug ist. Mit anderen Tests vergleichen und an besten die Inkonsistenzen in Form von zB Control, watch Dogs raus nehmen, und Zack, sieht das Bild eben anders aus.
Also immer noch, die Karte ist zu teuer für das Geld und NVenc ist nice, aber keine 500€ wert. Und wegen RT. Ich habe noch kein RT Game gesehen, welches mich wirklich von Hocker Haut. Und Cyberpunk hin oder her, auch das ist auf Nvidia Hardware optimiert.
Was möchtest du also noch Mal sagen?
Du redest hier nur von dir und versuchst anderen DEINE Ansicht auf zu drücken. Wenn man alle Spiele raus nimmt in denen nVidia schneller ist, ist AMD schneller . Die Leute sollen selbst entscheiden. Wer DXR will, braucht nVidia. Punkt.