Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

scryed schrieb:
Hm dann leben wir in verschiedenen Universen muss ich sagen.... Auch wenn die uvp günstiger sein mag wo bekommt man die aktuell? Ebay ist praktisch alles. 1500euro und mehr

Da bekommt man aktuell die 3090 fe günstiger denn die wird immer mal wieder zum uvp angeboten und Dank vieler Partnerkarten ist hier die chanse leicht höher eine zu bekommen

Den die 6900 ist noch neu und die Wiederverkäufer sind da sehr spitz drauf

Naja, ich nehm immer die UVP als Referenz, dass die wirklichkeit desaströs ist... darüber brauchen wir nicht reden. ^^
 
GerryB schrieb:
Was soll GESAMT denn sein?

So ein Quatsch wie FHD+QHD+UHD+DXR addiert? (und dann auch nochmal Old+New Games+SAM)
Das nützt Keinem etwas.

Man braucht für für jede Auflösung nen einzelnen Wert.(da kann der User direkt vgl.)
(genauso wie für DXR und DLSS+DXR)

Und weil man bei CB die Games selektieren kann, ist Jedem geholfen.
Falsch verstanden:

Es gibt ein Set an Games:
  • Raster (DX12)
  • RTX (DXR)
  • Vulkan..

usw.

Eine Gesamtwertung (Pro Auflösung) findet dann über alle Spiele statt, inkl. derer die DXR auf AMD als auch nVidia supporten. Für Leute denen dann das Ergebnis nicht passt, kann man dann per Checkbox DXR ausnehmen und hat dann halt ein nicht Vergleichbares Ergebnis (oder für die Person deutlich relevanteres Ergebnis). Zu sagen wir nehmen RT einfach nicht in die Wertung weil AMD da nicht konkurrenzfähig ist, ist Quatsch.
 
Lübke82 schrieb:
Nö, ist eben nicht so. Der Kühler ist deutlich besser bei der FE und die Nvidiakarten haben eben noch ihre Funktionen, wo die AMD-Karten keine Alternative derzeit darstellen, wenn man sie nutzt. Möglich, dass sich das noch ändert aber zur Zeit ist das eben nicht der Fall.
Es gibt ja auch soooo viele Spiele die RT nutzen ;) und NVenc nutzen nicht Mal 10% des Marktes. Sorry aber die Aussage hättest du auch in eine Nvidia Folie schreiben können. Nicht Mal DLSS2 ist diese 500-600€ Aufpreis wert. Die 3090 ist gnadenlos zu teuer.
Und das RDNA mit den modernen engines besser performed, das ist in diesem Test dass eigentlich spannende. Und bezüglich Effizienz ist AMD auch besser, man bedenke, ohne das Anheben der TDP wäre Nvidia in allen Karten geschlagen worden.
 
  • Gefällt mir
Reaktionen: PS828 und DannyA4
Salamimander schrieb:
Zu sagen wir nehmen RT einfach nicht in die Wertung weil AMD da nicht konkurrenzfähig ist, ist Quatsch.
Ich bezog mich da auf die Performance/Watt-Graphen. Wenn du zurzeit nur eine Handvoll RT-Games hast mit sehr starken Schwankungen bei der Performance, mal pro Nvidia, mal pro AMD, dann kann man daraus keine vernünftigen Mittelwerte bilden.

Ganz davon abgesehen sollte man sowieso für Performance/Watt nur Spiele nehmen, in denen die Watt auch am Maximum sind, CB berechnet nämlich, soweit ich weiß, den Wert nur aus Performance-Durchschnitt geteilt durch Verbrauch in Doom:Eternal. Das kann bei Spielen mit oder ohne RT zu Problemen bei so einem Wert führen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Zuletzt bearbeitet:
Rockstar85 schrieb:
ohne das Anheben der TDP wäre Nvidia in allen Karten geschlagen worden.

Und warum ist die 3090 dann bei gleicher Leistungsaufnahme effizienter als die 6900XT, so wie man hier im Test sehen kann??

Noch dazu spielt RT für denjenigen der die jeweiligen Spiele spielt sehr wohl eine Rolle. Gleich geht's übrigens an CP2077, wenn ich heim bin. Ich hab genug Games wo ich von RT oder DLSS profitiere. BFV, Deliver Us The Moon, Mechwarrior, Final Fantasy 15 und SotTR sind erstmal die Games die ich bisher mit RT und/oder DLSS durch habe. Also ich kann mich nicht beklagen. Bei jedem 08/15-Game wäre das ja auch Blödsinn das drinzuhaben. Immerhin steht RT ja auch erst am Anfang in Echtzeit.

Auch der Punkt mit dem zu teuer kommt immer auf den Aufgabenbereich an. Schau lieber nochmal nach, womit die Karte von Nvidia beworben wird. Da ist die Karte nämlich schon fast ein Schnäppchen.
 
Colindo schrieb:
Ich bezog mich da auf die Performance/Watt-Graphen. Wenn du zurzeit nur eine Handvoll RT-Games hast mit sehr starken Schwankungen bei der Performance, mal pro Nvidia, mal pro AMD, dann kann man daraus keine vernünftigen Mittelwerte bilden.

Ganz davon abgesehen sollte man sowieso für Performance/Watt nur Spiele nehmen, in denen die Watt auch am Maximum sind, CB berechnet nämlich, soweit ich weiß, den Wert nur aus Performance-Durchschnitt geteilt durch Verbrauch in Doom:Eternal. Das kann bei Spielen mit oder ohne RT zu Problemen bei so einem Wert führen.
Und das sehe ich nicht grundsätzlich so. Wenn die Auslastung der GPU nicht bei 100% liegt (Insbesondere bei RT) und ein Engine Problem (hust valhalla hust) ausgeschlossen werden kann, dann ist ein Mieser Treiber (Ob AMD oder NV) nun mal Teil des Ergebnis und verhagelt dann einer guten GPU zu Recht ein besseres Ergebnis. Dabei ist es unerheblich ob es nur eine Hand voll Spiele gibt.
 
Salamimander schrieb:
Falsch verstanden: Es gibt ein Set an Games:
  • Raster (DX12)
  • RTX (DXR)
  • Vulkan..
Wieso sollte Jemand Raster DX12+Vulkan trennen?

Der einzige propertiäre Quark ist momentan RTX.(x)

DXR normengerecht auf Allen lauffähig kann ja in nem Chart gezeigt werden.(z.Bsp. WQHD ohne DLSS)
(bei Vulkan-RT wirds wohl bald auch mehr Gemeinsamkeiten geben, da die Schnittstelle und Treiber soweit sind --> kann in den selben Chart)

(x) Ob nun einige alte grüne Games net mehr auf Vordermann/gemeinsamen Nenner gebracht werden ist ne andere Geschichte. (gibts halt weniger Verkäufe)
Wären dann logischerweise in AMD-Reviews auch nur unwichtige Fussnoten.
 
Zuletzt bearbeitet:
GerryB schrieb:
Der einzige propertiäre Quark ist momentan RTX.
RTX ist Standard DXR Raytracing !
Weiß nicht ob einige wie Donald Trump glauben wenn man falsches oft genug wiederholt wird es plötzlich zur Realität

Wie Nvidia das intern löst ist deren eigene Angelegenheit!
AMD steht es genauso frei dafür Tensor Cores und Denoiser einzusetzen, solange letztendlich die MS Schnittstelle bedient wird
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Okay, für Leute mit Wutanfall:

  • DX12 ohne DXR
  • DXR*
  • Vulkan
  • DX11 (Will ich von CB echt nicht verlangen, wäre aber spannend zu sehen)

* Standard von MS, Quasy DX12_2 oder DX13 oder .... Nenne es wie du willst.
 
Salamimander schrieb:
Und das sehe ich nicht grundsätzlich so. Wenn die Auslastung der GPU nicht bei 100% liegt (Insbesondere bei RT) und ein Engine Problem (hust valhalla hust) ausgeschlossen werden kann, dann ist ein Mieser Treiber (Ob AMD oder NV) nun mal Teil des Ergebnis und verhagelt dann einer guten GPU zu Recht ein besseres Ergebnis. Dabei ist es unerheblich ob es nur eine Hand voll Spiele gibt.
Ja, deine Argumentation kann ich nachvollziehen. In vielen Fällen hängt es dann von Nuancen ab, ob eine Karte voll ausgelastet wird oder nicht. Und dann ist die angezeigte Performance eben das, was gemessen wird.

Aber bei Effizienz muss man schon durch den echten Verbrauch teilen, sonst kriegt man nur Murkswerte heraus. Ich weiß allerdings gar nicht, ob die AMD-Karten auch bei den schlecht laufenden RT-Spielen am Powerlimit sind oder nicht. Wahrscheinlich ist es, und so gesehen wäre es auch ok, das ins Rating zu nehmen.

Mir gefällt die aktuelle Varianz bei RT nur nicht, ist statistisch nicht sauber.
 
  • Gefällt mir
Reaktionen: Rockstar85
Richtig, ein echte Übersicht ist es leider noch nicht, darf deshalb aber nicht aus dem Ergebnis fallen. Es gab eine Zeit, da konnte (war es AMD oder Nvidia? ka) eine Generation lang das DX??.1 Featureset nicht. Auch sowas muss dann einfließen. (Etwas weglassen das der andere nicht beherrscht ist Okay, um Spiele 1:1 zu vergleichen, MUSS sich aber negativ in der Gesamtbewertung bemerkbar machen. Schwieriges Thema)
 
Wurde das net aus AC entfernt, weils NV net konnte?

dito
Durften nur die Konsolen HDR, weils Pascal net vernünftig konnte.
und
Wenn ich heute höre das HDR in CP einige Probleme auf OLED hat, ...

Man könnte 1000 Ausnahmeregeln verfassen, oder überlässt Das der Redaktion.

btw.
Auch zu CP@DLSS gibts es Meinungen:
 

Anhänge

  • CP-DLSS.png
    CP-DLSS.png
    54,5 KB · Aufrufe: 269
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
@Wolfgang

Wann folgen eigentlich die nicht uninteressanten Anwendungsbenchmarks wie Blender, Blackmagic Video etc.? Ich hab ja gesehen, daß es hier noch Probleme gab.
 
@PHuV zumindest ein paar gibts bei linus' video. AMD ProRender ist wohl aktuell unbrauchbar, siehe Screenshots vom BMW.
 

Anhänge

  • 1607610965104.png
    1607610965104.png
    963,4 KB · Aufrufe: 276
  • 1607610981150.png
    1607610981150.png
    884,3 KB · Aufrufe: 273
  • 1607610993903.png
    1607610993903.png
    914,7 KB · Aufrufe: 263
  • 1607611004299.png
    1607611004299.png
    883,8 KB · Aufrufe: 268
  • 1607611031811.png
    1607611031811.png
    1,8 MB · Aufrufe: 269
  • 1607611043549.png
    1607611043549.png
    1,6 MB · Aufrufe: 271
  • Gefällt mir
Reaktionen: PHuV
Chismon schrieb:
Aufgebrezelt (mit Wasserkuehler, somit immer noch deutlich guenstiger als eine RTX 3090) schafft eine RX 6900XT auch eine (Rasterisierungs-)Leistung auf Augenhoehe mit einer RTX 3090, siehe nachfolgendes Video von Igor'sLab:


Tja, damit verliert eine RTX 3090 fast die Daseinsberechtigung (angesichts der nVidia Preisvorstellungen fuer diese), wenn man nicht in gerade einmal einem halben Dutzend gehypten Titeln RT-Raytracing und/oder DLSS nutzen will oder aber professionelle Software mit Hilfe der verbauten 24GB Speicher und fuer eine Gaming-GPU staerkere Compute-Leistung nutzen moechte.

So gesehen ist diese RX 6900XT gar nicht so schlecht/teuer fuer ein Halo-Produkt (im Vergleich zu dem RTX 3090 Halo-Produkt der Konkurrenz). Kaufen wuerde ich mir eine solche aber auch nicht und schliesslich will man sich noch (kuenstlich) mit einer kolportierten RTX 3080Ti seitens nVidia in den Benchmarks vor eine RX 6900XT schieben, aber natuerlich ohne Beruecksichtigung von OC bzw. schlechter Effizienz (auf RTX Ampere Niveau) ;).
Ergänzung ()



JayzTwoCents schaue ich mir auch gerne an, da i.d.R. sehr unterhaltsam, aber wirklich unvoreingenommen ist er (leider) auch nicht (da ist Steve Burke von Gamer's Nexus m.M.n. objektiver), das gibt er auch (in diesem Video) offen zu, dass er tendenziell ein nVidia Fan ist und zudem sammelt er seit der GTX 780Ti die Kingpin EVGA GPUs.

JayzTwoCents ist m.M.n. noch ein groesserer EVGA als nVidia Fan (auch wenn einige boese Zungen ihn als nVidia TechTuber titulieren), was ja auch okay ist, aber angesichts dessen sollte man einige seiner geaeusserten Ansichten eher mit Vorsicht geniessen und ich denke Igor's Rezension und auch die von @Wolfgang hier sind da um Klassen objektiver und besser gelungen.


Um noch einmal auf JayzTwoCents zurueck zu kommen, ich teile aber seine Meinung, dass eine RX 6800(XT) da deutlich attraktiver und sinnvoller ist vom Preis-Leistungsverhaeltnis her als die vor kurzem vorgestellte RX 6900XT ;).
Ja, gut gesagt. Jay selber meinte auch im Video, dass diese Treiber-Sache ihm subjektiv stört und man auch andere Reviews anschauen sollte, um sich ein ganzes Bild machen zu können, da andere vielleicht gewisse Probleme nicht haben, denen es nicht stört oder ähnliches.
 
  • Gefällt mir
Reaktionen: Chismon
@foo_1337 das mit Pro Render hat mich aber auch ein wenig gewundert bei LTT. Beworben wird dies eigentlich nur für die Radeon Pro Modelle zusammen mit deren Treibern und zumindest auf meiner Radeon Pro habe ich bisher nichts derartig "unwatchable" gesehen wie bei ihm :D

Ist sicherlich auch nur eine Momentaufnahme. Wenn es schlussendlich am Treiber lag braucht sich keiner Wundern. Denn im Gegensatz zu den Game Treibern sind AMDs Pro Treiber ohne Ausnahme der Wahnsinn.

Zwei Updates jährlich reichen völlig.
 
Lübke82 schrieb:
Und warum ist die 3090 dann bei gleicher Leistungsaufnahme effizienter als die 6900XT, so wie man hier im Test sehen kann??
Ist sie nicht, aber egal..
Die Karte liefert bei einer TDP vergleichbar zu AMD weniger FPS. Und wie Colindo schon sagte, kommt es auch auf das Spiel an. Also bitte.
Und du solltest schon gelernt haben, das ein Test nicht aussagekräftig genug ist. Mit anderen Tests vergleichen und an besten die Inkonsistenzen in Form von zB Control, watch Dogs raus nehmen, und Zack, sieht das Bild eben anders aus.
Also immer noch, die Karte ist zu teuer für das Geld und NVenc ist nice, aber keine 500€ wert. Und wegen RT. Ich habe noch kein RT Game gesehen, welches mich wirklich von Hocker Haut. Und Cyberpunk hin oder her, auch das ist auf Nvidia Hardware optimiert.
Was möchtest du also noch Mal sagen?
 
@Rockstar85

Du redest hier nur von dir und versuchst anderen DEINE Ansicht auf zu drücken. Wenn man alle Spiele raus nimmt in denen nVidia schneller ist, ist AMD schneller :freak:. Die Leute sollen selbst entscheiden. Wer DXR will, braucht nVidia. Punkt.
 
  • Gefällt mir
Reaktionen: captain kirk
Zurück
Oben