Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

ZeroStrat schrieb:
Ich bin mir nicht sicher, ob ...
In dem Sinne... solltest Du vllt. net einfach Irgendwas annehmen.
Denke schon, das die 2x Ergebnisse mit ON+OFF etwas aussagen.
(Frag mal bitte Gurdi ob Er in "einer" Szene testen kann.)
 
Zuletzt bearbeitet:
ZeroStrat schrieb:
Wäre auch mal interessant zu wissen, warum eine RTX 3090 mit AC:Val nicht richtig ausgelastet wird in 1440p.

@.Sentinel. Liegt's vielleicht an zu vielen Integer-Operationen oder an einer ungünstigen Thread-Gruppierung, die den Warp-Scheduler dahinrafft? Da Turing auch schon zu kämpfen hat mit dem Game, wird's wohl nicht an Integer-Ops liegen.
Das müsste man tatsächlich mal prüfen - Hab das Spiel nicht zur Hand.
Die Problematik ist ja, dass man inzwischen nur mehr wenig auf den GPU- Auslastungs- Monitor geben kann.
Da reicht es, wenn ein Gewerk ausgelastet ist und es steht mit 100% am Anschlag, obwohl die Shader (Hardware) da teilweise däumchen drehen. Und die Wave-/Warp- Scheduler noch massig ressourcen hätten.

Bietet eigentlich jedes moderne Spiel heutzutage die Möglichkeit, dass die Shader in Abhängigkeit von der gerade verwendeten Hardware angepasst (vor)kompiliert werden können?
Im Normalfall macht man das so, also ja.

Gugg mal z.B. hier:
https://developer.amd.com/wp-content/resources/RDNA_Shader_ISA.pdf
 
  • Gefällt mir
Reaktionen: Colindo und ZeroStrat
GerryB schrieb:
In dem Sinne... solltest Du vllt. net einfach Irgendwas annehmen.
Denke schon, das die 2x Ergebnisse mit ON+OFF etwas aussagen.
(Frag mal bitte Gurdi ob Er testen kann.)
Dann sollten wir beide nicht irgendwas annehmen?! ^^

Ich kann's morgen mit meiner RX5700 gegentesten.
 
  • Gefällt mir
Reaktionen: GerryB und Baal Netbeck
ZeroStrat schrieb:
Wenn Nvidia's mega starkes Treiberteam das nicht ändern kann (oder wenigstens halbwegs umschiffen), dann wird's wohl was Grundlegendes in der Engine sein.
Weil ichs grad noch gelesen habe... Es ist sowohl machbar als auch sehr wahrscheinlich, dass sich da was tun kann bzw. wird, auch wenn sich das "grundlegende der Engine" querstellt.
Im Nvidia- Treiber passiert ziemlich viel. Da ist AMDs Treiber sehr direkt und kann viele fast- paths ansprechen.
Das macht das Ding auch so verflucht schnell in Geometrie- und Rasteroperationen.
Dafür hat man weniger offensichtliche Organisationsmöglichkeiten.
 
  • Gefällt mir
Reaktionen: ZeroStrat
ZeroStrat schrieb:
Dann sollten wir beide nicht irgendwas annehmen?! ^^

Ich kann's morgen mit meiner RX5700 gegentesten.
Danke!

Evtl. kannst Du ja 2 Szenen nehmen, einmal den Benchmark im Haus mit Feuer und einmal draussen.(2x2 Tests)
Dann wüssten wir es ganz genau, wie der Unterschied zustande kommt.
 
.Sentinel. schrieb:
Weil ichs grad noch gelesen habe... Es ist sowohl machbar als auch sehr wahrscheinlich, dass sich da was tun kann bzw. wird, auch wenn sich das "grundlegende der Engine" querstellt.
Verwunderlich in dem Fall wäre dann allerdings, dass bisher noch nichts dergleichen passiert ist, weil Nvidia zum einen sehr schnell mit Treiberupdates ist und zum anderen ältere AC Teile noch nicht angefasst wurden in der Hinsicht. Nvidias bescheidene Performance in Verbindung mit Anvil ist ja fast schon ein alter Hut.
Ergänzung ()

GerryB schrieb:
Evtl. kannst Du ja 2 Szenen nehmen, einmal den Benchmark im Haus mit Feuer und einmal draussen.(2x2 Tests)
Dann wüssten wir es ganz genau, wie der Unterschied zustande kommt.
Im Haus mit Feuer? Du meinst den Built-in Benchmark?
 
0xffffffff schrieb:
Es wäre ein schöner Schachzug gewesen, wenn man mit dem Einstellen in den Shop einfach noch überraschend ein Captcha mit in den Bestellprozess eingebaut hätte... :)
Es gab ein Captcha vor der Durchführung des Bestellprozesses. War das von Google, daher kann es sein, dass du es nicht gesehen hast, wenn dein Browser durch den Besuch von anderen Seiten schon einen guten Score hatte.

Apocalypse schrieb:
https://www.igorslab.de/greift-amd-...t-mit-benchmarks-und-einer-technikanalyse/15/

420W sollte das Netzteil so für die GPU Bereitstellen können, dann sollte es eigentlich in Butter sein.
Die schreiben ja: "Spitzen mit Intervallen zwischen 1 bis 10 ms können bei sehr schnell reagierenden Schutzschaltungen (OPP, OCP) vor allem bei Multi-Rail-Netzteilen zu Abschaltungen führen, obwohl die durchschnittliche Leistungsaufnahme noch in der Norm liegt."
Und das be quiet! SP 11 650W ist Multi-Rail, oder? Ich hatte auf jeden Fall mal für kurze Zeit ne Gigabyte Vega 64 Gaming OC, damit hatte ich ab und zu genau die beschriebenen Abschaltungen.
Apocalypse schrieb:
230W für den Rest deines Systems klingt doch erstmal ganz ok.
Signatur ist nicht mehr ganz aktuell, hab mitlerweile nen 3800X ;)
 
  • Gefällt mir
Reaktionen: ZeroStrat
Apocalypse schrieb:
n den einzelnen Spielen zeigt sich auch, dass zwei Treiberprobleme bei RDNA 2 immer noch nicht behoben worden sind: Sowohl Trackmania als auch Wolcen laufen auf RDNA 2 viel zu langsam, Wolcen sowohl in Full HD als auch WQHD, Trackmania dagegen nur in Full HD. In Trackmania scheint es dabei ein CPU-Limit für AMD zu geben, was bei Nvidia-Grafikkarten offenbar deutlich später eintritt. Und bei Wolcen kann abseits von Ultra HD die GPU nicht ausgelastet werden. Hier ist selbst eine Radeon RX 5700 XT schneller, also handelt es sich um einen Bug.
Und wieso sollte man diese Spiele nicht in die Wertung miteinbeziehen? Kann CB doch nichts dafür dass es dort schlecht läuft
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Einen Mehrwert gegenüber der 6800XT hat die 6900XT m.E. gar nicht.
Gleiche Speichergröße. Da hätte AMD auch gleich 24 GB spendieren können.
Dafür dann 400 Euro mehr. Och neee.

Dann lieber eine 6800XT oder eine 3090. Die hat wenigstens 24 GB.
 
ZeroStrat schrieb:
Verwunderlich in dem Fall wäre dann allerdings, dass bisher noch nichts dergleichen passiert ist, weil Nvidia zum einen sehr schnell mit Treiberupdates ist und zum anderen ältere AC Teile noch nicht angefasst wurden in der Hinsicht. Nvidias bescheidene Performance in Verbindung mit Anvil ist ja fast schon ein alter Hut.

Um die älteren gehts hier gar nicht primär sondern explizit um Walhalla was hier den Vogel abschießt
Wie kann man bei Ampere bezogen auf egal welches Spiel von alten Hut reden?
Die Karten sind gerade mal gute 2 Monate im Verkauf
 
captain kirk schrieb:
Wie kann man bei Ampere bezogen auf egal welches Spiel von alten Hut reden?
Die Karten sind gerade mal gute 2 Monate im Verkauf
Hab nicht nur über Ampere geredet, sondern auch über die Turing. Wenn man sich dann noch die unmittelbaren Vorgänger von Valhalla anschaut, reden wir über einen Zeitraum von 2 Jahren und mehr. In der Zeit muss Nvidia doch die "Treiberhacks" integriert haben können?!
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Nikon71 schrieb:
Einen Mehrwert gegenüber der 6800XT hat die 6900XT m.E. gar nicht.
Gleiche Speichergröße. Da hätte AMD auch gleich 24 GB spendieren können.
Dafür dann 400 Euro mehr. Och neee.

Dann lieber eine 6800XT oder eine 3090. Die hat wenigstens 24 GB.

Naja, wenn man mal von MSRP-Preisen ausgeht, is die 6900XT ja eher ein Mittelweg. Leistung der 3090, Speicher der 6800XT und Preis 500€ unter der 3090 und 350€ über der 6800XT. Ich finde das tatsächlich eine sehr berechtigte Lücke, besonders für Leute, denen Leistung sehr wichtig ist, die aber keinen Grund sehen, mehr als 16 GB VRAM zu haben und dafür dann Aufpreis zu blechen.
 
  • Gefällt mir
Reaktionen: DannyA4
ZeroStrat schrieb:
Wenn man sich dann noch die unmittelbaren Vorgänger von Valhalla anschaut, reden wir über einen Zeitraum von 2 Jahren und mehr. In der Zeit muss Nvidia doch die "Treiberhacks" integriert haben können?!
Bei den älteren AC gibts zwar auch Differenzen, diese sind aber bei weiten nicht so ausgeprägt , wie der neue Teil

Das werden die schon noch angehen , wenn auch wahrscheinlich nie ganz auf das selbe Level kommen
 
Am ende des tages wird nun eine 3080Ti kommen. Dieser muss sich die 6900XT dann preislich sowie auch geschwindigkeitsmäßig stellen. Die 3090 wird dann wohl zukünftig so ne rand erscheinung bleiben wie die Titans zuvor.

Mal sehen was NV für die TI aufrufen wird, wenn dann die 6900XT bei 999 Dollar ist. Soviel wie damals zur 2080Ti sollte es eigentlich nicht mehr werden. Und dann gibts ja noch das CUSTOM universum. Hoch lebe die konkurrenz.

RDNA2 hat eigentlich nur den weg für RDNA3 geebnet. Toll das der markt mal wieder durchgemischt wird.
 
Wadenbeisser schrieb:
Definitiv nicht, wie stark der Leistungseinbruch im VRAM Überlauf ist hängt vor allem vom Grad des Speicherüberlaufs und dem Umgang des Spiels damit ab.
Da wir hier nach wie vor von einer 3090 mit 24GB RAM reden kann ich über deine Ausführungen bezüglich eines dramatischen Speicherüberlaufs nur mit dem Kopf schütteln.
ZeroStrat schrieb:
Hab nicht nur über Ampere geredet, sondern auch über die Turing. Wenn man sich dann noch die unmittelbaren Vorgänger von Valhalla anschaut, reden wir über einen Zeitraum von 2 Jahren und mehr. In der Zeit muss Nvidia doch die "Treiberhacks" integriert haben können?!
Assassin's Creed ist doch historisch gesehen ein NVidia-Titel. Zwar ist seit Odyssey AMD mit im Team, an der Optimierung für Nvidia hatte das aber nichts geändert:
1607530214860.png


Im Vergleich zu Origins waren lediglich die Frametimes der Vega nicht mehr so eine Katastrophe. Aber wenn du dir Turing anschaust, sind 8% Vorsprung für die 2080 gegenüber der 1080Ti ziemlich im Durchschnitt. Das Spiel wird also auch einige Integerberechnungen haben, von denen Turing profitieren konnte. Die Skalierung mit der 2080 Ti ist auch in Ordnung.
 
ZeroStrat schrieb:
Ich bin mir nicht sicher, ob Advanced PhysX so große Auswirkungen auf RDNA2 hat. Ich denke nicht.
Das war bei den bisherigen Teilen immer die GPU Physik die nur auf Geforce Karten nutzbar ist und bei anderen Karten zu entsprechend miesen Ergebnissen führt. Gut möglich das bei der aktuellen Metro Version endlich mal eine Physx Version zum Einsatz kommt die mehr als einen Kern der CPU nutzen kann und deshalb beim Einsatz der erweiterten Physik mit Radeon und Co. nicht zu vollkommen unbrauchbaren Frameraten führt aber am grundsätzlichen Problem ändert das wenig.
Ergänzung ()

Colindo schrieb:
Da wir hier nach wie vor von einer 3090 mit 24GB RAM reden kann ich über deine Ausführungen bezüglich eines dramatischen Speicherüberlaufs nur mit dem Kopf schütteln.
Dann ist ja gut das ich mich auf deiner verallgemeinerte Aussage und nicht auf eine bestimmte Konfiguration bezogen hatte.

Ein Bandbreiten Limit kannst du getrost wieder vergessen, ein CPU Limit ebenfalls denn das würde sich auf die GPU Auslastung entsprechend auswirken und was bleibt am Ende? Ein für die GPU bzw. deren Treiber suboptimaler Code.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Insgesamt ist mir Das hier zuviel Gerede über Ampere. Haben Die net nen eigenen Thread?
Das ne 6900 einer wesentlich teuereren 3090 net ebenbürtig sein kann/muss ist doch klar.
Selbst die 6900 ist eigentlich Luxus ggü. der 6800.

btw.
Wer schon ne 6800 hat wird sich u.U. über das neue HWinfo freuen.
Gerade wenn man mit dem MPT beim UVen die Größenverhältnisse von PL+TDC verstellt,
kann man jetzt besser kontrollieren, ob die TDC reicht.
Im Luxx kann man sich gut austauschen:
[Sammelthread] - Offizieller AMD [[ RX6800 // 6800XT // 6900XT ]] Overclocking und Modding Thread [[ Wakü - Lukü - LN2]] | Seite 20 | Hardwareluxx

z.Bsp. die 6800 Nitro hat ne sehr niedrige TDC SOC, weil die Ref ja schon 30A hat und die Nitro aber
quasi mit 10% mehr W kommt. Normal würde ich Da eher 33..36A einstellen.
(gemessen an den XT, die gleich mit 55A kommen)
 

Anhänge

  • HWinfo.png
    HWinfo.png
    32,7 KB · Aufrufe: 257
  • MPT_nitro_XL.JPG
    MPT_nitro_XL.JPG
    33,1 KB · Aufrufe: 255
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4
ShiftyBro schrieb:
Naja, wenn man mal von MSRP-Preisen ausgeht, is die 6900XT ja eher ein Mittelweg. Leistung der 3090, Speicher der 6800XT und Preis 500€ unter der 3090 und 350€ über der 6800XT. Ich finde das tatsächlich eine sehr berechtigte Lücke, besonders für Leute, denen Leistung sehr wichtig ist, die aber keinen Grund sehen, mehr als 16 GB VRAM zu haben und dafür dann Aufpreis zu blechen.
Dazu kommt ja noch, daß AMD hier eine 6950XT bringen könnte mit dann 24GB RAM. Wenn es die Technik erlaubt.
Damit wäre in 6 Monaten dann nochmals ein Move offen.
 
Wenn dann 32 und das wäre mit normalen GDDR6 und dem Speicherinterface eher nicht so geil. Ich sehe da auch nicht den Use-Case. AMD selbst will, dass die Karten als Gaming Karten gehandelt werden. Und die allerwenigsten Gamer werden mehr als 16GB VRAM wollen.
 
Zurück
Oben