• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

r4yn3 schrieb:
Der 5K Test schon eher, wobei es hier wohl auch Titel braucht die einen besonders hohen Vram Bedarf haben um hier wirklich einen Grenzbereich zu finden.
Man hätte bei der Beobachtung des 5k-Verhaltens bei RE3 direkt dort nochmal RAM-OC versuchen sollen. Das wäre ein halbwegs eindeutiger Nachweis von Bandbreitenproblemen.

@Wolfgang wäre das eventuell noch möglich, als einzelnder Messwert?
 
Bei mir klingelt es jeden Moment und meine XFX 6800XT ist daaa :love:
 
  • Gefällt mir
Reaktionen: Arno Dübel, SR-71A, miro98 und 10 andere
Glaube net, das AMD sich um Minecraft kümmert.
Man wird eher die manpower in neue Games stecken.
(dort RT@1440p, wie versprochen, solange Superresi noch net eingeführt wurde)

RT-4k- Nativ ist in dieser Gen net vorgesehen.
 

Anhänge

  • RT-RB.png
    RT-RB.png
    404,8 KB · Aufrufe: 350
WommU schrieb:
Die Leistungsaufnahme ist im Dual-Monitor Betrieb um den Faktor 3! schlechter im Vergleich zur AMD Radeon VII.
Der Unterschied kommt vom Speicher/Speicherinterface. Die VII hat HBM, der lief immer voll, dadurch hast du da auch kaum einen Unterschied zwischen einem und zwei Monitoren. Die neuen laufen im Dualbetrieb (bei zweimal UHD) mit mehr Speichertakt als mit einem Monitor, dass ist alles. Warum setzt man den Takt so hoch? Weil es sonst in seltenen Fällen zu einen Flackern im Bild kommen könnte. Das will man umgehen und setzt dadurch den Speichertakt direkt hoch an, was natürlich zu mehr Verbrauch führt. Haste kleinere Auflösungen, geht es auch nicht bis auf 39W hoch. Siehe bei Heise, die hatten im Dualmonitorbetrieb (UHD+FHD) 13W.
 
Avarios schrieb:
Was ich bei all den "AMD wird besser sein weil ja die Konsolen damit laufen" argumentatoren nicht so ganz verstehe : Warum war das bei PS4 und XBOX oneX nicht schon so, waren ja immerhin auch AMD CPU/GPUs ? Warum sollte sich das also ändern ? War ja auch RDNA1
Dein Wissen um die in PS4 und XBOX oneX verbaute Hardware scheint sich doch in sehr überschaubaren Rahmen zu bewegen. Ein echter durchblicker wie Steve wenn er sich Wondert. Die HW war von AMD das ja aber den Rest dazu das darfst du gerne selber Googeln. Weil es keine Synergieffekte geben kann wenn ausser dem Hersteller zum damaligen Zeitpunkt die Konsolen/PC CPU & GPU HW so gut wie nichts mehr gemeinsam hatten.

PS5 und co. sind da schon ein völlig anderes Kaliber. Da ist AMD HW wie sie auch in aktuellen Gaming PCs steckt verbaut.
Beim GPU part ist dies sogar erst seit vorgestern der Fall also aktueller ist da nicht möglich. Da die Konsolenspieleentwickler für RT folglich die AMD HW ansprechen und dann auch auf diese optimieren müssen. Somit sind diese Kenntnisse von aktueller AMD RT HW ergo ein direkter Vorteil wenns dann zum PC portiert wird.
 
Zuletzt bearbeitet von einem Moderator:
@Wolfgang
Gibts noch ein update zur Raytracingqualität in WD:L?
Sonst wären die RT-benchmarks in dem Spiel etwas irreführend.
 
  • Gefällt mir
Reaktionen: Esenel
@Haldi
Was soll an der bescheuerten Auflösung Zukunft sein? Des interessiert doch keine Sau!
 
  • Gefällt mir
Reaktionen: sebbolein
Kenjiii schrieb:
@Haldi
Was soll an der bescheuerten Auflösung Zukunft sein? Des interessiert doch keine Sau!
Joa ne... NVidia wirbt mit 8K Gaming. 8K ist die Zukunft. Und trotzdem gibt es kein 8K decoding. Da hat meine bescherte Auflösung nix damit zu tun. Da fallen 5120x2800(wurde sogar hier von Computerbase getestet) und 8240x4320 auch drunter.
 
KlaraElfer schrieb:
Bis vor kurzem waren 7 oder 8% noch deutlich genug um pauschal immer die 5700XT anstatt der 2060 Super zu empfehlen.:mussweg:
Bin mal gespannt, wenn Nvidia mit einem SAM Pendant nachzieht, was da noch so geht.
Mir ging es in erster Linie um das Wort DEUTLICH...ich würde never behaupten, bei 7% Vorsprung von "deutlich" zu sprechen.
Das habe ich sicher auch nie bei 2060Svs5700XT behauptet. Dann rede ich vll von "bisschen" oder "etwas" schneller. Aber "deutlich" suggeriert eine völlig andere Leistungsklasse in meinen Augen.

Dazu war aber die 2060S teilweise aber auch teurer als die 5700XT...und laut CB Test 9% Langsamer. Da hab ich schon auch gerne die 5700XT vor der 2060S gesehen, ja ;)

Und zum Thema SAM:
Nvidia wird nicht ihr eigenes SAM Pendant haben, sondern genauso wie AMD auf den offenen PCIe Standard gehen.
siehe hier:
https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/News/SAM-nicht-proprietaer-1362043/
 
  • Gefällt mir
Reaktionen: Zubz3ro und schiz0
Hab ja eingangs sehr viele Likes dafür erhalten, dass ich bei AMD direkt kaufen konnte zur UVP. Falls da wer neidisch sein sollte, muss ich aber sagen, dass sich seit dem auch nix mehr getan hat^^

Nicht dass es mich stören würde, ich habe Geduld und von mir aus könnens gern auch erste Ende des Jahres liefern. Ist ja keine Niere oder so :D

Aber wollt des mal posten. Gibts vllt noch wen mit der Erfahrung?
 

Anhänge

  • Orderdetails.png
    Orderdetails.png
    17,5 KB · Aufrufe: 394
  • Gefällt mir
Reaktionen: Nefcairon und SR-71A
Dark-Silent schrieb:
Dein Wissen um die in PS4 und XBOX oneX verbaute Hardware scheint sich doch in sehr überschaubaren Rahmen zu bewegen. Ein echter durchblicker wie Steve wenn er sich Wondert. Die HW war von AMD das ja aber den Rest dazu das darfst du gerne selber Googeln. Weil es keine Synergieffekte geben kann wenn ausser dem Hersteller zum damaligen Zeitpunkt die Konsolen/PC CPU & GPU HW so gut wie nichts mehr gemeinsam hatten.
Soso :
  • CPU: x86-64 AMD-Prozessor aus der "Jaguar"-Reihe mit 8 Kernen.
  • Grafik: 1,84 Teraflops Rechenleistung, basierend auf Next-Gen-Radeon-Grafikengine.
  • Arbeitsspeicher: 8 Gigabyte GDDR5-RAM.
CPU und Grafik aus einer Hand, warum da also keine Synergy Effekte die du nennst ? Beziehst du dich auf Direct Memory von Sony ?
DU irrst wenn du meinst in der PS5 wäre alles von AMD, nein nur Grafik und CPU als ein Package ist drin, der rest ist von Samsung/Hynix teils ARM Architektur.

Sicher ist die aktuelle Architektur näher am PC als vorher, ein "Es wird alles besser auf AMD" laufen sehe ich hier dennoch nicht weil NUR die XBOX über DirectX kommunziert (und das auch nur zum teil) und die PS5 nutzt ihre eigenen APIs.
Dadurch wird nicht auf low level ebene auf AMD angepasst sondern an die APIs der jeweiligen Konsolen.

Und nun du durchblicker, lass deine Phrasen woanders ab ;)
 
  • Gefällt mir
Reaktionen: Schattenspender, Zubz3ro und DaBo87
@Wolfgang
Irgendwie scheint der Link "Bremst der Infinity Cache in hohen Auflösungen wie Ultra HD" im Text ins leere zu laufen?

EDIT: Scheint behoben, danke!
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Artikel-Update: Bremst der Infinity Cache in hohen Auflösungen wie Ultra HD? Das hat sich die Redaktion genauer angesehen und auch, wie viel mehr Performance die hohen GPU-Taktraten bringen. Zudem wird die Leistung der Radeon RX 6800 XT verglichen, wenn sie denselben Takt wie die Radeon RX 5700 XT hätte, und es sind Benchmarks in 5K hinzugekommen.
Danke für das Update..Damit wäre die "Schwäche der 6800XT" in hohen Auflösungen auch aus dem Weg geräumt..
Man sieht eben, wie im Test gezeigt, das gleiche Verhalten.. Da wird es mit der 6900XT spannend und vor allem spannend, dass die 3090 in 5K auch nicht viel Boden gutmacht, trotz mehr Bandbreite.
 
SAM sollte wohl eher in 1440p getestet werden, wo die CPU häufiger limitiert. Denn wenn die GPU komplett ausgelastet ist, wie soll schnellerer Speicherzugriff von der CPU die GPU schneller machen? ;)
 
  • Gefällt mir
Reaktionen: ro///M3o, Apocalypse und foo_1337
Pisaro schrieb:
Ich habe mir einen R9 5900x bestellt, allerdings sind round about 6% mehr Leistung meilenweit weg von "zerstört" :)
Wenn man Spiele, Singlecore, Multicore und Stromverbrauch betrachtet, ist man ähnlich wie bei 2600k vs FX 8100. Aber man hierzu sagen, dass der Bulldozer deshalb alles andere als schlecht war, so, wie es Cometlake auch nicht ist. Gerade im Bereich bis 200 EUR gibt es einige sehr interessante Cometlake CPUs. Zudem steht mit Rocketlake schon der Nachfolger vor der Tür, beim Release von Zambezi kam aber erst mal Ivy Bridge und von AMD nicht mehr viel.
 
GerryB schrieb:
Glaube net, das AMD sich um Minecraft kümmert.


Aber SEUS mag AMD unterstützen und dann hat man auch sein Path Tracing in Minecraft und imho in der besseren Version, ich mag die Java Edition mehr als die Bedrock. Edition.
 
Zurück
Oben