Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Mit dem OC Potenzial ist die 6800 der RTX 3070 dann doch deutlich überlegen, zusammen mit den 16GB Ram würde ich dann die paar Euro mehr auch noch investieren. Wenn AMD dann noch eine DLSS Alternative herausbringt, wäre das das Sahnehäubchen
 
  • Gefällt mir
Reaktionen: DonL_
Wolfgang schrieb:
Artikel-Update: Bremst der Infinity Cache in hohen Auflösungen wie Ultra HD? Das hat sich die Redaktion genauer angesehen und auch, wie viel mehr Performance die hohen GPU-Taktraten bringen. Zudem wird die Leistung der Radeon RX 6800 XT verglichen, wenn sie denselben Takt wie die Radeon RX 5700 XT hätte, und es sind Benchmarks in 5K hinzugekommen.
5k Benches - sehr gut! aber die Spieleauswahl finde ich naja... Hier fände ich bekanntere Games statt RE3 besser, so was wie Division 2 (oder GTA V) besser. Und in welchen Grafikeinstellungen wurde getestet? Ultra?

Damit kann man sagen, dass aktuelle Highend GPUs für 5k oder 5k2k gut geeignet sind hm? :) Außer vllt bei so schlecht optimierten Games wie RDR2, Metro Exodus und die Ghost Recon Reihe.
 
fox40phil schrieb:
Damit kann man sagen, dass aktuelle Highend GPUs für 5k oder 5k2k gut geeignet sind hm? :) Außer vllt bei so schlecht optimierten Games wie RDR2, Metro Exodus und die Ghost Recon Reihe.

Für manche Games geht es sicher. Aber du verlierst zu viele Effekte, die die Gesamtgrafik deutlich besser wirken lassen, als der Sprung von 4K->5K. 5K sind nochmal deutlich mehr Pixel.
Das ist z.T. auch bei 1440P zu 4K so, aber nicht "siginifikant"

5K+ alles Kinderschuhe, außer man möchte viel an den Settings optimieren + regelmäßig den Top Dog kaufen.
 
super update, vielen dank !
250W beim 6800 XT hätte mich echt interessiert...das ist irgendwie meine oberste grenze für ein graka TDP
 
Wenn RDNA2 genauso gut altert wie "fine wine" ZEN, freu ich mich schon auf die nächsten Jahre 🙂

Aktuell haben viele Tester auch eher mit Software Problemen zu kämpfen, die Treiber sind einfach noch nicht ausgereift (mal wieder, leider).
 
  • Gefällt mir
Reaktionen: DannyA4
schkai schrieb:
Unrealistische Milchmädchenrechnung. Wer seinen PC ohne ihn zu Nutzen 24/7 mit 2 eingeschalteten Monitoren laufen lässt und sich im gleichen Atemzug über 20 - 30 Watt unterschied beschwert hat definitiv andere Probleme.
Darauf wollte ich auch mehr oder weniger hinaus, hätte es vielleicht etwas anders formulieren sollen. Der leichte Mehrverbrauch der Grafikkarte kommt eben nur zum Tragen, wenn eh auch andere Verbraucher mitlaufen (in dem Falle entsprechend viele Monitore). Und dann macht der "worst case" Anteil von 80€ durch die Grafikkarte in der Gesamtrechnung den Kohl auch nicht fett.
 
  • Gefällt mir
Reaktionen: schkai
schkai schrieb:
..
Aber mal ehrlich, ich kann Argumentationen verstehen wenn der Stromverbrauch unterschied bei mehr wie 100 Watt liegt, aber wenn es sich grade mal um teilweise 30 Watt handelt dann hat man wohl wirklich keine anderen Probleme. Das soll kein Angriff sein, sondern einfach nur eine Meinung. Da gibt es im Haushalt teils deutlich höhere Einsparpontentiale wenn es darum geht.
..
Aber auch mal ehrlich:
Die Leistungsaufnahme ist im Dual-Monitor Betrieb um den Faktor 3! schlechter im Vergleich zur AMD Radeon VII.
Die Kritik ist also mehr als berechtigt. Das ist ein deutlicher Rückschritt und die Einsparmöglickeiten im Haushalt haben damit nichts zu tun. Das sollte AMD besser können und ohne Kritik wird sich nichts daran ändern. Dagegen ist es im Mono Betrieb richtig gut.
 
  • Gefällt mir
Reaktionen: Obvision und stevefrogs
Einfach nur Müll diese Karten egal ob nvidia oder Amd man muss unmengen von Energie reinstecken um
an diese Leistung zu kommen versteh nicht warum die Leute sowas unbedingt haben wollen.
Haben die alle zuviel Geld ? wieviel muss man verdienen um sich sowas zu kaufen.
Ich hatte gehofft das mit den neuen Generationen auch endlich UHD in der 200-300 Euro liga
möglich wäre wird wohl nichts....Bleibt nur zu hoffen das das die neuen Konsolen vernünftig
hinbekommen.
 
owned139 schrieb:
Aber das verlinkte Video zeigt doch das genau Gegenteil? Mit CPU OC steigt dort die FPS.
Im Video ist eine 3090@Stock mit UWQHD. Der erreicht dort FPS-Werte die ich in 1080p mit der selben Karte habe.

Achso, naja dann ist es ja mal wieder praktisch das PCGH im CPU-Test nur Zen2 o. schlechter drin hat...
 
So wie ich das sehe verbraucht eine 6800 XT nicht mehr Strom als meine Vega 64. Sollte mein RMX550 Netzteil von Corsair dann reichen oder greife ich lieber zur 6800?
Mein Monitor hat eine Auflösung von 3440x1440.
 
Maggolos schrieb:
Für manche Games geht es sicher. ...
5K+ alles Kinderschuhe, ...
Für ältere Games kann man schon mal Downsampling nutzen. XT@UV/OC-300W von TwoBeers.
 

Anhänge

  • sottr_Downsampling.jpg
    sottr_Downsampling.jpg
    393,5 KB · Aufrufe: 318
  • Gefällt mir
Reaktionen: Maggolos
mibbio schrieb:
Wäre echt mal interessant, den gezielt zu untersuchen, wie sich Spiele am Speicherlimit verhalten. Also ob die Texturen da sichtbar reduziert werden

Wenn man nicht gerade Screenshots mit der Lupe absucht, merkt man bei vielen Spielen schon lange keine nennenswerten Unterschiede zwischen der allerhöchsten und der zweithöchsten Texturdetail-Einstellung. Bei Spieletests wird das auch mal ab und an erwähnt.
Das Problem des knappen Speichers haben meist diejenigen die die Regler aus Prinzip auf Max drehen und nicht aus praktischen Gründen.
Viele vergessen auch dass Benchmarks meist auf eben jenen Maximaleinstellungen gemacht werden die in der Praxis zu Hause gar nicht nötig sind. Vielleicht stören einen sogar bestimmte Effekte die man zu Hause dann ausschaltet. Man will in Tests halt Limits austesten und nicht das Spiel spielen.
Muss am Ende jedes selbst bewerten was für ihn persönlich passt. Ich persönlich spiele nie am Limit wie es in Benchmarks eingestellt wird. Der Zugewinn an Optik rechtfertigt meist nie die verlorenen FPS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, stevefrogs und UVLWheezle
Sehr schönes Update.
Wie viele andere auch, hatte ich eher die Auslastung der Recheneinheiten bei 4k als Bremse vermutet.
Die "neuen" Rechenwerke scheinen unterhalb von 4k einfach schon höher ausgelastet zu werden als bei NVIDIA, was dazu führt das bei 4k halt nicht mehr auszulasten ist.

Der Witz an der Sache ist, das AMD in wesentlich älteren Gens in niedrigeren Auflösungen nicht alle VLIEW4 & 5 richtig auslasten konnte und daher erst bei (meißt unspielbaren) 4k an NVIDIA ran kam.
So ändern sich also die Zeiten xD
 
Draco Nobilis schrieb:
Der Witz an der Sache ist, das AMD in wesentlich älteren Gens in niedrigeren Auflösungen nicht alle VLIEW4 & 5 richtig auslasten konnte und daher erst bei (meißt unspielbaren) 4k an NVIDIA ran kam.
So ändern sich also die Zeiten xD
und umgedreht
Sobald die Games extrem viel AC einsetzen kommt bigVega näher an Navi ran.(+Ti)
In dem Bsp. ist Navi quasi zu klein.
(die alten Konsolen konnten kein AC, von daher kann nextGen anders beschickt werden)
 

Anhänge

  • DE-AG4k.png
    DE-AG4k.png
    99,1 KB · Aufrufe: 326
Zuletzt bearbeitet:
War gerade mal neugierig :)
Im google Cache stehen bei MF für die Sapphire 6800 XT fast 85.000 Beobachter! Hammer!
2020-11-20 12.49.33 webcache.googleusercontent.com .jpg


Falls jmd eine 3090 zum Schnäppchenpreis haben möchte: Bei MF ist gerade eine Zotac lieferbar. ;)
 
  • Gefällt mir
Reaktionen: derSafran und Celinna
In Minecraft ist der Unterschied mit RTX und DLSS ja extrem! ;)

Mine.jpg
 
WommU schrieb:
Die Kritik ist also mehr als berechtigt
Wenn es um diesen Mehrverbrauch geht, ja. Ich bin aber der Meinung das es zu hoch geschaukelt wird, mehr dazu weiter unten.

WommU schrieb:
Das ist ein deutlicher Rückschritt und die Einsparmöglickeiten im Haushalt haben damit nichts zu tun
Wenn man sich Generell über einen hohen verbrauch beschwert dann sehr wohl. Entweder man Spart Strom auf ganzer Linie und das mit Überzeugung oder man lässt es sein.

WommU schrieb:
Das sollte AMD besser können und ohne Kritik wird sich nichts daran ändern
Vielleicht wird sich auch mit Kritik nicht ändern. Der Anteil von Benutzern welche 2 Monitore haben ist nicht hoch und Benutzer welche Youtube Nutzen tun dies überwiegend auf dem Smartphone oder Tablet. Statistisch gesehen tun auf meinen Youtube Channel nur 20% einen PC nutzen. die anderen 80% gehen auf Smartphone, Tablet etc ...
 
"hier ist wohlmöglich der Infinity Cache zu klein"

lol, marketing 🤦‍♂️
 
  • Gefällt mir
Reaktionen: 0range
Zurück
Oben