News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Nach meinem Gefühl sind Nvidia und AMD etwa auf gleicher Höhe. Die Karten in meiner Preisklasse RTX3080 vs. 6800XT liefern mehr Leistung als ich benötige (ich komme mit 30 fps ganz gut klar)!

Für mich ist es daher egal, ob Nvidia in Game x 100 fps und AMD 120 fps schafft. Den Unterschied sehe ich eh nicht!
Von daher rücken andere Aspekte in den Vordergrund. Raytracing (RT) finde ich beeindruckend.
Mir ist nicht klar, ob aus qualitativer Sicht Nvidia-RT=Amd-RT ist?
Wenn AMD da nur ein simples RT liefert, schmälert das den Grafikgenuss. Daher warte ich auf Tests.

Meine Kaufentscheidung wird die RT-Qualität mehr prägen als ein fps-Wert.
 
Colindo schrieb:
Der Zugriff ist clever, deswegen wäre SMA auch richtig. Smart ist das Adjektiv, Memory Access das Nomen (noun clause).

Erstens ist Navi nur ein Jahr alt, zweitens wurden die Probleme großteils im Frühjahr gefixt. Seit Mai ungefähr soll es laut AMD keine Probleme mehr geben, sie haben aber weiterhin um Mitteilung gebeten, falls welche auftreten. Damals hat Gamers Nexus eine Umfrage gehabt, wonach die meiten ihre Probleme als gelöst angegeben haben.
Naja bei Mindfactory gibts bis heute noch Kunden die sich über die selben Probleme, wie bei Tag 1 beschweren, also kann es nicht 100% gefixt sein :=)
 
AMD Radeon RX 6800 RDNA 2 Graphics Card Ray Tracing Performance Leaks Out, Almost As Fast As RTX 3070 With DLSS at 4K & WQHD

Link RDNA 2 Faster Than Ampere Without DLSS?

AMD Radeon RX 6800 DXR Raytracing Performance Benchmarks Leak Out, RDNA 2 Faster Than Ampere Without DLSS?

wccftech.com:
"In terms of performance, the GPU scored 46 FPS at 4K and 80 FPS at WQHD (1440p) resolution in the title. For comparison, we tested the GeForce RTX 3070 in the same benchmark with a similar CPU configuration and the same settings and got 54 FPS at 4K and 85 FPS at WQHD. One thing to note is that the results were with DLSS enabled so you can expect lower performance for the card with the feature enabled. You can see our results below."

sottr 4k 2k RT on.png



Wenn das stimmen sollte wäre das einfach nur noch brutal geil und NVIDIA ist wahrscheinlich gerade
am beten das die DLSS Alternative von AMD noch etwas auf sich warten lässt denn das würde heißen das
AMD selbst in NVIDIAs Paradedisziplin dominieren würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GerryB, Benji18, Dittsche und eine weitere Person
Die 3080 ist in wqhd doch oft ins cpu limit gelaufen. Wenn amds karte gleich schnell ist muss sie die 3080 ja schlagen mit einem 30% schnelleren cpu.
 
Die Werte für Battlefield V und Forza Horizon 4 sehen sehr komisch aus. Ich kann mir nicht vorstellen, dass die RX 6800 eine RTX 3090 überholen soll. Aber naja, ein unabhängiger Test sollte hier Klarheit schaffen!
 
Avarios schrieb:
Du weißt aber das BF5 out of support (bald) ist ?
Ist egal, zocke es trotzdem bis zum Nachfolger und ich denke die Chancen sind dann nicht schlecht, dass amd auch mit bf6 gut zurecht kommen wird. Meist wird die Engine ja nur etwas aufgebohrt.
 
Ist denn sonst keiner in der Zwickmühle mit seinem GSync Monitor? Ich habe vor 3,5 Jahren einen Monitor mit 1440p@144hz und GSync (für 800€) erstanden. Jetzt liebäugele ich mit den AMD Karten, müsste aber dazu einen Monitor mit FreeSync kaufen um in den Genuß von Adaptiver-Synchronisation zu kommen. Was würdest ihr an meiner Stelle machen? Monitor versuchen zu verkaufen und neuen kaufen? Auf Adaptive-Sync verzichten? Oder einfach für immer an Nvidia gebunden sein durch GSync und closed-source approach...
 
Gagapa schrieb:
Was ich krass finde ist, das wenn man bei Mindfactory die Bewertungen zur rx 5700 xt anschaut, bis heute sich leute über Treiberprobleme, Bluescreens, Greenscreens etc beschweren, haben die jetzt über 2 jahre die Treiber nicht gefixt :O?.

Da sollte man schon aufpassen bei AMD, da wird man zum Betatester wenn man day 1 kauft :O

So wie bei Nvidias Ampere ? Ich finde da wird zu viel Reininterpretiert und auch die Stimmung ist grade in vielen Foren pro Nvidia (ohne Sachliche Begründung). Ich hatte vor der 1080 eigentlich nur AMD Karten bis auf die 6000er und 7000er Serie von Nvidia. Ich hatte mit beiden Nie Treiber Probleme, bis auf mit der Pascal Serie. Hier hatte ich oftmals Abstürzte und landete einfach auf dem Desktop. Und das lag nicht an meiner Karte sondern an den Treiber. Identisches konnte ich in meinem Freundeskreis beobachten.
Ich habe dieses Problem in viele Foren versucht zu lösen. Es kamen meist nur Vorschläge andere Treiber zu probieren oder einfach den Takt runterzuschrauben - das scheint wohl der Heilige Lösungsgral der Nvidia Community zu sein - einfach auf Leistung verzichten und Glücklich Grün sein. Bei AMD wird sofort scheiß Treiber und scheiß AMD geschrien. Das sind aber nur meine Beobachtungen - mir egal welche Karte ich habe, sie soll für mich ausreichen und mich glücklich machen und funktionieren :).
Ergänzung ()

rigolyo schrieb:
Ist denn sonst keiner in der Zwickmühle mit seinem GSync Monitor?

Kommt drauf an was für einen Monitor du hast und für wie viel du ihn loswerden kannst. Vielleicht kannst du gleichzeitig einen step zu einem besseren Monitor machen und dabei in den Genuss von beiden kommen (Gsync und Freesync). Damit bist du für die Zukunft unabhängig und hast gleich einen besseren Monitor.

Ich persönlich kauf nach bedarf, sollte AMD in Zukunft gut aufgestellt sein dann kaufe ich mir auch die Hardware die benötigt wird um in den vollen Genuss zu kommen.
 
  • Gefällt mir
Reaktionen: rigolyo, PS828, Taxxor und eine weitere Person
paccoderpster schrieb:
Die Werte für Battlefield V und Forza Horizon 4 sehen sehr komisch aus. Ich kann mir nicht vorstellen, dass die RX 6800 eine RTX 3090 überholen soll. Aber naja, ein unabhängiger Test sollte hier Klarheit schaffen!
BF5 kann AMD besonders gut. Glaub da fehlt noch ein "XT".
 
rigolyo schrieb:
Ist denn sonst keiner in der Zwickmühle mit seinem GSync Monitor? Ich habe vor 3,5 Jahren einen Monitor mit 1440p@144hz und GSync (für 800€) erstanden. Jetzt liebäugele ich mit den AMD Karten, müsste aber dazu einen Monitor mit FreeSync kaufen um in den Genuß von Adaptiver-Synchronisation zu kommen. Was würdest ihr an meiner Stelle machen? Monitor versuchen zu verkaufen und neuen kaufen? Auf Adaptive-Sync verzichten? Oder einfach für immer an Nvidia gebunden sein durch GSync und closed-source approach...
Ich bin in der genau anderen Zwickmühle, ich habe nur Freesync und der Monitor taucht nicht als Gsync Compatible auf, also bis zum nächsten Monitorwechsel bleibts wohl sowieso bei AMD^^
Ergänzung ()

Gagapa schrieb:
Du vergleichst hier aber ein Hardwareproblem das kurz anhielt von Nvidia, mit einem Software/Hardware Problem, das bis heute seit ungefähr 2Jahren immernoch nicht gefixt wurde :=).
Erstens sind es immernoch keine 2 Jahre, auch nicht ungefähr, es ist ein Jahr und 3 Monate.
Und zweitens sind 95% der Problem eigentlich seit Q1 2020 behoben, die wenigsten haben heute noch irgendwelche Probleme und wenn doch, dann ist das eher ein Fall für Hardware Umtausch
 
  • Gefällt mir
Reaktionen: Colindo und rigolyo
rigolyo schrieb:
Ist denn sonst keiner in der Zwickmühle mit seinem GSync Monitor? Ich habe vor 3,5 Jahren einen Monitor mit 1440p@144hz und GSync (für 800€) erstanden. Jetzt liebäugele ich mit den AMD Karten, müsste aber dazu einen Monitor mit FreeSync kaufen um in den Genuß von Adaptiver-Synchronisation zu kommen. Was würdest ihr an meiner Stelle machen? Monitor versuchen zu verkaufen und neuen kaufen? Auf Adaptive-Sync verzichten? Oder einfach für immer an Nvidia gebunden sein durch GSync und closed-source approach...

Nein, meine Alienware Monitore unterstützen beides. Habe aber auch dieses Jahr erst gekauft, mit Gedanken an die neuen GPUs.
 
  • Gefällt mir
Reaktionen: rigolyo
- Faxe - schrieb:
Die erklärt eigentlich schon der doppelte Speicher.



Kann mir einer mal erklären wieso diese ganzen Fuckboys so auf Raytracing abfahren? Wirklich Relevant wirds mit der kommenden Konsolengeneration. Wenn überhaupt ...

+1 für Verwendung der Terminologie "Fuckboys". Weil es mit DLSS der letzte Strohhalm ist.
Nvidia ist langsamer, heißer, verbraucht mehr Strom und hat weniger Speicher (geplante Obsoleszenz).

Bis vor wenigen Tagen war die Welt noch in Ordnung. Aber nun zertrümmert Amd selbst die 3090. Das muss man sich nochmal vor Augen führen. Ich tue es genüsslich.

Außerdem seh ich Raytracing auch überhaupt nicht kritisch, Amd kanns ja auch, und das mindestens so schnell wie die 3070. Tja und nun ratet mal nach was Nvidia die Raytracing Implementierungen leistungstechnisch ausrichten muss? Welche Karte wird denn am häufigsten verkauft werden auf deren Seite? Antwort: die 3070 (auch weil viele Pascal Jünger hier glauben die Karte für die nächsten5 Jahre gekauft zu haben - mit 8gb ram lol)

D.h. die passablen Raytracing Settings, werden auf Amd ebenso gut laufen wie auf der 3070. Will Nvidia Raytracing nur auf 3080/3090 Niveau durchdrücken, steigen sie ihren eigenen Kunden auf die Nase.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Gagapa schrieb:
Was ich krass finde ist, das wenn man bei Mindfactory die Bewertungen zur rx 5700 xt anschaut, bis heute sich leute über Treiberprobleme, Bluescreens, Greenscreens etc beschweren, haben die jetzt über 2 jahre die Treiber nicht gefixt :O?.

Da sollte man schon aufpassen bei AMD, da wird man zum Betatester wenn man day 1 kauft :O

Das kann dir bei Nvidia ebenfalls passieren z.B. das nach Release reihenweise 3080 crashten und man per Treiber drosseln muß. Tendenziell hört man das bei AMD es mehr Probleme mit den Treibern gibt, meine vorherige Vega64 musste ich z.B auch händisch untervolten damit sie stabil lief. Aber Nvidia hat es schonmal geschafft das sogar Hardwaredefekte durch mangelhaften Treiber möglich waren. Das topt alles.
 
Taxxor schrieb:
Ich bin in der genau anderen Zwickmühle, ich habe nur Freesync und der Monitor taucht nicht als Gsync Compatible auf, also bis zum nächsten Monitorwechsel bleibts wohl sowieso bei AMD^^
Ergänzung ()


Erstens sind es immernoch keine 2 Jahre, auch nicht ungefähr, es ist ein Jahr und 3 Monate.
Und zweitens sind 95% der Problem eigentlich seit Q1 2020 behoben, die wenigsten haben heute noch irgendwelche Probleme und wenn doch, dann ist das eher ein Fall für Hardware Umtausch
Naja 1 Jahr und 3 Monate ist immernoch zu lange und wenn 95% behoben wurde, dann würde es nicht bis heute immernoch so viele negative Bewertungen zur 5700xt geben :O. Wenn ich was kaufe, dann soll es auch Fehlerfrei laufen, 1-2 wochen Treiberupdates damit alles 100% beseitigt wird, ist noch zu ertragen, 1 Jahr 3 Monate ist viel zu lange :O
 
Gagapa schrieb:
Wenn ich was kaufe, dann soll es auch Fehlerfrei laufen, 1-2 wochen Treiberupdates damit alles 100% beseitigt wird, ist noch zu ertragen, 1 Jahr 3 Monate ist viel zu lange :O
Wie gesagt, wer jetzt noch Probleme hat, hat möglicherweise einfach ne defekte Karte, von der Treiberseite aus wurde mittlerweile eigentlich alles getan.
 
Hoffe ja wieder auf ein Flash, 6800 auf XT wär schon was sofern das Binning mitmacht.Bleibt Spannend.
 
Gagapa schrieb:
Was ich krass finde ist, das wenn man bei Mindfactory die Bewertungen zur rx 5700 xt anschaut, bis heute sich leute über Treiberprobleme, Bluescreens, Greenscreens etc beschweren, haben die jetzt über 2 jahre die Treiber nicht gefixt :O?.

Da sollte man schon aufpassen bei AMD, da wird man zum Betatester wenn man day 1 kauft :O

laut eines Treiberentwicklers hat RDNA 1 2-3 HW Bugs die das Treiberentwickeln zum albtraum machen, diese wurden erst in RDNA 2 gefixed.
 
  • Gefällt mir
Reaktionen: Nekkepenn
ArrakisSand schrieb:
Wenn das stimmen sollte wäre das einfach nur noch brutal geil und NVIDIA ist wahrscheinlich gerade
am beten das die DLSS Alternative von AMD noch etwas auf sich warten lässt denn das würde heißen das
AMD selbst in NVIDIAs Paradedisziplin dominieren würde.
Wenn die 6000-Serie wirklich so gut in Ray Traycing sind, warum hat AMD dazu keine Benchmarks gezeigt? Ich gehe eher davon aus, dass die 6800 knapp unter der 3070 liegt und die 6800 XT/6900 XT zwischen 3070 und 3080.
 
AleksZ86 schrieb:
auf dem 4k C9 spiele ich dann die "fordernden" Spiele (Witcher3, Red Dead Redemption 2, Metro Exodus,..... iwann mal auch Cyberpunk) und da will ich schon "gut für die Zukunft" gerüstet sein, daher dürten die 10gb der 3080 da knapp sein
Mal angenommen 2022 werden die 10GB knapp für 4K Ultra also alle Regler nach rechts voll aufgedreht
dann wird es auch mit der GPU Leistung knapp um 60 FPS zu packen was auf 4K 120Hz das Mindeste ist
also kann man eh nicht Ultra nutzen, muss DLSS nutzen oder man kauft eh wieder eine neue Grafikkarte.

In der Gegenwart auf viel VRam zu setzen um für die Zukunft gerüstet zu sein hatte in der Vergangenheit
noch nie etwas gebracht u. seitdem die Zugriffszeiten von Speichermedien auch immer schneller werden
(HDD -> SSD -> M.2 SSD) werden moderne Spiele Engines wohl mehr auf gutes Texturstreaming setzen.
 
Zurück
Oben