News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

Kurz zusammen gefasst:

Klappe ....jpg


Hoffentlich ist die RX 6900 XT dann auch lieferbar und nicht wie bei NV nur als Papiertigeredition erhältlich! Ich freue mich drauf, seit HD5870 mal wieder eine "Rote" Graka in meinen Rechenknecht zu holen :).
 
MiniM3 schrieb:
Muss es dann zwei Tests geben?
Eins mit smart access und eins ohne?

Die Mehrheit aller Spieler hat bis auf weiteres eine Intel CPU und es wird noch Jahre dauern, bis sich das vielleicht ändert - es wird also zwei Tests brauchen!
 
  • Gefällt mir
Reaktionen: N_O_K_I_A
A.K. schrieb:
Weisst du was noch viel wahnsinniger ist :freak:
In 1440p bei BF5 scheint die CPU bei der 6900XT zu limitieren daher dürfte sie wohl noch einige Prozent zulegen können.

BF5 1440.png
 
  • Gefällt mir
Reaktionen: Oldtekkno, Iscaran, Haldi und 3 andere
Tornavida schrieb:
Mal abgesehen,dass Beides eher bescheiden aussieht sehe ich keinen Grund wegen RT auszuflippen aber ich war eh nie so gut in so Spielchen mit zwei fast gleichen Bildern wo man die 7 Unterschiede finden soll.Dafür würde ich sicher nicht 30% Performance einbüssen wollen.
Also wer da suchen muss um Unterschiede festzustellen.... Sorry, aber das ist mehr als offensichtlich. Und um die Performance wieder auf ein normales Level zu heben, gibt es DLSS.
 
wolve666 schrieb:
ich warte lieber auf unabhängige tests (Igor, Von Euch) :D
Dito.
Dennoch ist es faszinierend zu sehen, mit was für dicken Eiern AMD da auftritt, das hat AMD schon lange nicht mehr getan / (leider) nicht tun können. Wenn dabei trotz allem auch noch das mit Lisa Su eingeführte Understatement beibehalten wurde, dann ist das wirklich stark.
 
ArrakisSand schrieb:
Eine kleine Zusammenfassung der von AMD veröffentlichten Ergebnisse:
Link zur AMD Webseite (Benchmarks 6800, 6800XT und 6900 XT)

^^super Fund, danke Dir 👌

An den 10 Spielen sieht man übrigens auch folgendes:
Hier in den comments wird ja vereinzelt geschrieben ala "cherrypicking" (z.B. der comment genau über dem hier).
Die 10 Spiele sind aber keine außergewöhnlichen in irgendeiner Weise,
sondern kommen bei CB und vielen anderen Tech-outlets in jedem
Grafikkarten Test vor.
Kann schon sein, dass 1/2 Spiele nicht dabei sind, die NV überdurchschnittlich
pushen in den FPS, aber 10 bekannte Spiele, die oft in den Performanceratings
vorkommen sind erstmal eine Ansage von AMD...
und die Performanceratings werden auch in den so hochgelobten "unabhängigen"
Tests nicht super signifikant abweichen, da kann mal jeder sicher sein.
 
@SV3N
Könntet ihr Battlefield V beim Test der RX 6800 wieder zu den Test-Spielen aufnehmen?
Aktuell ist soweit ich das sehe kein einziger Titel mit der Frostbite Engine in den Tests und Battlefield würde sich zudem wegen Raytracing anbieten. Die Engine wird bei EA ja für einige Spiele genutzt.

Noch dazu kommt, dass die beworbenen WQHD Ergebnisse hier ja echt extrem aussehen. Das würde ich gern nocheinmal aus unabhängier Qelle verifiziert sehen. ;)
 
  • Gefällt mir
Reaktionen: derSafran, elvis2k1 und Dittsche
Ich freue mich auf die Tests. Wenn sich die Benchmarks als wahr erweisen (ich denke es gibt keinen Grund warum AMD da lügen sollte, kommt ja eh raus), dann lasse ich die Gedanken eine NVidia zu kaufen wieder verschwinden :D

Ich spare mir schon mal 1200€ zusammen für ne RX6800 und R9 5900. Diese Kombo wird die nächste Zeit reichen, da bin ich sicher.
 
Gortha schrieb:
Ich denke nicht, dass AMD in Sachen Raytracing Geschwindigkeit an NVidia ran kommt.
In RTX/Raytracingspiielen wird NVidia ein großes Stück vorne sein.
Sehe ich ähnlich, aber nachdem der 3070 Bench draußen ist, die bei RT nur minimal schneller (max 10% wenn ich das richtig interpretiert habe?) ist als die 2080TI, reicht es, wenn AMD diese Performance mit der 5800 (non XT) in etwa auch erreicht. Denn würde die RT Performance der 3070 nicht ausreichen, spielt RT weiterhin eine sehr untergeordnete Rollen, falls nur die 3080 und 3090 ausreichend RT Leistung haben sollten, da die im Vergleich zur 3070 sich "eher schwach verkaufen". Und selbst die 3070 und 5800 (non XT) RT Leistung ist eher unbedeutend, da der 3060 / BN 22 Spieler Markt so extrem viel grösser ist und daher die Spiele überwiegend auf deren RT Leistung zugeschnitten sein "muss".
 
  • Gefällt mir
Reaktionen: Dittsche
Katharsas schrieb:
Weiß jemand ob auch mal irgendwann eine gescheite AMD GPU mit ca. 110 - 120 Watt Verbrauch kommt?
Die letzte in diesem Bereich war die RX 470 (die 560 mit < 100 zähle ich mal nicht) von 2016.

Naja mit RDNA2 gar nicht so unwahrscheinlich, dass es evtl. eine Art "Nano" geben wird mit 8Gb Speicher und itx. Sollte machbar sein.
 
engineer123 schrieb:
^^super Fund, danke Dir 👌

An den 10 Spielen sieht man übrigens auch folgendes:
Hier in den comments wird ja vereinzelt geschrieben ala "cherrypicking" (z.B. der comment genau über dem hier).
Die 10 Spiele sind aber keine außergewöhnlichen in irgendeiner Weise,
sondern kommen bei CB und vielen anderen Tech-outlets in jedem
Grafikkarten Test vor.
Kann schon sein, dass 1/2 Spiele nicht dabei sind, die NV überdurchschnittlich
pushen in den FPS, aber 10 bekannte Spiele, die oft in den Performanceratings
vorkommen sind erstmal eine Ansage von AMD...
und die Performanceratings werden auch in den so hochgelobten "unabhängigen"
Tests nicht super signifikant abweichen, da kann mal jeder sicher sein.

Bitte habe es allerdings anhand der AMD Folien vorhin selbst kurz in eine Excel-Tabelle eingetippt.
Habe es zweimal überprüft um auszuschließen das sich da ein Fehler eingeschlichen hat aber wer einen findet kann das gerne melden, dann korrigiere ich es entsprechend.

Ich glaube auch nicht das da groß cherrypicking betrieben wurde.
Computerbase kommt beim Test der 3080 FE bei 1440p auf eine Differenz von 28% relativ zur 2080ti
laut AMDs Benchmarks sind es 26%.

Bei 4k das selbe 31% vs. 29%.

3080 FE 1440.png


3080 FE 4k.png
 
  • Gefällt mir
Reaktionen: derSafran und engineer123
catch 22 schrieb:
reicht es, wenn AMD diese Performance mit der 5800 (non XT) in etwa auch erreicht.
Bisher sieht es eher so aus, als wäre das bei der XT der Fall. Die non-XT wäre dann vermutlich langsamer. Die Frage ist, wieviel.

catch 22 schrieb:
Denn würde die RT Performance der 3070 nicht ausreichen
Sie reicht nicht aus. Auch die der 3080 reicht nicht aus. Daher gibt es ja DLSS. Und damit wiederum ist es auch der 3060 und 2080 möglich, gute RT Performance zu erreichen, zumindest in FHD.
https://www.hardwareluxx.de/index.p...s-legion-rtx-und-dlss-benchmarks.html?start=1
 
^^spätestens 5. November da ist Release.
 
Bis zum unabhängigen Testen heißt es erstmal einen auf Faultier machen...
 
  • Gefällt mir
Reaktionen: DoNG
ArrakisSand schrieb:
Ich glaube auch nicht das da groß cherrypicking betrieben wurde.
Bei den "neuen" Benchmarks zumindest in dem Sinne, dass überall die API benutzt wurde, mit der AMD besser läuft, während man bei der Präsentation die APIs je nach Hersteller gewechselt hat.

Dadurch ist der Abstand zur 3080 jetzt in den neuen Daten auch größer, als er es bei der Präsentation war und am Ende kommt es ganz drauf an wie die Seiten testen, denn hier wird eigentlich nicht mittendrin die API getauscht.

Nehmen sie immer die API mit der AMD besser läuft -> 6800XT 10% schneller in 1440p und 5% schneller in 4K
Nehmen sie aber immer die API mit der Nvidia besser läuft -> 6800XT gleichauf in 1440p und 5% schlechter in 4K

Im Mittel dürfte es ein Schnitt dieser Werte werden, da manchmal die AMD favorisierte API genutzt wird und manchmal nicht, also läge die 6800XT dann ca 5% vorne in 1440p und wäre in 4K gleichauf.

Ziemlich genau auf das Ergebnis kommt man auch mit den Daten der Präsentation und ich denke das ist auch der Hauptfaktor, warum die Daten, wie schon bei der 5700XT ziemlich gut mit denen der Reviews übereinstimmen, da man durch das Wechseln der API Nvidia und sich selbst in jeder Situation die höchsten FPS gegeben hat.

Die Reviewer, die sich dann pro Spiel auf eine API festlegen, sehen dann die 6800XT im Vergleich zur 3080 vielleicht in einem Spiel schlechter, dafür in einem anderen besser, als in der Präsentation gezeigt und am Ende ist der Schnitt nahezu identisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jemandanders, Iscaran, el Indifferente und 2 andere
mc_ace schrieb:
abgesehen von Raytracing und DLSS 2.0 aktuell...
Plus so Sachen wie Shadowplay, Nvidia Highlights, RTX Voice bzw. Nvidia Broadcast. Aber so oder so ist das für jeden gut. Die einen kommen günstiger an gute Karten und die anderen profitieren eventuell von Preissenkungen bzw. neuen Modellen. Meine Wahl auf Nvidia ist aber sowieso fix. Allein schon wegen Gsync. Nochmal 500-800€ für einen neuen Monitor auf den Tisch legen, nur um dann etwas bei der Grafikkarte zu sparen, klingt nicht so logisch ;)
Vermutlich aber erst nächstes Jahr, wenn sich das alles etwas eingependelt hat. Dieses Jahr kriegt AMD von mir Geld wegen den CPUs ;)
 
seth777 schrieb:
die DIE werden immer kleiner und werden immer gunstiger da man mehr davon pro Wafer erhaelt aber die GPU selbst werden immer teurer

stimmt so pauschal nicht, bzw. geht es sogar in die andere richtung.

r9 290X - 438mm² in tsmc 28nm
r9 fury - 596mm² in tsmc 28nm
rx vega 64 - 495mm² in glofo 14nm
radeon 7 - 345mm² in tsmc 7nm
rx 6900 xt - 536mm² in tsmc 7nm (von techpowerup, falls die fläche stimmt)

gtx 980 ti - 601mm² in tsmc 28nm
gtx 1080 ti - 471mm² in tsmc 16nm
gtx 2080 ti - 754mm² in tsmc 12nm
gtx 3090 - 628mm² in samsung 8nm

cropped-cost-yield-node-compare-1-1155x719.jpg


mir wärs auch lieber, wenn das zeug günstiger wäre, aber ein anstieg der kosten ist definitiv fakt - inwiefern das die aktuellen preise rechtfertigt, steht natürlich auf einem anderen blatt.
 
  • Gefällt mir
Reaktionen: blackTEHhawk, Colindo, yummycandy und 3 andere
Zurück
Oben