News RX 6800, 6800 XT und 6900 XT: AMD veröffentlicht weitere Benchmarks in 4K und WQHD

ArrakisSand schrieb:
Eine kleine Zusammenfassung der von AMD veröffentlichten Ergebnisse:
Link zur AMD Webseite (Benchmarks 6800, 6800XT und 6900 XT)

Danke für die Mühen, bis release und unabhängigen Tests dürfte das meines Erachtens nach die beste Grundlage für Diskussionen sein. Durch diese Zusammenfassung lässt sich wesentlich einfacher darüber sprechen als wenn man die Spiele auf der Website einzeln durchklicken müsste, habe bereits in einer Runde von Freunden davon Gebrauch gemacht. (Keine Sorge, bevor wieder jemand nen Vogel bekommt; ich habe das nicht als unabhängige Tests verkauft ;) )
 
daivdon schrieb:
https://www.computerbase.de/2020-05/amd-fidelityfx-neue-effekte/
Ich wüsste jetzt nicht wieso weder Sony noch Entwickler für Linuxsoftware sich das nicht zunutze machen
können sollten.
Fidelity FX wird ohne DirectML kein Supersamping können. Damit sind PS5 und Linux außen vor. That's it. Zudem hat Sony ohnehin eine eigene Lösung.
Ergänzung ()

daivdon schrieb:
Aber du erwähnst das überhaupt, weil das was genau zur Sache tut?
Weil hier so getan wird als wäre nvidia der böse Alleingänger, der alles nur proprietär macht. Und AMD ist bzgl. Supersampling eben genau davon abhängig. FidelityFX alleine wird das nicht lösen.
 
DrFreaK666 schrieb:
An den Benchmarks stört mich dass Smart Access Memory aktiviert war.
Nicht jeder holt sich eine Zen 3 CPU zur Grafikkarte, und muss daher mit weniger Performance zufrieden sein
So ist das eben. AMD nutzt seine Synergien im eigenen Haus. Bevor du lang rumjammerst: Greif halt zu NV. Wenn du dann später zu einer AMD CPU greifst hast glatt wieder einen Grund zu jammern... :-) Kopfschüttel :-)
 
  • Gefällt mir
Reaktionen: schkai
Avarios schrieb:
Du weißt aber das BF5 out of support (bald) ist ?
Ändert ja nichts daran, dass es der aktuellste Battlefield Teil ist.
Zumal interessant wäre ob andere und zukünftige Frostbite Spiele auf AMD Karten ähnlich gut laufen.

Bin echt gespannt auf die Raytracing Benchmarks. Hoffentlich kommt die RX 6800 in ähnliche Regionen wie die 3070.
 
  • Gefällt mir
Reaktionen: betzer
chöne Zusammenfassung der Präsentation und mit/ ohne den neuen Features gibts auf 3DCenter.org inkl. interessantem Vergleich zu unabhängigen RTX-Benches.

Was bleibt ist die erstaunlich kleine Preisdifferenz zwischen 6800 und 6800XT.
 
  • Gefällt mir
Reaktionen: Sun-Berg und foo_1337
Jede Grafikkarte die man kaufen kann ist prinzipiell schneller als jede Grafikkarte, die man nicht kaufen kann.
Insofern wird das Rennen um die beste Grafikkarte momentan nicht ausschließlich in Benchmarks entschieden.
 
  • Gefällt mir
Reaktionen: .Sentinel.
- Faxe - schrieb:
Also ähnlich bis gleich der Series X/S nehm ich an. Hat man zu den Ladezeiten auf der PS5 eigentlich schon was gesehen?

Mit eliminieren meine ich eigentlich auch eliminieren, also wenn die ersten auf die Bandbreite der internen SSD angepassten bzw. explizit programmierten Spiele dann irgendwann kommen.
Komplett eliminieren wird unmöglich sein. Auch 10GB/s wären es einige Sekunden, je nach Spiel. Dazu kommt noch etwas Latenz on Top. Die Rom Zeiten von früher sind vorbei ;)
https://comicbook.com/gaming/news/ps5-playstation-5-console-ssd-loading-times-video/
Nicht eliminiert, aber schon sehr gut.
 
Zuletzt bearbeitet von einem Moderator:
Wenn die 6800XT Rasterisation Performance einer 3080 mit der Raytracing Performance einer 2080Ti kombinieren kann, reicht mir das völlig aus, wenn ich im Gegenzug OC Potential und 16GB VRAM haben kann und "nur" 650€ zahlen muss. Super Resolution ist dann eben ein Gamble auf die Zukunft.

Raytracing sind auch in dieser Generation nur Effekte die noch nicht entscheidend für gutes Gameplay sind. Das dauert noch.
 
  • Gefällt mir
Reaktionen: Vitec
leute, die ganzen diskussionen führen doch zu nichts ohne unabhängige tests...wenn diese da sind könnt ihr euch ja gegenseitig zerfleischen ;) manche haben echt die ungeduld gepachtet.
im vorfeld über die möglichen features usw diskutieren, ist ja voll in ordnung, aber was hier teils für lächerliches fanboy gerede vom stapel gelassen wird, ist echt nicht mehr schön.
aber das zeigt mir persönlich, das amd sich in bezug auf grafikkarten und highend wieder ins gerede gebracht hat :)
 
  • Gefällt mir
Reaktionen: niteaholic
AtotheX schrieb:
Bei BF5 in WQHD und DX11 soll sogar die 6800 ohne XT vor einer RTX 3090 liegen! Kann das stimmen?

Anhang anzeigen 985747
Könnte an SAM liegen. Bei den FPS Zahlen könnte die CPU limitieren.
Ein Benchmark ohne SAM wäre interessant gewesen, gerade weil es aktuell eh niemand nutzen kann.
 
  • Gefällt mir
Reaktionen: AtotheX
SAM ?

serious ?

:D
 
  • Gefällt mir
Reaktionen: Cpt.Willard, niteaholic, ArrakisSand und eine weitere Person
hmmm, mittlerweile ist die 3090 für mich die einzig kaufbare Nvidia GPU, die 3080 hat leider zu wenig vram im vergleich zur konkurrenz, allerdings kostet die aktuell auch so um die 1800€....

dann gäbe es noch die 6900 und 6800 von AMD beide mit 16GB Ram...

wäre da bloss nicht mein gsync monitor, wobei den könnte ich leichter austauschen als meinen 65" C9 der ebenfalls GSync unterstützt, aber da gäbe es ja noch HDMI 2.1 VRR, gibts da vl. Infos dazu?

Wenn VRR bei der 6900 mit dem C9 problemlos funktionieren würde, würde ich mir ne 6900 für 1000€ kaufen und dann einen neuen FreeSync/GSync kompatiblen Monitor kaufen ^^ wäre immer noch günstiger als ne 3090 XD
 
Wenn es der normale GPU-Bench aus SotTR ist, dann lande ich immer im CPU-Limit. Wie haben die getestet?
Würde das ganze mal richtig gegenüberstellen, aber ohne das zu wissen ist das irgendwie Blödsinn.

SotTR 1440pUltraMax.jpg
 
AleksZ86 schrieb:
wäre da bloss nicht mein gsync monitor, wobei den könnte ich leichter austauschen als meinen 65" C9 der ebenfalls GSync unterstützt, aber da gäbe es ja noch HDMI 2.1 VRR, gibts da vl. Infos dazu?
Ist es nicht so, dass mit FPS jenseits von 100, Gsync immer "unnötiger" wird, da die Latenz zwischen fertig gerendertem Bild und der Anzeige am Monitor immer kleiner wird? Gilt dann natürlich auch für Freesync...
 
AleksZ86 schrieb:
die 3080 hat leider zu wenig vram im vergleich zur konkurrenz
Für deine knapp 5 Millionen Pixel sollten 10GB auch bei Ultra locker ausreichen.
4K hat 8,3 Millionen Pixel und selbst da kein Problem. Zur Not halt DLSS nutzen.
 
0ssi schrieb:
Für deine knapp 5 Millionen Pixel sollten 10GB auch bei Ultra locker ausreichen.
4K hat 8,3 Millionen Pixel und selbst da kein Problem. Zur Not halt DLSS nutzen.
auf dem Monitor spiele ich halt nur Wow oder Multiplayer Egoshooter, auf dem 4k C9 spiele ich dann die "fordernden" Spiele (Witcher3, Red Dead Redemption 2, Metro Exodus,..... iwann mal auch Cyberpunk) und da will ich schon "gut für die Zukunft" gerüstet sein, daher dürten die 10gb der 3080 da knapp sein

... und DLSS muss halt auch vom Spiel unterstützt werden, oder?
 
  • Gefällt mir
Reaktionen: Cyberbernd
News:

Nvidia canceled 16GB-Version on 3070
Nvidia canceled 20GB-Version on 3080

 
manfredham schrieb:
Ist es nicht so, dass mit FPS jenseits von 100, Gsync immer "unnötiger" wird, da die Latenz zwischen fertig gerendertem Bild und der Anzeige am Monitor immer kleiner wird? Gilt dann natürlich auch für Freesync...
mag so sein, aber wir sind halt noch nicht in der Zeit in der "100+fps @4k" schon Standard ist :)
wir haben gerade die erste GPU Generation erhalten die 4K@120 FPS (HDMI 2.1) unterstützt
 
  • Gefällt mir
Reaktionen: manfredham
Zurück
Oben