News Radeon RX 6000: AMD-Benchmarks zeigen mehr als 60 FPS in 4K

Bei den Grafikkarten wird der Preis und die Leistungsaufnahme eine gewisse Rolle spielen. Aber was ich so sehe kann sich einer von euch bald eine RX5700XT Red Devil von Januar 2020 bei ebay schießen :D
 
deo schrieb:
Big Navi wird auch gut in Tests abschneiden. Die Leistung muss nicht ganz an die 3080 heran reichen, weil die Leistungsaufnahme geringer sein wird....
und
Man darf net vergessen das u.U. die 16GB Vram sich erst bei den Frametimes zeigen.
(es gibt ja schon Fälle, wo die 3080 vs. 3090 net so ruhig läuft; und so richtige Brocken wirds wohl erst Ende2020 und 2021 mit den neuen Konsolengames geben; olle Games sind net entscheidend, daher wohl auch die 20GB für die 3080 demnächst)

btw.
Weniger W sind schon ein Vorteil zusammen mit reichlich offenem Powerlimit, um die Graka mal mit h2o zu betreiben. Preislich müsste man dann jeweils die 2x 8pin-Customs vergleichen.
(ne 3080strixx nur wg. der 3x 8pin ist ganz schön happig, vor Allem weil die TUF 2x 8pin ganz gut aussehen)
 
Zuletzt bearbeitet:
Weniger FPS, kein Raytracing, kein DSSL und schlechte Treiber, günstiger im Preis? Stimmts?
 
Vendetta schrieb:
5-10% langsamer als die 3080 und das war wohl der Vollausbau 6900XT. Preis? 649 mindestens, wahrscheinlich eher mehr. UVP wird eh nirgendwo mehr eingehalten, die ist ein reiner Fantasiewert.

Dann fehlen AMD die RT Cores, deren Raytracing wird sicher noch stärker die Performance tanken als eh schon bei Ampere. Und ohne Tensor Cores, die DLSS ermöglichen, kann AMD hier auch nichts kompensieren...

Von wo weiß man das?
AMD wird NIIIEEE Tensor Cores haben ebenfalls kein DLSS, zumindest unter dieser Marke da diese bestimmt Urheberrechtlich geschützt ist.

Anstatt panisch/hysterisch zu werden einfach mal am Zopf fassen, chillpille einlegen und cool bleiben. 😂😂

Ich denke zwar das es die größte Karte vorerst war die man da gezeigt hat, aber das macht mich nicht weniger Pessimistisch und Raytracing ist eine Technik die ist Uralt, keiner weiß wie die bei AMD in Echtzeit performen wird. Könnte etc. auch bei AMD besser laufen. Wer weiß.

Und warum sollte AMD keinen Pendant zu DLSS haben? Weil AMD noch nichts vorgestellt hat? Warum sollten Sie?
Die Technik wurde bei NVIDIA auch erst bei Erscheinung der RTX 20er vorgestellt.
Ergänzung ()

Tyga schrieb:
Weniger FPS, kein Raytracing, kein DSSL und schlechte Treiber, günstiger im Preis? Stimmts?
 
  • Gefällt mir
Reaktionen: ThePlayer und fth_trk
Tyga schrieb:
Weniger FPS, kein Raytracing, kein DSSL und schlechte Treiber, günstiger im Preis? Stimmts?
hoffe, dass nicht alle Deine 2.683 Beiträge das Niveau hatten.
 
  • Gefällt mir
Reaktionen: Crankson, ThePlayer, iceshield und 11 andere
Hab nur mal dumm gefragt, weil ich da nicht mehr durchblicke.
 
  • Gefällt mir
Reaktionen: Sephiroth51
Ich vermute mal knapp hinter der RTX 3080 aber deutlich vor der RTX 3070 bei geringerem Verbrauch und mutmaßlich 12 oder 16 GB Ram.
 
Vendetta schrieb:
Es ist ein Feature, das in dem Most Wanted 2020 von Millionen Spielern integriert sein wird: Cyberpunk 2077
Du meinst das Spiel das bei den bisherigen empfohlenen Systemanforderungen lediglich ne 1060 oder 1070 hatte?
So nebenbei, das Spiel interessiert mich kein Stück.
 
  • Gefällt mir
Reaktionen: Crankson und ThePlayer
Beg1 schrieb:
Super über nen Jahr alt, mittlerweile gibt es DLSS 2.0 und sogar auf cb einen Vergleich mit AMD FidelityFX und da wischt DLSS 2.0 den Boden mit.....
Korrekt, AMDs Lösung ist ca. so brauchbar wie das Checkerboarding der PS4Pro, glaube digital Foundry hat da Vergleiche bei death stranding gemacht, da Schnitt das image sharpening nicht gut ab, kann halt keine Details erzeugen wo keine da sind, DLSS schon, richtig irre ist der neue Ultra Performance Mode:

 
  • Gefällt mir
Reaktionen: .Sentinel.
Finde ich sehr nice, vor allem da ich hier "nur" nen WQHD Monitor hab ;)
Damit sinds dann nochmal ne Ecke mehr FPS in Borderlands 3 ^^
 
Beg1 schrieb:
Super über nen Jahr alt, mittlerweile gibt es DLSS 2.0 und sogar auf cb einen Vergleich mit AMD FidelityFX und da wischt DLSS 2.0 den Boden mit.....
Und AMD ist einfach stehengeblieben? Als ob sie nicht auch weiter an ihrer Software arbeiten würden... haltet alle mal die Bälle flach bis zur GPU Präsentation ende des Monats.
 
  • Gefällt mir
Reaktionen: ThePlayer, Orok91, GERmaximus und 2 andere
Wadenbeisser schrieb:
Du meinst das Spiel das bei den bisherigen empfohlenen Systemanforderungen lediglich ne 1060 oder 1070 hatte?
Ja, die Karten können auch kein Raytracing, für PS4 Optik wird es schon reichen.
 
Ich hatte gar nicht mit einem teaser zu Big Navi gerechnet. Aber der hat ja eigentlich mehr Fragen aufgeworfen als beantwortet. Warten wir's ab.
 
Nanu, da schau einer an (bei VCZ) :D:

Before the event, Radeon Scott Herkelmann stressed that AMD did not disclose which Radeon RX 6000 graphics card was used for these benchmarks. It is also important to note that AMD tested RX 6000 with Ryzen 9 5950X CPU, yet an unreleased processor which no GPU reviewer has used for their GPU benchmarks. AMD claims that this processor will be better than Intel CPUs in gaming. Whether that affects 4K performance, we don’t know yet.

Ich sehe da jedenfalls keine Big Navi21 XTX als bestaetigt fuer die abegelieferten (Teaser-Demo) GPU-Leistungsdaten (fast schon eher ein Dementi).

Einen ersten Vergleich von Planet3DNow! zur Leistung dieser Big Navi21 (XT?) GPU gibt es im dortigen Artikel auch schon, wobei Gears of War 5 (von Microsoft) eigentlich als sehr neutraler Spieltitel (weder AMD/RTG noch nVidia architektur-/sponsortechnisch grossartig beguenstigend) angenommen werden koennte ;):

1602183391733.png


Ergo, im Schnitt ist diese Big Navi21 GPU bei Spielen vielleicht 15-20% schneller als eine RTX 2080Ti?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GerryB
@Beg1

Sinnloser Vergleich da FidelityFX herzlich wenig mit einem Upscaler wie DLSS zu tuen hat.
Das Eine arbeitet in der Zielauflösung udn das Andere skaliert ein geringer aufgelöst gerendertes Bild auf die Zielauflösung rauf. Logisch das DLSS dann schneller ist wenn es mit einer geringeren Auflösung rendert.
Und nebenbei, wo ging es in dem Link um FidelityFX?
 
  • Gefällt mir
Reaktionen: ThePlayer und Payne19
Kann jemand eine grobe Abschätzung dazu geben, wie sich aktuell unter Blender openCL gegen CUDA/OptiX in der Renderperformance schlägt?
 
Naja gut, man hat keinen Vergleich zu Nvidia gezeigt. Also wird man die 3080 kaum schlagen können, sonst hätten sie Vergleiche gezeigt.
Mal zum Spaß die Werte mit Computerbase vergleichen, da hat die 3080 in CoD 90+, AMD gibt 88 an. Ok das wäre sehr nah dran.
Borderlands gibt AMD 61 an, die 3080 packt hier 70 grob. Also so könnte es am Ende aussehen, man ist nah dran, etwas günstiger, mehr Vram, joah weckt sicher Interesse.
 
Supermax2004 schrieb:
Naja gut, man hat keinen Vergleich zu Nvidia gezeigt. Also wird man die 3080 kaum schlagen können, sonst hätten sie Vergleiche gezeigt.
Auch für dich nochmal die GPU Präsentation ist ende des Monats. Alle Infos die du dir Wünschst kriegst du dann dort.
 
  • Gefällt mir
Reaktionen: GERmaximus, ThePlayer, Balikon und 2 andere
Zurück
Oben