News Radeon RX 6000: AMD-Benchmarks zeigen mehr als 60 FPS in 4K

Supermax2004 schrieb:
Naja gut, man hat keinen Vergleich zu Nvidia gezeigt. Also wird man die 3080 kaum schlagen können, sonst hätten sie Vergleiche gezeigt.
Kommt am 28ten - die 3090 für AMD ist noch auf dem Seeweg! Als wenn AMD heute alle Karten aufgedeckt hat - einfach mal ein bisschen nachdenken.
 
  • Gefällt mir
Reaktionen: Crankson und bikkje
Wadenbeisser schrieb:
@Beg1

Sinnloser Vergleich da FidelityFX herzlich wenig mit einem Upscaler wie DLSS zu tuen hat.
Das Eine arbeitet in der Zielauflösung udn das Andere skaliert ein geringer aufgelöst gerendertes Bild auf die Zielauflösung rauf. Logisch das DLSS dann schneller ist wenn es mit einer geringeren Auflösung rendert.
Und nebenbei, wo ging es in dem Link um FidelityFX?

Hab ich den Mist angeführt? Nö, nur geantwortet....
 
@Vendetta

Wie wäre es einfach mal auf das Spiel zu warten anstatt es mit Vorschusslorbeeren zu überschütten und die Erwartungen ins Unermessliche zu schrauben?
 
  • Gefällt mir
Reaktionen: Payne19
Falls die Karten so naha an der 3080 dran sind ist sie gekauft. 👍
DLSS und das ganze zeugs interessiert mich sowiso nicht.
Ich freu mich drauf. Hoffentlich passt der Preis.
 
  • Gefällt mir
Reaktionen: Crankson und Sephiroth51
Das Event war primär für Ryzen und nicht Big Navi gedacht. Dass AMD hier Big Navi angeteasert hat, ist eher als Bonus zu verstehen, mehr nicht. Die Vergleiche werden dann am 28.10 gezogen, wenn Big Navi offiziell vorgestellt wird.

Über die Intention des Teasers kann man wie immer nur spekulieren.
 
  • Gefällt mir
Reaktionen: Benji21, Sephiroth51 und sifusanders
HighPerf. Gamer schrieb:
Genauso gut kann der Wert von der 2. Schnellsten Karte sein.
Dazu passt nicht, dass sie gesagt haben, es sei "die schnellste GPU die sie je gebaut hätten"....
Ich denke schon dass wir hier das Spitzenmodell sehen.

Die Zahlen zeigen, dass diese Karte 4K mit über 60FPS hinbekommt....das ist erstmal kein schlechtes Zeichen, aber eben auch kein gutes, wenn man die grobe Richtung der 3080 anguckt.
Es bleiben noch die großen Unbekannten: Raytracing und ein DLSS 2.0-Konkurent.
Raytracing wird hoffentlich auf Augenhöhe sein.....da sie nichts zu DLSS 2.0 gesagt haben, wird hier gähnende Leere herschen.

Und das wäre für mich weiterhin ein Problem....Wenn nvidia (zumindest in den großen Titeln die auch Raytracing bieten), einen "one-klick-boost" für 4K+Raytracing hat, und AMD nicht, und nichtmal die Rasterisierungsleistung die 3080 schlägt.
Da müssen sie schon deutlich im Preis runter gehen und noch ein 7nm Produkt ist bestimmt teurer als die Samsung 8nm Fertigung, die keiner möchte(überspitzt gesprochen).
Das bedeutet, dass AMD weniger Gewinn macht und weiterhin weniger Investiert und weniger Spieleentwickler bestechen kann.

Und es wurde nur DX12 gezeigt....das kann Zufall sein, weil es neuere Titel sind, die nunmal DX12 haben, aber es ist aus meiner Sicht wahrscheinlich, dass sie weiterhin ihre DX6-11 Schwäche haben, bei der sie so früh ins single Thread CPU Limit laufen....um so stärker die GPU um so schlimmer der Rückstand, wenn man es mit Nvidias Treibertrickserei vergleicht.
 
spamer schrieb:
Muss ehrlich gestehen bin von Navi enttäuscht. 80 CU und nur 80 % über RX 5700 XT ist doch echt schwach. Das ist doch schon alleine druch die dopplte Größe erreichbar, wo sind hier die Architekturverbesserungen ?

Hoffenltich bremsen die sich nicht wirklich durch das 256 bit Interface selber aus, das wäre eine Blamage.

Die werden die Karte wohl nur für 599 Euro anbieten können, da sie zwar mehr RAM bieten aber eben kein DLSS und auch bei Raytracing müssen wir abwarten wie das wird.

Wenigstens sollten die RX 5700 XT jetzt mal unter 200 Euro fallen.
Und tschüß auf die Igno - ich kann den Mist nicht mehr lesen. Werdet ihr eigentlich dafür bezahlt so einen Mist zu schreiben?
 
  • Gefällt mir
Reaktionen: Crankson, GERmaximus, Vendetta und 7 andere
Ich weiß nicht wieso.. aber irgendwie möchte ich von Nvidia und G-Sync nicht mehr weg.. :-/
Kann also nur auf "Konkurrenz belebt das Geschäft" hoffen.
 
abcddcba schrieb:
Unnötig, aber ok. Auf jeden Fall erkennt man anhand der CPUs jetzt wohin die Reise bei den Preisen hingeht. Die Leute, die hier für 500€ das Top Modell der 6000er GPUs erwartet haben, werden wohl traurig sein. Auch hier legt AMD an Leistung zu, also erhöhen sie auch sukzessive die Preise - was nur gerecht ist. Und der Markt hat es ja gezeigt, Kunden kaufen trotz der GPU Preise für die Top Modelle fleißig.
Nein erhöhen sie nicht .... der Preis wird Nvidia sehr weh tun!
 
Beg1 schrieb:
Hab ich den Mist angeführt?
Ja du hattest den Mist mit FidelityFX angeführt, welches eine andere Aufgabe hat.
Bei dem Link ging es um AMDs RIS (Radeon Image Sharpening)-Technologie, welche an sich noch nicht einmal eine Skalierfunktion besitzt.
 
rasenschach schrieb:
Und tschüß auf die Igno - ich kann den Mist nicht mehr lesen. Werdet ihr eigentlich dafür bezahlt so einen Mist zu schreiben?

Ja tut mir leid, hatte erwähnen müssen das ich die Energieeffizienz nicht mit einbezogen habe.
Aber da hatte man auch etwas mehr Watt in Kauf nehmen können und doch lieber mehr FPS liefern.

Und nein werde nicht dafür bezahlt, ich habe selbst AMD im System cpu und GPU und wollte eigentlich gern bei Navi zuschlagen.
 
Baal Netbeck
Ob es nur DX12 war, ist meiner Meinung nach mittlerweile nicht mehr so wichtig. Alte Games sollten 60FPS schaffen und kommende Games werden mehr und mehr auf DX12 setzen, allein wegen DX12 Ultimate, bzw weil DXR sowieso nur mit DX12 funktioniert.

Und was die Performance angeht. 16 GB, zwischen 3070 und 3080 und einen Preis bei ca 600 USD (wobei ich wirklich ungerne über Preise spekuliere) dürfte ziemlich ein gute Preis/Leistung haben.
Außerdem besteht die Grafikkarte auch nicht nur aus einem Chip. Es ist zwar 7nm, der Chip ist aber kleiner, das SI ist nur 256 Bit breit und das Board (Layer ect) sollte deutlich günstiger sein. Sehe eher NV aktuell am "Preis-Limit" als AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sephiroth51
rasenschach schrieb:
Nein erhöhen sie nicht .... der Preis wird Nvidia sehr weh tun!

Ja. NVIDIA zittern schon die Knie. Bald kommt, wie jede Generation, die rote Wohlfahrt. Man muss nur fest genug die Augen schließen und dran glauben. 😂
 
  • Gefällt mir
Reaktionen: stevefrogs
sifusanders schrieb:
wie oft noch. Das sind nicht die gleichen Grafik-Settings. Nix 9 % langsamer.
… dir würde ich an der Stelle mal empfehlen meinen Beitrag, als ganzes zu lesen, statt dich wegen einem schnellen Überschlag hier zu echauffieren, der dein Beitrag einfach nur maximal peinlich wirken lässt.

Ich betrachte die Zahlen als das, was sie sind: Indikatoren. Bis RDNA2 auf dem Markt erscheint kann noch einiges passieren, was Treiber angeht usw.

Baal Netbeck schrieb:
Ich hatte bei den bisherigen Spekulationen befürchtet, dass Big Navi eher nur die 3070 als Gegner haben wird und an der 3080 scheitert.
Die 3070 ist alleine durch die Anzahl der »Alu« für BigNavi eigentlich kein Problem. Es stehen 48xx gegen 5120. Ansonsten sind sogar die »Eckdaten« von der Softwareseite nun für beide Architekturen ähnlich.

Aber ansonsten stimme ich dir aber zu, BigNavi wird sich vermutlich zwischen beiden Grafikkarten wieder finden, mal mit der Tendenz zu der einen, mal zur anderen.

Spricht in dem Fall dann aber das erste mal für »AMD«. Sie kommen mit nominell 42 % weniger Shadern dann »ran«. ;) Und bitte jetzt nicht damit kommen, dass ja bei »NVIDIA« 64 wegfallen, wenn INT kommt, bei AMD fallen dann von den beiden Vec32 auch eine weg pro CU theoretisch.

Benji18 schrieb:
könnte aber auch nur der kleine Navi21 gewesen sein somit die 6700 od. 6800 und man zeigt erst am 28igsten den 6900 der zwischen 3080 und 3090 liegt.
Klar könnte es auch nur eine kleine Navi21 gewesen sein. Wir wissen es nicht wirklich. Das ist an der Stelle aber egal. Genau so, ob man jetzt mit dem »CB«-Vergleich auf 9 % und 2,3 % kommt. Es sind erst mal nur Tendenzen und Mutmaßungen.

Also klar, es könnte sein, dass eine 6900XT zwischen 3080 und 3090 liegt, ich halte es aber persönlich für unwahrscheinlich. Ich weiß, dass AMD durchaus starke Titel hat und da halte ich die 3080 für ein realistisches Ziel, die 3090 wiederum weniger, weil hier selbst nach »Turing«-Rechung ein paar mehr Shader auf dem Schirm.

Wenn ich jetzt träumen würde und gleichzeitig realistisch bleibe, also die Streuung Leistung bei Spielen aus den letzten 10 Jahren beachte bei AMD, dann das 5120 Shader bei optimaler Auslastung dastehen, dann könnte man durchaus zwischen einer 3080 und einer 3090 liegen, aber genau so wird man sich kaum von einer 3070 absetzten können, das hängt dann stark vom Spiel ab.

Benji18 schrieb:
Was auch durchaus wahrscheinlich ist weil man ja absichtlich nur leaks zu dem kleinen Navis zugelassen hat, kann mir nicht vorstellen das man jetzt schon das Pulver verschossen hat.
Ich sag es mal so: Ich stapel aktuell lieber tief und nehme den optimistichen »Worst-Case« an, sprich zwischen 3070 und 3080 mit Tendenz zur 3080, als jetzt zu hoffen, dass man die 3080 schlägt und zur 3090 aufschließt.


ActionNews schrieb:
Wird interessant zu sehen ob Big Navi ein ähnliches Skalierungsverhalten hat oder vielleicht sogar besser ist in der Hinsicht.
Ja und Nein zur gleichen Zeit. AMD hat es durch die kleineren CUs mit 2 * Vec32 etwas einfacher die ALUs optimaler auszulasten und durch die WGP als Überordnung blockiert ein INT-Workload nicht gleich die hälfte der ALUs, man hat es also in 1080p und 1440p einfacher die Leistung auf die Straße zu bringen.

Gleichzeitig darf man aber nicht vergessen, dass man für die 80CU (40WGP) auch eine entsprechende Anzahl an Threads braucht und ebenso auch eine entsprechende Anzahl an Daten. Es könnte hier also durchaus auch passieren, dass man zwar besser skaliert, aber sich auch nicht so deutlich absetzten kann.


Vendetta schrieb:
Und das Totschlagargument, schau dir Control ohne DLSS mit RT an, da kommt die 3080 nichtmal auf solide 30FPS. Erst mit DLSS kann man Richtung 60FPS Lock kommen(plus ein wenig Optimierung)
DLSS ist durchaus ein Argument auf der Seite von NVIDIA, nur müssen wir hier auch abwarten, was AMD als ganzes in der nächsten Zeit vorstellt. MS hat ja bereits angedeutet, dass die neuen RDNA2 CUs durchaus auch verbesserte Funktionen für AI-Funktionen mit bringen.

Man darf in diesem Fall die »Tensor Cores« von NVIDIA dann auch nicht überbewerten, DLSS1.0 lief - wenn die Aussagen von einigen Mitgliedern hier stimmen - anfangs auch auf den Shader-ALUs statt auf den Tensor Cores. Es könnte durchaus so sein, dass ein »MLSS« (Machine Learning Super Sampling, weil DLSS ist ja belegt) auch schnell genug über die Shaders laufen kann.

Klar, NVIDIA hat dann den Vorteil, dass man DLSS »asynchron« auf den Tensore-Kernen berechnen kann, aber auch nur zum Teil, weil hier wieder: Wenn Daten fehlen, kann man nicht weiter rechnen.

Hier wird man nun abwarten müssen. Wenn ich aber ehrlich bin: DLSS als auch ein aktuell fiktives MLSS werden erst wirklich interessant werden, wenn sie nicht nur in ein paar »ausgewählten« Spielen implementiert werden, sondern als Standard in die Engines einziehen und noch besser: Als »Render«-Methode auf Treiberseite ohne Mitwirken der Entwickler implementiert werden.
 
  • Gefällt mir
Reaktionen: AssembIer, Teeschlürfer, Connsen27 und 3 andere
Tyga schrieb:
Hab nur mal dumm gefragt, weil ich da nicht mehr durchblicke.
Keine Ursache. AMD hat RT Einheiten und bietet wohl auch eine Technik an welche DLSS nahe kommt zumindest in Sachen FPS.

Die RT Einheiten bei AMD Sitzen nicht in seperaten Einheiten sondern wie die int und FP Units in den CUs selbst
 
  • Gefällt mir
Reaktionen: Sephiroth51
Baal Netbeck schrieb:
Dazu passt nicht, dass sie gesagt haben, es sei "die schnellste GPU die sie je gebaut hätten"....
.........

Ich wollte dir nur einfach sagen das man denke ich die 3 Wochen in Ruhe abwarten sollte, ohne sich gleich zu sehr über die spärlichen Informaionen den Kopf zu zerbrechen. ;)
 
  • Gefällt mir
Reaktionen: Baal Netbeck
sifusanders schrieb:
von den gezeigten Benches, müssen wir von weniger als 10 % ausgehen. COD können wir nicht vergleichen, wissen nicht, was bzw. welche Szene gebencht wurde.
Man muss von gar nichts ausgehen, weil aktuell niemand eine Entscheidung treffen muss. Man kann definitiv sagen das sie abliefern werden, Lisa Su würde sich kaum hinstellen und der Bullshit Bingo betreiben. Das hat sie bisher nicht und wird sie deswegen wohl auch in Zukunft vermeiden.
 
Zurück
Oben