News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

.Sentinel. schrieb:
Wer braucht schon erheblich mehr FPS mit zeitgleich höher möglicher Bildqualität
...und damit mehr Langlebigkeit und höhere Halbwertszeiten in der Relevanz und "Tauglichkeit" der GPU Generationen.

PC World und Techspot sprechen von "Game Changer" und ein reddit User hat sein Control DLSS 2.0 Erlebnis so beschrieben:

The real game changer however is DLSS 2.0. Without it or with it, I absolutely can't tell any difference whatsoever, and I mean it, been trying to see for 30 minutes and I simply can't, with or without the image looks just as good. Without ray tracing I get 80fps, with DLSS 2.0 I get 144fps, it's complete insanity, just straight up free performance.

DLSS 2.0 (und irgendwann 3.0) ist das Feature, gegen das AMD irgendwann bestehen muss.

Eine 2070 = eine Vorgängergeneration aus dem Jahre 2018, die mit DLSS unter 4K Ultra die Performance einer AMD RDNA2 GPU aus 2020 hat, lässt sich als "Zustand" traumhaft vermarkten.

AMD konkurriert formal, aber originär und vordergründig nicht wirklich gegen die 3070, 3080 oder 3090. Auch nicht gegen Raytracing oder G-Sync oder Nvidia Broadcast etc.

AMD konkurriert mit Nvidias DLSS, denn hier entscheidet sich die künftige Preis-Performance-Ratio einer GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., stevefrogs, Highskilled und 3 andere
Krautmaster schrieb:
Die 3080 FE ist aufs % doppelt so schnell im GPU Limit
Und in UHD ist die Warscheinlichkeit hoch das die 5700XT bereits ins VRAM Limit rennt, deshalb zurückfällt und der Vorsprung der 3080 künstlich wächst, siehe die Leistungsentwicklung der VII im Vergleich zur 5700XT über die anderen Auflösungen hinweg.
Das hätte dann bei der Radeon nichts mehr mit einem GPU Limit zu tuen und würde den Vorsprung der Geforce ebenso künstlich vergrößern wie sie in kleineren Auflösungen durch das CPU Limit eingebremst wird.
Das Thema wurde schon zig mal durchgekaut....
 
Wadenbeisser schrieb:
Das hat ein wenig was von den damaligen Diskussionen um die RTX Effekte bei Spielen wie Battlefield und was die Spiegelungen doch alles ermöglichen würden, die aufgrund der Frameraten in der Praxis aber praktisch irrelevant waren.
Dann hast Du bereits die zweite Iteration der Patches verpasst, denn bei mir sprang Battlefield V mit Raytracing unter 1440p Ultra von den anfangs ernüchternden ~ 70 fps (144 fps RTX off) auf mittlerweile 110-120 fps.
Die Technik, das wussten wir, wird nach und nach ausgereifter.

Und Metro Exodus z.B. mit Raytracing ist visual porn und - im Wortsinne - ein Immersionsunterschied von Tag und Nacht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wadenbeisser schrieb:
Das ist es durchaus aber aufgrund der Beschränkungen aber am Ende chancenlos am freien Markt.
Es wandert wohl mal wieder nur so lange in Spiele wie nvidia wie auch immer dafür zahlt und ist in der heutigen Form dann wieder weg vom Fenster.

Das ist gut möglich. Es ist jedoch eines von vielen Unternehmen die versuchen etwas in Portfolio zu haben, dass sie von anderen abhebt/unterscheidet whatever. Ob es am Ende ein Erfolg wird oder nicht, ist stets ein Risiko.
 
Wadenbeisser schrieb:
Und in UHD ist die Warscheinlichkeit hoch das die 5700XT bereits ins VRAM Limit rennt, deshalb zurückfällt und der Vorsprung der 3080 künstlich wächst, siehe die Leistungsentwicklung der VII im Vergleich zur 5700XT über die anderen Auflösungen hinweg.
Ich denke das liegt weniger an den 8GB als an der Architektur an sich. Ich glaube bei der RDNA Karte kann AMD die Shader gut auslasten, von kleiner bis großer Auslastung - während die VII genau darin krankt und erst in UHD einen Großteil ausgelastet bekommt - deswegen legt sie da etwas zu.

Gerade diese GCN Karten mit vielen Shadern hatten ihre Stärke zunehmend im GPU Limit.

Aber ja, VRAM ist auch möglich und im Prinzip sagst du ja nur dass der Abstand 5700 XT zu 3080 was Rechenleistung angeht sogar kleiner sein könnte als Faktor 2. Dann müsste die Big Navi noch schneller sein.
 
Und wieder ein Artikel der meinen Eindruck das Computerbase aus 70% Clickbait besteht bestätigt. Schade. Das hier war mal eine echt gute Seite.

Kriegt jetzt jeder der einen Twitter Account und wild Zahlen in die freie Wildbahn wirft einen Artikel? Wie sieht's eigentlich bei Igor aus? Der hat spätestens durch die gemurkste Analyse des 3080 Stabilitätsproblems jegliche Kompetenz abgegeben.
 
@Laphonso

Und um wieviel wurden die Effekte da nochmal zusätzlich beschnitten?
Die ursprüngliche Fassung hatte ja neben den massiven FPS Einbußen auch noch einen unregelmäßigen Bildfluss une etwas später wurde die Leistung verbessert indem man bei den Effekten auf Details verzichtete. Was sich am Bildfluß änderte hatte ich dann nicht mehr mitbekommen aber am Ende läuft es dann doch wieder darauf das die Fraktion die nach FPS giert den ganzen Krempel dann wieder abschaltet weil diese Spiele Kategorie dafür ganz einfach die falsche Zielgruppe für Bildqualitätsspielchen besitzt.
 
Laphonso schrieb:
PC World und Techspot sprechen von "Game Changer"
Genau so ist es. Und Software ist heute und war gestern schon wichtiger als Hardware. Leider haben das noch nicht alle Unternehmen begriffen und viele sind schon daran zugrunde gegangen. Und es werden mehr werden. Bisher war das eher im Server/Cloud Bereich der Fall, wo früher mit custom Asics etc. gepunktet wurde. Das interessiert mittlerweile fast niemanden mehr, außer irgendwelche Enterprises. Und genau so wird es hier auch kommen. Sony weiß das auch und arbeitet daher an einen Äquivalent, weswegen sie die PS5 auch ggü. der Xbox etwas schlechter ausstatten konnten.
 
  • Gefällt mir
Reaktionen: Laphonso
Wadenbeisser schrieb:
Der Kunde wäre der Verlierer in der Geschichte denn der mit Abstand wichtigste Punkt fehlt. Die herstellerunabhängige Funktionsweise denn kein Spiele Hersteller würde sich die Kosten und den Zeitaufwand für die Implentierung von 2 vom GPU Hersteller abhängige Funktionen mit dem gleichen Funktionsprinzip ans Bein binden.

Das ist ein Problem (fast) aller technischen Neuerungen und Features im Bereich Computergrafik, nicht speziell von AI-Upscaling. Das macht den Ansatz von der Idee her nicht schlechter.
 
kallii schrieb:
Bitte lasst den AMD Hypetrain endlich gegen die Wand fahren das ist ja echt peinlich.

AMD Wird nichts mehr reißen.

Klingt für mich eher als ob ein Fanboy Angst um seinen Schützling hat. Selten sowas dummes gelesen. Wie kann man sich nur ein Monopol wünschen ?
 
  • Gefällt mir
Reaktionen: iceshield, bad_sign, Crimvel und 3 andere
Ich mache mal nen Vorschlag:

Wir reden hier NUR über AMD und schon reduziert sich die ganze Hektik auf Nothing.

Speku: ein neuer Leak zu CU´s+Takt (Referenzgrakas; nicht zu verwechseln mit Customs)
AMD Radeon RX 6900XT to feature Navi 21 XTX GPU with 80 CUs - VideoCardz.com
(was die Namensgebung durch den Leaker angeht, soll sich Jeder seinen Teil denken und bitte net posten)

Für Viele sicher das Wichtigste, die Navi21XL scheint auf sparsam getrimmt zu sein. (olles NT reicht)
(und durch volle 16GB@256bit zukunftssicher)
Wenn AMD helle ist "muss" ein Ryzen 3600 + RX 6800XL an nem guten 550W-NT laufen.
(Alles Andere wäre seeeehr unpraktisch.)
 

Anhänge

  • RX6000 Specs.png
    RX6000 Specs.png
    42,5 KB · Aufrufe: 339
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
@Krautmaster

Nicht wirklich denn ich habe hier das Spiel schon mit einer Vega64 und einer VII durch die beide auf der gleichen Grundarchitektur aufbauen. Gerade mit hohen Texturendetails sind die 8 GB der Vega64 in UHD ganz einfach zu wenig, wodurch es dann gern mal zu häufigen Nachladeruncklern durch den Speicherüberlauf kommt, welche sich mit HBCC in einigen Spielen aber abmildern lassen. Die VII interessierte das überhaupt nicht und spuckte einen recht gleichmäßigen Bildfluss aus. Richtig derb war der Unterschied z.B. bei "Rise of the tomb raider", wo die Speicherbelegung der Vega64 mit 16GB HBCC auf ca. 10-11GB anschwoll.
 
  • Gefällt mir
Reaktionen: Strubbel99
welches Spiel genau, ich hatte die 200% ja schlicht auf das UHD CB Rating bezogen. Das Game kann man ja auch ausklammern.

In 1440p sind es noch 187%, aber da nimmt eben auch das CPU Limit weiter zu und bremst eine 3090 / 3080 mehr aus als eine 5700 XT
1603267575585.png
 
  • Gefällt mir
Reaktionen: bad_sign
Wadenbeisser schrieb:
Hau in entsprechenden Spielen die Render Skalierung z.B. auf 200% und ziehe in der heutigen Zeit z.B. nochmal einen entsprechenden Schärfefilter drüber. Schon kommst du auf den gleichen Leistungsgewinn, welcher zwar nicht auf die gleiche Qualität kommt aber dafür unabhängig vom GPU Hersteller funktioniert.
Verdrehst du da was oder versteh ich das falsch? Wenn ich die Skalierung auf 200% stelle, rendert man bei FullHD in 4k und hat damit einen massiven FPS Einbruch.
Iscaran schrieb:
Weil FidelityFX weniger Performance kostet
DLSS kostet gar keine Performance, sondern im Gegenteil.
Iscaran schrieb:
Und schliesslich und zuletzt. Es ist ein Gerücht dass DLSS 2.0 BESSER aussieht als "nativ". Das ist technisch nicht möglich, es sei denn du vergleichst Äpfel mit Birnen. Das gilt auch für FidelityFX (CAS)
Schau einfach das Digital Foundry Video zu Death Stranding ...
Und selbst wenn es nur fast so gut aussieht, ist es allemal eine gute Alternative, wenn man dann dafür 30%+ FPS bekommt und es wird nur noch besser werden und nicht schlechter.

Ernsthaft, bin ich hier im falschen Film, dass in diesem Technikforum so über DLSS gehatet wird? Bin ich baff.
Ich mein, so oder so sind wir irgendwann an der Grenze bei der Technik bzw. Effizienz, früher oder später müssen also Alternativen/Extras her. Wie kann man sich also so davor verschließen?
 
milliardo schrieb:
Das ist ein Problem (fast) aller technischen Neuerungen und Features im Bereich Computergrafik, nicht speziell von AI-Upscaling.
Darum geht es bei der recht nutzlosen DLSS Diskussion aber nicht sondern um diese Funktion selbst.
DLSS an sich ist eher eine Tech Demo dafür was über diesen Weg qualitativ möglich wäre aber solange es auf einen Hersteller beschränkt ist wird kein Spiele Hersteller von sich aus in die Integration investieren wenn es einen kostengünstigeren und einfacheren Weg gibt mit dem man bei allen Kunden ähnliche Leistungsgewinne erhalten kann.
Die höhere Bildqualität des Endergebnisses spielt dann nur noch eine untergeordnete Rolle.
Ergänzung ()

iamyvo schrieb:
Verdrehst du da was oder versteh ich das falsch? Wenn ich die Skalierung auf 200% stelle, rendert man bei FullHD in 4k und hat damit einen massiven FPS Einbruch.
Es geht um Upscaling und nicht downsampling.
Das Bild wird pro Bildachse in doppelt so hoher Auflösung ausgegeben wie es gerendert wurde. Bei UHD Bildausgabe würde man dann eben intern mit FullHD rendern.
 
Hä dann schreib doch nicht 200% :D
Und je nach Monitorgröße sieht das dann halt echt kacke aus.
Wie gesagt, DLSS ist vlt heute noch nicht der heilige Gral, aber die Richtung ist klar und allein schon positiv, weil es auch AMD dazu bewegt, in diesen Bereich hin zu investieren.
 
Laphonso schrieb:
AMD konkurriert mit Nvidias DLSS, denn hier entscheidet sich die künftige Preis-Performance-Ratio einer GPU.

Es ist schön wenn du das so siehst, aber deine Theorie hat einen Haken, DLSS 2.0 funktioniert nur dann wenn es der Entwickler auch einbaut aktuell sind mir 9 Spiele!! bekannt. Du ignorierst völlig das es auch ein Aufwand für Nvidia ist das KI Learning über die Texturen des Games zu lassen, der Aufwand auf Entwickler Seite ist nicht bekannt.

Daher stellt sich die Frage ist eine "propariätre" Lösung wirklich ein "Gamechanger" od. wird es so wie RTX in einem DX API Standard aufgehen (ML wäre hier ein bsp.), od. wird es auf kurz od. lang wie Physiks verschwinden.

Ich finde DLSS ist eine gute Lösung, besonders wenn man mehr Leistung mit gleicher Bildqualität rausholen kann, aber ich lehne es schlicht ab wenn man das ganze Proparitär gestaltet, eine einheitliche Schnittstelle muss her. Dann kann man ernsthaft darüber reden ansonsten wird es sich nie 100%ig durchsetzen siehe Gsync als bsp.
 
  • Gefällt mir
Reaktionen: blackTEHhawk, Rockstar85 und Iscaran
iamyvo schrieb:
Verdrehst du da was oder versteh ich das falsch? Wenn ich die Skalierung auf 200% stelle, rendert man bei FullHD in 4k und hat damit einen massiven FPS Einbruch.

DLSS kostet gar keine Performance, sondern im Gegenteil.

Das ist aber nur wenn ich das mit echtem Super Sampling Vergleiche - also dem vollen Rendern in virtuell höherer Auflösung.
Schau einfach das Digital Foundry Video zu Death Stranding ...
Und selbst wenn es nur fast so gut aussieht, ist es allemal eine gute Alternative, wenn man dann dafür 30%+ FPS bekommt und es wird nur noch besser werden und nicht schlechter.

Lies einfach den Arstechnica test.
Ernsthaft, bin ich hier im falschen Film, dass in diesem Technikforum so über DLSS gehatet wird? Bin ich baff.
Ich mein, so oder so sind wir irgendwann an der Grenze bei der Technik bzw. Effizienz, früher oder später müssen also Alternativen/Extras her. Wie kann man sich also so davor verschließen?

Hier wird nicht gehatet - aber FidelityFX(CAS) bietet nunmal FAST dasgleiche wie die nVidia ONLY Option. Und ist für alle nutzbar und auch auf NICHT-RTX GPUs.

Für das kleine bisschen wo DLSS2.0 wirklich noch "besser" ist als CAS kostet es aber eben auch MEHR LEISTUNG.
(Und DLSS2.0 erzeugt manchmal eben auch Artefakte die man bei CAS nicht hat).

LIES den Arstechnica TEST.
 
Wadenbeisser schrieb:
Darum geht es bei der recht nutzlosen DLSS Diskussion aber nicht sondern um diese Funktion selbst.

Die Leute hier beschwerten sich ganz klar darüber, dass DLSS/AI-Upscaling "keine richtige Performance" sei oder "irgendwie Beschiss". Das Fehlen einer offenen Schnittstelle für die einheitliche Nutzung ist eine andere Baustelle und die hast erst du eingebracht, sofern ich nicht irgendwas überlesen habe.

Nicht dass du damit unrecht hättest, aber mir ging es ausschließlich um die Frage ob "intelligentes" Upscaling irgendwie per se schlecht ist oder nicht. So habe ich zitiert und argumentiert und das hätte man auch klar so rauslesen können.
 
  • Gefällt mir
Reaktionen: iamyvo
Iscaran schrieb:
LIES den Arstechnica TEST.

Wozu, um zu sehen dass in Standbildern einzelne Partikel verloren gehen? Das ist bei DLSS bekannt, wenn in der Native Auflösung da ggf die Partikel zu klein sind dann gehen die Stand jetzt beim Upscale teils verloren ja.

Aber es reicht doch ein Blick in das Video von CB hier

um die Unterschiede zu sehen. Es ist eine reine Flimmerpartie mit FidelityFX, das würde mich 100x eher stören als ein paar unterschlagene Partikeleffekte in einzelnen Szenen.

Edit: Der Performance Gain ist bei CAS auch nicht größer:
1603269333254.png
1603269346643.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
Zurück
Oben