News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

@Krautmaster

Auf die Gesammtübersicht hatte ich mich ebenfalls bezogen und da vergleiche mal das Verheltnis der 5700XT zur VII, welche ähnlich schnell war. Mit zunehmender Auflösung fällt die 5700XT immer weiter zurück und beim Sprung von 2.560 × 1.440 auf UHD nochmal stärker als von FullHD auf 2.560 × 1.440. Das Spielchen läßt sich auch beim Vergleich der Vega64 mit der VII beobachten.
Ich wäre also gerade in UHD sehr vorsichtig mit entsprechenden Vergleichen da es ganz einfach keine 5700XT mit 16 GB gibt. Man sollte die UHD Werte eher als Anhaltspunkt mit einem dicken "Aber" verwenden.
 
  • Gefällt mir
Reaktionen: Blekota
Wadenbeisser schrieb:
Und um wieviel wurden die Effekte da nochmal zusätzlich beschnitten?
Meines Wissens wurde nur optimiert, es gab keine Reduktion von Effekten. 🤔 Hast Du da eine Quelle?

BF V Raytracing war letztlich "nur" auf Spiegelungen fokussiert, also quasi nur 1/4 der möglichen RT Features (Global Illumination, Reflections, Shadows, Ambient Occlusion), und aus diesem Grunde kostet das nicht so viel fps als dass man da etwas "beschneiden" müsste.

Auf Ultra Settings verliere ich ggf. nur noch 30 frames nach den Optimierungen statt vorher über 70.

BF V hat leider kein DLSS
 
DLSS ist ein Ass in Nvidia's Ärmel. Sie wären sau dumm, wenn sie das rausgeben würden. Auch wenn ich persönlich ein Open-Source Fuzzi bin, kann ich das nachvollziehen. Und mit DLSS 3.0 werden die Devs fast gar nichts mehr machen müssen. Da ist es dann auch egal, ob es offen ist, oder nicht.
Sony wird sein Patent auch nicht öffnen, warum auch?
 
  • Gefällt mir
Reaktionen: Strubbel99
Wadenbeisser schrieb:
Mit zunehmender Auflösung fällt die 5700XT immer weiter zurück und beim Sprung von 2.560 × 1.440 auf UHD nochmal stärker als von FullHD auf 2.560 × 1.440. Das Spielchen läßt sich auch beim Vergleich der Vega64 mit der VII beobachten.
Ja aber wie gesagt - das kann man doch eigentlich bei fast allen GPU beobachten. Bei Nvidia genauso. Der größte Abstand zwischen den Serien ist eben in UHD da eben hier das meiste GPU Limit vor liegt.
Die Vega und VII haben brutal viel Rohleistung die in kleineren Auflösungen zunehmend schlechter abgerufen wird.
In meinen Augen war das noch nie anders - deswegen verstehe ich auch nicht wie manche noch weitere Auflösungen getestet haben wollen.

Will ich wissen was die GPU leistet schaue ich im UHD die Unterschiede in % zwischen dein einzelnen Karten an und gut. ;)

Schau mal hier
1603269614814.png

1603269622245.png


und da ist nicht der RAM die Ursache.
 
  • Gefällt mir
Reaktionen: bernyfritz, KlaraElfer, Strubbel99 und 2 andere
@Laphonso

Wenn ich mich richtig erinnere wurde die Strahlenverfolgung stärker eingeschränkt, ich weiss nur nicht mehr ob das nur die Anzahl der Reflektionen betraf oder auch die Anzahl der Strahlen die verschossen werden. 🤔
Da dieser Teil einer der größte Performancefresser beim Raytracing ist ist der Einfluß auf die Framerate entsprechend hoch.

Genauere Links habe ich leider nicht da ich mich nur beiläufig für das Thema interessiert hatte.
 
  • Gefällt mir
Reaktionen: Laphonso
Habe meine Bestellung bei Notebooksbilliger.de storniert "ASUS TUF GeForce RTX 3080 OC 10GB". Der Mitarbeiter am Telefon hat gesagt das sie die nächsten Karten erst mitte November erwarten werden, aber in so geringen Stückzahlen das ich davon wahrscheinlich keine bekommen werde.

(Ich hatte am 17.09.2020 bestellt).
 
  • Gefällt mir
Reaktionen: Strubbel99, Krautmaster und Mcr-King
PatrickSchur hat bei Igor mal einen Blick in das Custom-Bios von ner 6800 XT gewährt:
Das können AMDs Radeon RX 6800XT Boardpartner-Karten mit Werks-OC (vielleicht) - Ein kleiner Blick ins BIOS verrät die Details | igor´sLAB
Was die 2577 GFX Maximum (MHz) in real bedeuten muss man abwarten, da die Kurve bei AMD etwas anders funzt als bei NV. (vermutlich für RDNA2 ähnlich Navi)
PL scheint erstmal auf +15% begrenzt zu sein, könnte evtl. mit dem MPT erweitert werden.(für h2o interessant)
(Max: 255W*1,15=293W TGP= GPU+Vram; und auf der Minimumseite läuft die Custom anscheinend ab Werk bereits 6% über der Ref., sprich 255W*0,94=238W Ref.)
Wenn man das TDC-Limit von GFX=300A net ändert hätte man bei ca. 0,925V die 293W bereits ausgeschöpft. Bin mal gespannt, wie hoch gut gekühlte Chips damit takten.(das Bsp. gilt für 100% GPU/Shaderauslastung)
(von den 293W gehen ein paar W weg für Vram+SOC)

Die Kommentare von Igor bitte net auf die Goldwaage legen, da z.T. net plausibel ggü. Navi.
User dargo hat das mal aus Navi-Erfahrungen ein bisschen richtiggestellt:
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18, bad_sign und Mcr-King
Prophetic schrieb:
Ich verstehe auch nicht, was es an DLSS auszusetzen gibt...


Also ich hab generell nichts gegen DLSS. Aber dass hier immer ständig geschrieben wird, dass ohne DLSS AMD verlieren wird, DLSS das non plus ultra ist, das nicht Vorhandensein von DLSS zum Nichtkauf führt etc.

Ich hab jetzt die 2070 Super bald ein Jahr und noch kein einziges Spiel mit DLSS gespielt. Alle Spiele die ich hab, unterstützen kein DLSS (außer BFV aber der Zug ist abgefahren gewesen bevor ich die 2070 gekauft hab). Also was genau hab ich jetzt von dem tollen feature?
 
  • Gefällt mir
Reaktionen: Colindo, Iscaran und Mcr-King
foo_1337 schrieb:
Und mit DLSS 3.0 werden die Devs fast gar nichts mehr machen müssen.
Die meiste Arbeit macht doch eh schon Nvidia direkt, oder?
Die Devs schicken die Daten an Nvidia und die nutzen dann 16K Bilder plus Bilder mit niedrigerer Auflösung fürs anlernen und das ganze wird dann in den Treiber eingepflegt.
 
Krautmaster schrieb:
Ja aber wie gesagt - das kann man doch eigentlich bei fast allen GPU beobachten. Bei Nvidia genauso. Der größte Abstand zwischen den Serien ist eben in UHD da eben hier das meiste GPU Limit vor liegt.
Ich würde immer davon abraten gerade in einem solchen Grenzbereich herstellerübergreifend zu Argumentieren da beispielsweise beide ein unterschiedliches Speichermanagement besitzen das gerade bei diesem Punkt ausschlaggebend sein kann. Es geht hier schließlich nicht eine allgemeine Speicherlimitierung sondern um eine mögliche Speicherlimitierung dieses speziellen Modells bei eben jener Grafikeinstellung und das ließe sich nur mit einer Variante mit mehr Speicher abschließend beurteilen. Die gibt es aber nicht, sehr wohl aber die Erkenntnis das es zum Problem werden kann und genau deshalb sollte man den Benchmark Wert für eine leistungsaussage zum Nachfolger mit mehr Speicher mit Vorsicht genießen.

milliardo schrieb:
Die Leute hier beschwerten sich ganz klar darüber, dass DLSS/AI-Upscaling "keine richtige Performance" sei oder "irgendwie Beschiss".
So wie ich das sehe wird vor allem über DLSS an sich und das gejubel über Mehrleistung im Vergleich zur nativen Auflösung gemeckert und weniger über AI-Upscaling an sich.
Einfach mal nüchtern sehen, wie jedes andere Upscaling auch ist es vor allem für jene interessant wo die GPU nicht fähig ist das Bild mit der gewünschten Framerate mit der nativen Auflösung zu erzeugen und schon ist das AI-Upscaling nur eine weitere Alternative zu den anderen Varianten. Ob man mit dem Einfluß auf das Bild leben kann oder nicht muss dann jeder für sich entscheiden.

Mich erinnert die "Diskussion" einfach zu sehr an den Hype um die erste DLSS Generation die seinerzeit trotz deutlicher Bildabweichungen und teils sehr groben Schnitzern als ach so gleichwertig oder garn besser bejubelt wurde weil die Framerate ja bei gleicher Ausgabeauflösung ja so viel höher war. Ich hatte mir seinerzeit sogar die Mühe eines direkten Bildvergleichs bei der damaligen Final Fantasy XV Vorführung
gemacht der aber natürlich von der Jubel Fraktion konsequent ignoriert oder zerredet wurde.
 
  • Gefällt mir
Reaktionen: Iscaran, Strubbel99 und Mcr-King
  • Gefällt mir
Reaktionen: Philanthrop und Mcr-King
GerryB schrieb:
User dargo hat das mal aus Navi-Erfahrungen ein bisschen richtiggestellt:
Das hat er doch garnicht. In seiner Berechnung hat er den Speicher inkludiert, also wenn 255W im Raum stehen sind die bei Igors Rechnung auch schon drin.
 
Mehr oder weniger Bestätigung von Igor, dass 255W Powerlimit bereits eine fette OC-Karte sind (2577 MHz).
Damit können die Verbrauchstrolle wieder einpacken, da ist nichts mit weit über 300W für die ganze Karte, insbesondere nicht mit der Referenz.
 
Gelten die 255 Watt da jetzt für die gesamte Karte oder nur Chip + Speicher?
Denn wenn zweites gilt, dann landet die gesamte Karte wiederum locker bei 300+ Watt.
 
@Philanthrop
Das war vermutlich eine gute Entscheidung.
Je nach dem wie stark RX6xxx wird, hat man hoffentlich ein vergleichbares Gegenstück zu Nvidia.
WennSie dann noch liefern können...
 
  • Gefällt mir
Reaktionen: Philanthrop
Matzegr schrieb:
Die meiste Arbeit macht doch eh schon Nvidia direkt, oder?
Die Devs schicken die Daten an Nvidia und die nutzen dann 16K Bilder plus Bilder mit niedrigerer Auflösung fürs anlernen und das ganze wird dann in den Treiber eingepflegt.
Die Devs müssen bei DLSS 2.0 soweit ich weiß gar nichts mehr an Nvidia schicken. Nvidia nutzt generische Bilder zum trainieren. Die Devs müssen nur die API Calls ins Spiel/Engine einbauen.
 
Ratterkiste schrieb:
Gelten die 255 Watt da jetzt für die gesamte Karte oder nur Chip + Speicher?
Denn wenn zweites gilt, dann landet die gesamte Karte wiederum locker bei 300+ Watt.
Powerlimit ist bei AMD Chip + Speicher und eventuell noch was, da kommt schon noch was drauf. Igors Prognose ist da aber zu hoch, das zeigen ältere AMD-Karten (zum Beispiel RDNA1). Ich hatte letztens schon gezeigt: Die Nitro+ hat 225W Powerlimit und insgesamt 260W Verbrauch. 255W PL sind daher ca. 300W gesamt.
Und wie gesagt: Das ist hier wieder eine Nitro+ oder gar Toxic, das ist nicht der Maßstab.
 
GerryB schrieb:

Wer zum Teufel ist eigentlich dieser Patrick Schur, von denen alle schreiben?
Bei google finde ich auf die Schnelle nur einen Fußballspieler, einen Arzt in Zürich oder einen Professor in Miami.
Gibt es da einen Background? Arbeitet er bei AMD? Bin gerade verwirrt
 
Zurück
Oben