News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

@ComputerJunge

Das erinnert eher an diverse andere Diskussionen aus anderen Marktbereichen wo ein Produkt eines Herstellers etwas ach so innovatives und damit komplett neues sein muss, egal ob es ähnliche Produkte bereits von anderen Herstellern gab, welche dann natürlich verbissen klein geredet werden. Einfach nur weil es so sein muss weil es von diesem Hersteller kommt.
 
.Sentinel. schrieb:
Na dann Kacha, lass mal hören, wie DLSS genau funktioniert. Ich höre zu und lerne....
Ich habs schon implementiert (UE4)

Ganz ehrlich, nein danke, dafuer ist mir die Zeit zu schade. Wir hatten es schon und es war klar, dass du es zwar nutzen kannst (Implementierung mit UE4), aber von dem was dahinter steckt nur rudimentaer Ahnung hast.
 
@Wadenbeisser
Den Eindruck hatte ich aber auf den letzten Seiten eben gerade nicht gewonnen. Kein "Fan", kein "boy", kein "rot", kein "grün" - von mir aus Präferenzen.

Mir hat Eure Diskussion über die Bewertung der möglicherweise darin liegenden Innovation(en) durchaus dabei geholfen, ein besseres Grobverständnis zur zugrundeliegenden Technologie zu finden. Ja, und auch wenn es manchmal sehr in Richtung Wortklauberei ging/geht, ist es gesittet und niveauvoll. 👍

Daher machte ich ja zwischendurch mal den Vorschlag, dazu einen eigenen Thread zu eröffnen.
 
  • Gefällt mir
Reaktionen: Unnu
foo_1337 schrieb:
Du kannst DLSS nicht einfach ablösen, da der Training Teil ein maßgeblicher Anteil ist.
Oder es verschwindet aufgrund der Einschränkungen und dafür erforderlichen Aufwandes am Ende wieder sang und klanglos vom Markt und macht für eine nicht ganz so gute aber deutlich unkompliziertere und flexiblere Alternative platz.
Es wäre nicht das erste mal das sich nicht der Standard mit dem besten Ergebnis am Ende durchsetzt, ganz nüchtern aus rein wirtschsaftlichen Gründen.
 
Kacha schrieb:
Ganz ehrlich, nein danke, dafuer ist mir die Zeit zu schade. Wir hatten es schon und es war klar, dass du es zwar nutzen kannst (Implementierung mit UE4), aber von dem was dahinter steckt nur rudimentaer Ahnung hast.
Wieso war mir das nur klar, dass Du unter fadenscheinigen Ausreden einen Rückzieher machen würdest....

Die Funktionsweise von DLSS 2.0/2.1 liegt auf dem Tisch. Da gibt es auch keinen Interpretationsspielraum mehr und es haftet dem ganzen auch nichts "magisches" mehr an, da die Teile, die für eine Diskussion wirklich interessant gewesen wären (inhaltliche Bildrekonstruktion im AI Model) aus DLSS2.x entfernt wurden.

Die Stages in den Framebuffern und die Informationen für die Übergabe an den convonutional autoencoder sind offengelegt.

Tu also nicht so, als ob es da noch groß Klärungsbedarf gäbe, oder man sich da mit groß unterschiedlichen Sichtweisen battlen könnte.
 
Zuletzt bearbeitet:
GerryB schrieb:
... komischen Zahlenspiele von Igor zur XL passen nur bedingt.
1. sind die Zusatzverluste viel zu hoch angesetzt
2. 220W TGP (=203W GPU+17W Vram) wäre schon ein Custom-OC Modell

Um alle Unklarheiten auszuräumen hat dargo nochmal bei PatrickSchur nachgehakt:
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Anscheinend hat die XL-Ref ne TGP (GPU+Vram) von 203W, käme analog der RX5700XT Nitro mit 200W A-Bios auf dem "gleichen" PCB auf ca. 225..230W.(gesamtes Board)

Natuerlich ist da bei Igor ein wenig Spekulatius am Werk, aber er hat es vorher ja auch ziemlich akkurat hergeleitet und wer weiss, ob er im Artikel sein ganzes Pulver (Wissen) auch verschossen hat ;).

Der gleiche Wert wie bei einer RX 5700XT kann es deshalb schon nicht sein, weil die Navi21 XL ja mit doppelt so viel Speicher kommen soll ;).

Also 230W (aehnlich dem fuer die RTX 3070 in Aussicht gestellten Verbrauch) wuerde mich schon wundern, wenn die Navi21 XL zwischen RTX 2080Ti/3070 und einer RTX 3080 (evt. ein Stuecken oberhalb der Mitte/naeher an der RTX 3080) liegen soll.

An eine eierlegende Wollmilchsau glaube ich bei RDNA2 auch nicht (zumal auch schon gemunkelt wird, dass RDNA3 vor Ende 2021 schon aufschlagen koennte und ca. 50% effizienter sein wird).

Inwiefern die Speicherbandbreite mit dem "sagenumwobenen" Infinity Cache und nur 256Bit Speicherinterface da allerdings auch noch bzgl. des Verbrauchs einen Sondereffekt haben koennte, wird man ebenfalls sehen muessen.

Lassen wir uns ueberraschen ;) ...
Ergänzung ()

ComputerJunge schrieb:
.... man es nicht auf die Spitze treiben will, sollte man doch mit drei Iterationen der Kurven in Adrenaline oder Afterburner am akzeptablen Ziel sein.

Wenn man es richtig macht, schon, aber das schriebst Du ja auch "zugespitzt" ;).
 
Zuletzt bearbeitet:
foo_1337 schrieb:
aber das beste Ergebnis wird lange Zeit von Nvidia kommen, weil das "Backend" jetzt schon Jahre voraus ist. MS hat gerade angefangen, von AMD weiß man erstmal nichts und Sony ist wie gesagt sowieso ein eigenes Kapitel mit eigener Lösung.
Damit kann ich gut leben. Im Moment weiß man ja nur von DLSS was es kann. Die anderen Lösungen wird man ja, wenn überhaupt, frühestens dann sehen, wenn die Konsolen und die AMD-GPUs veröffentlicht sind.
Und ja, nVidia hat einen Vorsprung und sie werden den auch für einige Zeit behalten. Oder gar ausbauen.
Das wird die Zeit zeigen.
Und auch bei den anderen Lösungen bin ich skeptisch. Generell halte ich nicht sonderlich viel davon meinen Rechner nonstop ins Netz zu hängen, nur damit ein SPIEL besser aussieht. Wie gesagt, die Technik ist schon geil.
Nur überzeugt mich halt nicht.
 
Wadenbeisser schrieb:
Meinst du das Kantenflimmern im späteren Verlauf des Videos?
Das sieht mir eher nach einer dynamischen Auflösung aus die weiter hinten im Hintergrund abnimmt und die Pixel entsprechend groß werden und das hat wiederum sehr viel damit zu tuen.
Im Video ist das ja überall da wo Kanten da sind der Fall und auch vorne bei den Reflektionen an den Steinen, eig flimmert da alles einfach. Da die interne Auflösung in dem Video ja kleiner ist liegt es in der Natur der Sache, das erklärt er ja in dem Video auch gut. Aber DLSS schafft hier ein nahezu perfekt ruhiges Bild zu erzeugen da es Kanten gut glättet und dennoch Schärfe bewahrt. Eigentlich schon etwas verrückt wenn man bedenkt dass bei DLSS Performances quasi 1 Pixel zu 4 Pixel skaliert wird und dabei auch noch Kanten geglättet werden.

Dass das kein Konsolending is zeigt dir ja das CB Video auch. Auch da leider das CAS Uscaling unter Flimmern an dünnen oder kontrastreichen Elementen.

Das würde auch ein Native Bild ohne AA.
 
Kacha schrieb:
Selbst Switches sind virtualisiert? NFV? Wieviel Leistung verliert ihr da? Bzw. in welchen Bandbreiten bewegt ihr euch? Mein letzter Stand war, dass gerade Switches und richtig hoher Throughput noch Probleme bereiten und man nicht komplett um spezialisierte Hardware rumkommt.
Sorry, das war etwas missverständlich ausgedrückt. Die Linecards/Interfaces benötigen natürlich nach wie vor Chips von Broadcom/Mellanox. So wie der Phy auf der NIC im Server. Der Rest ist jedoch komplett offen und Dinge wie z.B. Cisco TCAM sind Geschichte. Wir virtualisieren nicht das OS selbst, wobei KVM tatsächlich auch ginge, sondern beispielsweise VXlans. Nebenbei gehen auch Dinge wie BGP problemlos. Es lohnt sich hier mal einen Blick auf Cumulus zu werfen. Das schöne hier ist eben, dass es sich wunderbar in die DC Automatisierung einbinden lässt und sehr gut mit OpenStack harmoniert. nVidia mischt hier übrigens auch kräftig mit.

Kacha schrieb:
Da wuerde ich lieber einigen Frameworks in den Arsch treten die null Interesse zeigen. PlaidML mit Backend Tensorflow und Pytorch bekommt es mit AMD hin, aber Tensorflow und Pytorch direkt? Ne, das ist zuviel, bitte in Haeppchen fuettern. Fuer Tensorflow gibt es aber immerhin ein tensorflow-rocm Python package.
Jup, das stimmt. Das ist wieder ein Henne-Ei Problem. Bei den public Clouds ist aktuell nVidia der Platzhirsch und daher wird an den Frameworks eben jenes bevorzugt. Und weil der Support in den Frameworks schleppend ist, gibt's seitens der User kein Interesse an AMD. Aber we will see.... Mit Epyc schafft es AMD ja auch, in die Rechenzentren einzuziehen. Mal sehen wie es mit RDNA2 wird. Zu wünschen wäre es definitiv.
 
Unnu schrieb:
Und auch bei den anderen Lösungen bin ich skeptisch. Generell halte ich nicht sonderlich viel davon meinen Rechner nonstop ins Netz zu hängen, nur damit ein SPIEL besser aussieht. Wie gesagt, die Technik ist schon geil.
Nur überzeugt mich halt nicht.
DLSS läuft offline...
 
  • Gefällt mir
Reaktionen: KlaasKersting, Unnu und foo_1337
Chismon schrieb:
Wenn man es richtig macht, schon, aber das schriebst Du ja auch "zugespitzt" ;).
Bei Vega mit OverdriveNTool hatte ich viel zu viel Zeit investiert - auch wenn es zugegebenermaßen Spaß machte. Es könnten aber, falls eine RX6*** würde, zur anfänglichen Übung auch wieder ein paar mehr als 3 werden. ;)
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Chismon
Enurian schrieb:
... kompletter Humbug. Falls das 220W Powerlimit stimmt, sind das ~260W Gesamtverbrauch. Zudem wissen wir nicht, ob der Wert von einem OC-BIOS stammt. So oder so: Im Wattman kann man den Slider für das Powerlimit einfach etwas nach links ziehen, da muss man gar keine Zeit investieren (kann es aber natürlich, um die perfekte Spannung zu finden und das Optimum rauszuholen).

Naja, kompletter Humbug sicherlich nicht, aber dass die Prognose auch daneben liegen koennte, ist natuerlich moeglich, zumal man eben auch nicht weiss inwiefern sich Infinity Cache und die neue Archtiektur nebst der TSMC Fertigung da auswirken werden.

Ich finde es trotzdem gut, dass Igor eine Ansage gemacht hat und mit Spekulatius liegt man manchmal eben auch daneben wegen unerwarteteten Sondereffekte.

Ja klar, aber optimal ist das schlichte herunterregeln des Powerlimits auch nicht. Besser waere es, wenn AMD/RTG da von vornherein mehr optimiert und weniger Spielraeume laesst, auch wenn dann ein wenig Bastelspass fuer einige wenige verloren ginge, aber das kostet wohl mehr Ressourcen und wird daher nicht passieren, da es noch andere (wichtigere) Baustellen i.d.R. bei beiden (AMD/RTG und nVidia gibt) und ja, ein moeglicher Angriffspunkt fuer Intels zukuenftige dGPUs vielleicht, laut Moore's Law is Dead Spekulationen bzw. dessen Quellen soll Intels Xe HPG angeblich maximal auf RTX 3070 Niveau im kommenden Jahr liegen:


Es waere natuerlich toll, wenn die Navi21 XL (bei Bedarf) auch noch gut uebertaktet werden kann (der GDDR6 Speicher soll ja angeblich niedriger getaktet sein als bei der XT Version), angelehnt an die RX 5700.

Schauen wir 'mal, was von den Prophezeiungen der Leaker und Tech-Tuber am Ende (annaehernd) in Erfuellung gehen wird.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Wieso war mir das nur klar, dass Du unter fadenscheinigen Ausreden einen Rückzieher machen würdest....

Naja, wenn der Diskussionspartner schon in vorherigen Diskussionen negativ aufgefallen ist, dann kann man das natuerlich so auslegen. Ist mir auch egal was du denkst, ich werde es mir nicht nochmal antun.

.Sentinel. schrieb:
Die Funktionsweise von DLSS 2.0/2.1 liegt auf dem Tisch. Da gibt es auch keinen Interpretationsspielraum mehr und es haftet dem ganzen auch nichts "magisches" mehr an, da die Teile, die für eine Diskussion wirklich interessant gewesen wären (inhaltliche Bildrekonstruktion im AI Model) aus DLSS2.x entfernt wurden.

Ja, ich kenne die Technologie dahinter und bin allgemein mit dem Bereich betraut. Nein, ich kann nicht das gleiche ueber dich sagen.

.Sentinel. schrieb:
Die Stages in den Framebuffern und die Informationen für die Übergabe an den convonutional autoencoder sind offengelegt.

Ok. Einer Blackbox von der man keine Ahnung hat Daten so zu fuettern wie es in der Dokumentation beschrieben ist sollte nicht so schwer sein.

.Sentinel. schrieb:
Tu also nicht so, als ob es da noch groß Klärungsbedarf gäbe, oder man sich da mit groß unterschiedlichen Sichtweisen battlen könnte.

Oh doch, kann man. Aber mit dir macht es keinen Sinn. Wie gesagt, mir ist die Zeit dafuer schade.

foo_1337 schrieb:
Sorry, das war etwas missverständlich ausgedrückt. Die Linecards/Interfaces benötigen natürlich nach wie vor Chips von Broadcom/Mellanox. So wie der Phy auf der NIC im Server. Der Rest ist jedoch komplett offen und Dinge wie z.B. Cisco TCAM sind Geschichte. Wir virtualisieren nicht das OS selbst, wobei KVM tatsächlich auch ginge, sondern beispielsweise VXlans. Nebenbei gehen auch Dinge wie BGP problemlos. Es lohnt sich hier mal einen Blick auf Cumulus zu werfen. Das schöne hier ist eben, dass es sich wunderbar in die DC Automatisierung einbinden lässt und sehr gut mit OpenStack harmoniert. nVidia mischt hier übrigens auch kräftig mit.

Dann mit OpenFlow/Open vSwitch oder was laeuft darauf? Oder komplett vom OS? Also der "Switch" sind NICs im Server und geroutet wird ueber Software? Wahrscheinlich dann mit massiven Kerneloptimierungen? Oder sind das nur die Endpoints und ihr habt noch Hardwareswitches mit halt OpenFlow zum Beispiel? Wobei SDN jetzt auch schon ueber 10 Jahre alt ist.

foo_1337 schrieb:
Jup, das stimmt. Das ist wieder ein Henne-Ei Problem. Bei den public Clouds ist aktuell nVidia der Platzhirsch und daher wird an den Frameworks eben jenes bevorzugt. Und weil der Support in den Frameworks schleppend ist, gibt's seitens der User kein Interesse an AMD. Aber we will see.... Mit Epyc schafft es AMD ja auch, in die Rechenzentren einzuziehen. Mal sehen wie es mit RDNA2 wird. Zu wünschen wäre es definitiv.

Naja, zumindest bei Tensorflow habe ich das etwas verfolgt. Da wurde zu Beginn massiv in den Support von Nvidia investiert und jetzt bei AMD muss AMD alles schoen mundgerecht liefern, da keiner des Core Teams irgendwie den Finger krumm macht. Also wirklich null Support. Ich bin mir nicht mal sicher ob sich irgendwer die PR ueberhaupt ansieht. Finde das etwas peinlich, da PlaidML es eben hinbekommen hat. Also hat AMD geforkt und fertig. Ich kann es ehrlich gesagt verstehen, auch wenn es nicht das beste ist. Irgendwer maintained allerdings ein aktuelles Python package.

CDNA ist fuer Rechenzentren. Aber Epyc ist da etwas einfacher, weil x86 wenigstens standardisiert ist. Keines der Frameworks ist es und CUDA erst recht nicht. Nvidia hat da einen genialen Vendor Lock-In und kann sich dumm und daemlich verdienen.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Weil in den Köpfen der Leute eben die Vorstellung eines klassischen Upscalings verwurzelt ist.
Diese kann aber bei Weitem nicht mit den Möglichkeiten von DLSS, welches nicht nur Upsampled sondern Supersampled, mithalten.
Ja, das Verfahren, welches Nvidia DLSS 2.0 nennt, basiert auf dem seit etwa 40 Jahren bekannten Verfahren zur Multi-Image Super-Resolution. Das Verfahren wird von NASA und DOD offiziell seit fast 40 Jahren verwendet um aus bewegtem niedrig aufgelösten Bildmaterial Bilder mit höherer Auflösung und mehr echten Details zu rekonstruieren. Das Stichwort ist hier Bewegung. Damit lassen sich über Zeit in bewegten Bildern echte Details in einer höheren Auflösung als das Quellmaterial akkumulieren. Das einzig neue ist, dass es mit den Tensor Cores in Echtzeit mit Auflösungen bis 8k funktioniert und keinen Supercomputer mehr benötigt wie vor 40 Jahren.
Ergänzung ()

ComputerJunge schrieb:
Ich glaube - und hoffe - aber auch, dass das proprietäre DLSS nicht dauerhaft Erfolg haben wird, sondern von einem allgemeinen, "offenen" Standard abgelöst wird (analog GSync/VRR).
Das zugrundeliegende Verfahren ist ja bekannt und es gibt auch schon andere Implementierungen, die keine spezielle Hardware benötigen: Facebook: Introducing neural supersampling for real-time rendering
Die Rechenleistung der Tensor Cores gibt Nvidia hier aktuell aber noch einen großen Performancevorteil, aber das wird nicht dauerhaft sein, da ja auch bei AMD die Steigerung der ML Performance ein Ziel ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, .Sentinel., ComputerJunge und eine weitere Person
Das Problem an dem Facebook Paper ist, dass es, wenn es DLSS erwähnt, DLSS 1 aufgreift und dass die Qualität in den Samples, die gezeigt werden, meist katastrophal ist. Warum? Weil DLSS eben nicht "nur" Multi Image Super Resolution ist. Und genau das zeigt eben das Problem mit AMDs begrenzten Research Kapazitäten auf: So etwas in Perfektion ist eben nicht von heute auf morgen entwickelt.
 
foo_1337 schrieb:
Weil DLSS eben nicht "nur" Multi Image Super Resolution ist.
DLSS 1.0 war ja auch kein Multi Image Super Resolution, 2.0 dagegen schon. Das Verfahren ist ja auch nur die Grundidee. Die erreichbare Qualität hängt von der Genauigkeit der Bewegungsvektoren zwischen den Bildern ab und das ist tatsächlich noch Forschungsgegenstand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran und .Sentinel.
Iscaran schrieb:
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019#4k
Navi10 = 5700 XT = 156%
2080 Ti Ref = 228%
=> Navi10 = 68% wenn 2080 Ti = 100%.
RTX 3090 = 158% relativ zu 2080 Ti = 100%.
https://www.3dcenter.org/artikel/la...aunch-analyse-nvidia-geforce-rtx-3090-seite-2

=> RTX 3090 = 232 % Navi 10 (158/68 = 232 %)

Obige Rechnung ...
Wadenbeisser schrieb:
@Iscaran

Bitte beende die Märchenstunde....
Um in den Bereich der Karten zu kommen reicht lediglich die doppelte Leistung, mit der 2,5 fachen Leistung läge man bereits deutlich über der 3090.....

Das ganze heißt Milchmädchenrechnung, nicht weil es ein Milchmädchen rechnen kann, sondern weil ein Milchmädchen so rechnen würde.

Man kennt den Performance der RX6000-Karten im Vergleich zur 5700XT nicht, in der Rechnung sind viele Unbekannte und man weiß nicht welche der vielen Probleme die AMD bisher hatte, für die RX6000-Karten behoben wurden.

Auch weiß man nicht auf was sich der Effizienz-Zuwachs bezieht. D. h. ob beim Betriebspunkt der Karten noch etwas davon übrig ist.

Wie hier einge zurecht meinen, ist es besser die Erwartungen zu begrenzen, anstatt zu versuchen einen "3090-Killer" herbeizureden. Denn dann ist eine Karte die mit der 3080 konkuriert plötzlich eine riesen Enttäuschung.
Obwohl es für AMD und den Markt ein riesiger Sprung wäre.

zeedy schrieb:
Watt ist nicht Verbrauch liebe CB Redaktion, sondern Leistung bzw Leistungsaufnahme :rolleyes:

Leistungsaufnahme und Verbrauch sind in diesem Kontext dasselbe.



TigerNationDE schrieb:
Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt. Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.

Wie hier schon einige geschrieben haben, beinahe alles in der Computer-Grafik ist eine Mogelpackung.
Die menschliche Wahrnehmung hat ihre Grenzen. Alles was mit großen Aufwand berechnet wird, ohne dass es wahrgenommen werden kann, ist Verschwendung.

So gesehen sind alle Optimierungen zu begrüßen, die den Rechenaufwand bei demselben Bildeindruck reduzieren.

Wadenbeisser schrieb:
Der Kunde wäre der Verlierer in der Geschichte denn der mit Abstand wichtigste Punkt fehlt. Die herstellerunabhängige Funktionsweise denn kein Spiele Hersteller würde sich die Kosten und den Zeitaufwand für die Implentierung von 2 vom GPU Hersteller abhängige Funktionen mit dem gleichen Funktionsprinzip ans Bein binden.
Es ist momentan vollkommen uninteressant, ob es herstellerunabhängig ist.
Nvidia ist mit großen Abstand Marktführer. AMD ist momentan der einzige Konkurrent. Der herstellerunabhängige Ansatz wird nur von AMD verwendet. Er wenn weitere Hersteller den Markt betreten und den herstellerunabhängigen Ansatz verwenden, ist er wirklich herstellerunabhängig.

Bei Thema Cuda hat AMD offen gesagt, dass sie gar keine Chance hatten, dasselbe wie Nvidia zu machen. Nur mit ein offenen Ansatz hat AMD die Chance in den Markt zu kommen und den Rückstand zu verringern. Und irdendwann aufzuholen.

DLSS ist eine technische Lösung was zählt ist Aufwand und Ertrag. So wie ich es Verstehe ist es mehr als hochskalieren. Aber wenn es einen anderen Ansatz gibt der besser funktioniert, wird sich niemand auf Dauer um DLSS kümmern. Wenn, ...

MrChronos schrieb:
Sollte AMD weiter an Marktanteile gewinnen und eine neue Technologie entwickeln, dann wird diese sicherlich genauso AMD-Exklusiv.
Möglich, ist aber reine Spekulation.

Bis zum Marktführer ist es noch ein weiter Weg. Und nur die offenen Technolgien können AMD dorthin bringen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und foo_1337
Je mehr man sich das Paper anschaut, desto gruseliger wird es. Auf einer Titan V benötigt die Runtime 25ms von 720p -> 1080p. Dazu kommt dann noch das fragwürdige Ergebnis. Nvidia hat mit DLSS 2 einiges richtig gemacht und es wir schwer für die Konkurrenz.
 
@Krautmaster

Achte mal auf die Schritte der Strukturen die bei 11:20 vergrößert wurden.
Die Schritte sind für die Auflösung ganz einfach zu groß und grob und deuten damit auf deutlich größere Pixel hin, erst recht mit dem DLSS Bild daneben.
Das LOD hier eine deutliche Rolle spielen dürfte sieht man aber auch an der Geröll Fläche über die er später läuft Achte man ab 11:50 an die Kante der Geröllfläche unterhalb der Grasfläche. Da sieht man recht gut wie auf die nächste Detailstufe hochgeschaltet wird wenn er näher ran kommt.
 
Zurück
Oben