Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

@.Sentinel.

Genau das ist aber nicht der Fall wenn das ursprünglich berechnete Bild nur ein Bruchteil der Pixel des ausgegebenen Bildes besitzt. 3x darfst du raten warum einige der Meinung sind dass das per DLSS hochgerechnete Bild besser aussehen würde als das nativ in der Auflösung berechnete Bild. Sie unterscheiden sich weil beim Rendervorgang eben nicht alle Pixel des ausgegebenen Bildes berechnet wurden und daher kommt eben auch die höhere Framerate.
 
  • Gefällt mir
Reaktionen: Mcr-King
@Wadenbeisser
Grundsätzlich ist das Ausgangsmaterial, welches Du für den Rasterizer bereithältst unendlich skalierbar.
Was Du beim Rastern machst ist, dieses unendlich skalierbare Ausgangsmaterial mit beschränkter Auflösung auf den Bildschirm zu Rastern, also in ein Auflösungsschema zu pressen. Der Ausdruck "rastern" passt perfekt.

In der Ursprungsszenerie/Geometrie ist aber theoretisch keine Begrenzung vorhanden. Das kannst Du mit 8k, 16K, 32K oder wie auch immer rastern lassen.

Das Ausgangsmaterial ist also grundsätzlich bei DLSS und beim Rastern unendlich groß.
Jetzt ist es so, dass das normale Rastern das Bild in eine feste Auflösung presst, also quantisiert, mit all seinen Fehlern und Artefakten (z.B. Alias).

DLSS nimmt vom gleichen unendlich großen Ursprungsmaterial niedrig aufgelöste Proben, dafür aber mehrere davon und kumuliert sowohl die Mehrfachinformationen, als auch die Informationen aus Vorgängerframes auf. (Ich hab oben meinen Eintrag dazu nochmal mit einem Schaubild ergänzt).

Das heisst, um z.B. einen Nachteil der Technik aufzuzeigen, dass Du bei Bildwechseln mit völlig anderer Bildinformation für eine minimale Zeit tatsächlich ein Bild erhältst, welches nicht die volle Information enthält.
Bereits ab Frame 2 findet aber wieder die Kumulation statt und mit jedem weiteren Einzelframe (bis zu einem Maximalfaktor) wird die Qualität weiter gesteigert.
Zudem induzierst Du einen Lag (bei DLSS2.0) von einem Frame, weil dort die Ausgabe um einen Frame verzögert stattfindet, um den IST- Zustand tatsächlich mit dem alten Zustand in einem neuen Frame verrechnen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BGnom, RedRain, noxon und eine weitere Person
CrustiCroc schrieb:
Das ist Schwachsinn, und das weisst du auch. Da schmeckt einem einfach nicht das Nvidia hier krass abliefert. Glaubst du allen Ernstes, Nvidia spricht selbst von nahezu "doppelter" Leistung und am Ende sind es im Durchschnitt nur 40 % ? Das glaubst du doch selbst nicht.
Was ist Schwachsinn? Hast du meine Beiträge überhaupt gelesen und verstanden? Es scheint nämlich nicht so zu sein.

Ich beschäftige mich mit den softwaretechnischen Eigenheiten von Ampere und habe ein paar Vermutungen aufgestellt die, die sagen, dass Ampere von seinem Treiber als auch den Engines abhängig ist um die Leistung wirklich vollständig abzurufen. Aber auch dazu habe ich schon geschrieben, dass ich da bei NVIDIA keine Zweifel habe, dass sie genau das schaffen werden.

Um eines klar zu stellen: Ich halte Ampere für ein geniales Brett an Hardware. Die Frage für mich ist aktuell aber - und dazu gibt es nun mal keine Information - wie die 128 ALUs in ihren zwei 64er Blöcken angesprochen werden.

Es geht in meinen Beiträgen nicht darum die Ampere-Architektur schlecht zu reden, sondern primär darum, wie sich Ampere programmieren lässt und wie viel Anteil daran ggf. der Treiber hat und auch ob man die GPU wirklich immer auslasten kann, dass die Rohleistung auf die Straße kommt.

CrustiCroc schrieb:
Igor hat dazu gestern auch ein Video hochgeladen. Der Typ ist übrigens hervorragend vernetzt, hat beste Kontakte zur "Gerüchteküche", die sich nahezu immer als richtig herausstellen.
Und an welcher Stelle habe ich Igor widersprochen? Im Endeffekt bestätigt Igor mit seinen Quellen und Aussagen das, was ich geschrieben habe: Die 3070 ist für BigNavi knackbar, die 3080 durchaus auch ein realistisches Ziel ist.

CrustiCroc schrieb:
Und genau DAS sagt was über Ampere aus. Nämlich das der Leistungszuwachs diesmal brachial ist. Egal ob dir das gefällt oder nicht.
Hier widerspricht keiner dem Leistungszuwachs und diese Anmerkung von dir ist daher absolut unnötig.

Wenn man sich alle aktuellen Berichte, die technischen Spezifikationen und die Informationen von NVIDIA ansieht, dann gibt es Szenarien, in denen kann Ampere richtig abziehen. Es gibt aber - und auch das habe ich so geschrieben - theoretisch Szenarien, in denen Ampere nicht wirklich "glänzen" kann.

Die Unbekannt aktuell - für mich - ist es, wie NVIDIA mit diesen Szenarien umgeht und wie NVIDIA diese entschärft und Ampere schmackhaft macht, damit die aus Ampere wirklich immer alles heraus geholt wird. Und noch mal: Ich habe keinen Zweifel daran, dass NVIDIA ihren Treiber entsprechend gut aufbaut, NVIDIA beweist nun gut seit 20 Jahren, dass sie sowohl Hardware als auch Software-Ebene ihre Produkte beherrscht.

Ich bin wirklich gespannt auf Ampere und wie sich am Ende das Produkt dann in den Testparcours schlägt. Wie geschrieben, für mich ist Ampere auf Softwareebene ein dreischneidiges Schwert:

1. NVIDIA hat bereits angedeutet, dass bei Workloads die Turing liegen, Ampere nicht wirklich "zulegen" kann. (FP + INT). Hier kommt also das primäre Plus über mehr ALUs sowie mehr Takt.
2. NVIDIA hat ebenso bereits angedeutet, dass für die Ausnutzung der gesamten Möglichkeiten die Engines angepasst werden müssen. Will man FP + INT + TC + RTX haben zur gleichen Zeit, muss die Engine das können.

Und aus 1. und 2. ergibt sich für mich halt eben 3: Schafft es NVIDIA über den Treiber die Workloads so zu optimieren, dass Ampere wirklich immer seine schiere Kraft ausspielen kann oder bleibt Potenzial ungenutzt.

Und aus 3. ergibt sich halt, dass NVIDIA durchaus in die Falle rennen kann, in die AMD mit GCN gerannt ist. Das ist aber nur eine Möglichkeit. ...

Dein Angriff und deine Provokation sind hier unnötig, denn - wie bereits geschrieben: Keiner Zweifelt daran, dass Ampere eine gute GPU wird.

Dein Beitrag ist daher im ganzen einfach unnötig. Wenn dich die technischen Fragen auf Softwareebene nicht interessieren, dann überlese sie. Wenn du mehr über die SM weißt als ich: Scheiß los Schieß los, ich bin echt Neugierig!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Der Nachbar
canada schrieb:
Was ich interessant finde, das man da zum vergleich nur die normale GTX2080 heran genommen wurde und nicht die Ti Version, denn dann wäre der Balken Abstand bedeutend kleiner wenn man zum CB Chart schaut zwischen 2080 (Ti) und 3080. Aber so sieht der Balken Abstand ja viel größer aus.

Das liegt eben auch daran, dass die 3080 der Nachfolger der 2080 (Super) ist und nicht der von der 2080Ti! Komisch aber, dass sie in Doom Eternal trotzdem der Vergleich gesucht wird und die 3080 davonzieht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: squadric
Teralios schrieb:
Ich vergesse da gar nichts, weil es nicht das Thema der Diskussion war, auf das ich eingegangen bin.

Wenn ich höhere FPS habe, habe ich auch eine bessere Bildqualität. Die Wahrnehmung der Bildabläufe wird deutlich flüssiger,realistischer, flimmerfreier, ohne OGSSAA Bruteforce.
Wenn ich das reine Standbild mit einem Screenshot abbilde und sage die BQ ist identisch, teils sogar besser.
Als schlechter habe ich sie bisher nicht gesehen, habe ich am Ende deutlich mehr fürs Auge.

Bildqualität umfasst für mich auch die Bewegung und den Ablauf der Bilder. Wenn der beschleunigt ist, habe ich deutlich mehr davon.
Teralios schrieb:
Ich hasse es, wenn Leute meinen versuchen mir etwas zu erklären, was ich bereits weiß und was ich merhfach auch angesprochen habe.

Zisch dir mal ein kühles Blondes, ich habe leider nicht alle deine Beiträge gelesen, genauso wenig habe ich nicht alles an bisher verfügbarem Material zu Directx12 Feature Level 12_2 /DLSS whatever aufgesaugt, noch habe ich aus beruflichen Gründen die Zeit dazu. ;)

Ich hatte einfach das Gefühl, dass du den Uplift von DLSS 1.0 zu 2.0 ein bisschen schlechtgeredet hast.

.Sentinel. schrieb:
Mit DLSS Performance samplest Du das Bild deutlich niedriger.

Okay, das wusste ich nicht, danke!
 
  • Gefällt mir
Reaktionen: mercurio
CrustiCroc schrieb:
Das ist Schwachsinn, und das weisst du auch. Da schmeckt einem einfach nicht das Nvidia hier krass abliefert. Glaubst du allen Ernstes, Nvidia spricht selbst von nahezu "doppelter" Leistung und am Ende sind es im Durchschnitt nur 40 % ? Das glaubst du doch selbst nicht.
Irgendwas mit dir nicht in Ordnung? Ich habe zu AMD kein Wort gesagt. Mir ist völlig schnuppe, womit Big NAvi kämpft oder nicht. Mir ist auch völlig schnuppe ob Nvidia hier voll krass super duper abliefert (ist das jetzt cool?) Das schaue ich mir an, wenn Big Navi vorgestellt wird.

Es war eine Einschätzung zu dem, was der Artikel beinhaltet. Und das völlig losgelöst von AMD, Big Navi, Intel und XE....
 
Also erstmal großes Lob für den Artikel, der geht sehr in die Tiefe und ordnet viele, bereits bekannte oder neue, Zahlen ein.

Mein Fazit ist, dass Nvidia für mich jetzt deutlich schlechter dasteht als bei der Präsentation. Dort klang es so, als würde Ampere 2xFP32 + 1xINT32 berechnen können, anstatt dass jetzt 1 FP32 und (de facto) ein AMD-Shader zusammenarbeiten. AMD unterstützt nämlich schon seit Urzeiten multifunktionale Shader. Der einzige Vorteil für Nvidia ist die kompaktere Auslegung der Rechenwerke, man macht sich damit aber unflexibler, als es bei Turing war.

Che-Tah schrieb:
Die Frage ist wieviel Gleitkomma oder Ganzzahlen werden berechnet? Das war bisher kein Thema....
Nvidia selbst gibt ein 30:70-Verhältnis für INT:FP an. Das heißt, das alte Verhältnis von 1:1 in den Shadern war schon Verschwendung, und es wird jetzt besser.
Teralios schrieb:
Das heißt: Die Karte ist von einem sehr guten Treiber aber auch von gut programmierten Engines abhängig. Bei Treibern hab ich keine Sorge bei NVIDIA.
Es kann auch sein, dass in den Spielen, wo Turing gegenüber Pascal zugelegt hat, die Zuwächse von Ampere am geringsten sein werden...

Btw, kann mir jemand (@Wolfgang?) schlüssig erklären, wie die Tensor-Cores DLSS berechnen können, bevor das Bild völlig fertig ist? Die gleichzeitige Ausführung war bisher ja kein Hardware-Problem, sondern ein mathematisches... Oder nutzt man die Tensor-Cores jetzt endlich für das Denoising, sagt es aber nicht??

Jetzt wühle ich mich erstmal durch die 200+ Kommentare
 
  • Gefällt mir
Reaktionen: monitorhero und Che-Tah
Marflowah schrieb:
Wenn man sich aber die Tabelle anschaut, hat sich die Anbindung (Speicherinterface) im Vergleich mit der 2080Ti nur in der teuersten 3090 erhöht. Bei der 3080 und der 3070 hat er sich verkleinert.

Und der Durchsatz steigt trotzdem von 616 GB/s auf 760 GB /s von der 2080ti zur 3080. Du kannst doch nicht nur das Interface betrachten.
 
  • Gefällt mir
Reaktionen: Marflowah und Lübke82
canada schrieb:
Überall und zu 100% immer besser? Ich hab da schon anderes gesehen.

Ich zitiere mal aus einem Test: "Ursächlich dafür ist Nvidias Entscheidung, DLSS als Entlastungsmaßnahme zu bewerben, die bei vergleichbarer Qualität die Leistung erhöht. Dahinter steckt keine Zauberei, sondern ein uralter Trick: Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten."

Das ist schon so eine Sache mit den Zitaten. Da kann sich jeder was passendes raus suchen und als absolute Wahrheit hinstellen. Im gleichen Test steht auch extrem viel positives über DLSS.

Dann zitiere ich auch mal: " Die Gewinne bei der Detaildarstellung verblüffen vor allem im Angesicht der intern reduzierten Auflösung und gigantischen Leistungszuwächse. DLSS 2.0 verhilft allen getesteten Spielen zu einem deutlichen Detailgewinn im Standbild durch knackige Rekonstruktion verlorengegangener Details und kann auch im Bewegtbild klare Vorteile bei der Bildschärfe verzeichnen. "

Das klingt doch schon irgendwie anders oder?

Edit: Wer sich das gerne einmal selber durchlesen möchte: https://www.pcgameshardware.de/Nvid...arrior-5-DLSS-Test-Control-DLSS-Test-1346257/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BGnom, Lübke82 und GERmaximus
CrustiCroc schrieb:
Und er sagt : BigNavi kämpft mehr mit der 3070, denn mit der 3080. Es sei denn AMD macht da jetzt was mit der Brechstange, und opfert jedwede Effizienz und Vernunft.

Diesmal ist mir das relativ egal, denn die Preise sind ja vergleichsweise gut.
Allerdings hat die 3070 weder den neuen GDDR6x, noch verfügt die Karte über den Vollausbau.
Das wären keine guten News.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wo bleiben die 4K Ultrawide Monitore ? Sollte gar kein Problem sein für 1440o mit dlss 2.0 upscaling und HDMI 2.1 jetzt
 
Mh, schade, dass der Technikartikel wieder in der Kommentarsektion derailed wird und eine allgemeine Preis/Speicher/Marken/Marketingdiskussion losgetreten wurde.

Dabei waren sehr interessante Statements hier zu lesen. Mich würde vor allem interessieren, ob bisherige Spiele mit der neuen Ampere Konfiguration besser skalieren, bzw. wie es da bei zukünftigen Spielen aussehen wird.

Oft wurde auch vorgeworfen, dass die bisherigen Benchmarks gecherrypickt waren (was durchaus nachvollziehbar ist). Allerdings fehlt mir hierzu bisher die technische Begründung. Sind die dort verwendeten Engines besonders Ampere-freundlich? Wenn ja, warum?

Solche Fragen sind doch viel interessanter als das ewige Gejammere oder Gehype.
 
  • Gefällt mir
Reaktionen: pietcux und Colindo
@.Sentinel.

Darum geht es bei DLSS aber nicht denn es ist ziemlich egal ob etwas theoretisch unendlich skalierbar ist denn das ist nicht Teil des Renderablaufs. Würde deine Theorie stimmen dann wären die Ausgangsbilder identisch, sind sie aber nicht und genau hier fährt auch dein Vergleich gegen die Wand.
Das hoch aufgelöste Ausgangsbild ist nicht Teil des Rendervorgangs sondern wird erst im Anschluss daraus erzeugt. Dafür ist auch die geringe Präzision der Berechnung der Tensor Cores relativ egal denn es geht schließlich nicht um eine exakte Berechnung für ein identisches Ausgangsbild (was für deinen Vergleich erforderlich wäre) sondern lediglich um ein plausibles Ausgangsbild.
 
Colindo schrieb:
Btw, kann mir jemand (@Wolfgang?) schlüssig erklären, wie die Tensor-Cores DLSS berechnen können, bevor das Bild völlig fertig ist? Die gleichzeitige Ausführung war bisher ja kein Hardware-Problem, sondern ein mathematisches... Oder nutzt man die Tensor-Cores jetzt endlich für das Denoising, sagt es aber nicht??
DLSS ist eine Multi- Frame Technologie, bei der das Aktuelle Frame inkl. einiger vorhergehender Frames in das Zukunftsframe Projeziert wird.
Somit hast Du zum Stand X bereits genügend Information.
Du hängst mit DLSS aber immer ein Frame in der Ausgabe hinterher.
Ergänzung ()

Wadenbeisser schrieb:
Darum geht es bei DLSS aber nicht denn es ist ziemlich egal ob etwas theoretisch unendlich skalierbar ist denn das ist nicht Teil des Renderablaufs. Würde deine Theorie stimmen dann wären die Ausgangsbilder identisch, sind sie aber nicht und genau hier fährt auch dein Vergleich gegen die Wand.
Du hast ein fehlerhaftes Verständnis davon, was "Bild" im Falle vom Rastern bedeutet.

Das Bild wird erst generiert, wenn die Szenendaten arrangiert sind. Und das ist tatsächlich so, als ob Du zum Zeitpunkt XY einfach ein Foto schießt.
DLSS schießt mit weniger Auflösung viele Fotos (supersampling) an verschobener Stelle (jitter) und kombiniert sie mit den Fotoinformationen von Vorgängerframes.
 
  • Gefällt mir
Reaktionen: BGnom, Colindo, noxon und 2 andere
coolmodi schrieb:
Wieso sollte das so sehr wichtig sein? Auch in dem Video sieht es dann einfach nur unscharf aus, und ohne gefällt es mir persönlich besser.
Naja. Letztendlich gibt es natürlich keine absolute Antwort auf das Problem und es wird immer eine Geschmacksfrage bleiben.
Wenn das Ziel allerdings sein soll ein realistisches Bild zu erzeugen, dass wie ein Film aussieht, dann muss man bewegte Objekte mit einem Motion Blur versehen.
Zum Beispiel ist es immer eine gute Idee die Waffe, die man hält, mit einem Motion Blur zu versehen.
Das wird mehr und mehr kommen und sicherlich auch nicht immer zu deaktivieren sein, da diese Techniken oftmals integraler Bestandteil der Engine werden. Erst recht, wenn jetzt noch Raytracing hinzukommt und eventuell geblurrte Objekte erwartet.


Psychodelik schrieb:
Meinst du AMD wird schlafen und die RIS Technologie die sie gegenüber der DLSS 1.0 entwickelt haben einfach links liegen lassen und nicht verbessern bzw. anpassen gegenüber der DLSS 2.0 Technologie seitens nVidia oder was !
Schlafen sicherlich nicht, aber sie müssen schon gewaltig aufholen. Man darf nicht vergessen, dass man für einen Multiframe Ansatz wie DLSS 2.0 ein Neuronales Netz benötigt.
Zur Zeit hat AMD aber keine dedizierte Hardware dafür und müsste so etwas über die Shaderkerne berechnen, was nicht nur langsamer wäre, sondern auch Leistung vom Renderer entziehen würde.
Nvidia arbeitet schon seit Jahren an ihren Tensor Kernen. Das entwickelt man nicht mal eben so.
Man erkennt das zum Beispiel auch an der Raytracing Hardware. Während Nvidia jetzt schon die nächste Generation anbieten kann, die mit Motion Blur umgehen kann und effektiver arbeitet wird AMD bei RDNA2 noch nicht einmal die Features bieten können, die Nvidia mit ihrer ersten Generation anbieten konnte.
AMD wird lediglich den Ray Intersection Test per Hardware durchführen. Die tatsächlichen Berechnungen des BVH wird AMD aber in den Shadern durchführen müssen. NVidia kann das auf den Turing Karten bereits in den RT Kernen.
Daran erkennt man, dass selbst das Raytracing Feature bei AMD nicht langfristig geplant und entwickelt wurde, sondern hastig hinzugefügt, weil man auf Nvidia reagieren muste.

Solche Dinge dauern ihre Zeit und so schnell würde ich also auch keine performanten KI Features bei AMD erwarten. Sie werden sicherlich etwas anbieten um damit werben zu können, aber vieles wird davon bestimmt auch wieder über die Shader laufen, anstatt über performante dedizierte Hardware.

Man kann es ihnen aber auch nicht übel nehmen. Nvidia arbeitet schließlich schon seit Jahren im Automnotive und Computing Bereich an diesen KI Features und hat jetzt einfach eine Gelegenheit gefunden all dies auch in den Gaming Bereich zu übertragen. Da ist es nicht leicht als Konkurrent mal eben was nachzureichen.


Novasun schrieb:
Das INT Problem erklärt das nun.
Also bisher war es ja immer so, dass INT und FP Berechnungen auf dedizierten Kernen durchgeführt wurden.
Da konnte die Recheneinheit immer nur das Eine oder das Andere.
Erst mit Turing hat sich das geändert und die Kerne konnten beide Operationen parallel ausführen.
Da Spiele aber für gewöhnlich nur 1/3 so viel INT Berechnungen durchführten wie FP Berechnungen lagen bei Turing immer 66% der INT Shader brach.
Daher hat man sich bei Ampere jetzt für einen Hybridansatz entschieden.
50% der Shader sind fix für FP und 50% können wahlweise genutzt werden. Wenn also tatsächlich wieder so viele INT Berechnungen wie damals anliegen, dann können die auch auf den 50% der wahlweisen Shader durchgeführt werden.
In Zukunft wird es dank RT aber immer wahrscheinlicher, dass mehr und mehr auf FP zurückgegriffen werden muss und daher ist es ganz praktisch, dass diese Kerne auch für FP herhalten können. Das Ganze ist also weniger ein Problem, sondern eine Lösung, wie man dem zukünftigem FP Bedarf gerecht werden kann.


Payne19 schrieb:
Was findet ihr eig. so toll an DLSS? Das Ganze ist doch einfach nur ein riesen "Fake"-Feature 🤷‍♂️
Im Gegensatz zu DLSS 1.0 oder RIS die nur aufgrund eines Einzelbildes versuchen ein Bild hochzuskalieren ist DLSS 2.0 eben kein Fake.
Es nutzt gesammelte Informationen aus vorangegangenen Bildern um damit die fehlenden Informationen zu vervollständigen. Es macht also nicht aus einem niedrig auflösendem Bild ein hochauflösendes, sondern aus mehreren niedrig auflösendem ein Hochauflösendes.
Und weil dem Algorithmus natürlich ein vielfaches an Daten zur Verfügung steht ist es der KI auch möglich ein sehr gutes Endresultat zu erzeugen, dass teilweise bessere Details darstellen kann als man sie sogar auf dem Nativen Bild sehen würde.
"Fake" oder "geraten" ist da also nichts. Das Ergebnis basiert immer auf zuvor berechneten Informationen. Die KI entscheidet nur welche Daten der vorherigen Bilder nicht zu verwenden sind. Sie ist nicht dafür da Daten zu erfinden.
 
  • Gefällt mir
Reaktionen: pietcux, squadric und Lübke82
McFritte schrieb:
" Die Gewinne bei der Detaildarstellung verblüffen vor allem im Angesicht der intern reduzierten Auflösung und gigantischen Leistungszuwächse. DLSS 2.0 verhilft allen getesteten Spielen zu einem deutlichen Detailgewinn im Standbild durch knackige Rekonstruktion verlorengegangener Details und kann auch im Bewegtbild klare Vorteile bei der Bildschärfe verzeichnen. "

Das klingt doch schon irgendwie anders oder?

Mit nem 28"- 4k-Moni würde man aber gar kein TAA benutzen sondern meist AA=off lassen.
Insofern kann 4k-DLSS net besser in der Qualität sein.
und
Standbild interessiert eh Keinen, bzw. gabs beim alten RT das Problem, das die volle Bildquali auch erst nach einigen Strahlen mehr da war, sprich man kurz Stehen musste.
Bin mal gespannt, wie die RT-Qualität in der Bewegung wird.
 
Zuletzt bearbeitet:
KlaraElfer schrieb:
Wenn ich höhere FPS habe, habe ich auch eine bessere Bildqualität.
Kommt darauf an. Ich lebe mit meinen 144Hz mit 72 FPS ganz gut. Aber das ist immer auch etwas subjektiv. Aber grundlegend stimme ich dir zu, ich möchte heute nicht mehr auf 60Hz zurück und 72FPS sind toll! :)

KlaraElfer schrieb:
Die Wahrnehmung der Bildabläufe wird deutlich flüssiger,realistischer, flimmerfreier, ohne OGSSAA Bruteforce.
Stimme ich dir auch zu. In der Bewegung gehen achtet man ohne nicht mehr auf alle Details, deswegen ist ja für mich VSR auch keine negative Technik, wenn unwichtige Bereiche weniger genau berechnet werden. ;)

KlaraElfer schrieb:
Wenn ich das reine Standbild mit einem Screenshot abbilde und sage die BQ ist identisch, teils sogar besser.
Standbildvergleiche sind eh bei bewegten Bildern eher Makulatur, ich glaub da sind wir uns einig. ;)

KlaraElfer schrieb:
Bildqualität umfasst für mich auch die Bewegung und den Ablauf der Bilder. Wenn der beschleunigt ist, habe ich deutlich mehr davon.
Kein Widerspruch, aber darum ging es dennoch nicht bei dem Thema, was die anderen beiden da besprochen haben.


KlaraElfer schrieb:
Zisch dir mal ein kühles Blondes, ich habe leider nicht alle deine Beiträge gelesen, genauso wenig habe ich nicht alles an bisher verfügbarem Material zu Directx12 Feature Level 12_2 /DLSS whatever aufgesaugt, noch habe ich aus beruflichen Gründen die Zeit dazu.
Dann wähle beim nächsten mal ein etwas sanfteren Tonfall, statt sofort damit zu kommen, dass ich was vergessen hätte. Dann ist das auch kein Problem. Der Ton macht die Musik, und wenn du mir direkt sagst, das ich was vergessen habe, dann zieht es die Grundstimmung direkt runter und es wird ein wesentlich direkter Schlagabtausch.

.Sentinel. schrieb:
DLSS ist eine Multi- Frame Technologie, bei der das Aktuelle Frame inkl. einiger vorhergehender Frames in das Zukunftsframe Projeziert wird.
Es sind ja nicht nur die fertigen Frames, die hier in DLSS verwurstet werden, sondern auch Zwischenschritte, die unabhängig von der Auflösung sind.

Je mehr ich mich mit DLSS beschäftige, um so geiler finde ich die Technik!

.Sentinel. schrieb:
Ist doch so. Statt zu schreiben, dass ja alles Schwachsinn ist, weil mir ja angeblich nicht gefällt, weil Ampere so toll ist, soll er mit Fakten auftrumpfen und meine hier gestellten Fragen beantworten, damit ich Ampere besser einschätzen kann.

Aber da wird vermutlich nichts kommen und ich werde mir, sobald es möglich ist ein Ampere organisieren und dann eben mal synthetische CUDA-Tests drauf laufen zu lassen um zu sehen, was softwaretechnisch möglich ist und was notwendig ist. Ich freu mich wie ein Kleinkind!
 
  • Gefällt mir
Reaktionen: pietcux, Lübke82, Mcr-King und eine weitere Person
Zurück
Oben