News Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Wadenbeisser schrieb:
Heute wird sowas eben als Feature verkauft und so deutlich weiter getrieben als damals.

Eigentlich müsstest du es mittlerweile besser wissen, da Zero_Zerp dir das schon mehrfach erklärt hat, was dahinter steckt. Mit AF-Tricksereien hat DLSS jedenfalls gar nichts zu tun.

Wadenbeisser schrieb:
Gleichzeitig habe ich seit einer Ewigkeit keine solchen Qualitätstests mehr gesehen.

Weil es keinen Anlass dazu gibt. Die Anisotrope Filterung kostet auf heutigen Karten wegen Brute Force nicht mehr so viel Leistung wie es früher der Fall war. Zudem wird regelmäßig die Qualität der anisotropen Filterung von den einschlägigen Testern geprüft. Wenn sich daran nichts verändert, gibt es auch keinen Test zu.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Wintermute
Wadenbeisser schrieb:
@-Daniel-
Und zu dem "Unwissen schützt vor Strafe nicht" Schwachsinn, welche Rechtswidrige Handlung hat der User denn begangen? Die Argumentation klingt eher nach dem klassischen Trickbetrüger der die Verantwortung auf den Geschädigten abwälzen will.

Analogien sind nicht so deine Stärke oder? :-) Es ging in diesem Fall darum, dass man nicht Firma XYZ dafür verantwortlich machen kann ("ey, die cheaten!"), wenn sich der Nutzer nicht informiert was genau er denn da einstellt. Und genau das versucht du dir hier gerade zusammenzureimen.

Deine Gegenvorschläge sind übrigens nicht besoners logisch. Wäre es dir lieber, wenn der Nutzer z.B. 800x600 einstellt, die GPU aber 1600x1200 ausspuckt? Wie soll denn da einer durchblicken?
Auch andere Vorschläge wie ("1600x1200, nativ 800x600, AI enhanced auf eingestellte Auflösung), sind doch eher verwirrend..

Es ist duchaus schon richtig so, dass die Auflösung die letzlich am Ausgang anliegt auch einzustellen ist. Wie sich die einzelnen Pixel zustande gekommen sind, ist für den Enduser typischerweise egal.
Optimal wäre allerdings ein Hinweis, dass DLSS ggf. schlechtere Optik bei gleichzeitig besserer Leistung liefert. Für andere Optionen gibt es das ja durchaus auch als Zusatzkommentar..

Es gibt in der Fotographie analog zu dem Beispiel hier übrigens ganz ähnliche Verfahren. Aktuelle DSLM nutzen beispielweise oftmals nicht alle Pixel eines Sensors um z.B. ein 4k-Video aufzunehmen. So hast du eine Kamera die z.B. einen 30MP Sensor hat, aber nur 9,5MP nutzt um daraus das 4k Video zu generieren. Teilweise wird sogar von noch weniger Pixeln hochskaliert. Im Kamera-Menü findet sich bei keinem der Hersteller einen Hinweis welche Daten denn intern verarbeitet werden. Es geht immer nur um das "Ausgabeformat". Andere Hersteller betreiben dagegen sogar supersampling basierend auf einem vollständigen Readout der gesamten Sensorfläche. Auch das wird nicht zwingend erwähnt.
 
Zuletzt bearbeitet:
@KlaraElfer

Eigentlich müsstest du es besser wissen, nämlich das du mit deinem wischi waschi Geschreibsel bei mir nicht landen kannst.

Ein Beispiel dafür wäre dein halber Aufsatz der sich darum drückt darauf einzugehen das solche Tests nicht mehr durchgeführt und Auffälligkeiten nicht mehr ernsthaft untersucht werden, zumindest wenn es um den Marktführer geht.
 
  • Gefällt mir
Reaktionen: Kodak
Wadenbeisser schrieb:
Nein, sobald man DLSS einschaltet und die Auflösung für den Monitor einstellt steht die Render Auflösung z.B. in Klammern zusätzlich dahinter. Das ist eine für den User transparente Funktionsweise.

Den Einwand verstehe ich nicht. Bei Control gibt es die Ausgabeauflösung, die stellt man selber je nach Monitor ein. Darunter steht die Renderauflösung. Ohne DLSS steht dort das gleiche wie bei der Ausgabeauflösung drin. Mit DLSS wird diese automatisch reduziert. In der Infobox daneben steht warum.
Screenshot (8).pngScreenshot (9).pngScreenshot (10).png
 
-Daniel- schrieb:
Analogien sind nicht so deine Stärke oder? :-)
Das Kompliment gebe ich gern zurück. ;)
Seit wann ist das Opfer einer Täuschung dafür verantwortlich weil das irgendwo in den Analen der Firmengeschichte steht und nicht in der Gebrauchsanweisung (Einstellungsmenü des Spieles) selbst? Man versteckt das irgendwo im Kleingedruckten und we man nur allso oft lesen kann (ja aber die UHD Framerate mit DLSS....) fallen mehr als genug darauf ein.

Ein schönes Beispiel sind auch die hier verlinkten Marketing Bilder. Hat sich ernsthaft noch keiner die Frage gestellt warum das DLSS lose Bild so verdammt unscharf und weichgespült ausschaut? Ich tippe auf FXAA oder so bis zum abwinken für den dolleren Vergleichseffekt.
 
Wadenbeisser schrieb:
Eigentlich müsstest du es besser wissen, nämlich das du mit deinem wischi waschi Geschreibsel bei mir nicht landen kannst.

Du hast in deinem ersten Post AF-Cheating mit DLSS gleichgesetzt und hast dich trotz einleuchtender Erklärungen von Küstennebel nach wie vor nicht korrigiert und das obwohl du ganz offensichtlich nicht mal die Basics kennst und merkst was generelles AF-Cheating von Deep Learning SS unterscheidet. AF Cheating war ein Fluch, weil man es nicht abstellen konnte und die Hersteller es auch nicht transparent gemacht hatten.

DLSS kann ich aktivieren und kann aus meiner Hardware bei ~ selbem Grafik BQ output die FPS erheblich steigern, obwohl ich weniger input gebe, weil das Nvidias Training übernimmt.

Wenigstens ist dieses AF Cheating seit Tahiti Geschichte.

Dieselbe Diskussion hast du bei Content Adaptive Shading in Wolfenstein geführt. Auch da wurde dir mit Argumenten entgegnet, warum dieses Feature sinnvoll ist, um die shading Qualität onthefly ändern zu können, auch da konnte man dich nicht überzeugen.

Wadenbeisser schrieb:
Ein Beispiel dafür wäre dein halber Aufsatz der sich darum drückt darauf einzugehen das solche Tests nicht mehr durchgeführt und Auffälligkeiten nicht mehr ernsthaft untersucht werden..

Das wird nach wie vor untersucht, frag bei CB Wolfgang an, wenn du es nicht glaubst.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ex3cuter, Wintermute und adAstra
Wadenbeisser schrieb:
Ein schönes Beispiel sind auch die hier verlinkten Marketing Bilder. Hat sich ernsthaft noch keiner die Frage gestellt warum das DLSS lose Bild so verdammt unscharf und weichgespült ausschaut? Ich tippe auf FXAA oder so bis zum abwinken für den dolleren Vergleichseffekt.

Ist dir vermutlich entgangen, aber diese Vergleichsbilder habe ich in einem meiner ersten Posts auch schon kritisiert. Das nennt sich dann Marketing oder auch "Kundenveräpplung", ist aber auch noch kein echter Betrugt, weil eben genau diese Detailsettings nicht erwähnt werden. :-)
Das ist aber keine Spezialität von NVIDIA oder auch AMD sondern wird von wirklich fast allen Firmen und auch Medien sowie der Politik und teilweise auch in der Wissenschaft so gelebt. "Cherry Picking" oder "geschickte Auslassung" um genau das Bild zu zeichnen das man selbst gerne portraitieren möchte.
Oder auch:
"Traue keiner Statistik die du nicht selbst gefälscht hast".

Jeder von uns hier wird typischerweise so vorgehen (z.B. im Vorstellungsgespräch).
 
@KlaraElfer

Und schon geht es weichgespült weiter.
Ich schreibe davon das entsprechende Bildqualitätstests nicht mehr durchgeführt werden und du reitest fröhlich weiter auf der AF-Geschichte rum und gleichzeitig ignorierst du fröhlich das ich bereits mehrfach schrieb die Nummer mit der Qualitätsreduzierung heute als Feature verkauften will.

Die damaligen speziellen Tests zur Darstellungsqualität habe ich schon seit einer Ewigkeit nicht mehr gesehen und selbst offensichtliche Mauscheleien und Unstimmigkeiten werden von der Community nur allso bereitwillig zerredet, auch hierfür nannte ich bereits Beispiele.

Geh also bitte woanders spielen, hänge dich an jemand anderen oder lerne auf den zitierten Text ernsthaft einzugehen aber wir wissen beide das du dies nicht machen wirst weil es dir genau darum überhaupt nicht geht.
 
Wadenbeisser schrieb:
Hat sich ernsthaft noch keiner die Frage gestellt warum das DLSS lose Bild so verdammt unscharf und weichgespült ausschaut? Ich tippe auf FXAA oder so bis zum abwinken für den dolleren Vergleichseffekt.

Weil die Entwickler von Control die Darstellung so gewählt haben, das hat nichts mit Nvidia zu tun.
Warum vermutest du hinter jedem Feature, welches Nvidia bringt eine Verschwörung?
DLSS 2.0 arbeitet generell mit einer leicht höheren Schärfe - nicht nur bei Control, sondern bei allen DLSS 2.0 Titeln. DLSS 1.0 war dahingehend noch ein Totalausfall, relativ unscharf, auch in Control im übrigen, genauso in Battlefield 5 oder Final Fantasy.
 
KlaraElfer schrieb:
Weil die Entwickler von Control die Darstellung so gewählt haben, das hat nichts mit Nvidia zu tun.
Ich habe lediglich die Frage gestellt warum das Vergleichsbild so dermaßen unscharf ausschaut denn ganz ohne FSAA wäre es eher Pixelig und habe dafür eine typische Ursache genannt aber anstatt darauf einzugehen versuchst du es sofort wieder zu zerreden und den garstigen Kätzer an den Pranger zu stellen.
Ich habe ehrlich gesagt von dir nichts anderes erwartet.
Ergänzung ()

Oneplusfan schrieb:
Den Einwand verstehe ich nicht.
Weil es auch noch wunderschöne Beispiele ohne diese Aufschlüsselung gab bei denen man so erstmal nur die Ausgabeauflösung sehen konnte. ;)
Dein Beispiel ist eines bei dem es vernünftig umgesetzt wurde aber vermutlich leider nicht die Regel. (habe nicht allso viele Vergleichsmöglichkeiten)
 
  • Gefällt mir
Reaktionen: Iscaran
Wadenbeisser schrieb:
Ich schreibe davon das entsprechende Bildqualitätstests nicht mehr durchgeführt werden...

Die werden nach wie vor durchgeführt, die Bildqualität die DLSS 2.0 ausspuckt, wurde genau beleuchtet.
Hier zum Beispiel.
Wadenbeisser schrieb:
...schrieb die Nummer mit der Qualitätsreduzierung heute als Feature verkauften will.

Weil es eben keine Qualitätsreduzierung ist, sondern durch moderne Verfahren eine gleichbleibende Qualität erzielt wird, und dem Nutzer deutlich mehr Power an die Hand gegeben wird, die er freischalten kann.
Verstehe nicht, was daran negativ ist, solange es optional im Menü anwählbar ist.
Wadenbeisser schrieb:
Die damaligen speziellen Tests zur Darstellungsqualität habe ich schon seit einer Ewigkeit nicht mehr gesehen...

Weil die Zeiten, in denen an AF geschummelt wurde, gottseidank vorbei sind.

Wadenbeisser schrieb:
und selbst offensichtliche Mauscheleien und Unstimmigkeiten werden von der Community nur allso bereitwillig zerredet, auch hierfür nannte ich bereits Beispiele.

Du musst doch auch erst einmal das Material haben. Alleine einen Verdacht zu äußern ohne Belege zu bringen, ist irgendwie dünn.
Ergänzung ()

Wadenbeisser schrieb:
Ich habe lediglich die Frage gestellt warum das Vergleichsbild so dermaßen unscharf ausschaut...

Du hast nicht nur die Frage gestellt, sondern gleich unterstellt, Nvidia habe das absichtlich so gedeichselt, damit sie Marketing-Material haben. Ich empfehle das Video von Digital Foundry.
Hier wirst du gut über alles informiert.

Wadenbeisser schrieb:
...und den garstigen Kätzer an den Pranger zu stellen.

Wenn man mit Anschuldigungen kommt, dann sollte man die auch belegen können.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Wintermute und adAstra
@KlaraElfer

Wie ich schon schrieb, geh woanders spielen oder gehe auf das ein was ich schrieb.
DLSS ist ebenso eine Qualitätsreduzierung zur Frameratensteigerung wie Variable Rate Shading/Content Adaptive Shading weil man eben kein gleichwertiges Bild im Vergleich zur regulären Berechnung bekommt. Du schriebst ja selbst das es bei der ersten DLSS Generation zu Detailverlußt und Fehldarstellungen kam und die Shader Geschichte konnte meines Erachtens nur bei harten Kontrasten punkten. Wer z.B. im direkten Vergleich die Unterschiede beim VRS feature test vom 3D Mark nicht sieht bei dem sind Diskussionen um Grafikqualität eh fehl am Platz.
Die zusätzlich geführte Z-Buffer Diskussion anderer ging in meinen Augen komplett am Thema vorbei weil es dabei um das Einsparen des Berechnen von Objekten geht die man eh nicht sieht.
 
-Daniel- schrieb:
Es gibt in der Fotographie analog zu dem Beispiel hier übrigens ganz ähnliche Verfahren. Aktuelle DSLM nutzen beispielweise oftmals nicht alle Pixel eines Sensors um z.B. ein 4k-Video aufzunehmen. So hast du eine Kamera die z.B. einen 30MP Sensor hat, aber nur 9,5MP nutzt um daraus das 4k Video zu generieren. Teilweise wird sogar von noch weniger Pixeln hochskaliert. Im Kamera-Menü findet sich bei keinem der Hersteller einen Hinweis welche Daten denn intern verarbeitet werden. Es geht immer nur um das "Ausgabeformat". Andere Hersteller betreiben dagegen sogar supersampling basierend auf einem vollständigen Readout der gesamten Sensorfläche. Auch das wird nicht zwingend erwähnt.
Interessanter Einwurf und tolles Beispiel.
Nur würde ich DLSS eher mit dem Verhalten eines Photosensors bei Dunkelheit vergleichen. Da wird einfach der Verschluss länger offen gehalten um mehr Licht eindringen zu lassen. Die Information wird kumuliert.

Dort machts also auch die zeitliche Komponente. Je länger Du den Verschluss offen lässt, umso heller und detailreicher das bild, aber umso höher ist bei einer Bewegung die Ghosting bzw. Schlierenbildung.

Bei DLSS wird diese über die motion- vektor- Analyse so weit als möglich kompensiert.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer und adAstra
Wadenbeisser schrieb:
Weil es auch noch wunderschöne Beispiele ohne diese Aufschlüsselung gab bei denen man so erstmal nur die Ausgabeauflösung sehen konnte. ;)
Dein Beispiel ist eines bei dem es vernünftig umgesetzt wurde aber vermutlich leider nicht die Regel. (habe nicht allso viele Vergleichsmöglichkeiten)

Aha, "vermutlich leider nicht die Regel".
Ich habe leider kein anderes Spiel mit DLSS 2.0 da, kann daher keine Aussage darüber machen. Klar ist allerdings, dass nicht Nvidia daran Schuld ist, wenn der Spieleentwickler das intransparent wiedergibt. Sonst gäbe es das Beispiel von Control nicht.
Viele Spiele haben leider dürftige Grafikmenüs, das hat nichts mit den GPU Herstellern zu tun...

Wadenbeisser schrieb:
DLSS ist ebenso eine Qualitätsreduzierung zur Frameratensteigerung wie Variable Rate Shading/Content Adaptive Shading weil man eben kein gleichwertiges Bild im Vergleich zur regulären Berechnung bekommt.

Es ist theoretisch möglich sogar ein höherwertiges Bild zu bekommen, weil die Ground Truth Vorlage höher aufgelöst vorliegt als "nativ" (also 4k oder gar nur FHD).
Hättest du dir den Vergleich von vorhin angesehen, hättest du erkannt, dass DLSS Teile des Zaunes rekonstruiert hat und damit näher an der "Wahrheit" liegt als die native Berechnung (weil die native Berechnung eben durch die Pixelzahl limitert wird).
Zur These, dass man die Vergleichsbilder absichtlich schlechter als nativ gestaltet hat, müsstest du bestimmt eine Quelle haben.
 
  • Gefällt mir
Reaktionen: Wintermute, KlaraElfer, Colindo und eine weitere Person
KlaraElfer schrieb:
Weil es eben keine Qualitätsreduzierung ist, sondern durch moderne Verfahren eine gleichbleibende Qualität erzielt wird, und dem Nutzer deutlich mehr Power an die Hand gegeben wird, die er freischalten kann.
Das ist so zu pauschal und auch nicht ganz richtig.

DLSS1.0 war in den meisten Fällen eine Verschlechterung gegen über eines Bildes, dass direkt in der Zielauflösung gerendert wurde. In manchen Fällen war es gleichwertig und nur in sehr wenigen Fällen besser.

DLSS2.0 bewegt sich aktuell auf einem Niveau von "Hat seine Probleme und sieht in bestimmten Situationen schlechter aus" über "Sieht gleich gut aus." bis hin zu "Sieht besser aus.". Es kommt dabei ein wenig auf die Situation an. Hier geht es dann aber darum, dass wir die "Targetauflösung" erreichen wollen. Also 1440p oder eben 2160p.

Jetzt kommt aber etwas, bei dem dann DLSS2.0 sogar die Qualität des Bildes steigern kann. ... 1080p oder 1440p als Targetauflösung und per VSR dann 2160p, die eben auf die 1440p runter skaliert werden, dass sieht dann sogar wieder besser aus. ;)

@ZeroZerp mir ist dabei gerade auch was aufgefallen, deine Vermutung, dass in DLSS eventuell weniger bis gar keine KI zum Einsatz kommt, könnte richtig sein, da nun während der DLSS-Phase (2.0) die Last auf den Shadern massiv angestiegen ist, während es bei DLSS (1.0) primär die Tensore-Cores waren.

Wadenbeisser schrieb:
Wer z.B. im direkten Vergleich die Unterschiede beim VRS feature test vom 3D Mark nicht sieht bei dem sind Diskussionen um Grafikqualität eh fehl am Platz.
Ah ja ... schon interessant, wie du hier gerade meinst zu "diskutieren", gerade wenn man dann so etwas ließt, was ich gerade zitiert habe.

Diese Aussage hat schon eine gewisse Ironie, wenn du dann deinen Beitrag damit einleitest:
Wadenbeisser schrieb:
Wie ich schon schrieb, geh woanders spielen oder gehe auf das ein was ich schrieb.

Und am Ende dann meinst, noch so etwas nachzuschieben:
Wadenbeisser schrieb:
Die zusätzlich geführte Z-Buffer Diskussion anderer ging in meinen Augen komplett am Thema vorbei weil es dabei um das Einsparen des Berechnen von Objekten geht die man eh nicht sieht.

An der Stelle würde ich dir mal raten: Wer im Glashaus sitzt, sollte keine Steine werfen. Die einzige Person, die hier nämlich immer wieder gebetsmühlenartig herum schwadroniert, wie böse doch VRS, DLSS und Co ist ohne wirkliche Argumente, bist du. Die meisten von uns haben verstanden, dass du diese Technik nicht magst, einige haben dir Versucht zu erklären, warum DLSS als auch VRS und Co eben nicht mit den Mogelein von damals zu vergleichen sind. Ganz ehrlich, mit dir dreht man sich hier effektiv im Kreis, weil du es bist, der hier nicht auf die Aussagen der anderen eingeht, sondern einfach nur seine Eingangsaussage wiederholt. Deswegen bin ich ehrlich gesagt auch bis jetzt auf dich nicht eingegangen, denn deine Meinung hast du, wie geschrieben, bereits mitgeteilt.

Und ganz ehrlich, an deiner Stelle würde ich mich auch darauf beschränken nur maximal deine Meinung einmal mitzuteilen, statt eine Diskussion zu suchen, denn dir fehlt anscheinend jedwedes technische Verständnis, sowie jedwede Grundlagen dafür, um hier eine Sinn ergebende Diskussion mit den meisten zu führen.

Während die anderen hier sich über das Thema Tricks und eben die heutigen neuen Techniken unterhalten haben, wie sich das weiter entwickelt, kommt von deiner Seite immer nur die selbe Aussage wie doof doch alles ist und wie schlecht und der krönende Abschluss war nun, dass man ja fehl am Platz ist, wenn man bei VRS den Unterschied nicht sieht. Na klasse.

Kleiner Tipp: Willst du ernst genommen werden, dann fang an an deiner Diskussionskultur zu arbeiten.

@KlaraElfer an dich in dem Fall aber auch an dich in dem Fall: Die Diskussion war bis jetzt wirklich sehr schön und spannend. Lass Wadenbeisser bitte seine Meinung, er darf sie haben. Es bringt hier nichts jetzt auf Konfrontationskurs zu gehen, was hier durch dich auch passiert ist.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Wintermute, Llares, adAstra und eine weitere Person
@Oneplusfan

Wieviele hast du denn mit der ersten Generation da?
Schon erstaunlich wie schnelldieses ehemals hochgejubelte Feature es aus dem kollektiven Gedächnis gestrichen worden zu sein scheint wenn es allgemein um DLSS geht. ;)

Feine Bildelemente wirst du niemals mit einer geringeren Auflösung gleichwertig darstellen können und da war die erste Generation schon auf ganzer Linie gescheitert. Dafür fehlen dann ganz einfach die erforderlichen Pixel.
Ergänzung ()

@Teralios

Zum Thema VRS Test.
Nichts für ungut aber wer hier keinen Unterschied sieht brauch vor allem eines, eine Brille und dann ist das Thema sichtbare Qualitätsunterschiede nunmal erledigt.
https://pics.computerbase.de/8/8/6/1/9/1-1080.aa546ceb.jpg
https://pics.computerbase.de/8/8/6/1/9/2-1080.74eaadb3.jpg
Bereits eine Baumreihe weiter hinten säuft die Schärfe der Baumrinde sichtbar ab und über die Laternen reden wir besser nicht.
 
Zuletzt bearbeitet von einem Moderator:
Also ich halte ja ML/DL im Mainstream auch gerne mal (nicht immer) für Bullshitting von Leuten, die Statistik nie verstanden haben, aber könnt ihr euren Kleinkrieg mal beenden?

Letztendlich kann man die 4 Seiten Streit zusammenfassen mit "das Ziel ist zwar das gleiche, aber die Qualität und Technik ist heute auf einem ganz anderen Level". Jeder will die beste Grafik möglich kostengünstig, und solange die Techniken nicht benutzt werden um in Benchmarks zu bescheissen, wo ist da der Streitpunkt?

Wadenbeisser schrieb:
Feine Bildelemente wirst du niemals mit einer geringeren Auflösung gleichwertig darstellen können und da war die erste Generation schon auf ganzer Linie gescheitert. Dafür fehlen dann ganz einfach die erforderlichen Pixel.
Man kann nicht die originalen Pixel wiederherstellen, aber man kann Aussagen treffen, wie wahrscheinlich bestimmte Pixel sind. Und daraus können folglich auch mehr Details entstehen, als in höherer Auflösung dagewesen wäre. Einfach weil es eine statistische Wahrscheinlichkeit dafür gibt. Es kann natürlich auch sein, dass daraus "nicht vorgesehenene" Artefakte entstehen, aber je nach Pixeldichte fällt das nicht auf oder wirkt eher noch wie ein Schärfeeffekt. Alles hängt also von der Güte des NNs oder der GPR ab.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Colindo
@MR2007

Ein nettes Beispiel für die Grenzen der ersten DLSS Generation war ja das Computerbase Vergleichsvideo von Final Fantasy.

Bei feinen Details und Linien (z.B. Sonnenblenden der Karre, Zäune an der Straße) ging es einfach nur gnadenlos unter weil sie gern entweder überzeichnet wurden oder ganz unter gingen. Von Fehldarstellungen der Vegetation und abgesoffene Straßentexturen ganz zu schweigen. Richtig übel wurde es aber gegen Ende (ca. 5:00) mit dem detaillosen Texturenmatsch bei dem Berg und den maßlos überzeichneten Kontrastgrenzen an diversen Bildelementen.

Natürlich wurde es bei der dortigen Diskussion von den üblichen Verdächtigen dennoch konsequent verteidigt, immer wieder auf die paar Sachen gezeiht die mal besser aussagen und dabei immer fleißig die FPS Flagge geschwungen.

Aber klar, natürlich gibt es keine sichtbaren Qualitätseinbußen, schon klar.

Ein vernünftiger Direktvergleich ist mir bei der zweiten Generation nicht bekannt.
Ich bin aber dennoch skeptisch weil bereits beits bei der ersten Generation zu sehr in das Bild selbst eingegriffen wurde und bei der zweiten Generation fehlt einfach eine halbwegs breite Vergleichsbasis.
 
@Wadenbeisser
Hatte dir doch den Vergleich mit DLSS 2.0 von Digital Foundry verlinkt, was interessiert da jetzt ein altes Spiel vor fast 2 Jahren mit DLSS in der Betaphase?
Hast du dir überhaupt irgendein Spiel mit DLSS 2.0 angesehen? Minecraft RTX, Control, Wolfenstein Youngblood, Mechwarrior usw?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ex3cuter und Wintermute
Zurück
Oben