News Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Wadenbeisser schrieb:
@-Daniel-

Dann auch die Frage an dich, da da der ursprüngliche User offenbar keine Lust hat darauf zu antworten.
Wenn du mit DLSS im Spiel einstellst das du z.B. mit der UHD Auflösung zocken willst, mit welcher Auflösung wird das Bild dann berechnet?

Gemäß der offiziellen Dokumentation, die für jeden einsehbar ist, erhälst du bei Verwendung von DLSS als Output UHD-Auflösung die durch clevere Verfahren algorithmisch aus der Hälfte der regulären Pixel von UHD berechnet wurde.

Da ich weiß worauf du hinaus willst:
"Unwissen schützt vor Strafe nicht", heißt es typischerweise bei der Strafverfolgung. Auch hier gilt ähnliches. Nur weil sich ein Nutzer nicht mit der Dokumentation beschäftigt und "blind" Regler bedient, kann daraus noch lange nicht gefolgert werden, dass Firma XYZ betrügt. Es wird schließlich NIE suggeriert, dass DLSS ein Verfahren ist, das die originale Auflösung als Eingangsmaterial nutzt.

Ich nutze übrigens AMD Hardware. :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und adAstra
Oneplusfan schrieb:
Die Upscaling vs DLSS Diskussion braucht man hier auch nicht führen, da Upscaling zwangsweise zu einer schlechteren Qualität führt bei überschaubaren Leistungsgewinnen, während DLSS eine leicht schlechtere bis leicht bessere Qualität als die Originalauflösung liefert bei massivem Leistungsgewinn.
Ich finde ja auch, dass bessere Upscalingverfahren ein Gewinn sind, aber wie soll das bitte gehen, Upscaling besser als die native Auflösung??
 
ZeroZerp schrieb:
Danke @Teralios und danke @Oneplusfan ,
dass sie die Diskussion, die hier entbrannt ist, mal in den richtigen Kontext setzen.

Ich bin dann eben der anonyme Märtyrer :D
 
  • Gefällt mir
Reaktionen: v_ossi und .Sentinel.
Kuomo schrieb:
Ich finde ja auch, dass bessere Upscalingverfahren ein Gewinn sind, aber wie soll das bitte gehen, Upscaling besser als die native Auflösung??
Weil es eben kein einfaches Upscaling ist.
-Auch weil diverse Framebuffer eben auch noch vollaufgelöst berechnet werden.
-Auch weil ein Teil des Einflusses der KI nicht auf Upscaling sondern auf Downsampling beruht

LG
Zero
Ergänzung ()

KuestenNebel schrieb:
Ich bin dann eben der anonyme Märtyrer :D
Hehe- Dein "Einschreiten" war zwar gut gemeint, aber in diesem Fall auch wie viele andere ein wenig am Thema vorbei.

Wie richtig angemerkt ging es ja tatsächlich darum, dass man damals damit Benchmarkwerte verfälscht hat. Das ist eine ganz andere Liga, als wenn ich ein Verfahren angekündigt einführe, welches offen kommuniziert dieses oder jenes Endergebnis liefert.

Ich musste nur eben ein wenig schmunzeln, weil das Hin- und Her eben so rüberkam:"Mein cheat ist besser oder nativer als Deiner".
 
  • Gefällt mir
Reaktionen: Wintermute, KlaraElfer, PPPP und eine weitere Person
@-Daniel-

Das Bild wird also in einer kleineren Auflösung berechnet und dann hoch skaliert, das Bild wird aber nicht in der im Spiel eingestellten Auflösung das Bild berechnet. Genau dieses Ignorieren der Einstellungen und austauschen gegen eine schlechtere Version die angeblich nicht sichtbar wäre (was es dennoch ist....siehe auch diverse DLSS Vergleichen der Vergangenheit) wurde in der Vergangenheit als Cheating bezeichnet.
Klar kann man sich dann natürlich erstmal durch einen Berg von Marketing Folien graben und breit labern lassen aber das ändert nichts am grundsätzlichen Problem.

Und zu dem "Unwissen schützt vor Strafe nicht" Schwachsinn, welche Rechtswidrige Handlung hat der User denn begangen? Die Argumentation klingt eher nach dem klassischen Trickbetrüger der die Verantwortung auf den Geschädigten abwälzen will.

PS: Mir ist es herzlich egal wer was für Hardware nutzt aber es läßt tief blicken das du dich unaufgefordert genötigt siehst das zu schreiben.
 
@ZeroZerp Ihr bezieht euch also auf Nebeneffekte wie Kantenglättung(?)
Das wäre streng genommen auch bei nativer Auflösung möglich, von daher finde ich diese Aussage etwas gewagt. ;)
 
ZeroZerp schrieb:
Weil es eben kein einfaches Upscaling ist.
-Auch weil diverse Framebuffer eben auch noch vollaufgelöst berechnet werden.
-Auch weil ein Teil des Einflusses der KI nicht auf Upscaling sondern auf Downsampling beruht
Wen interessiert ob es ein einfaches oder komplizierteres Upscaling ist?
Ein kleineres Ausgangsbild wird auf eine höhere Auflösung hochgerechnet....tadaaa....Upscaling.

Wären Eingabe- und Ausgabeauflösung gleich wäre die Argumentation sinnvoll, ist sie aber nicht.
 
  • Gefällt mir
Reaktionen: ergibt Sinn
@ZeroZerp et al.
Für wie wichtig schätzt ihr die Spezialisierung auf bestimmte Spiele ein?
Dass man mit ML einen optimierten Upscaler hinbekommt leuchtet mir ein, aber die Optik von Spielen ist ja derart vielseitig, dass ich mir nicht vorstellen kann, dass ab einer gewissen Anzahl an unterstützten Games, spezielle Trainingsdaten aus neuen Spielen noch einen gravierenden Unterschied machen werden.
 
Wadenbeisser schrieb:
Wenn du mit DLSS im Spiel einstellst das du z.B. mit der UHD Auflösung zocken willst, mit welcher Auflösung wird das Bild dann berechnet?
Tatsächlich scheint es immer die gleiche Auflösung mit der halben Pixelzahl zu sein, wie im vorher verlinkten Nvidia-Artikel beschrieben. Das sind ca. 2715x1528. Der genaue Wert steht in entsprechenden CB-Tests, meine ich.
AdBlockPlus schrieb:
Und ich dachte immer AMD/ATI hat nie gemogelt, war immer ehrlich während Nividia immer mogelt. Sachen gibts...
Vor zwei Tagen noch hat jemand in einem Thread geschrieben, damals habe nur ATI gemogelt. Ich hatte versucht, einen entsprechenden Artikel zu ergoogeln aber nichts gefunden. Hier jedoch sieht man, dass selbst damals, als beide mogelten, ATI prinzipiell die Bildqualität zuvorderst gestellt hat. Im Kontext empfinde ich ATIs Verhalten deshalb sogar als löblich. Nur aus dem Hier und Jetzt heraus nicht.
Wadenbeisser schrieb:
Genau dieses Ignorieren der Einstellungen und austauschen gegen eine schlechtere Version die angeblich nicht sichtbar wäre (was es dennoch ist....siehe auch diverse DLSS Vergleichen der Vergangenheit) wurde in der Vergangenheit als Cheating bezeichnet.
Ah, du hättest also lieber (so wie ich), dass man bewusst die Auflösung runterschaltet und dann DLSS (ähnlich wie die neuen CAS-Schärfefilter) die Bildqualität wieder verbessert, so dass man auf dem gleichen Niveau landet. Dann wären wir auch bei der Anwendung, die anfangs von der Presse (und Nvidia?) kommuniziert wurde, nämlich dass DLSS ein Supersampling ist, dass das Bild besser macht als die eingestellte Auflösung.
 
  • Gefällt mir
Reaktionen: Mil_vanderMaas
Wadenbeisser schrieb:
Wen interessiert ob es ein einfaches oder komplizierteres Upscaling ist?
Ein kleineres Ausgangsbild wird auf eine höhere Auflösung hochgerechnet....tadaaa....Upscaling.

Wären Eingabe- und Ausgabeauflösung gleich wäre die Argumentation sinnvoll, ist sie aber nicht.
Der Witz an der ganzen Geschichte (und das ist das was hier einige als Magie bezeichnen) ist, dass es letzenendes keine geringere eingabe- Auflösung gibt, weil das Verfahren darauf basiert, auf bereits vergangene und das zukünftig kommende Frame zuzugreifen.

Das induziert nachteilig zum einen ein lag von einem Frame, ermöglicht aber eine 3- Fach Abtastung des Bildes, da die einzelnen Frames gejittert und um die Bewgungsvektoren korrigiert (ghosting) im target frame wieder zusammengebastelt werden.
Sieh es als 3-Fach Checkerboarding ohne einige der Nebeneffekte, die dort auftreten.
Die Framebuffer für Albedo/Texturen bleiben unberührt. Da gibts kein Upscaling.

Und bis hier her haben wir mit dem AI Thema noch garnichts am Hut.

Zum Schluss werden die ganzen Informationen zusammengewürfelt und das Ergebnis über die trainierte Ground truth angenähert.
Da steckt viel weniger DL drin, als hier manche vermuten würden.

LG
Zero
 
  • Gefällt mir
Reaktionen: Wintermute, KlaraElfer, adAstra und 2 andere
Oneplusfan schrieb:
Was sind denn z.B. Screen Space Reflections? Eine Trickserei, um nicht zu viel Leistung zu verlieren. Die Alternative: Gar keine Spiegelungen (bzw. jetzt RTRT).
Die Aussage ist so nicht ganz richtig. Ohne "RT" gibt es drei Möglichkeiten Reflexionen in eine Rasterizer-Engine zu implementieren.

1. Statische Reflexionen über eine vorberechnete Textur. Je nach Aufwand ist es eine sehr grobe Textur, die nur die Geometrie des Levels enthält und sehr grobkörnig ist. Die Textur kann jedoch auch sehr detailiert werden. Sie ist aber eben halt statisch! Diese Art der Reflexionen benötigt relativ wenig Leistung. Leistung kostet hier das Ausrichten der Textur mit den richtigen Winkeln für den Spieler. Letzteres kann sehr aufwendig werden.

Vorteil: Kostet sehr wenig Leistung.
Nachteil: Muss im voraus erstellt werden, statisch.

2. Die von dir genannten Screen Space Reflections. Die "Reflexions"-Textur wird aus dem Screen Space berechnet. Sie kann dynamisch auf den Spieler, NPC sowie Objekte reagieren. Der Leistungsbedarf ist von Mittel bis Hoch, je nachdem wie viele Details abgebildet werden.

Vorteil: Moderater Leistungsbedarf. Dynamisch. Zeigt relativ viele Details.
Nachteil: Bildet nur den Screen Space ab. Je mehr Details gezeigt werden, um so kosten intensiver werden sie.

3. Planar Reflections. Bei diesen Reflexionen wird von der "Oberfläche" aus ein eigener "Screenspace" eröffnete, der dann all das Abbildet, was von dort aus, aus dem "Winkel" zu sehen ist. Diese Reflexionen sind ebenso dynamisch, zeigen noch mehr Details als die SSR. Der Leistungsbedarf ist in der Regel jedoch Hoch bis sehr Hoch.

Vorteil: Zeigt Details, die bei SSR nicht zu sehen sind. Dynamisch.
Nachteil: Benötigen viel Leistung bis sehr viel Leistung, da quasi ein zweites Bild gerendert wird.

Das letztere kann man für eine besondere Reflexion in der Szene nutzen, mit jeder zusätzlichen Reflexion auf diese Art steigt der Bedarf jedoch immer weiter an. Bei einer 2. Planaren Reflexion kommt ein dritter "Screenspace" hinzu usw. Das bedeutet, dass die CPU wie für den eigentlichen Frame, alle grundlegende Berechnungen erfolgen erneut usw. Klar kann man es dann auch vereinfachen. Aber das, was den Rasterizer so schnell macht, nämlich die Vereinfachung der Szene auf alles vor der Kamera und damit verbunden der Z-Buffer, funktioniert hier halt nicht mehr wirklich. Und das ist einer der Hauptgründe, warum nun auch die Zeit für "RT" reift ist. Jede weitere "Verbesserung" im Rasterizer, wie Palanar Reflections, kosten immer mehr Leistung und benötigen auch immer mehr Speicher. Es macht - gerade eben durch Reflexionen - keinen Unterschied mehr, ob man nun einen Rasterizer mit Palanar Reflections hat, bei dem je Reflexion ein neuer Z-Buffer usw. dazu kommt, oder ob man einfach den gesamten "Raum" um die Kamera abbildet. ;)


ZeroZerp schrieb:
Ansonsten - Beängstigend, wie lange das inzwischen her ist. Ich kann mich an den "Skandal" noch erinnern, als ob es gestern gewesen wäre.
Da geht es dir wie mir, ich erinnere mich auch noch daran, als 2000 und Co da die Tricks nach und nach rauskamen.

ZeroZerp schrieb:
Wir leben heutzutage bezüglich gerasterter Grafik in einer einzigen Wetl voller "Cheats", wenn man die Definition, die hier dafür herhalten muss nutzt.
1. Ein Schlag auf die Finger für dich. Wenn wir ganz genau sind, dann kommt selbst bei einem RayTracer/PathTracer am Ende ein gerastertes Bild heraus. ;)

Aber ich weiß ja was du meinst, wollte nur klugscheißen. Am Ende ist aber der "Z-Buffer"-Rasterizer als ganzes ein einziger großer Cheat. Jetzt werden aber halt alle Cheats genau so kosten intensiv wie eine "richtige" Berechnung.
 
  • Gefällt mir
Reaktionen: Iscaran, Oneplusfan und .Sentinel.
Discovery_1 schrieb:
Ich weiß nicht, ob ich damals einen Knick in der Linse gehabt habe aber ich war zu dieser Zeit nur "ATI" zugetan. Ich war überzeugt, das ATI generell ein besseres Bild auf dem Monitor präsentierte. Heute denke ich, das war Einbildung.

Heute haben sich einige mit diesem Knick in der Linse angesteckt :rolleyes:

-Daniel- schrieb:
Gemäß der offiziellen Dokumentation, die für jeden einsehbar ist, erhälst du bei Verwendung von DLSS als Output UHD-Auflösung die durch clevere Verfahren algorithmisch aus der Hälfte der regulären Pixel von UHD berechnet wurde.

Da ich weiß worauf du hinaus willst:
"Unwissen schützt vor Strafe nicht", heißt es typischerweise bei der Strafverfolgung. Auch hier gilt ähnliches. Nur weil sich ein Nutzer nicht mit der Dokumentation beschäftigt und "blind" Regler bedient, kann daraus noch lange nicht gefolgert werden, dass Firma XYZ betrügt. Es wird schließlich NIE suggeriert, dass DLSS ein Verfahren ist, das die originale Auflösung als Eingangsmaterial nutzt.

Ich nutze übrigens AMD Hardware. :-)
Eben, mit „cheaten“/ betrügen hat das ganze nichts zu tun wenn man öffentlich erklärt wie die Technik funktioniert. Das will der kleine @Wadenbeisser aber nicht verstehen.
Ergänzung ()

ZeroZerp schrieb:
Wie richtig angemerkt ging es ja tatsächlich darum, dass man damals damit Benchmarkwerte verfälscht hat. Das ist eine ganz andere Liga, als wenn ich ein Verfahren angekündigt einführe, welches offen kommuniziert dieses oder jenes Endergebnis liefert.

Amen.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Zum Schluss werden die ganzen Informationen zusammengewürfelt und das Ergebnis über die trainierte Ground truth angenähert.
Da steckt viel weniger DL drin, als hier manche vermuten würden.

Wo wird denn noch mehr DL vermutet oder suggeriert? Der letzte Satz irritiert mich, weil hier überall explizit vom Training anhand hochaufgelöster Bilder gesprochen wird und du das Verfahren ansonsten schön dargestellt hast :D
 
KuestenNebel schrieb:
Wo wird denn noch mehr DL vermutet oder suggeriert? Der letzte Satz irritiert mich, weil hier überall explizit vom Training anhand hochaufgelöster Bilder gesprochen wird und du das Verfahren ansonsten schön dargestellt hast
Da muss man jetzt genau sein:

DLSS1.0 und DLSS2.0 müssen da auch getrennt werden ein Stückweit. DLSS 1.0 war als Technik so ausgelegt, das relativ viel von der "KI" selbst berechnet wurde anhand ihrer Trainingsdaten und damit mehr "Vermutet" wurde. Das führte dazu, dass die Ergebnisse nicht "schlecht" waren, aber besagte Probleme hatten in dem Details unter gegangen sind usw.

DLSS2.0 ist nun eine Verbindung mehrerer Techniken für das Upscaleing. So bekommt die KI (vereinfacht) das aktuelle Eingangsbild, dazu Informationen aus Engine (gewisse Einzelschritte) sowie vorhergegangen Bilder. Aus diesen Informationen werden dann "Zwischenschritte" generiert und aus allen Informationen erarbeitet dann die KI das Ausgangsbild.

Hier wird also die KI mit klassischem Algorithmen verbunden, so dass man die Vorteile aus beiden Welten hat.

—Edit—
Der Vorteil des neuen "DLSS" ist dabei, dass es durch die Unterstützung durch klassischen Ansätzen wesentlich flexibler wird, wir also auf dem Weg zu einem "generellen" DLSS sind, dass nicht mehr speziell auf Spiel und Auflösung trainiert werden muss.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Iscaran, Kuomo, KlaraElfer und 2 andere
Teralios schrieb:
Da muss man jetzt genau sein:

DLSS1.0 und DLSS2.0 müssen da auch getrennt werden ein Stückweit. DLSS 1.0 war als Technik so ausgelegt, das relativ viel von der "KI" selbst berechnet wurde anhand ihrer Trainingsdaten und damit mehr "Vermutet" wurde. Das führte dazu, dass die Ergebnisse nicht "schlecht" waren, aber besagte Probleme hatten in dem Details unter gegangen sind usw.
Folgerichtig ist das Ausgangsmaterial für den Inferencer deutlich brauchbarer geworden.

Soviel zu meinem "im neuen Verfahren steckt weniger DL, als so mancher vermuten würde".
Was natürlich nicht heissen soll, dass die ai arbeitslos wäre oder keinen Effekt mehr hätte.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
@Teralios

Das kann man so zu 100% unterschreiben. In einer meiner Vorlesungen behandle ich den AI-Part mit meinen Studis (Upscaling per neuronalem Netz), allerdings im viel einfacheren Fall von statischen Bildern ohne zusätzliche Dynamik wie im Falle eines Spiels. Schon da hat man alle Hände voll zu tun ...

Von dem ganzen Raster- und 3D-Zeug habe ich dagegen keinen Schimmer. Noch einmal ein fettes Dankeschön @ZeroZerp und @Teralios für die lehrreichen Einblicke :)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Wintermute und .Sentinel.
@KuestenNebel
Ich bin übrigens im Augenblick dabei mit meinen bescheidenen Disassemberlfähigkeiten den DLSS Code zu durchpflügen.

Ziel der Aktion ist es, die Framebuffer in allen einzelnen Stages zu extrahieren, so dass hier die Einflüsse jeweils trennscharf in einem Bild festgehalten werden können bzw. vielleicht sogar der AI Part auch in Aktion komplett übersprungen werden kann. Control ist da mein Testobjekt....

Dann kann man über einen simplen Bildvergleich den Anteil der einzelnen Schritte in der DLSS Pipeline herausstellen.
Ich bin da schon ziemlich weit, muss aber noch ein par Hürden nehmen.

Wer weiss- Vielleicht liege ich mit meiner Einschätzung, dass die Rekonstruktion des Bildes über 3 Phasen und Jitter+anschließender Korrektur über motion vektoren den Großteil der Qualität von DLSS 2.0 ausmacht auch daneben.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuomo, Colindo und adAstra
Colindo schrieb:
Ah, du hättest also lieber (so wie ich), dass man bewusst die Auflösung runterschaltet und dann DLSS (ähnlich wie die neuen CAS-Schärfefilter) die Bildqualität wieder verbessert, so dass man auf dem gleichen Niveau landet. Dann wären wir auch bei der Anwendung, die anfangs von der Presse (und Nvidia?) kommuniziert wurde, nämlich dass DLSS ein Supersampling ist, dass das Bild besser macht als die eingestellte Auflösung.
Nö, es soll schlicht und ergreifend das auswählbar sein was berechnet wird.
Also muss entweder die verringerte Auflösung angegeben werden oder das Bild wird so bearbeitet das man wieder auf der gleichen Auflösung als Ausgangsauflösung landet (ob nativ oder per anschließenden Downsampling) und dann ein entsprechend höherwertigeres Endergebnis hat. Die höhere Framerate geht dadurch natürlich auf dem Papier verloren.
Die Arbeitsweise hat an sich ganz einfach transparent zu seinund kein halbes Informatik Studium vorauszusetzen um zwischend en Zeilen rauszulesen was man am Ende wirklich bekommt.
Schon irgendwie erschreckend wenn man nicht von selbst auf diese Variante kommt......

Und offen kommuniziert?
Viel bla bla kam mit dollen Marketing Folien wo mit einer super hohen SSAA Auflösung geworben wurde die aber am Ende nur dazu dient den Algorythmus für dieses eine Spiel bei dieser einen Auflösungseinstellung zu erstellen der dann am Ende beim User für das Endergebnis genutzt werden soll. Das von diesem Zwischenschritt nicht viel hängen geblieben ist kann man hier ja bestens lesen.
 
  • Gefällt mir
Reaktionen: Iscaran und ergibt Sinn
Wadenbeisser schrieb:
Die Arbeitsweise hat an sich ganz einfach transparent zu seinund kein halbes Informatik Studium vorauszusetzen um zwischend en Zeilen rauszulesen was man am Ende wirklich bekommt.

Meinst du sowas hier?
https://www.hardwareluxx.de/images/...Settings_A4C670C61BF04BE99A353299134EFD19.jpg

Ich finde das schon transparent, so verstehen auch die Leute, die weniger mit der Technik bewandert sind, wie sie grob funktioniert. Oder was soll man da deiner Meinung nach noch ergänzen?

Mit den Schummeleien von damals hat das nichts zu tun.
 
Zurück
Oben