News Im Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten

Danke CB für den Rückblick :)
Das hatte ich schon beinahe verdrängt.

@KuestenNebel also ich habe nichts gegen ein besseres hochrechnen bei der auflösung, aber eher nur wenn die quelle nicht gut genug ist - also z.b. bei Filmen die deutlich unterhalb der nativen Bildschirmauflösung (bei mir immer noch im 1920x1080 Bereich) sind. Spiele sind entweder uralt, oder lassen sich nativ mit der Auflösung betreiben.
Jegliche form von rendering in reduzierter Auflösung aus meiner Sicht nur erwünscht wenn die leistung nicht ausreicht und man bereit ist qualitätseinbußen hinzunehmen. Damit ist aber auch jeder pseudovergleich mit nativer auflösung mindestens fehlerhaft und soweit ich mich erinnere wird eben gerne so verglichen dass der leistungsgewinn (der ja zu erwarten ist) angepriesen wird und so getan wird als sei das was dabei hinten rauskommt genauso gut wie bei nativer auflösung.
Wenn man dagegen ehrlich damit umgeht sehe ich das als besseren zwischenschritt zwischen ganz in reduzierter auflösung spielen und den monitor/grafikkarte hochskalieren lassen und sich mit ruckelei in voller auflösung herumzuquälen.
Features wie 'dynamische auflösung' dagegen finde ich grauenhaft. Aber ich bin auch kein Berufszocker wo stabile FPS alles sind.

überspitzt ist das wie einen PAL/NTSC Anime hochrechnen und vollmundig als 4k Bluray zu verkaufen. Über sowas kotzte die Animeszene, wenn auch damals nur mit 1080p statt 4k. Keine Ahnung ob das besser geworden ist.

@Wadenbeisser Nvidia beachtet einfach nur proaktiv das 11. Gebot. "Du sollst dich nicht erwischen lassen!" ^^'
Aber ja, es ist nicht mehr so einfach zu unterscheiden was zufällig nützliche fehler und was bewusste manipulation ist. Was meiner Meinung nach vor allem an der Masse an Fehlern liegt die moderne Software häufig hat.
wie war das? goto fail?
 
  • Gefällt mir
Reaktionen: MR2007, Iscaran und cbmik
@estros

Keine Sorge, ich für meinen Teil war mir dessen schon von Anfang an klar das es nur eine Variation einer bestehenden Funktion unter einem neuen Namen ist aber bei anderen habe ich so meine Zweifel.
 
  • Gefällt mir
Reaktionen: TechFA
KuestenNebel schrieb:
Kompletter Schwachsinn. Damit offenbarst du nur deine totale Unkenntnis der hinter DLSS stehenden innovativen Technologie. Mit dem Thema des Artikels hat das jedenfalls gar nichts zu tun.
Wenn ich mir die Definition von cheaten aus dem Artikel anschaue und die Definition von DLSS ansehe , dann wirkt das für mich irgendwie fast komplett deckungsgleich.
Schon merkwürdig...;)
 
  • Gefällt mir
Reaktionen: Kodak, MR2007, Iscaran und 7 andere
Ohje, es ist passiert. Jetzt les ich solange schon Comouterbase, dass ich mich an den Retro Artikel noch erinnern kann. :-D
 
  • Gefällt mir
Reaktionen: MR2007, poolk, Iscaran und 5 andere
estros schrieb:
Solche Trickserien werden in Zukunft wohl wichtiger denn je, um Auflösungen halten zu können.

Die Frage ist halt, wie gut es gemacht wurde und die Frage der Auflösung ist so wie die Frage der Darstellung.

Irgend wann, wenn genug Leistung da ist um das Bild zu berechnen, anstatt es zu "filmen", verschwimmen die Grenzen von Realität und Fiktion.

Schon vor Jahrzehnten hat man mit Wellen auf einer Lochmaske "Pixel" erzeugt, die eine analoge Kopie der Realität wieder geben konnten.

Digital ist besser, aber anders. :bussi:

mfg
 
Daran erinnere ich mich auch noch. Der große Kampf um das bessere AF. Heute lacht man drüber. :D
 
Sorry, wer hier immer von "Tricksereien" redet, hat offensichtlich keine Ahnung, wie Videospiele programmiert werden.

Seit jeher versucht man so zu programmieren, dass der Spieler möglichst wenig von der Täuschung sieht. Was sind denn z.B. Screen Space Reflections? Eine Trickserei, um nicht zu viel Leistung zu verlieren. Die Alternative: Gar keine Spiegelungen (bzw. jetzt RTRT).
RT haben wir ja auch nur, weil die ganzen Tricks inzwischen zu viel Leistung kosten und die Grafik nicht mehr verbessert werden kann.
Erst wenn jedes einzelne Spiel komplett gepathtraced wird (und zwar mit unendlich vielen Strahlen), könnte man davon sprechen, dass nicht mehr geschummelt wird.

Den Berechnungsaufwand bei geringen grafischen Einbußen massiv zu reduzieren ist etwas gutes, vor allem wenn dadurch Resourcen für viel sichtbarere Grafikfeatures frei werden. So hat das ganze schon immer funktioniert, nur lag diese Entscheidung früher eher bei den Entwicklern.

Die Upscaling vs DLSS Diskussion braucht man hier auch nicht führen, da Upscaling zwangsweise zu einer schlechteren Qualität führt bei überschaubaren Leistungsgewinnen, während DLSS eine leicht schlechtere bis leicht bessere Qualität als die Originalauflösung liefert bei massivem Leistungsgewinn.

Was für ein Prinzip dahinter steht ist vollkommen egal, nur das Ergebnis zählt.

Edit: Bezieht sich nicht auf den Artikel, sondern auf die Aussagen mancher hier
 
  • Gefällt mir
Reaktionen: LanMandragoran, Cohen, Wintermute und 10 andere
Oneplusfan schrieb:
Was für ein Prinzip dahinter steht ist vollkommen egal, nur das Ergebnis zählt.

In 640x480 würde aktuelle Hardware für FullScreenTurboMegaSuper Raytracing ausreichen.

Das wäre aber nicht verkaufbar.

Wenn man jetzt irgend welche "Technologie" benutzt, um hohe Auflösungen verkaufen zu können, habe ich nur so lange ein Problem damit, wie der normale Fortschritt nicht aufgehalten wird.

Mein Ergebnis ist ein völlig anderes Ergebnis als deines :D

mfg
 
Wadenbeisser schrieb:
Wie gesagt, man kannn heute im grunde genommen keine eindeutige Aussage machen weil heute niemand mehr so genau wie damals hinsehen will. Vielleicht aus gutem Grund? Wie sehr nvidia die Presse und seine Geschäftskunden in der Hand hat haben sie ja bereits unter Beweis gestellt.
Wow, hat ja keine 2 Seiten gedauert und schon gehen die ersten Verschwörungstheorien hier los ... Glückwunsch. Am besten einfach keine zukünftige Hardware mehr nutzen, wohin der Trend geht ist ja bekannt. Ihr ärgert euch sonst nur.
Und jetzt macht weiter mit eurer privaten Diskussion über DLSS (gerne auch als PN) und bitte langsam auch mal mit AMD vs NVidia hier anfangen ... manche Menschen werden sich wohl nicht ändern, auch im Retro-Thread wird das wohl immer einThema bleiben.

Schönes Wochenende an den Rest!
 
  • Gefällt mir
Reaktionen: sysrq, PPPP, SyntaX und eine weitere Person
Wadenbeisser schrieb:
@KuestenNebel

Warum? DLSS ist Auflösungscheating in Reinkultur.

Zu deinem Diskussionsstil sage ich mal lieber nichts, aber:
Was hier noch keiner gemacht hat ist, sich einfach mal anzuschauen, wie der jeweilige Hersteller die Technologie beschreibt. Cheating oder eine Vergleichbarkeit zu den im Artikeln beschriebenen Vorgängen, kann es nur geben, wenn an dieser Stelle etwas verschwiegen wird oder Tatsachen verdreht werden.

NVIDIA selbst beschreibt DLSS wie folgt:
https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

Wer sich den Artikel durchliest, wird feststellen, dass nvidia selbst schreibt, dass "nur die Hälfte der Pixel" gerendert wird. Noch dazu demonstriert NVIDIA anhand von Beispielbildern, dass DLSS "classic" durchaus schlechter aussieht als "DLSS OFF", siehe hier.

Eine Vergleichbarkeit zu damals oder "Cheating", kann es daher nur sein, wenn die Claims, die in dem NVIDIA -Artikel genannt werden, sich als nicht haltbar herausstellen (aka "wie gut performt DLSS2.0 in den gezeigten Szenen wirklich"). Hierzu Bedarf es aber eines umfangreichen Reviews.

Was mir allerdings auf den ersten Blick auffällt ist, dass sie für das DLSS2.0 Bild die Helligkeit erhöht, bzw. die Schatten gepushed haben. Das suggeriert mehr Detail als der "crushed blacks"-Looks aus dem DLSS Off Ausschnitt. Das ist zumindest ein "negatives Indiz". :-)
 
  • Gefällt mir
Reaktionen: LanMandragoran, sysrq, panzercrak und 5 andere
@abcddcba
Nvidias GPP hast du schon mitbekommen? Und wer dies alles unterschrieben hat.
VT ist etwas, hier in diesem Zusammenhang, völlig anderes.

Erschreckend wie viele Leute schnell vergessen
 
  • Gefällt mir
Reaktionen: MR2007, Mil_vanderMaas, Onkel Föhn und 2 andere
canada schrieb:
fühle dich weiter angegriffen, weil ich als Beispiel eine nV Technologie genant habe

Okay, jetzt wird es albern. Anstatt die Fanboykeule zu schwingen, könntest du auch einfach auf meine Argumente eingehen ... die Titan habe ich übrigens für lau bekommen, weil Nvidia die Dinger verschenkt, wenn man sie für sinnvolle Projekte einzusetzen vermag. Bei mir zufälligerweise Kram aus dem Bereich des maschinellen Lernens.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Der Trick war die Spiele exe einfach umzubenennen, danach war alles was im Treiber zu AF optimiert wurde egal. Gab bei ATI noch die Omega Treiber, da gab es soweit ich mich erinnere einen Schalter zum Abschalten der Optimierungen; nur waren die Omegas dem offiziellem Treiber grundsätzlich mehrere Monate hinterher..
 
Dito schrieb:
btw: Warum ist "mogelten" in der Vergangenheitsform?
Weil damals so manche Optimierung heimlich stattfand und z.B. die AF-Optimierungen nur die Spitze vom Eisberg waren.

Da gabs auch ganz andere Berichte, sodass auch in Spielen spezifische heimliche "Optimierungen" stattfanden, sodass das Bild mal bei dem einen, mal bei dem anderen Anbieter schlechter aussah. Hat man damals dann die "Exe" umbenannt, wurde das Spiel richtig berechnet, die Karten brachen aber massiv ein.

Da gab es gerade um 2000 auch so einige nette Sachen, was auch hier auf CB und Co aufgedeckt wurde. (Ja, auch wenn ich erst seit 2008 registriert bin, ich habe 2001 und 2002 schon CB gelesen!)

canada schrieb:
Das frag ich mich auch, heute heist es nur anders (DLSS 2.0 und AI-Rendering) und wird von allen gefeiert als neue geniale Features.
Nur dass es da einen kleinen aber feinen Unterschied gibt: Die Tricks damals sind von den Hardware-Herstellern anfangs ohne Wissen angewendet worden und führten teilweise zu sichtbar schlechteren Bildern, weil nicht richtig gerechnet wurde usw.

Viele Techniken, die heute als Features gefeiert werden, müssen allerdings von Entwicklern bewusst in ihre Engines implementiert werden. Checkerboard-Rendering, VRS, Rapid Packed Math und Co sind alles Techniken, bei denen sich die Entwickler aktiv mit der Implementierung beschäftigen müssen und damit müssen sie sich auch darüber Gedanken machen, wie sie die Techniken einsetzten. Damit haben Entwickler zusätzliche Werkzeuge an der Hand um zu Entscheiden, wo ein Bild mit weniger Ressourcen berechnet werden kann und wo mehr Ressourcen benötigt werden.

Upscaleing und damit auch DLSS sind zudem in der Regel vollständig optional. Bei allen Techniken geht es aber darum, Ressourcen "effizienter" zu nutzen und auch um die "Echzeitgrafik" weiter zu bringen. Rasterizer sind an ihrem technischen Limit angelangt, viele Verbesserungen des Bildeindrucks können nur noch durch massiven Ressourcen-Einsatz bewältigt werden und da spreche ich nicht nur von Rechenleistung. Rasterizer werden immer komplexer, viele Tricks benötigen bereits bei der Asset-Erstellung massiven Aufwand, da über "zig" Texturen-Stufen usw. Funktionalität zugänglich gemacht werden müssen. Rasterizer sind nun an dem Punkt angelangt, an dem es kosteneffizienter - sowohl bei Manpower als auch Rechenleistung - auf RT umzusteigen.

Gleichzeitig setzt sich 4K nun langsam als Standard durch und 8K steht vor der Tür. Die Pixelmenge, die berechnet werden muss, steht also quasi wieder vor einer Vervierfachung! Dazu kommt gerade auf dem PC-Markt der Ruf nach 120 - 144 FPS in der breiten Masse und die ersten Profis landen nun schon bei 240Hz, die befeuert werden wollen. 4K bei 120/144 FPS sind selbst die aktuellen HighEnd-Karten, gerade bei aktuellen Spielen - ohne RT - auch noch weit entfernt und selbst 60 FPS sind durchaus eine Herausforderung, bei neuen Spielen wollen wir nicht mal anfangen.

Klar, man kann über Techniken wie das Checkerboard-Rendering, VRS, Rapid Packed Math und Co streiten, aber es ist gut, dass wir heute die Möglichkeit haben zu bestimmen, ob nun ein Shader Links oben in der Ecke Pixel für Pixel ein Shader aufgerufen wird, oder sie in 2x2, 4x4 oder 8x8 Pixel zusammen gefasst werden und ein wenig Detail verloren geht. Während des Spielens fällt das in der Regel nicht auf, da oben Links in der Ecke nicht der Fokus des Blickes liegt.

Bard schrieb:
Heute wird noch noch gemogelt was die Kantenglättung bei Spielen angeht.
Dann würde ich dir mal empfehlen dich mit der "modernen" Grafikpipeline eines Rasterizer zu beschäftigen und warum es absolut witzlos ist heute noch in Spielen MSAA zu implementieren.

Kleiner Tipp: MSAA muss zu einem bestimmten Zeitpunkt der Pipeline ausgeführt werden, nur dass bei modernen Engines ZU diesem Zeitpunkt heute überhaupt nicht mehr alle sichtbaren Polygone bekannt sind und MSAA so viele Kanten überhaupt nicht mehr erfassen kann. MSAA kann jedoch nicht mehr zu dem Zeitpunkt implementiert werden, wenn alle Polygonkanten bekannt sind, weil zu dem Zeitpunkt bereits eine Vielzahl an andere Daten bereits berechnet sind und man für MSAA wieder alles umwerfen müsste.

Und SSAA wird heute in der Regel nicht mehr implementiert, weil es unnötig ist. Sowohl NVIDIA als auch AMD bieten Funktionen im Treiber an, um ein Spiel in einer höheren Auflösung zu rendern und dann runter zu skalieren, also genau das, was SSAA im groben auch macht. Und selbst viele Spiele bieten die Möglichkeit intern mit einer höheren Auflösung zu rechnen und dann nach unten zu skalieren.

Wir können ja gerne die Pipeline wieder so vereinfachen, dass MSAA problemlos implementiert werden kann, nur dann gehts vom Aussehen bei Spielen zurück in die "Pre-Crysis" und "Pre-Unreal 3"-Zeit zurück.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LanMandragoran, sysrq, Wintermute und 5 andere
abcddcba schrieb:
Wow, hat ja keine 2 Seiten gedauert und schon gehen die ersten Verschwörungstheorien hier los ... Glückwunsch. Am besten einfach keine zukünftige Hardware mehr nutzen, wohin der Trend geht ist ja bekannt. Ihr ärgert euch sonst nur.

Was hat das mit einer Theorie zu tuen?
Na, erinnerst du dich nicht mehr an die ASUS Ares - Arez Nummer, bzw. Gaming Marken anderer Hersteller bei denen AMD Produkte durch eine Forderung von nvidia rausgekegelt wurden und das Geschreibsel das Redaktionen unterschreiben sollten um von nvidia rechtzeitig mit Test Samples versorgt zu werden?
Die Geschichte wurde zwar offiziell wieder einkassiert aber zeigte in der Praxis sehr deutlich das dies keine Theorie ist.
 
  • Gefällt mir
Reaktionen: MR2007, Mil_vanderMaas und Rockstar85
@-Daniel-

Dann auch die Frage an dich, da da der ursprüngliche User offenbar keine Lust hat darauf zu antworten.
Wenn du mit DLSS im Spiel einstellst das du z.B. mit der UHD Auflösung zocken willst, mit welcher Auflösung wird das Bild dann berechnet?
 
Und ich dachte immer AMD/ATI hat nie gemogelt, war immer ehrlich während Nividia immer mogelt. Sachen gibts...
 
Bard schrieb:
Heute wird noch noch gemogelt was die Kantenglättung bei Spielen angeht.

MS / SS gibts kaum noch nativ, sondern nur noch diese Unschärfefilter die keine richtige Kantenglättung sind.

Doch, TAA ist richtige Kantenglättung. Man nennt es auch gern Temporal Supersampling.
Zum glätten werden ECHTE Samples genutzt, genauso wie beim klassischen MSAA oder SSAA.
Nicht zu verwechseln mit SMAA oder FXAA. Die zwei sind wirklich nur ne art besserer Unschärfefilter.

Der Unterschied zwischen MSAA/SSAA zu TAA ist, dass TAA die samples aus vorherigen Bildern generiert und daher jedes Objekt mehrfach abgetastet wird. Das ist wie gesagt praktisch das gleiche was SSAA und MSAA machen, nämlich die Szene feiner abzutasten, um den Farbwert eines Pixels präziser zu bestimmen. Präziserer Farbwert = weniger Aliasing.

TAA hat aber verschiedene Vorteile:
- die Anzahl der Samples die generiert werden ist vergleichsweise sehr hoch. Doom Eternal nutzt z.B. bis zu 32 Samples https://twitter.com/idSoftwareTiago/status/1243386905300877314?ref_src=twsrc^tfw

- es kostet sehr wenig bzw. fast gar keine Leistung, da die Samples nicht zusätzlich berechnet werden müssen, sondern eben aus vorherigen Bildern extrahiert werden. MSAA und besonders SSAA kosten ja enorm viel Rechenleistung. Mit TAA ist das Problem aus der Welt.

- Die Glättungswirkung ist durch die hohe Zahl der Samples und auch durch die Tatsache, dass ein Objekt in Bewegung abgetastet wird und diese Infos dann in einen Frame verrechnet werden sehr viel besser, als mit klassischen Verfahren. Es gibt extremfälle, da bekommst du selbst mit 8x SSAA (also 8 fache Pixellast) nicht die Glättung und Flimmerfreiheit wie mit TAA.

- wie hier schon erklärt wurde, ist MSAA mittlerweile mit modernen Spielen inkompatibel oder kostet genauso viel Leistung wie SSAA. MSAA ist damit meistens komplett hinfällig.


Nachteile:
  • Generelle Unschärfe
  • Unschärfe während Bewegung der Kamera

Das gute ist aber, dass die beiden Nachteile von Jahr zu Jahr weniger relevant werden, da die Algorithmen immer besser werden. Und das ist das geniale daran. Es ist eine Softwarelösung, die immer weiter verbessert werden kann. Bei MSAA ist das nicht der Fall, da Hardwarelösung. Deswegen ist es mittlerweile auch inkompatibel mit modernen Spielen. Mit TAA kann sowas nicht passieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: sysrq, Wintermute, Bard und eine weitere Person
Danke @Teralios und danke @Oneplusfan ,
dass sie die Diskussion, die hier entbrannt ist, mal in den richtigen Kontext setzen.

Wir leben heutzutage bezüglich gerasterter Grafik in einer einzigen Welt voller "Cheats", wenn man die Definition, die hier dafür herhalten muss nutzt.

Und dann entbrennt hier tatsächlich eine Diskussion, welcher Cheat nun "cheatiger sei"? ;)

Das heutige Endprodukt eines Frames wird an so vielen Stellen zusammengepfuscht/gemogelt und teils auch noch im 2d Screenspace "nachbehandelt" - mit unterschiedlichsten Berechnungsgenauigkeiten, internen Auflösungen (auch zeitlich), dass es einem einesteils schwindlig werden kann, es aber einem andererseits wiederum großen Respekt vor der Leistung -sowohl geschiwndigkeitstechnisch als auch optisch- abnötigt, die heutige Engine mit ihrer "Pfuscherei" ermöglichen.

Ansonsten - Beängstigend, wie lange das inzwischen her ist. Ich kann mich an den "Skandal" noch erinnern, als ob es gestern gewesen wäre.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schattenspender, Wintermute, Llares und 2 andere
Zurück
Oben