Kommentar Kommentar: Shitstorm ist gut, Lehren daraus zu ziehen ist besser

Jesterfox schrieb:
Ganz einfach: weil der Anteil an Spielen die DLSS unterstützen (gegenüber der Gesamtzahl an Spielen) derart gering ist das wenn man das aufs Testfeld runterbricht eine gerundete 0 rauskommt.
Und wie hoch ist die Gesamtzahl an Spielen, die über 10GB VRAM Allozierung haben und was für ein Brimborium wird daraus in der Presse und bei den Usern gemacht? Das sind noch deutlich weniger Titel, die da aktuell ausschlaggebend sind. DLSS wird inzwischen von 25 Titeln unterstützt, deutlich steigend und es gibt z.B. einen Branch der Unreal- Engine mit Unterstützung.

Das ist Messen mit zweierlei Maß.

Und wenn ich eine Software im Tesparcours habe, die DLSS beherrscht, warum zur Hölle stelle ich dann die Beschleunigung aus oder aktiviere sie nicht? Das ist eben schon gezielte Benachteiligung.

Es kommt hier zudem auch nicht auf die Titelanzahl an, die irgendwas unterstützt, sondern auf die Popularität des Features in aktuellen Titeln, die viel gespielt werden (Fortnight, WOW, Watchdogs L, Cyberpunk ...) und der Zukunftsaussicht (z.B. VR).

Ansonsten könntest Du nie eine neue Technik einführen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verminaard
Demon_666 schrieb:
Wie glaubwürdig wäre ein Test, bei dem der Hersteller die Art und Weise des Tests diktiert?
Es geht doch nicht um das wie, sondern um das was.
 
.Sentinel. schrieb:
Zum wiederholten Male. Es geht nicht darum, dass gsondert irgendwelche Messungen angestellt werden.
Es wird so getan, als ob es Funktionen wie RT und DLSS nicht gäbe, was das GESAMTRATING anbelangt.
Dann habe ich wahrscheinlich andere Tests angeschaut. Bei denen die ich gesehen habe gibt es kein abschließendes "Gesamtrating" sondern es werden zunächst Rasterizing, dann Raytracing/DLSS getestet.

Im Fazit geht er darauf als "nice bonus" ein den er in einem separaten Video genauer analysieren will. Ich finde das jetzt nicht verwerflich - die zur Verfügung stehende Zeit ist halt auch einfach kurz.
 
  • Gefällt mir
Reaktionen: Colindo, Scheinriese und dohderbert
.Sentinel. schrieb:
Bezüglich Raytracing kann ich es gerade so noch nachvollziehen, dass man da eine eigene Kategorie aufmacht.

Warum man aber DLSS in entsprechenden Titeln beim Gesamtrating nicht zulässt, entzieht sich auch meinem Verständnis.
Das wär wie wenn ich bei AMD, trotz der Nutzungsmöglichkeit SAM und alle Boost- Varianten ausschalten würde.

Wird bei anderen Reviewern DLSS in der Gesamtwertung mit gezählt ? ( Rasterization )
 
  • Gefällt mir
Reaktionen: GerryB
Die Raytracing und DLSS Situation würde ich ganz pragmatisch und nachvollziehbar in die Bewertungen mit einbeziehen:

Raytracing:
Wird von beiden Herstellern unterstützt. Offenbar ergeben sich im Vergleich bei Raytracing "On" Verschiebungen, die nicht mit der Einstellung Raytracing OFF vergleichbar sind (eine schwächere Karte wird hier u.U. stärker, als die andere.)

Das führt dazu, dass es (um das Feature angemessen zu berücksichtigen) es immer 2 Balkengruppen geben muss (einmal RT on und einmal RT off) - da kann man dann erkennen, dass eine gewisse Karte bei RT on Vorteile hat, aber bei RT Off "abstinkt"
Eine Mischung von beidem eröffnet Tür und Tor, die Gewichtung zu manipulieren, um ien "gewünschtes" Ergebnis zu erreichen. Dies würde niemandem helfen und ist intransparent.

DLSS:
Das ist Herstellerspezifische "Schummelei" und gehört deshalb in keinerlei Herstellerübergreifende vergleichende Testbalken!

Begründung: Hier spart sich ein Hersteller das Rendern in voller Auflösung. Es werden Algorithmen genutzt, um aus niedrigerer als eingestellter Auflösung Bildinformationen dazuzurechnen, was Leistung spart, fps bringt aber eben auch Bildinformationen nicht 100% wie gewünscht wiedergibt.

Das ist als Möglichkeit und Feature erwähnenswert, aber spiegelt eben nicht die Leistung einer Karte bei einer bestimmten Auflösung wider. Deshalb darf dieser "Schummelmodus" in keinem Testbalken auftauchen.
(Ihr erinnert Euch an die diversen Treiberschummeleien, die anno dazumal zu höheren Benchmarkwerten geführt haben? - Das gab zurecht einen größeren Shitstorm.)

DLSS ist also ein Feature, welches man bei Leistungsproblemem aktivieren kann, um ein halbwegs akzeptabels Bild zu erhalten, aber eben nicht das Original vorgesehene, sondern ein Modus, der unter Qualitätseinbussen eine höhere fps Leistung aus der Hardware holen kann, als ohne DLSS. Kommt also in die positive Featureliste, aber eben nicht in die Testbalken.

Gruß,
Eno.
 
  • Gefällt mir
Reaktionen: NeuerJunge, Monstranz, cypeak und 2 andere
Ko3nich schrieb:
Dann habe ich wahrscheinlich andere Tests angeschaut. Bei denen die ich gesehen habe gibt es kein abschließendes "Gesamtrating" sondern es werden zunächst Rasterizing, dann Raytracing/DLSS getestet.

Im Fazit geht er darauf als "nice bonus" ein den er in einem separaten Video genauer analysieren will. Ich finde das jetzt nicht verwerflich - die zur Verfügung stehende Zeit ist halt auch einfach kurz.
Ich habe es hier näher ausgeführt:
https://www.computerbase.de/forum/t...us-zu-ziehen-ist-besser.1988710/post-25021620

dohderbert schrieb:
Wird bei anderen Reviewern DLSS in der Gesamtwertung mit gezählt ? ( Rasterization )
Nein, wobei andere Reviewer auch nicht lange Zeit einseitig auf diese Techniken eingedroschen haben.

Da hat Steve zum Schluss auch eine Kehrtwende hingelegt (zumindest was DLSS anbelangt).
Insofern kann ich den Zeitpunkt, den man gewählt hat, um ihm das vorzuwerfen irgendwie selbst überhaupt nicht nachvollziehen.
Aber das ist halt PR und Marketing. Und dass da viele Verrückte unterwegs sind, die mit ihren Aussagen/Aktionen dem eigenen Unternehmen schaden, ist ja nichts neues und alles andere als NVIDIA Exklusiv ;)
 
.Sentinel. schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Nach deiner Auffassung sollen alle Spiele mit DLSS "geschoent" werden. Als Entwickler wuerde ich mir da verarscht vor kommen. Welche GrundDaten nimmt DLSS fuer seine Berechnungen, die Vorleistung der Entwickler, sonst nichts. Und genau die Vorleistungen der Entwickler wurden getestet um neutral Berichten zu koennen, gemeinsamer Nenner. Alles andere sind Goodies und sollten auch so dargestellt werden.
Schoener Satz den ich hier gelesen habe, "geht DLSS auch Offline".
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Eno77 schrieb:
Die Raytracing und DLSS Situation würde ich ganz pragmatisch und nachvollziehbar in die Bewertungen mit einbeziehen:

Raytracing:
Wie bereits oben geschrieben kann ich eine derartige Aufteilung sogar bis zu einem gewissen Grad bzw. für die Übergangszeit akzeptieren.
Eno77 schrieb:
DLSS:
Das ist Herstellerspezifische "Schummelei" und gehört deshalb in keinerlei Herstellerübergreifende vergleichende Testbalken!
Nein- Jeder Pixel bei DLSS ist echt und durch Hardwareleistung errechnet. DLSS ist nur im Gegensatz zu den Bruteforce- Rasterizern so schlau, bereits berechnete Pixel nicht noch einmal zu berechnen, sondern erst bei Bedarf ein Review drüberzuschicken bzw. per Motion Vektor Analyse in Bewegung an seine künftige Position zu schicken.

Dadurch bleibt die Rechenzeit fürs Supersampling übrig, durch die man im Detailreichtum der Rasterszene in Quality- Settings einer "nativen", (<- Gibt es eigentlich nicht!) bruteforce gerasterten Szene qualitativ überlegen ist.

Durch das Supersampling fällt zudem das Aliasing per se deutlich geringer aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verminaard und KitKat::new()
.Sentinel. schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
SAM wurde gesondert aufgefuehrt, da es AMD only war zur Testzeit. Netter Versuch.
Ergänzung ()

.Sentinel. schrieb:
-Komplettzitat entfernt-
Technik ist erst dann Standart wenn fuer alle offen. Punkt
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: dohderbert und Inxession
Eno77 schrieb:
Deshalb darf dieser "Schummelmodus" in keinem Testbalken auftauchen.

Dann darf man auch Navi1 und Turing in DX12 Titeln nicht vergleichen? Weil Turing Features von DX12 Ultimate umsetzen kann. Deiner Logik zufolge ist das dann ebenfalls ein Schummelmodus. Dann kauft man am besten die Karte, die am wenigsten Features hat, weil die Features sind Schummelei? Schummeln ist doch gerade das Ziel der Entwickler, weil man nur so überhaupt noch irgendwie Leistung findet.

Ganz ehrlich, dort wo DLSS eine insgesamt vergleichbare Bildqualität schafft, finde ich es legitim, auch mit nativen Ergbnissen zu vergleichen. Natürlich wenn die gleiche Karte ebenfalls nativ getestet wird und mit deutlicher Beschriftung.

In dem neusten Spiel macht das einen so großen Unterschied aus, dass man das nicht mehr guten Gewissens ignorieren kann in allgemeinen Benchmarks.
 
  • Gefällt mir
Reaktionen: Verminaard, .Sentinel. und KitKat::new()
Monstranz schrieb:
Nach deiner Auffassung sollen alle Spiele mit DLSS "geschoent" werden.
Da wird nichts "geschönt", da die Leistung real erbracht wird.
Monstranz schrieb:
Als Entwickler wuerde ich mir da verarscht vor kommen. Welche GrundDaten nimmt DLSS fuer seine Berechnungen, die Vorleistung der Entwickler, sonst nichts.
Und welche Grunddaten nimmt der Bruteforce- Rasterizer? Genau- Die Vorleistung der Entwickler.
Monstranz schrieb:
Und genau die Vorleistungen der Entwickler wurden getestet um neutral Berichten zu koennen, gemeinsamer Nenner.
Genau darum geht es. Die persönliche Präferenz wird hier angelegt, was der gemeinsame Nenner zu sein hat.
Und da entscheidet man sich aktiv und ungerechtfertigt dafür, Beschleunigungsmöglichkeiten auf den nvidia Karten ausgeschalten zu lassen.
Monstranz schrieb:
Schoener Satz den ich hier gelesen habe, "geht DLSS auch Offline".
Natürlich geht DLSS auch Offline.
 
KitKat::new() schrieb:
Es geht doch nicht um das wie, sondern um das was.
Da gibt es bezogen auf die Testmethodik keinen Unterschied. Auch das "was" beeinflusst den Test bzw. das Ergebnis. Und zu jedem "was" gibt es nebenbei auch wieder ein "wie".
Und damit nimmt der Hersteller wieder direkten Einfluss ...
 
  • Gefällt mir
Reaktionen: dohderbert
.Sentinel. schrieb:
Dadurch bleibt die Rechenzeit fürs Supersampling übrig, durch die man im Detailreichtum der Rasterszene in Quality- Setting einer "nativen" <- Gibt es nicht! bruteforce gerasterten Szene qualitativ überlegen ist.

Soweit mir bekannt ist, kommt die "Zusatzleistung" durch eine in geringerer als eingestellter Auflösung gerenderten Szene.
DLSS Supersampled das dann auf die eingestellte Auflösung und errechnet die zur eingestellten Auflösung fehlenden Informationen mit einer ausgeklügelten Logik, was eine höhere Qualität bewirkt als reines Upscaling.

Das kann also qualitativ gar nicht besser sein, als das in Originalauflösung gerenderte Bild. (Oder ich habe die Technik dahinter falsch verstanden.)
 
  • Gefällt mir
Reaktionen: dohderbert und Monstranz
Monstranz schrieb:
Technik ist erst dann Standart wenn fuer alle offen. Punkt

Dann wären viele Grafiktechnologien die heute selbstverständlich als Standard wahrgenommen werden kein Standard. Denn die jeweiligen Implementierungen der Grafikkartenhersteller sind oft unterschiedlich.

Wäre alles Standard was als solcher wahrgenommen wird, hätte es z.B. nie Diskussionen gegeben welches Anti-Aliasing besser ist. Das von Radeon-Karten oder GeForce-Karten.

Eno77 schrieb:
Das kann qualitativ gar nicht besser sein, als das in Originalauflösung gerenderte Bild.

Ist es aber in manchen Fällen. Siehe den Test zu Death Stranding hier auf Computerbase.
Beim Anti-Aliasing ist DLSS dem TAA überlegen, da die KI schlicht besser funktioniert als die temporale Anti-Aliasing Methode.
 
Monstranz schrieb:
Doch so lange es nicht Standart ist.
Einfacher gehts ja nicht. Dann können die Entwickler gleich die Hände in den Schoß legen und garkeine Neuerungen mehr entwickeln, weil Dinge erstmal zu einem Standard werden müssen. Da geht eine Entwicklung voran.

Das ist ein Prozess.
 
Demon_666 schrieb:
Da gibt es bezogen auf die Testmethodik keinen Unterschied. Auch das "was" beeinflusst den Test bzw. das Ergebnis. Und zu jedem "was" gibt es nebenbei auch wieder ein "wie".
Und damit nimmt der Hersteller wieder direkten Einfluss ...
Dem Tester bleibt überlassen wie er es testet, solange er es testet.
Ein Einfluss ist da, aber keiner, der die Neutralität des Testergebnisses beeinflusst.
 
  • Gefällt mir
Reaktionen: dohderbert
Eno77 schrieb:
Soweit mir bekannt ist, kommt die "Zusatzleistung" durch eine in geringerer als eingestellter Auflösung gerenderten Szene.
Irrtum- Bei DLSS2.0 findet Supersampling statt. Du hast eine temporale Akkumulation, wodurch Du über mehrere Frames mehr Pixelinformation sammelst, als es das native Raster- Bild hätte.

Was glaubst Du denn, wo die ganzen Zusatzdetails herkommen sollen? Durch Raten?
Eno77 schrieb:
DLSS Supersampled das dann auf die eingestellte Auflösung und errechnet die zur eingestellten Auflösung fehlenden Informationen mit einer ausgeklügelten Logik.
Die ausgeklügelte Logik ist, dass es die Bildpunkte dadurch berechnet, indem es die vorhandene Pixelmenge nimmt, durch motion vector Auswertungen überprüft, wo diese im Verlaufe einer Bewegung landen müssen und dann entsprechend verschiebt. Fehlerpixel werden ausgesiebt und neu berechnet.
Dadurch erspart man sich das ständig 100%ige Neuberechnen der Szene und hat Rechenzeit über das Bild über die native Auflösung hinaus zu rendern.
Eno77 schrieb:
Das kann qualitativ gar nicht besser sein, als das in Originalauflösung gerenderte Bild.
Dann hast Du Supersampling nicht verstanden.

Hier mal ein extrem-Beispiel, wo man anhand wahnwitziger niedriger Auflösungen zeigt, wo der Unterschied liegt:

Du verwechselst einen schnöden Upscaler mit einer Supersampling- Technik.
Und im oben verlinkten Video wird der grundlegende und dramatische Unterschied sichtbar.
 
Zuletzt bearbeitet:
dlss ist eine nette techik seitens nvdia, aber eben nichts was irgendwo regulär über eine treiber bzw. directx api generell hw unabhängig ist.
würde dlss nicht den fps-boost bewerkstelligen, wäre es eine von x nvidia propertiären dingen für die sich 99% der user keinen deut interessieren.
von mir aus kann man dann dlss und den amd counterpart (wenn er den verfügbar wird) gegeneinander antreten lassen und bewerten.

raytracing ist meiner meinung ausreichend gut beleuchtet worden und ich denke die meisten haben mitbekommen, dass nvidia hier vor amd die nase gut vorne hat.
abgesehen davon ist es gerademal eine hw-generation her dass es sehr viele gab, die bei turing das raytracing feature als unnötig und preistreibend bewertet haben - man gebe ihnen rasterizing power und der rest wäre unnötig....

darum geht es aber nicht.
es geht darum dass hier nvidia der auswahl des testparcours nicht geschmeckt hat und sie deswegen die beleidigte leberwurst geben. hätten sie den fall schlicht ignoriert und diesen unsäglichen marketing brief nicht vom stapel gelassen, würde es keinen interessieren. es ist ja nicht so das HU die einzige testinstanz mit der gepachteten wahrheit auf dem planeten ist...
für mich ist das mal wieder ein fall des streisand-effekts und es ist einwenig lachhaft dass dies der pr-abteilung von nvidia passiert, denn eigentlich machen das inzwischen nur noch blutige pr-anfänger.
 
  • Gefällt mir
Reaktionen: Demon_666 und dohderbert
.Sentinel. schrieb:
das Bild über die native Auflösung hinaus
"nativ" ist hier aber immer geringer, als die Eingestellte. (Siehe auch den erwähnten Death Stranding test, da ist die Tabelle gut ersichtlich, dass in der "Performance Einstellung nur mit sehr geringer Auflösung gerendert wird) - wo denkst Du, sollen sonst die Performancevorteile herkommen.

Das "SuperSampling" bezieht sich auf die eingestellte Auflösung, die höher ist, als die gerenderte.
Und die Algorithmen, wie du sie beschriebst, schaffen es, das ganze nicht ganz so schlecht aussehen zu lassen, als wäre es reines Upscaling.
Supersampling über die eingestellte Auflösung hinaus (was Qualitätsvorteile bringen würde) findet aber nicht statt.
 
  • Gefällt mir
Reaktionen: dohderbert
Zurück
Oben