Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
KommentarKommentar: Shitstorm ist gut, Lehren daraus zu ziehen ist besser
Da wird nichts "geschönt", da die Leistung real erbracht wird.
Und welche Grunddaten nimmt der Bruteforce- Rasterizer? Genau- Die Vorleistung der Entwickler.
Genau darum geht es. Die persönliche Präferenz wird hier angelegt, was der gemeinsame Nenner zu sein hat.
Und da entscheidet man sich aktiv und ungerechtfertigt dafür, Beschleunigungsmöglichkeiten auf den nvidia Karten ausgeschalten zu lassen.
Die Beschleunigungsfunktion hat nur was mit dem Treiber zu tun und ist nicht direkter Bestandteil der Hardware.
Es wurde die Leisung der reinen Hardware getestet, gemeinsamer Nenner. Der Rest wurde immer mit angegeben ohne das NV da nach helfen musste. So kann der Kunde frei entscheiden, was ihm wichtig ist.
Bin auf den Tag gespannt wenn die Blauen in den Markt offiziell eintreten. Wird lustig werden fuer die Tester wenn die jede Suppe deiner Meinung nach beruecksichtigen sollten.
Ach nöööö.... Das hat man hier im Forum aber nun wirklich schon zu Genüge durchgekaut.
Das gibts doch nicht, dass hier immernoch Leute mit dem Wissenstand von vor 2 Jahren (DLSS1.0) unterwegs sind und nicht mitbekommen haben, dass es das Ursprungsverfahren nicht mehr gibt.
Einfacher gehts ja nicht. Dann können die Entwickler gleich die Hände in den Schoß legen und garkeine Neuerungen mehr entwickeln, weil Dinge erstmal zu einem Standard werden müssen. Da geht eine Entwicklung voran.
Die Beschleunigungsfunktion hat nur was mit dem Treiber zu tun und ist nicht direkter Bestandteil der Hardware.
Es wurde die Leisung der reinen Hardware getestet, gemeinsamer Nenner.
Wieso zwingt man dann Nvidia dazu, teile der Hardware (in dem Fall Tensor- Cores) abschalten zu müssen, bzw. nicht nutzen zu dürfen? Wofür bauen die den ganzen Mumpitz, der höhere Frameraten auf den Bildschirm bringt, wenn das bei der Gesamtwertung weggelassen wird?
Monstranz schrieb:
Bin auf den Tag gespannt wenn die Blauen in den Markt offiziell eintreten. Wird lustig werden fuer die Tester wenn die jede Suppe deiner Meinung nach beruecksichtigen sollten.
Sie sollen eben garkeine Suppe berücksichtigen sondern so testen, wie es in zeiten großer Technologiewechsel noch üblich war, nämlich einfach danach, was beim User am Bildschirm an Leistung ankommt, wenn man den Karten freien Lauf lässt.
Wie das passiert, durch welche Einheiten, mit welcher Technik, ob der eine was kann oder nicht ist da egal.
In die Waageschale alles werfen, was die jeweiligen Karten hergeben.
Einfacher gehts nicht.. Und das ist auch das, was die meisten User interessieren würde.
Im zweiten Schritt kann man dann gerne separierte Einzeltests liefern.
Es läuft also im Grunde genommen gerade falschrum. Man beschneidet die Karten und beleuchtet dann im Nachhinein irgendwelche Beschleunigungsfunktionen.
Ergänzung ()
Monstranz schrieb:
Wie definiert sich denn Standart? Das es fuer alle zugaenglich ist?
Die eigene Umsetzung eines Antialias- Verfahrens oder z.B. einer Checkerboarding Integration ist doch nicht Standardgestützt. Das läuft immer proprietär bzw. im Zusammenspiel zwischen Software, dem Treiber und der Grafikkarte.
Das was Du da forderst käme einem -> Alle Spiele müssen ihre Schattenberechnung mit einem standardisierten Algorithmus berechnen gleich.
Warum gibt es TressFX und Hairworks? Warum PCSS und CHS? Wo ist da der Standard?
Ist das jetzt alles schlecht?
Und wie hoch ist die Gesamtzahl an Spielen, die über 10GB VRAM Allozierung haben und was für ein Brimborium wird daraus in der Presse und bei den Usern gemacht?
Wie hoch ist der Anteil an Spielen die mehr als 10GB VRAM benötigen in den Testfeldern? Auch 0, passt also ;-)
Und ich sag ja nicht das man DLSS ganz unter den Tisch fallen lassen soll. Aber es hat aktuell noch nichts in der Gesamtstatistik zu suchen weil es noch ein Nischenthema ist.
Von den 25 Spielen hab ich aktuell ein einziges, dafür aber noch ne Menge anderer. Ich hätt gern das meine GPU überall gut performed.
Und ich sag ja nicht das man DLSS ganz unter den Tisch fallen lassen soll. Aber es hat aktuell noch nichts in der Gesamtstatistik zu suchen weil es noch ein Nischenthema ist.
Ich kann die Argumentation durchaus nachvollziehen.
Dann soll HWU z.B. ein Wolfenstein Youngblood ganz aus dem Testparcours nehmen.
Ansonsten hat das einen schalen Beigeschmack, da gerade dort die DLSS Integration mit zu den besten gehört (bei ruhigerem Bild deutlich mehr Details).
Ergänzung ()
Eno77 schrieb:
... der "Performance Einstellung nur mit sehr geringer Auflösung gerendert wird) - wo denkst Du, sollen sonst die Performancevorteile herkommen.
@.Sentinel.
Bist du dir sicher, dass du DLSS2.0 nicht mit DLSS2X verwechselst?
Es findet kein SuperSampling auf Endverbraucher Hardware bei DLSS 2.0 statt. Dies wird in den Rechenzentren von NVidia betrieben, damit das Upscaling intelligenter wird.
Bei 4K Auflösung wird bei DLSS Quality mit 2560x1440 auf den Grafikkarten gerendert und dann hochskaliert. Nur mit KI, damit es nicht ganz so "scheiße" aussieht, als wenn es einfach hochskaliert wird.
Dort bitte die 2 Absätze lesen ab der Zwischenüberschrift:
"DLSS mit Stärken und Schwächen als sinnvoller FPS-Boost"
und den Absatz danach
DLSS Qualität ist eine gute Einstellung
Dort fallen so Phrasen wie:
im ersten genannten Absatz:
zeigt Nvidias exklusives „KI-Upsampling“
und im zweiten genannten Absatz:
"DLSS 2.0 ist damit in Summe ein guter Weg, um die Performance in dem Spiel zu erhöhen. Das gilt jedoch nur für die Einstellung „Qualität“, bei der in 3.840 × 2.160 immer noch mit 2.560 × 1.440 Pixeln gerendert wird.
Also "nur Vorteile" finde ich schon etwas übertrieben. Bis auf Cyberpunk fand ich die Bildqualität mit DLSS immer schlechter. Dann kann man ja auch mit AMD Boost testen oder? Oder wo ziehen wir da die Grenze?
.Sentinel. schrieb:
Wenn die von Dir geliebte Quelle nämlich darauf hinweisen würde, dass man mit einer Karte ohne DLSS zukünftig immer öfter Gefahr läuft deutlich ins Hintertreffen zu geraten, was die Gesamtleistung anbelangt, dann hat das sehr wohl Auswirkungen auf die Kaufentscheidung.
Das weiß man doch überhaupt nicht? Es gibt durchaus auch andere Möglichkeiten die Leistung zu steigern ohne die BQ massiv einzuschränken. Variable rate shading, checkerboard rendering, AMDs upscaler...
Ich finde DLSS super, ich würde es in Cyberpunk nutzen, wenn meine 2080 auch nur annähernd genug Performance liefern würde. Ich finde nur man darf es nicht überrepräsentieren und man darf auch nicht annehmen dass es für jeden wichtig ist. 90% meiner Zock-Zeit fällt auf Apex, CS:GO und Dark Souls. Was bringt mir da RT, DLSS oder RTX Voice? Wie soll ich da GPUs vegleichen wenn nur noch mit DLSS gebencht wird?
Dann kaufe ich eine 3080 weil sie in den neuen AAA Titeln viel schneller ist, wäre aber eigentlich mit einer 6800 besser beraten, weil meine Spieleauswahl eben nicht nur die neuesten AAA-Titel beinhaltet.
Und jeder, der hier Käufer berät sagt darauf immer wieder: "kauf fürs hier und jetzt." Keiner weiß was in 3 Jahren ist. Und High-End ist rational ja eh nicht vertretbar.
.Sentinel. schrieb:
Aber sie lassen das Ergebnis eben keinen Einfluss auf das Gesamtrating nehmen.
Und der informierte Zuschauer, der den Channel schaut weiß das. Deshalb schaut er sich HUB für Raster-Performance an und zB LTT für einen allgemeineren Überblick. Je nach eigenem Profil und Vorlieben.
Wo hat Nvidia da denn bitte ein Mitspracherecht? Wollen die mir jetzt erzählen was ich mit der gekauften Hardware machen darf? Und findest du das in Ordnung?
Von mir aus: in ein paar Jahren braucht jede GPU Raytracing, es ist der neue optische Standard. Kein Spiel kommt mehr ohne zurecht. Dann kauft man eben dann eine Grafikkarte, die das kann. Eine 3070 wird dann auch zu langsam sein, da helfen auch mehr RT Benchmarks von 3 Jahre zuvor nichts.
Ja - Es gibt kein DLSS2X. Es stammt noch aus der Ära von DLSS1 welches eingestampft wurde.
Traxton schrieb:
Es findet kein SuperSampling auf Endverbraucher Hardware bei DLSS 2.0 statt. Dies wird in den Rechenzentren von NVidia betrieben, damit das Upscaling intelligenter wird.
Das ist ein Irrtum. Kannst Du allein daran sehen, weil DLSS2 wie DLSS 1 auch schon offline funktioniert.
Du hast den Inferencing Datensatz und den Algorithmus im Treiber hinterlegt.
Traxton schrieb:
Bei 4K Auflösung wird bei DLSS Quality mit 2560x1440 auf den Grafikkarten gerendert und dann hochskaliert.
Das funktioniert anders. Bei 4K Auflösung wird bei DLSS Quality an unterschiedlichen Stellen über mehrere Frames unter Beibehaltung bereits erhaltener Pixelinformationen mehrfach ein Bild der Szene mit 1440P Rasterung "geschossen" und jeweils Bildpunkte deren Information noch fehlt mit den zusätzlichen Daten unterfüttert.
Traxton schrieb:
Nur mit KI, damit es nicht ganz so "scheiße" aussieht, als wenn es einfach hochskaliert wird.
Du redest von DLSS 1.0
In DLSS 2.x wird die KI dazu genutzt zu entscheiden, wo bereits berechnete Pixel ins Mosaik eingefügt werden müssen und welche Pixel verworfen und neu berechnet werden müssen.
Traxton schrieb:
"DLSS 2.0 ist damit in Summe ein guter Weg, um die Performance in dem Spiel zu erhöhen. Das gilt jedoch nur für die Einstellung „Qualität“, bei der in 3.840 × 2.160 immer noch mit 2.560 × 1.440 Pixeln gerendert wird.
Siehe oben. Es ist ein Supersampler der temporal kumulierte, gejitterte und motion- vector kompensierte Pixel zur Erstellung der Zielpixelmenge nutzt.
Zudem ist die DLSS Implementation von Cyberpunk offensichtlich alt und Buggy. Aber das ist ein anderes Thema. Die Umsetzung in dem Spiel ist meines Erachtens schlecht.
@.Sentinel. es wird ja auch mit SAM bei AMD getestet, obwohl dies nur ein Bruchteil der User in Wirklichkeit nutzen könne. Es gibt mehr User mit DLSS fähiger Hardware als es bei SAM der Fall ist und trotzdem lässt man DLSS weg, aber testet mit SAM.
Also "nur Vorteile" finde ich schon etwas übertrieben. Bis auf Cyberpunk fand ich die Bildqualität mit DLSS immer schlechter. Dann kann man ja auch mit AMD Boost testen oder? Oder wo ziehen wir da die Grenze?
Was man findet oder nicht, tut nichts zur Sache, da wir da wieder bei der Problematik des confirmation Bias angelangt sind.
Bildanalysen von annähernd feherlfreien Umsetzungen sprechen eine deutliche Sprache.
Du meinst eine KI des Superrechenzentrums von NVIDIA rät hier die Antennenstrukturen dazu?
dr. lele schrieb:
Das weiß man doch überhaupt nicht? Es gibt durchaus auch andere Möglichkeiten die Leistung zu steigern ohne die BQ massiv einzuschränken. Variable rate shading, checkerboard rendering, AMDs upscaler...
AMDs Upscaler schränkt die Bildqualität, wenn man ihn gegen DLSS2.0 stellt, für die Lupensucher sogar in erheblichen maß ein.
VRS erreicht die Steigerungen durch schlechtere Qualität und bringt zudem fast keinen Geschwindigkeitszuwachs.
Ich finde DLSS super, ich würde es in Cyberpunk nutzen, wenn meine 2080 auch nur annähernd genug Performance liefern würde. Ich finde nur man darf es nicht überrepräsentieren und man darf auch nicht annehmen dass es für jeden wichtig ist.
Wieso ist kostenlose Mehrleistung nicht wichtig? Ist es nicht das Hauptmerkmal nach dem alle rufen, nämlich dass die Grafikkarten höhere Leistungen erzielen?
dr. lele schrieb:
90% meiner Zock-Zeit fällt auf Apex, CS:GO und Dark Souls. Was bringt mir da RT, DLSS oder RTX Voice? Wie soll ich da GPUs vegleichen wenn nur noch mit DLSS gebencht wird?
Für Apex, CS:GO und Dark Souls reicht Deine Karte völlig aus. Wieso überhaupt was kaufen müssen, wenn man keine neuen Titel spielt und nichts von den Grafikneuerungen hält?
dr. lele schrieb:
Von mir aus: in ein paar Jahren braucht jede GPU Raytracing, es ist der neue optische Standard. Kein Spiel kommt mehr ohne zurecht. Dann kauft man eben dann eine Grafikkarte, die das kann. Eine 3070 wird dann auch zu langsam sein, da helfen auch mehr RT Benchmarks von 3 Jahre zuvor nichts.
Das würde voraussetzen, dass Entwicklungen im Grafikkartenbereich oder im Computerspielemarkt ein Selbstläufer seien. Wenn niemand die neue Technik kauft, alle nur immer abwarten und jeder mit der vorhandenen Grafik/Performance zufrieden ist, dann wird die Entwicklung deutlich entschleunigt.
Das würde auf eine Sättigung hindeuten und man würde bei nvidia dann z.B. weiter in den Forschungssektor, Automotive oder Anderweitiges setzen, in welchem Fortschritt gefragt ist und damit Umsatz in Aussicht steht.
Dann wars das mit der Weiterentwicklung. Dann heissts Evolution statt Revolution und die Leut kriegen dann für 400€ alle 2 Jahre ne Karte, die 7-10% schneller ist.
Einfacher gehts ja nicht. Dann können die Entwickler gleich die Hände in den Schoß legen und garkeine Neuerungen mehr entwickeln, weil Dinge erstmal zu einem Standard werden müssen. Da geht eine Entwicklung voran.
Erstmal Hut ab vor der Ausdauer einiger Threadteilnehmer!
Thema war aus meiner Sicht:
Darf NV die Reviewer über ein bestimmtes Maß hinaus mit Guides beeinflussen,
und bei Nichtgefallen auf die Blacklist setzen?
Zusätzlich hat Jan aus seiner persönlichen Sicht gefragt, ob HU an die Öffentlichkeit gehen musste.
Er hätte wohl selber länger versucht das Intern zu klären.
Zu Beidem kann man seine Meinung haben.
Was nicht Gegenstand des Artikels war ist die Bewertung der Reviews von HU.
Das bleibt jedem Leser selbst überlassen.(wie auch bei 100 anderen Reviewern)
Irgendwelche Forderungen von Threadteilnehmern an die Redaktionen, zwecks
dubioser Gesamtscores sind absolut überzogen.
Wer tatsächlich gemeinsame Performance Raster+DLSS in einem Bild sehen möchte, Der kann Das bereits,
sofern Er die Suchmaschinen bedienen kann.
Für ältere Games ist die Forderung sogar absurd, weil DLSS1.0 net besser war als die AMD-Lösung.
(und UWQHD net konnte)
Bleiben tatsächlich nur die wenigen Games mit DLSS2.0.
Für CP bekommt man den Vgl. CAS vs. DLSS2.0 auch mit googlen: incl. Bildvgl. Cyberpunk 2077 Performance Review and Optimisation Guide | DLSS and FidelityFX CAS Upscaling | Software | OC3D Review
(Eine Bewertung der Qualität und Sinnhaftigkeit muss net hier erfolgen. Es ist Jedem klar das es Grenzen gibt, die in jedem Game anders ausfallen. Mal ist Balanced OK, mal braucht man Quality und meistens eh erst in 4k sinnvoll. Dito ist CAS nach m.E. < 85% net zu empfehlen, sollte eigentlich gar net für avg.Fps. gehen, maximal für min.Fps= ist Sache des Studios so etwas einzugrenzen im Menü.)
Ob nun noch ein Threadteilnehmer kommt, der einen gemeinsamen Test SAM+CAS vs. DLSS sehen möchte in diesen Vgl. = sein gutes Recht(x).... Man wird sehen wie in Zukunft die Redaktionen testen.(Deren souveräne Entscheidung) CAS kann hoffentlich bald durch Superresi ersetzt werden und BAR bei NV als SAM-Äquivalent agieren.
(x) Schliesslich wurde weiter vorn im Thread die Meinung vertreten, man solle wg. des techn. Fortschritts das Machbare testen und zeigen wollen.
Das ist ein Irrtum. Kannst Du allein daran sehen, weil DLSS2 wie DLSS 1 auch schon offline funktioniert.
Du hast den Inferencing Datensatz und den Algorithmus im Treiber hinterlegt.
Mir ist bewusst, dass das ganze nicht live auf den NVidia Servern geschieht. Bei DLSS lässt NVidia zigfach das Bild auf deren Servern vergleichen zwischen 2560x1440 und 4096x2096 damit ein Algorithmus erstellt werden kann. Dieser kann dann offline auf den Grafikkarten daheim angewendet werden. Dazu wird dieser Algorithmus beim Spiel mitgeliefert, damit die Grafikkarte weiß, wie das Upscaling "intelligent" durchgeführt wird.
Die Berücksichtigung von Bewegungsinformationen war dann der nächste Schritt, damit es noch besser wird. So tief in die Materie wollte ich aber auch gar nicht.
.Sentinel. schrieb:
Das funktioniert anders. Bei 4K Auflösung wird bei DLSS Quality an unterschiedlichen Stellen über mehrere Frames unter Beibehaltung bereits erhaltener Pixelinformationen mehrfach ein Bild der Szene mit 1440P Rasterung "geschossen" und jeweils Bildpunkte deren Information noch fehlt mit den zusätzlichen Daten unterfüttert.
Denn Supersampling bedeutet, dass für 4K z.Bsp. intern auf der Grafikkarte in 8K gerechnet wird und dann wieder auf 4K runterskaliert wird. Es wird aber zunächst in kleinerer Auflösung gerechnet und dann hochskaliert.
Da das jetzt geklärt ist, dass kein Supersampling auf den Grafikkarten daheim stattfindet, sondern nur ein "intelligentes Upsampling/Upscaling, bin ich jetzt auch wieder aus der Diskussion raus.
Dem Tester bleibt überlassen wie er es testet, solange er es testet.
Ein Einfluss ist da, aber keiner, der die Neutralität des Testergebnisses beeinflusst.
Wenn dem Tester vom Hersteller vorgeschrieben wird, welche features er testen soll bzw. darf, dann ist der Test weder neutral noch unabhängig. Und einen Einfluss auf das Ergebnis hat es natürlich auch.
Was ist daran so schwer zu verstehen?
Deine bisherigen Testkriterien ergeben 100%, jetzt will der Hersteller noch Raytracing mit aufnehmen lassen. Zum einen geht die Vergleichbarkeit flöten und zum anderen musst du den prozentualen Anteil eines anderen Kriteriums reduzieren, damit du weiterhin auf 100% kommst.
Wo siehst du da keinen Einfluss sowohl auf den Test als auch auf die Note?
Es ist doch offensichtlich, wieso NVidia die Aktion versucht hat: RT ist (noch) die Paradedisziplin und etwas, bei dem sie AMD voraus sind. Deswegen möchten sie es stärker gewichten, damit ihre Karten besser dastehen. Aber es gibt eben nur eine Handvoll Spiele, deshalb ist RT zur Zeit eben für die breite Masse noch nicht verfügbar/interessant.
Weil man sie vielleicht nicht nutzen kann wenn man keine Spiele mit DLSS Unterstützung spielt?
Ich hab mir die Liste nochmal angeschaut, ok ich hab sogar ganze 2 Spiele, weil eines das nachträglich noch bekommen hat... (Hellblade und CP2077) aber das sind nicht die einzigen die ich Spiel und die gute Performance benötigen. Final Fantasy XIV in 4k lässt die Karte schon gut ackern. Ob so Spiele wie Biomutant DLSS Unterstützen werden wenn sie denn mal rauskommen ist halt auch offen.
Wenn dem Tester vom Hersteller vorgeschrieben wird, welche features er testen soll bzw. darf, dann ist der Test weder neutral noch unabhängig. Und einen Einfluss auf das Ergebnis hat es natürlich auch.
Was ist daran so schwer zu verstehen?
Deine bisherigen Testkriterien ergeben 100%, jetzt will der Hersteller noch Raytracing mit aufnehmen lassen. Zum einen geht die Vergleichbarkeit flöten und zum anderen musst du den prozentualen Anteil eines anderen Kriteriums reduzieren, damit du weiterhin auf 100% kommst.
Wo siehst du da keinen Einfluss sowohl auf den Test als auch auf die Note?
Da das jetzt geklärt ist, dass kein Supersampling auf den Grafikkarten daheim stattfindet, sondern nur ein "intelligentes Upsampling/Upscaling, bin ich jetzt auch wieder aus der Diskussion raus.
Ob Du das Supersampling dadurch erreichst, ob Du nun ein Bild intern über die 4K Auflösung renderst und dann downscalest oder 6 versetzte 1080P Fotos von der Szene schiesst und die dann aneinanderlegst und das dann downscalest kommt aufs Gleiche raus.
Supersampling nennt sich der Vorgang, wenn Du für die Quantisierung der Farbinformation auf einen Pixel durch Auflösungssteigerung mehrere Pixel zur Bewertung heranziehen kannst.
Wie Du dieses Mehr an Auflösung zustande bringst, ist dabei vollkommen egal. Es ist und bleibt Supersampling. Genauso wie es die Abkürzung DLSS auch verheisst.
Nummer 1 ist supersampling.
Nummer 2 ist Upscaling/Checkerboarding mit anschließender Schärfung.
Schau Dir oben das Gitter an. Und darunter die Linienzeichnung, die bei FidelityFX eher Zickzack- Treppen sind.
@GerryB
Dan Kern der Diskussion berührt das ganze Trara um DLSS eben schon, weil es ein Hauptbestandteil der Kritik von nvidia ist, dass dieses nicht aktiviert wird, obwohl ein Titel des Testparcours die Option böte.
Und das kann man als gezielte Benachteiligung sehen, da man unter den Möglichkeiten der Hardware testet.
Das ist das was nvidia unter Anderem bemängelt.
Die entwickeln unter hohem Aufwand eine Inferencing Einheit für die Grafikkarten und schaffen dann ein entsprechende Ökosystem drumrum und der Tester sagt: Ätschbätsch - Ich nehms nicht mit in die endgültige Gewschwindigkeitsbewertung der Karte rein.