News 3DMark: DLSS-Feature-Test für den Grafikbenchmark

ZeroZerp schrieb:
Du unterstellst, dass sie die Leute über den Tisch ziehen und das in einer unverschämten Höhe.
Jetzt bin ich mal auf den Beleg, die Beweisführung bzw. Argumentation gespannt.
Ist doch ganz einfach. Nvidia verkauft dir Transistoren in dem Chip, die du in dieser Generation ohnehin nicht mehr nutzen kannst. Bis da mal mehr Spiele kommen, wenn überhaupt, ist die Serie überholt. Und das ist pure Abzocke.
Früher gab es neue Hardware einfach so dazu, egal ob sich das durchsetzen konnte oder nicht.
 
@Botcruscher
Wenn ich Deinen Post richtig interpretiere, dann bemängelst Du, dass man sich Leistungssteigerung durch Qualitätsverlust erkauft.

Da bin ich echt ein wenig geplättet.
Auf Beschiss basiert das gesamte Prinzip der Rasterisierung und der Techniken, der sich dort bedient wird. Schau Dir doch mal in flachem Winkel eine Textur in einem Spiel an. Je nach Winkel verschwinden plötzlich die Beleuchtungs- und Tiefeninformationen.

Die Reflektionen sind niedrig aufgelöste duch einen Blur- Filter gedrehte zusätzliche Kameraperspektiven.
Objekte morphen, wenn man sich ihnen nähert oder sich entfernt und und und...

Die ganze Rasterisierungsgeschichte basiert auf meist schlechten Annäherungen, Weglassen von Informationen, Tricksen und Faken von Effekten.

Diese Argumentation ist also vollkommen absurd.
Heute basieren die richtig großen Standards wie MP3 und die großen Videocodecs auf, wie Du es nennst "cheaten" um ihre Effizienz zu erreichen.

Beschäftigst Du Dich denn kein bißchen mit der Materie?

Der negative Bias, der hier bei den "Kritikern" mitschwingt unterschlägt auch immer die Gegensichtweise.

Man könnte doch mal statt von der Top Down Perspektive auf die Bottom Up Perspektive wechseln.
Das heisst, wie stark verbessert DLSS das Ursprungsbild in Ursprungsauflösung.

Das heisst- Wie sieht das DLSS generierte Bild im Gegensatz zur Basis aus.
Für 1080p wären das 1440x810
für 1440p dann 1920x1080
für 2160p dann 2560 x 1440

Da sollte man mal das Basisbild, welches mit den üblichen Techniken geglättet und dann hochskaliert wird, gegen das mit einsatz von DLSS generierte Bild stellen.

Das ist doch der viel interessantere und praxistauglichere Test.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Xidus, Lübke82 und Esenel
grossernagus schrieb:
Ist doch ganz einfach. Nvidia verkauft dir Transistoren in dem Chip, die du in dieser Generation ohnehin nicht mehr nutzen kannst. Bis da mal mehr Spiele kommen, wenn überhaupt, ist die Serie überholt. Und das ist pure Abzocke.
Früher gab es neue Hardware einfach so dazu, egal ob sich das durchsetzen konnte oder nicht.

Das ist leider komplett falsch.

1.) Games
Ich spiele derzeit nur BF V (mit Raytracing) und kann daher eines der neuen Features dauerhaft nutzen.
Daher ist dein zweiter Satz schon mal widerlegt.

Würde ich mir mehr Games damit wünschen? Klar.
Können die Leute zaubern und es zack in allen Spielen nachrüsten? Nein.

2.) Features
Es gibt auch Personen - so habe ich das zumindest mal gehört - die sich eine solche Grafikkarte nicht nur zum spielen kaufen, sondern auch um Berechnungen durchzuführen, oder bestimmte Bibliotheken anzusteuern. Diese Personengruppe(n) kann(Können) auch diese Features ohne Einschränkungen nutzen.

3.) Preis
Wer bist du, um zu sagen, welcher Preis für den Markt adäquat ist?
Bist du einer der Wirtschaftsweisen?
Oder Waren Buffet?

Auch eine Betrachtung der letzten 10 Jahre Zeit zeigt, dass die Preise stetig steigen.
Was vor 11-20 Jahren war hat doch dann gar keine Bedeutung mehr.

Und auch gilt:
Kaufts keiner, wirds günstiger.

Also einfach mal abwarten und Tee trinken und nicht immer gleich losmeckern.

Was ich mit alledem sagen will ist, dass die Preise für das was geboten (Leistung & Features) wird, für einige Leute sehr wohl in Ordnung geht.
Warum sollte also nun nur deine Sichtweise die einzig Richtige sein?

Ich für mich finde auch den 9900k zu teuer, für das was er bietet.
Sag ich nun jedem der einen hat er wurde abgezockt?

NEIN!

Danke & VG
 
  • Gefällt mir
Reaktionen: Xidus, Lübke82 und .Sentinel.
grossernagus schrieb:
Ist doch ganz einfach. Nvidia verkauft dir Transistoren in dem Chip, die du in dieser Generation ohnehin nicht mehr nutzen kannst.
Wie kommst Du denn auf den Trichter? Lebst Du hinterm Mond?
Battlefield 5, Final Fantasy 15, Quake 2 Raytraced. Ich scheine es mir bei Battlefield 5 offensichtlich einzubilden, dass ich dort mit RT on spielen kann.

Bis da mal mehr Spiele kommen, wenn überhaupt, ist die Serie überholt.
Du musst sehr Jung sein. Das liegt in der Natur der Sache, dass bei jeder Einführung einer neuen Technik erst eine Transformation dahin stattfinden musste.

Bei Erscheinen des ersten Fernsehers gabs kein Programm, keine 200 Sender und die Qualität war mies. Nix Farbe.
http://www.spiegel.de/spiegel/print/d-46225050.html

Bei Erscheinen des CD- Players gab es kaum CDs. Bei Erscheinen der Kompaktkassette gab es kaum Kassetten.
Bei Erscheinen des C64 gab es kaum Software dafür.... Und und und....
Das ist normal, das gehört dazu. Das wird in anderen Bereichen auch stillschweigend akzeptiert.

Die Erstgeräte der jeweiligen Kategorien waren übrigens lange technisch nicht so ausgereift wie es z.B. das RTX Featureset ist. Und man musste auch einen für damalige Verhältnisse extrem! hohen Preis dafür bezahlen.

Nur hier muss man, da man sonst keine Argumente hat, sich irgendwas aus den Fingern saugen, was irgendwie so aussieht, als ob es dagegen spräche.

Und auch Du versuchst hier die Diksussion hier wieder entgleisen zu lassen, weil Du weg vom Thema des Threads auf eine reine Basher- Ebene wechselst.

Und das ist pure Abzocke.
Früher gab es neue Hardware einfach so dazu, egal ob sich das durchsetzen konnte oder nicht.[/QUOTE]
 
  • Gefällt mir
Reaktionen: Xidus, Lübke82 und Esenel
ZeroZerp schrieb:
...Dann für Dich nochmal, weil Du anscheinend meinen obigen Beitrag nicht durchgelesen hast:

Es ist Deep- Learning!! Das funktioniert auch Szenenunabhängig, solange das neuronale Netz lang genug trainiert wurde.

LG
Zero

Aber was hindert Nvidia daran den Algorithmus für den Benchmark zu optimieren?? Man muss es ja nur mit den richtigen Daten füttern.
Und wieso gibt es von NV keine Demos mehr?? Sagt bloß die haben kein Geld 😅

JMP $FCE2 schrieb:
Da fehlt mir dann nur noch der Schalter im Treiber, der DLSS in ungepatchten Spielen erzwingen kann.

Das würde für mich ein Grund eine RTX zu kaufen.
Wieso es nicht möglich ist, verstehe ich nicht. Wahrscheinlich geht es, aber die Ergebnisse wären nicht immer zufriedenstellend. Und Shitstorm hat NV auch so schon oft genug
 
  • Gefällt mir
Reaktionen: grossernagus
für mich ist DLSS beschiss.
das spiel wird in einer kleineren auflösung gerendert und dann die vorberechneten höher aufgelösten texturen drüber gelegt.
das ist beschiss, punkt.
und dann rühmt man sich damit das man mehr fps hat und es besser aussehen soll *würg!*

klar gibt es mehrere ähnliche funktionsweisen in spielen, zb wenn texturen gröber werden bei mehr absstand, aber da ist es noch nachvollziehbar das man so vorgeht, weil man die feinen details bei der entfernung eh nimmer sieht.
NV erschummelt sich bessere performence, früher hätte man sowas sofort als 'cheat' gewertet und es hätte einen riesen aufschrei gegeben!
jetz von NV gebracht ist das ein 'tolles feature'...

nebenbei: was ist wenn NV, wie bei physik-X oder g-snc, sich aus der technik wieder zurück zieht?
kann man dann diesen 'vorteil' nimmer nutzen? wer berechnet einem dann die texturen vor? hab ich dann teuere technik gekauft die brach liegt ich also mein geld 'quasie ins klo' investiert?!
 
  • Gefällt mir
Reaktionen: grossernagus
DrFreaK666 schrieb:
Das würde für mich ein Grund eine RTX zu kaufen.
Wieso es nicht möglich ist, verstehe ich nicht. Wahrscheinlich geht es, aber die Ergebnisse wären nicht immer zufriedenstellend. Und Shitstorm hat NV auch so schon oft genug

Weil die Technik noch nicht mal ein halbes Jahr auf dem Markt ist?
Weil gerade an Shadow of the Tomb Raider und BF V gearbeitet wird?

Oder wie stellst du dir das vor?
1 Knopfdruck und in 2 Sekunden sind 5 Millionen Spiele supported?
Ergänzung ()

duskstalker schrieb:
Ich will nur darauf hinweisen, dass die Moderation der Auffassung war, es wäre nötig gewesen, diesen Beitrag aus dem thread zu löschen:

https://www.computerbase.de/forum/posts/22263162/



Kann sich jeder selbst n Bild davon machen.

Gerechtfertigt würde ich sagen.

Zitate deiner Ausdrucksweise:

"leicht unscharf? vaseline aufm bildschirm triffts eher."
"hilft dlss auch bei akne und impotenz? haste das direkt aus einem nvidia paper kopiert?"

Irgendwann reichts nämlich auch mal.
Ergänzung ()

geist4711 schrieb:
für mich ist DLSS beschiss.
das spiel wird in einer kleineren auflösung gerendert und dann die vorberechneten höher aufgelösten texturen drüber gelegt.
das ist beschiss, punkt.
und dann rühmt man sich damit das man mehr fps hat und es besser aussehen soll *würg!*
/QUOTE]


Screen Space Reflection ist Beschiss, da es keine echten Reflektionen sind.
Also ist nach deiner Argumentation Rasterisierung auch Müll.

Also darfst aktuell gar kein Game mehr spielen.
Sorry...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: domian, .Sentinel. und Lübke82
DrFreaK666 schrieb:
Aber was hindert Nvidia daran den Algorithmus für den Benchmark zu optimieren?? Man muss es ja nur mit den richtigen Daten füttern.
Und wieso gibt es von NV keine Demos mehr?? Sagt bloß die haben kein Geld 😅
Also hast Du es doch verstanden - dass genau das eben der Gedanke ist: die Leistung durch AI zu optimieren. Du weißt nur noch nicht, dass Du es verstanden hast ;P

Ist ziemlich müßig Eure Diskussion hier, den genaugenommen basiert die ganze Rasterisationstechnologie auf Fakes und Beschiss. Sonst würden Spiele gar nicht so aussehen und laufen wie sie es tun. Die Spielgrafik und sichtbare Elemente- alles Fake. Relexionen, Licht, Schatten....alles Fake.

Irgendwann mal hat glaube ich 3dfx hat angefangen Filter auf die Texturen zu packen und die 3D Berechnungen auf eine Zusatzkarte zu legen und diese zu verkaufen (pure Geldgier), Matrox hat angefangen Bump Mapping hardwareseitig zu unterstützen (useless), ATI Texturkompression hardwareseitig zuerst unterstützt (#bullshit), Nvidia Transformation&Beleuchtung mit Geforce256 (Scheiß Großkonzerne)...Umgebungsverdeckung, Tesselation...blablabla.... wer ernsthaft glaubt, die Entwicklung geht von Einem oder Wenigen aus der hat irgendwo nicht viel Ahnung wovon er redet. Nvidia war hier halt zuerst mit RT da. AMD wird davon auf lange Sicht profitieren da das Risiko für jemanden wie AMD viel zu hoch ist - die können keinen Fail gebrauchen (hatten ja in letzter Zeit genügend davon) aber daran arbeiten werden sie auch bereits seit Jahren.

Ob sich eine Technologie durchsetzt hängt maßgeblich davon ab, wie breit die Akzeptanz ist....in erster Linie gemessen am Rückhalt durch die Spieleentwickler, denn auch wenn wir DXR und DLSS alle toll finden, wenn keine Games damit kommen wars das halt. Dass vA DXR ja wohl die Krone der PC-Grafik ist- der heilige Gral des Renderings ist unbestritten und war immer schon so. insofern kann man nur hoffen, dass es die Entwickler auch so sehen und was draus machen,denn im Endeffekt ist es keine Frage OB RT kommt, sondern nur WANN. Der Schritt ist mit DXR in DX12 getan. Sinn macht die Technologie allemal, Bildverbesserung/Upscaling per KI ebenso...das kann sogar mein LG OLED TV.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: domian, .Sentinel. und Esenel
Botcruscher schrieb:
Früher waren Leistungssteigerungen durch Qualitätsverlust Cheaten. Heute ist es ein Feature...

Ziemlich polemische und unwahre Behauptung in Anbetracht der Tatsache das ein Qulitätsverlust pauschal gar nicht zu erwarten ist.
 
  • Gefällt mir
Reaktionen: Lübke82
Für mich ist es einfach nur lachhaft wie einem der Nvidia Bias vorgeworfen wird.

Ich kann ohne Probleme zugeben dass ich die Entwicklung von Mantle, den Einsatz von HBM wirklich toll finde. Hier hat AMD einen super Job gemacht!

Dass DLSS proprietär ist, war doch klar. Letztendlich hat Nvidia erhebliche F&E Kosten und die müssen wieder reinkommen, so funktioniert das Leben. Nvidia ist ein Wirtsch. Unternehmen und muss damit zumindest laut Deutschem Gesetz eine Gewinnerzielungsabsicht haben.

Wenn DLSS ein komplett offener Standard wäre, würden die Leute primär das günstigste Produkt kaufen, vermutlich von AMD. Das kann Nvidia nicht bringen und das ist verständlich.
 
  • Gefällt mir
Reaktionen: Lübke82
xdave78 schrieb:
[...]Ob sich eine Technologie durchsetzt hängt maßgeblich davon ab, wie breit die Akzeptanz ist....in erster Linie gemessen am Rückhalt durch die Spieleentwickler, denn auch wenn wir DXR und DLSS alle toll finden, wenn keine Games damit kommen wars das halt.[...]

Und genau da sehe ich bei dem aktuellen Vorgehen eben ein Problem. NVidia erzeugt hier das klassische Henne-Ei-Problem.

Als Entwickler könnte man DLSS und RT implementieren, aber durch den kräftigen Preisanstieg dieser Generation hat Keiner die Hardware. Wenn Keiner die Hardware hat, dann braucht aber wiederum kein Entwickler die Software dafür anzupassen.
Der Fakt, dass das Thema in einem Technikforum, das eigentlich immer offen für innovative oder gar exotische Lösungen ist, schon so kritisch beäugt wird, spricht Bände. Wenn du dem geneigten Kunden erst erklären musst, was DLSS und RT bedeuten und warum das ein wichtiges Feature ist, ist es noch mal ne ganze Ecke unwahrscheinlicher ihm/ihr das Geld dafür aus den Rippen zu leiern.
Das habe ich selber schon bei Freunden gesehen; an BF V oder FF XV besteht kein Interesse und bei den undurchsichtigen Zukunftsaussichten und nicht abschätzbaren Vorteilen durch selbige Features wurde es dann eben die "günstige" 1070Ti aus dem Angebot, statt der neueren RTX 2060. Das war bei früheren Generationen meinem Empfinden nach nicht so.

Und genau da beißt sich der Hund in den Schwanz. Raytracing muss massentauglicher werden und das geht nur über geringere Preise (langfristig die Implementation in den Konsolen) oder einen deutlich gesteigerten Anreiz das Geld für teurere Grafikkarten zu investieren. Und den Anreiz setzt man außerhalb der Enthusiasten Szene eben nicht mit Benchmarks.
 
  • Gefällt mir
Reaktionen: grossernagus und Revan1710
Marflowah schrieb:
Wenn es nur um annähernd gleiche Qualität geht, stelle ich ein paar Regler runter....
Aber es ist ohnehin Geachmackssache. Ich spreche DLSS nicht den Sinn ab, behalte mir aber das Recht vor, "naive" Auflösungen ehrlicher zu finden. Hoffe das sei mir erlaubt...

klar, mal hat das eine, mal das andere die Nase vorn. Das war noch nie anders, mal ist ohne AA ansehnlicher als TAA usw...
Sowas lässt sich eigentlich nur über einen MOS beurteilen. Man macht zb einen Test mit 100 Probanden die die BQ einordnen und dann kann man schauen was bei rumkommt.

Native Auflösung kann sicher besser aussehen als das über DLSS errechnete Bild, keine Frage. Aber das native Bild ist dann erstmal ohne AA, mit harten scharfen Kanten und Treppen. Oder meinst du das native Bild mit TAA, das wiederum ne ganze Ecke langsamer errechnet wird?
Ergänzung ()

Botcruscher schrieb:
Früher waren Leistungssteigerungen durch Qualitätsverlust Cheaten. Heute ist es ein Feature...

ahja, dann sind also alle kleineren Grafik Presets cheaten? :rolleyes:

Du wirst davon wegkommen müssen dass in selbem Preset jede GPU dasselbe Bild berechnet. Gerade wenn es mit RT mal richtig losgeht muss man die Sache möglichst intelligent lösen. Da geht es drum möglichst schnell ein möglichst gutes Bild hinzubekommen - das womöglich gar nicht mehr direkt vergleichbar ist.

DLSS ist da noch harmlos, gerade weil es ein zuschaltbares Feature ist. Wenn das NV nun still und heimlich daueraktivieren würde und der Qualiverlust keinem Auffallen würde, dann wäre es wohl das Feature schlechthin.
 
v_ossi schrieb:
Das habe ich selber schon bei Freunden gesehen; an BF V oder FF XV besteht kein Interesse und bei den undurchsichtigen Zukunftsaussichten und nicht abschätzbaren Vorteilen durch selbige Features wurde es dann eben die "günstige" 1070Ti aus dem Angebot, statt der neueren RTX 2060. Das war bei früheren Generationen meinem Empfinden nach nicht so.

Und genau da beißt sich der Hund in den Schwanz. Raytracing muss massentauglicher werden und das geht nur über geringere Preise (langfristig die Implementation in den Konsolen) oder einen deutlich gesteigerten Anreiz das Geld für teurere Grafikkarten zu investieren. Und den Anreiz setzt man außerhalb der Enthusiasten Szene eben nicht mit Benchmarks.

Und genau hier macht Nvidia meiner Meinung nach alles richtig.
Du ziehst den Early Adoptern so viel Geld wie möglich aus der Tasche und kurbelst durch die "hohen" Neupreise gleichzeitig noch den Abverkauf der zu vollen Lagerbestände der alten Prdoukte an :-D

Einfach genial.
Man muss es erstmal schaffen Leuten 2 Jahre alte Technik (Pascal) für den damaligen Neupreis als nun "günstig" anzudrehen.
Screen Shot 2019-02-05 at 1.20.43 PM.png
https://geizhals.de/asus-rog-strix-...90yv0bi0-m0na00-a1717551.html?hloc=at&hloc=de

Also aus wirtschaftlicher Sicht Hut ab.
 
v_ossi schrieb:
Und genau da beißt sich der Hund in den Schwanz. Raytracing muss massentauglicher werden und das geht nur über geringere Preise (langfristig die Implementation in den Konsolen) oder einen deutlich gesteigerten Anreiz das Geld für teurere Grafikkarten zu investieren.

Sehe ich anders. Neue Features in Autos (Autopilot, Fahrassistenzsysteme, usw.) liessen sich sicherlich auch schneller in den Markt wälzen und standardisieren, wenn die Modelle weniger kosten würden. Aber wozu? Warum hat derjenige der nur 100 Euro für eine Grafikkarte investieren möchte, den gleichen Anspruch auf Leistung und Optionen wie "Hardcore-Käufer"?

Im Übrigen wird das Gegenteil der Fall sein. Falls RT und DLSS der absolute Kracher in Spielen sein wird, werden viel mehr Midrange-Käufer auf RTX 60, 70 und 80 gehen. Marketing ist alles.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
DrFreaK666 schrieb:
Aber was hindert Nvidia daran den Algorithmus für den Benchmark zu optimieren?? Man muss es ja nur mit den richtigen Daten füttern.

das ist der Sinn hinter dem Deep Learning Ansatz, man muss es mit richtigen Daten füttern. Man macht damit aber kein Video aus dem Benchmark.

Bei Deep Learning hast du bei einem zu großen neuronalen Netzwerk in der Tat das Problem dass es uU in der Tat nicht wirklich lernt sondern jedes fixe Ergebnis hart in das System presst. Heißt wenn du zB zu wenig Trainingsdaten hast (sagen wir handschriftliche Zahlen von 0-9) kann es bei zu geringer Test Sample Menge sein dass das Netzwerk diese Test Daten mit 100% Genauigkeit richtig löst, später aber bei anderen handschriftlichen Daten komplett daneben liegt.

Damit das bei einer doch recht langen Szene wie diesem Bench aber eintritt ist extrem unwahrscheinlich, das Netzwerk müsste astronomisch groß sein um jedes Bild "dumm" abzuspeichern.

Edit:
Bei dem kurzen Bench hier kann Nvidia natürlich hingehen und zb mit 60FPS 1440p Bilder mit 64x Super Sampling errechnen, also perfektes AA. Das gibt dann zb 180s Clip Länge 10800 Bilder mit der man das Netzwerk anlernen kann. (vermutlich sind es noch weit mehr Trainings Daten)
Ziel des Netzwerk ist es dann die Differenz zwischen diesen Master Bildern und dem hochgerechneten Bild möglichst klein zu halten. Das Netzwerk selbst hat aber sicher eine vergleichsweise kleine Kapazität, viel zu klein um pixelgenau ala Videostream 10800x1440p Bilder statisch abzuspeichern. Theoretisch muss das Netzwerk während der ganzen Szene statisch sein, fix mit Gewichtungen belegt werden und dann "sein Ding machen". Ganz theoretisch wäre es auch möglich ggf einzelne Cut Szenes zu trainieren und zwischen Drin die DLSS Profile zu wechseln ja.
Dennoch dürfte es kaum Nvidias Ziel sein hier irgendwann nur noch eine Art Video statt berechneter Grafik wiederzugeben, sofern das überhaupt über das DLSS Netzwerk möglich wäre. Denke man wird DLSS schon so einsetzen wie es auch in Games geschehen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
@Esenel Wobei bei dem Preisverlauf natürlich der Mining Boom stark mit rein spielt. Aber es stimmt schon, zur Profitmaximierung ist das ganz clever gemacht.

@domian Natürlich haben "Hardcore-Käufer" einen Anspruch auf mehr Leistung. Bisher waren das einfach eine höhere Auflösung und/oder mehr Frames. Bei RT und DLSS besteht aber mMn die Gefahr, dass Entwickler die Features einfach fallen lassen. Darauf wollte ich hinaus.
Den ein oder anderen Blockbuster kann NVidia sich immer einkaufen, Gameworks lässt grüßen, aber gerade kleinere Teams haben eher nicht die Personaldecke um zusätzlich noch RT Effekte einzubauen. Dann optimiert man lieber noch ein bisschen an der Konsolenversion herum, wovon die Nicht-RTX-Computerspieler auch profitieren, als für die wenigen RTX Nutzer Ressourcen zu 'verschwenden'.
 
  • Gefällt mir
Reaktionen: Esenel
Denke DLSS in einem Game zu implementieren erfordert kaum Eingriff seitens Studio. Das hat Nvidia schon fast komplett allein in der Hand. Es muss eigentlich nur die Berechnung hochauflösende Bilder möglich sein die Nvidia ganz unabh von irgend etwas anderem offline verarbeiten kann um daraus ein DLSS Profil für den Titel zu schnitzen.

Kann auch sein dass Nvidia feststellt dass sich an manchen Titeln die DLSS Sache die Zähne ausbeißt und nur Käse bei runkommt - oder die Berechnung zu teuer ist.
 
Zurück
Oben