News GeForce 528.24 WHQL: Treiber optimiert für Dead Space und bringt 5 × DLSS

blautemple schrieb:
Das war schon immer so und wird auch immer so sein...
Immer war das nicht so ;-) Mir geht es hier eher darum dass sich Leute (schon seit einigen Jahren) über "Workarounds" freuen die im Endeffekt hohe Kosten verursachen (Treiber Entwicklung - da gab es vor einigen Jahren einen Vortrag von nVidia wo sie über die Workarounds in den Treibern gesprochen haben).
 
danyundsahne schrieb:
Und das sind eindeutig zu viele. Wie gesagt, für ein geiles Spiel ist kein RT und DLSS/FSR nötig wenn es mal gut optimiert wäre.
So ein 94% Wertungs Kracher Game ohne RT, dafür aber endlich mal geniale Physik. ;)

Auf was sollen denn die Spieleentwickler "optimieren"? Meinst du nicht, dass das ein etwas sehr allgemeine Forderung ist?
Auf RDNA1-Karten, auf RDNA2-Karten, auf Pascal, Ampere, Ada?
Auf schnelle oder langsame Karten?
Auf Intel-CPUs oder AMD-CPUs, auf wieviele Kerne? Mittelklasse, Low-End oder High-End?

All diese Komponenten können in verschiedenen Kombinationen verbaut sein. Und alle haben ihre eigenen Stärken und Schwächen. PCs sind halt keine Konsolen und du musst einen gewissen Overhead kompensieren, der zwangsläufig entsteht, indem du mehr Leistung als nötig draufwirfst.
Es sei denn natürlich, du legst das Spiel so aus, dass es eben nicht alle Features der Hardware nutzt, keine modernen Techniken implementiert, keine AI-Unterstützung verwendet. Dann bist du bei in deinen Augen "optimierten" Spielen, was aber eine Fehlwahrnehmung ist, weil sie sich einfach an einem kleinsten gemeinsamen Nenner orientieren. Zu sehen bei all den Double-A und Indie-Spielen.

Übrigens: RT ist die "geniale Physik" die du haben willst. Für Licht.
Für so ziemlich alles andere gibt es Physx von nVidia. Es ist immer noch ein physikalischer Genuss zu sehen wie in Mafia 2 ein ganzes Haus mit Tommyguns kaputtgeschossen wird.
 
MaLow17 schrieb:
Strotzen alle deine über 8.4K Kommentare von dieser unglaublichen Expertise oder ist es einfach nur Hate, Verblendung und Verschwörungstheorie?
Atma schrieb:
Für die Aussage hast du selbstverständlich belastende Beweise zur Hand?

lese dir das durch:
https://www.computerbase.de/2014-06/nvidia-gameworks-hindert-amd-nicht-an-treiberoptimierung/

TLDR davon ist: Nvidia hindert zwar nicht am optimieren, aber AMD kann immer erst hinterher arbeiten, dh muss reverse engineering betreiben, da GameWorks auch eine Art Blackbox ist.
Und nun nenne mir bitte eine Möglichkeit, wie AMD hier vor dem Release da irgendwas optimieren könnte dann.

Und das Nvidia kein freundlicher Konzern ist, weder zum Kunden noch zur Konkurrenz, beweisen die ja jedes Jahr aufs neue. Erst ja nun kurzlich mit der 4080 was nun eine 4070 ist. Oder mir der Verzögerung der versprochenen Open Source Treiber für Linux. Nicht umsonst sagte Linus Torvald: F* U Nvidia
Oder die PhysX Geschichte ( https://www.heise.de/newsticker/meldung/Bremst-Nvidia-CPU-PhysX-Effekte-kuenstlich-aus-1036153.html, wobei das dann hier auch ganz bitter der Geschmack wird dabei, wenn man das danach ließt: https://www.heise.de/ratgeber/Zusaetzliche-PhysX-Grafikkarte-funktioniert-nicht-861070.html )

Sprich das ganze hat nichts mit Hass oder Verblendung zu tun, sondern das sind einfach Erfahrungen und entsprechende Sympathie gegenüber der Konkurrenz.

das AMD auch kein Unschuldsengel kann und darf man auch nicht bestreiten, wie z.B. wegen der Umbenennungsgeschichte von Grakamodellen. dennoch insgesamt sind die wesentlich sympatischer.


MaLow17 schrieb:
Nochmal zur Info, Dead Space (Remake) bedient sich der Frostbite Engine und die läuft auf AMD-Hardware generell besser als auf Nvidia-Hardware und wurde in der Vergangenheit des öfteren für AMD optimiert.

und was hat das damit zu tun, das AMD ggf nicht testen konnte / durfte um auch einen entsprechenden Treiber rauszubringen ? Nur weil die Frostbite Engine drinne ist, bedeutet das auch noch lange nicht, das keine anderen Sachen verwendet wurden, die nicht ganz so optimal laufen.
 
Treiber sollen eins , Funktionieren und mit directx sowie opengl kompatibel sein
lediglich neue Funktionen können für Fehler sorgen wo auch windows nicht ganz unschuldig ist.
Und da bietet nvidia das bessere Paket ab aber haben auch aktuell kleinere Nervige Fehler. Also auch amd diese hat aber durchaus schwerwiegender hoher idle verbrauch blackscreens und bsod.
Bei beiden lässt sich das meist lösen das es nicht nur einen Treiber gibt.
Da kenne ich andere firmen wo das nie gefixt wird (creative, logitech)
 
DocWindows schrieb:
Auf was sollen denn die Spieleentwickler "optimieren"? Meinst du nicht, dass das ein etwas sehr allgemeine Forderung ist?
Auf RDNA1-Karten, auf RDNA2-Karten, auf Pascal, Ampere, Ada?
Auf schnelle oder langsame Karten?
Auf Intel-CPUs oder AMD-CPUs, auf wieviele Kerne? Mittelklasse, Low-End oder High-End?
All diese Komponenten können in verschiedenen Kombinationen verbaut sein. Und alle haben ihre eigenen Stärken und Schwächen. PCs sind halt keine Konsolen und du musst einen gewissen Overhead kompensieren, der zwangsläufig entsteht, indem du mehr Leistung als nötig draufwirfst.
Naja das war schon immer so bei Games, da es unendlich viele Kombinationen bei PCs gibt. Im Gegensatz zu Konsolen, die einheitliche Hardware haben. Daher läuft dort alles smooth mit weit schlechterer Hardware. Das ist mir durchaus bewusst.
Aber darum gehts mir überhaupt nicht!
DocWindows schrieb:
Es sei denn natürlich, du legst das Spiel so aus, dass es eben nicht alle Features der Hardware nutzt, keine modernen Techniken implementiert, keine AI-Unterstützung verwendet. Dann bist du bei in deinen Augen "optimierten" Spielen, was aber eine Fehlwahrnehmung ist, weil sie sich einfach an einem kleinsten gemeinsamen Nenner orientieren. Zu sehen bei all den Double-A und Indie-Spielen.
Man kann schon neue Techniken implementieren, keine Frage. ABER dann soll der Entwickler auch dafür sorgen, dass es recht gut läuft. Fertig.
Und diese Meldungen in den letzten Wochen/Monaten bei fast jedem 2ten Game, dass es schlecht optimiert ist, kommt mir einfach gerade zu häufig vor.
Bestes Beispiel Callisto Protocol:
https://www.computerbase.de/2022-12...rezensionen-sprechen-von-ruckelndem-desaster/
Schlauch Level, keine großes Open World Spektakel, aber werben mit RT und Co und dann läuft das Game wie aus der Hölle. Keine Optimierungen, nichts.
Genauso das Game Stray in selbem Artikel. Katastrophe. Erst nach einigen Patches läuft es runder. Das zeigt ja eindeutig, dass nicht optimiert wurde.
Einzig und allein darum gehts mir. Aber Hauptsache man wirft mit RT um sich.
Was ist nun besser? RT schön zu finden, wenn man im Game steht und sich nicht bewegt? Oder wenn man RT einfach mal weglässt, dafür aber die Zeit in Optimierung steckt und sich jeder auf ein wesentlich besseres Spielerlebnis freuen darf, weil es einfach mal rund läuft?

Und jetzt bist du dran... ;)

DocWindows schrieb:
Übrigens: RT ist die "geniale Physik" die du haben willst. Für Licht.
Nein die will ich nicht haben. Nicht wenn es so mies integriert ist, dass es scheiße läuft. Ganz einfach.
DocWindows schrieb:
Für so ziemlich alles andere gibt es Physx von nVidia.
Ja, dann sollen sie es doch mal endlich richtig gut einsetzen? Wo ist das Problem? 16 Kerner als CPUs und dann bekommt man es nicht hin, mal tolle Games mit zerstörbarer Welt zu schaffen?
Stell dir CP2077 ohne RT vor, aber dafür mit zerstörbarer Stadt?
Und wenn nur so weit zerstörbar wäre wie in BF:Bad Company 2.
DAS wäre der Hammer. Einfach nur WOW.

Aber so siehst du tolle Sonnenstrahlen und spiegelnde Pfützen mit überforderten GPUs. Auch WOW. Nicht.
DocWindows schrieb:
Es ist immer noch ein physikalischer Genuss zu sehen wie in Mafia 2 ein ganzes Haus mit Tommyguns kaputtgeschossen wird.
Gebe ich dir Recht. Aber merkst was? Das Game ist uralt, 13 Jahre um genau zu sein...wo sind die neuen Games mit so tollen Effekten?

Aber Fakt ist, man ägert sich über schlechte und performance-schwache RT Implementierungen. Dazu braucht man dann uuuuunbedingt DLSS3 FG damit überhaupt was läuft. Und dazu noch 2000€. Dieser Hype nervt mich gerade zu immer mehr.
Warum hat COD MW2 eigentlich kein RT mehr? Weil schlecht läuft und kaum Nutzen hat....wer weiß das schon...

Jetzt kennst du meinen Standpunkt zu RT vs. guter Physik. Und ich kann für mich sehr einfach beantworten womit ich mehr Spaß in Games haben würde ;)
 
danyundsahne schrieb:
Aber darum gehts mir überhaupt nicht!

Du erkennst die grundlegende Problematik, blendest sie aber aus. Ok. Das erklärt zumindest deine folgenden Statements. Die wären übrigens so ziemlich alle hinfällig, wenn du diese Grundproblematik nicht ausblenden würdest, aber der Reihe nach.

danyundsahne schrieb:
Man kann schon neue Techniken implementieren, keine Frage. ABER dann soll der Entwickler auch dafür sorgen, dass es recht gut läuft. Fertig.

Gut läuft auf was? Welche Hardwarekombinationen? -> Grundproblematik

danyundsahne schrieb:
Nein die will ich nicht haben. Nicht wenn es so mies integriert ist, dass es scheiße läuft. Ganz einfach.

Scheiße läuft auf was? -> Grundproblematik
Ich kriege RT komischerweise so eingestellt (in Kombination mit anderen Settings) dass es nicht scheiße läuft.
Und ich hab nur ne RTX 3070

danyundsahne schrieb:
Ja, dann sollen sie es doch mal endlich richtig gut einsetzen? Wo ist das Problem? 16 Kerner als CPUs und dann bekommt man es nicht hin, mal tolle Games mit zerstörbarer Welt zu schaffen?

Was ist mit Leuten mit <16 Kern CPUs? -> Grundproblematik.
Wenn du sowas grundlegendes implementieren willst, MUSS es deine gesamte Kundschaft auch ausführen können. Also müssen alle 16 Kern CPUs haben, oder das Spiel funktioniert nicht. Wie viele Gamer haben 16-Kern CPUs? Ach, 0.8%. Na sowas. Dann werden wir das wohl besser lassen. (Ersetze 16-Kern CPUs gerne durch eine andere CPU oder Grafikkarte die die Masse an Spielern nicht hat)

danyundsahne schrieb:
Stell dir CP2077 ohne RT vor, aber dafür mit zerstörbarer Stadt?

Stell ich mir ehrlich gesagt nicht so toll vor. Weder die Stadt selbst, noch die Storyline geben solche Zerstörungen her. Dann habe ich lieber die tolle Atmosphäre die durch die glaubwürdige Beleuchtung der ganzen Neonlichter entsteht. Auch wenn ich sagen muss, dass das ganze ziemlich nach Plastikstadt aussieht, aber das mag durchaus künstlerisch gewollt sein.

danyundsahne schrieb:
Gebe ich dir Recht. Aber merkst was? Das Game ist uralt, 13 Jahre um genau zu sein...wo sind die neuen Games mit so tollen Effekten?

Die gibt es nicht, weil sich Phsyx nicht durchsetzen konnte. Schade schade Schokolade, aber damit kommen wir wieder zur -> Grundproblematik. Nicht alle Spieler können das so ausführen lassen wie es nötig wäre.

danyundsahne schrieb:
Jetzt kennst du meinen Standpunkt zu RT vs. guter Physik.

Ja, und ich kenne auch die Hauptursache für deine - ich nenne es mal - Verbitterung.
Wer nicht bereit ist eine gewisse Menge an Leistung als Kompensation der Plattformgegebenheiten abzuschreiben, der sollte besser auf Konsole spielen. Da ist alles gleich. Gleich gut und gleich schlecht.

Oh, und ich erkenne dass es dir schwerfällt die möglichen Synergien zu erkennen, die neue Techniken, die heute möglicherweise suboptimal auf mancher Hardware laufen, aber einen richtigen Weg in die Zukunft zeigen, bieten können.
Beispiel: Stell dir die Zerstörung von Bad Company 2 vor ,aber mit korrekter Beschattung der herabfallenden Trümmer und korrektem durchbrechen der Trümmer durch Sonnenstrahlen, während alle in sich zusammenfällt. WOW²
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MaLow17
Sebbi schrieb:
Wow, der Artikel ist fast 9 Jahre alt und es hat sich seitdem wirklich nichts mehr geändert?

Sebbi schrieb:
und was hat das damit zu tun, das AMD ggf nicht testen konnte / durfte um auch einen entsprechenden Treiber rauszubringen ? Nur weil die Frostbite Engine drinne ist, bedeutet das auch noch lange nicht, das keine anderen Sachen verwendet wurden, die nicht ganz so optimal laufen.
Schon mal daran gedacht, dass AMD in der Vergangenheit den Grundstein in der Frostbite-Engine in Form von Optimierungen bereits gelegt hat und es manchmal nicht notwendig ist, einen neuen Treiber für jedes neue Spiel, welches die Engine nutzt, herauszubringen? Quasi ein Future-Proof Engineering :).

Nachtrag:
Keine Rede von Dead Space (Remake):
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-1-2-kb
 
Zuletzt bearbeitet:
Sebbi schrieb:
TLDR davon ist: Nvidia hindert zwar nicht am optimieren, aber AMD kann immer erst hinterher arbeiten, dh muss reverse engineering betreiben, da GameWorks auch eine Art Blackbox ist.

Irgendwie stimmt deine Zusammenfassung nicht, da sie folgendes (wahrscheinlich zufällig) nicht widerspiegelt
Dem Konkurrenten sei es auch weiterhin möglich, die Catalyst-Treiber auf Gameworks-Spiele zu optimieren. AMDs Argument, ohne Quellcode sei keine richtig Optimierung möglich, sei falsch. Dieser Argumentation folgend, könnte auch Nvidia die Treiber oftmals nicht anpassen, da auch die Kalifornier nur sehr selten den Quellcode eines Spiels zu Gesicht bekommen. Die „Binaries“ reichen für eine Optimierung aus, so Nvidia, und die stelle der Hersteller auch für GameWorks-Komponenten bereit

Angesichts der Länge dieser Passage gegenüber der Gesamtartikellänge muss man sich schon fragen wie du überhaupt zu deiner Zusammenfassung kommst.

MaLow17 schrieb:
Wow, der Artikel ist fast 9 Jahre alt und es hat sich seitdem wirklich nichts mehr geändert?

Naja, nVidia hat so ziemlich alles was Gameworks betrifft als Sourcecode auf Github hochgeladen
https://github.com/orgs/NVIDIAGameWorks/repositories

Weiß nicht ob das als Änderung zählt.
 
  • Gefällt mir
Reaktionen: MaLow17
DocWindows schrieb:
Oh, und ich erkenne dass es dir schwerfällt die möglichen Synergien zu erkennen, die neue Techniken, die heute möglicherweise suboptimal auf mancher Hardware laufen, aber einen richtigen Weg in die Zukunft zeigen, bieten können.
Ja wenn man entsprechend einsetzt, darf es gerne von allem etwas sein. ABER, ich sehe aktuell nur einen riesen Hype um RT, sonst keine großen Techniken. Und um RT zum laufen zu bringen, ist DLSS der gehypte Heilsbringer.
DocWindows schrieb:
Beispiel: Stell dir die Zerstörung von Bad Company 2 vor ,aber mit korrekter Beschattung der herabfallenden Trümmer und korrektem durchbrechen der Trümmer durch Sonnenstrahlen, während alle in sich zusammenfällt. WOW²
Und wenn die Hersteller bzw. Entwickler RT einfach in geringerem Maße einsetzen würden, dafür aber dann mehr Pyhsik einbauen, dann wäre sicher allen eher geholfen, als immer nur auf die RT Karte allein zusetzen.

ich verstehe die "Grundproblematik" dahinter, die du mir unterstellst, auszublenden. Dennoch gibt es eher das Grundgerüst der Mehrkern CPUS unter allen Zockern, als dass es 1000€+ GPUs flächendeckend gibt. Es muss nicht min. 16 Kerne sein.
Das bedeutet, man könnte locker eher auf Physik und Mehrkern-optimierten Games setzen, als immer nur RT RT RT.
Es ist nach wie vor so, dass die meisten Kerne/Threads brach liegen und NICHT genutzt werden. Aber die GPU aus dem letzten Loch pfeift und dann noch auf DLSS angwiesen ist um ein Game überhaupt spielbar zu machen.

Ich sehe hier eine komplett falsche Balance was das angeht.

Ja, das Bsp mit BC2 von dir ist auch ein tolles Szenario, aber dennoch könnte man mehr Physik einbauen und dezentere RT Effekte und nicht nur allein auf RT setzen. Damit wäre dem Spielspaß immer noch viel mehr geholfen als nur RT Effekte alleine, die kaum oder nur schwer realisierbar sind (->DLSS).
 
@danyundsahne
Korrekte, komplexe Licht-, Schatten- und Reflexionberechnungen zählen doch als "mehr Physik", das sind keine Effekte, die dargestellt werden, sondern komplexe Berechnungen. Warum solche Berechnungen (auch in geringer Form) nicht auf die CPU-Kerne ausgelagert werden, kannst du dir ja denken, oder?


Nachtrag:
Du meinst höchstwahrscheinlich solche physikalischen Berechnungen, oder?
Für die Berechnung, flüssige Darstellung und Interaktion solcher physikalischen Objekte reichen z. B. 16 CPU-Kerne bei weitem nicht aus. Nicht ohne Grund bedient man sich GPU-Kernen.
 
Zuletzt bearbeitet:
danyundsahne schrieb:
ABER, ich sehe aktuell nur einen riesen Hype um RT

Ja, weil es einfach mehr bringt als die klassischen Rasterizer mehr und mehr aufzubohren, damit sie noch mehr Postprocessing-Effekte in noch kürzerer Zeit auf noch höher aufgelöste Zielbilder anwenden können, von denen man mit RT-Einsatz eigentlich die Hälfte gar nicht bräuchte. Wie viele Lightmaps, Shadowmaps, younameit-maps kann man sich da sparen? Wieviele Entwicklerstunden könnte man sparen wenn man die Maps nicht erstellen und platzieren muss, weil diese durch RT einfach korrekt berechnet werden?
Dass man DLSS als Hilfsmittel braucht, liegt einfach daran dass die Grafikhardware für Rasterizer-Arbeit ausgelegt ist und nicht auf RT-Arbeit. Der Übergang (eigentlich ist es derzeit ja ein Parallelbetrieb) von Raster auf RT ist durchaus vergleichbar mit dem Übergang von 2D-Grafik zu 3D-Grafik, bzw. zur 3D-Grafik mit Beschleunigerkarten. Vielleicht muss es auch bei Parallelbetrieb bleiben, nur mit unterschiedlichen Gewichtungen. Das macht die Sache halt spannend.

danyundsahne schrieb:
Es ist nach wie vor so, dass die meisten Kerne/Threads brach liegen und NICHT genutzt werden. Aber die GPU aus dem letzten Loch pfeift und dann noch auf DLSS angwiesen ist um ein Game überhaupt spielbar zu machen.

Dass die CPU Kerne/Threads brach liegen kannst du aber nicht RT oder irgendwelchen Grafikeffekten anlasten. Das ist einfach der Spieleprogrammierung geschuldet. Es gibt halt immer noch einen Mainthread, der so und so oft pro Sekunde durchlaufen wird, und der nicht parallelisiert werden kann.
Bei Spielen hängt quasi alles voneinander ab, und nicht zuletzt vom Spieler und dessen Aktionen.
Du kannst das physikalisch korrekte "zu Boden sinken" eines Gegners auf Kern 15 zwar außerhalb der Mainthreads berechnen, aber wenn der Spieler den Gegner nicht erschießt, fällt er nicht um und die Berechnung war für die Katz. Das Umfallen wird durch eine Benutzereingabe ausgelöst, und das hängt wiederum am Mainthread. Aufgrund der Eingabe macht die Pistole Bumm, die Auswirkung der Aktion wird berechnet, mit dem Ergebnis dass der Gegner im Weg steht, und dann steht fest dass er umfallen muss.
Es ist noch niemand auf eine wirklich brillante Idee gekommen (soweit ich weiß) wie man das alles aufbrechen kann.
Parallele Ausführung findet auf einer noch niedrigeren, kleinteiligeren Ebene statt, deswegen sieht das in Monitoringtools auch immer nur wie Hintergrundrauschen aus.

DX12 bietet in Sachen Parallelisierbarkeit zwar die Möglichkeit die "Arbeitspakete" für die GPU durch die CPU parallelisiert zu erstellen, aber dennoch muss erstmal feststehen was diese Arbeitspakete beinhalten sollen, und das definiert in vielen Fällen ein Durchlauf des Mainthreads.

Soweit so gut. Sind wir eigentlich noch on-topic oder schon weit davon entfernt? Hab gehört es gibt nen neuen NVidia-Treiber :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
DocWindows schrieb:
Dass die CPU Kerne/Threads brach liegen kannst du aber nicht RT oder irgendwelchen Grafikeffekten anlasten. Das ist einfach der Spieleprogrammierung geschuldet.
Tu ich ja zu keiner Zeit. Daher sage ich ja, die Entwickler sollten sich mal auf weniger auf RT, sondern mehr um Physik kümmern.
Diese Games gab es schon und waren einfach ein richtiger Mehrwert beim Spielspaß. Aber heute wird Physik einfach meiner Meinung nach zu sehr vernachlässigt und viel zu viel auf RT gesetzt. Welches aber wieder nicht mal anständig läuft.
Die Zerstörungsphysik in BC2 zB lief ja schon auf 4-6 Kernern super machte einen Heidenspaß. Und sowas gibt es in kaum einem Game mehr. EInfach Schade.
DocWindows schrieb:
Soweit so gut. Sind wir eigentlich noch on-topic oder schon weit davon entfernt? Hab gehört es gibt nen neuen NVidia-Treiber :D
Ja, richtig, Genug jetzt. Von welchem Treiber sprichst du jetzt? Den neuen RDNA3 only Treiber?? :mussweg:
:D
 
Physik wird sehr wohl genutzt nur eben nicht die Proprietäre von nvidia
havok physik ist aber eher suboptimal aber gängig.
Hätte sich ageia nicht aufkaufen lassen von nvidia 2007 bzw die dedizierten physx gpu hätten sich besser verkauft.
Hätten wir heute 3 pcie Steckkarten im pc gpu sound und physx

Das was du meinst ist eher engine basierend das gab es schon seit 2001 mit den red faction spielen.
Und basiert wie alles auf havok das von intel ist.

Wenn echte physx spiele sehe willst musst mal das alte cellfactor_revolution ansehen.
 
ich halt mich da doch raus :D
 
Zuletzt bearbeitet:
Blood011 schrieb:
Tja NV winkt mit paar scheine und gut.

Weis auch nicht was der RT blödsinn soll,so lange wie es nicht auf mid Karten ordentlich läuft juckt mich das keine Bohne.
NV ihr eigenes süppchen nervt auch total schon damals mit PhysX was auch klaglich unter ging.

Zumal oft die spiele schlechter noch aussehen als ohne RT,wenn ich da CP angucke total unrealistisch.


Gewöhn dich an DLSS und FSR das wird der standard werden,so brauch man sich garnicht mehr um optimierung kümmern,und die Leute kaufen sich UHD/WQHD und skalieren das unter fullHD. und freuen sich nen Ast und meinen noch das es noch besser als nativ aussieht.

danyundsahne schrieb:
Wenn ich schon lese, dass die Games so mies optimiert sind und nur durch DLSS3 zu retten bzw spielbar sind, da bekomm ich schon zu viel.
Nur durch DLSS spielbar, bla, bla....ein Trauerspiel vor dem Herrn.

Die sollen den ganzen RT Kram weg lassen und einfach mal gute Games zur Abwechslung bringen. Kanns echt nicht mehr hören...diese Performanceeinbußen in jedem 2ten Game sind zum Kotzen. Und sie alle werben mit RT, taugt dann aber nichts. Sieht im Standbild geil aus, aber nicht spielbar.

Wow. Super. Glückwunsch an alle. Nicht.

Euch ist aber schon bewusst das RT seit 3 Jahrzehnen mindestens schon benutzt wird ? Das ist nicht einfach nur so ein Feature wie physx oder dergleichen, ihr solltet euch lieber mal mit RT auseinandersetzen, ich benutze das schon seit über 20 Jahren in verschiedenen Videoprogrammen um Effekte zu bauen, was denkt ihr wie ein Film wie zB. Transformers so realistisch dargestellt wird? Richtig, mit RT.
Um Spiele also realistischer zu machen, BRAUCH es RT! Da gibt es keinen Weg dran vorbei aber wenn ihr lieber unrealistische Grafik haben wollt, könnt ihr ja weiterhin ohne RT spielen ;) zwingt euch ja niemand es zu benutzen, einfach mal das Gehirn einschalten.

Und ich weiß auch nicht was du @Blood011 für ein CP gesehen hast aber das sieht um längen besser aus mit RT oder willst du mir erzählen das es keine Spiegelungen in Wasser oder Glasscheiben im echten leben existieren? RT berechnet es realitätsgetreu und genau darum geht es bei dieser geilen Technik. Schon alleine die eine Kerzenszene in CP sieht mit RT 100x realistischer aus als ohne RT, da musst du ja blind sein um das nicht zu sehen.
 
Zuletzt bearbeitet:
Midnight Suns sollte doch DLSS3 bekommen, ist bis jetzt immer noch nicht drin.
 
Zurück
Oben