• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077 RT Overdrive: Pathtracing-Modus kommt am 11. April als „Techdemo“

Soll heißen das ganze kommt am 12.04 per Update und kann dann indem man die höchste Qualitätsstufe beim RT wählt genutzt werden ?
 
  • Gefällt mir
Reaktionen: Jan
Dai6oro schrieb:
Glaub ich nicht aber dann muss ich das Treiben von Nvidia nicht auch noch unterstützen. Ist ja jetzt schon absehbar, wer jetzt ne RTX4xxx hat wird nicht alle features der nächsten Generation nutzen können. Da ist mein Geld bei AMD besser aufgehoben.
Dann ist Audi also auch böse wenn du nicht alle Features des nächsten Audi A4 kriegst im aktuellen A4 ? Kaufst dann nichtmehr oder ? Bist konsequent. Aber oh shit...bei den anderen ist das ja auch so ? Stell dir vor, Technik entwickelt sich weiter. Krass gell ?🤔🤣

Das klingt jetzt nach "mimimi ich will kein Geld bezahlen aber alles haben und für immaaaaa".

Dai6oro schrieb:
Mit meiner alten 1080Ti In meinem HTPC kann ich sogar FSR nutzen, da hat Nvidia einfach gar nix zu bieten.
Super, die kann aber kein RT und somit ist mir (das optisch schlechtere FSR) eh schon völlig Wurst. Nice to have, aber halt kein KO-Kriterium, schon gar nicht angesichts der Tatsache, dass das mit deutlicher Verzögerung kam.

Dai6oro schrieb:
Die versuchen wenigstens noch FSR3 für die letze Generation anzubieten.
Weil sie es müssen, einen Technologievorsprung haben sie ja nicht, ergo muss man jetzt den "Good-Guy" spielen der alles "für die Gamer" macht. 😂

Dai6oro schrieb:
Bei Nvidia sollst jede Generation neu kaufen.
Klar AMD bewirbt ihre Karten mit "kauf bloß keine weiteren mehr und spiel damit die nächsten 10 Jahre".
 
  • Gefällt mir
Reaktionen: Mironicus1337, B.L. Swagger und MrHeisenberg
Da brauchst nur Hirn einschalten, denn es ist offensichtlich. Das war bei Tesselation schon so, wo man die Stufen so hoch gedreht hat, dass die vorherige Generation nicht mehr nutzbar war mit dem Feature und das geht mit RT weiter. Wer das für eine Verschwörungstheorie hält...

@bondki was ist denn der konkrete Grund dass man für die GTX 1xxx Reihe kein DLSS gebracht hat und warum bekommt AMD das hin und das für die Konurrenz ebenso wie für die eigenen Karten? Was ist der konkrete Grund? Gsync ist auch so ein Ding, das man unbedingt proprietär machen wollte, weil man braucht ja unbedingt so ein Modul ... Ich habs bereut mir einen Bildschirm mit Gsync gekauft zu haben.
 
  • Gefällt mir
Reaktionen: iron_monkey und Anon-525334
Dai6oro schrieb:
@bondki was ist denn der konkrete Grund dass man für die GTX 1xxx Reihe kein DLSS gebracht hat und warum bekommt AMD das hin und das für die Konurrenz ebenso wie für die eigenen Karten? Was ist der konkrete Grund? Gsync ist auch so ein Ding, das man unbedingt proprietär machen wollte, weil man braucht ja unbedingt so ein Modul ... Ich habs bereut mir einen Bildschirm mit Gsync gekauft zu haben.
Sofern du lesen kannst, kannst du dir ja mal anschauen, was den Pascal Karten fehlt.
Pro-Tipp: Es geht um KI

Und G-Sync mit Modul funktioniert ebenfalls bis heute besser als VRR.
 
  • Gefällt mir
Reaktionen: H6-Mobs, one2know, Mironicus1337 und 2 andere
Dai6oro schrieb:
Ja klar die sind um keine Ausrede verlegen. Warum bekommt es AMD hin zumindest FSR für eine 1080ti lauffähig zu machen und was hat Nvida zu bieten? Ach ja nix da fehlt bestimmt was wichtiges. Lasst euch nur weiter verarschen, das hat System bei Nvidia.
Als FSR 1.0 rauskam war das gerade mal ein besseres Supersampling mit Sharpening. Auch FSR 2.0 setzt diverse Algorithmen und kein Deep Learning ein.

Sorry, und das vergleichst du mit DLSS ? Vielleicht setzt du dich mit dem technischen Background nochmal auseinander und verstehst dann vielleicht warum das halt nicht ohne dedizierte Hardware geht.

https://www.techadvisor.com/article...fx-super-resolution-whats-the-difference.html

Weil Googlen ja heute aus der Mode ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know, RogueSix und MrHeisenberg
Pascal fehlt gar nix denn FSR funzt ja und nein Gsync ist sicher nicht besser als Freesync. Aber kannst gerne glauben und 200€ für den Monitor extra zahlen. (z.B. mein Monitor oder die Gsync Variante). Manche sind wie Lemminge und die Lederjacke lacht sich einen.
 
  • Gefällt mir
Reaktionen: iron_monkey und Anon-525334
Echt geile, nicht vorhandene Argumente von dir.

Besorg dir technisches Wissen, dann darfst du mich gerne weiter zitieren.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, one2know und MrHeisenberg
Passt schon. Sogar FSR2 funzt mit den Pascal Geforce Karten . Das ist Fakt. Und Nivdia hat nix zu bieten für ihre eigenen Karten. Offenbar willst mir ja den Grund nicht sagen, warum Nvidia Pascal komplett außen vor lässt.

Fakten hab ich von dir jedenfalls nicht gelesen und wenn du denkst Nvidia macht das nicht um seine eigene neueste Generation zu pushen tust mir leid.
 
  • Gefällt mir
Reaktionen: iron_monkey und Anon-525334
DevPandi schrieb:
@Vitche
hat es eigentlich einen Grund, warum ihr Quake 2 RTX "ausklammert"?
Ich habs mal ergänzt. Grund war einfach, dass ich das Spiel nicht mehr auf dem Schirm hatte, insofern danke dir für den Hinweis. :)
 
  • Gefällt mir
Reaktionen: floTTes und DevPandi
Dai6oro schrieb:
Passt schon. Sogar FSR2 funzt mit den Pascal Geforce Karten . Das ist Fakt. Und Nivdia hat nix zu bieten für ihre eigenen Karten. Offenbar willst mir ja den Grund nicht sagen, warum Nvidia Pascal komplett außen vor lässt.

Fakten hab ich von dir jedenfalls nicht gelesen und wenn du denkst Nvidia macht das nicht um seine eigene neueste Generation zu pushen tust mir leid.
https://www.techadvisor.com/article...fx-super-resolution-whats-the-difference.html

Googlen und Lesen kannst du ? Du stellst Fragen auf die es schon x-fach Antworten gab. Willst du es einfach nicht verstehen oder trollst du schon ?
 
  • Gefällt mir
Reaktionen: Fallout667, RogueSix und FiRAS
Dai6oro schrieb:
@bondki was ist denn der konkrete Grund dass man für die GTX 1xxx Reihe kein DLSS gebracht hat und warum bekommt AMD das hin und das für die Konurrenz ebenso wie für die eigenen Karten?
Die GTX 1xxx Reihe ist mittlerweile 7 Jahre alt.
Vor einigen Jahren war es noch so, dass die Foglegeneration so schnell war, dass du nach ~2 Jahren selbst auf low Schwierigkeiten hattest.
Woher kommt dein Anspruch auch nach 7 Jahren noch vorne mitspielen zu wollen? Eine DX8 fähige Karte wurde mit DX9 auch nicht mehr voll unterstützt, also lass doch mal bitte die Kirche im Dorf.

Einerseits will man technischen Fortschritt (schneller, besser, weiter), aber wenn er dann kommt, wird rumgemotzt, dass die alte Technik nicht mehr state of the art ist.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Fallout667, one2know und eine weitere Person
MrHeisenberg schrieb:
Nvidia hatte bereits erklärt, dass FG von DLSS3 auf den alten Karten nicht wirklich was bringt, weil die HW Einheiten fehle oder zu langsam sind.
Man kann natürlich immer behaupten, dass Nvidia lügt und bescheißt, aber möglicherweise stimmt es auch einfach...

DLSS3 erzeugt auch bei weit über 200 FPS noch zwischenbilder auf dann 400-500 FPS. Wie hoch die FPS maximal sein können, konnte ich mangels CPU Limit noch nicht austesten, aber es lässt sich festhalten, dass FG auf den RTX 4000 Karten schnell läuft, extrem schnell.

Da ist es kaum zu glauben, dass eine Ampere Karte nicht wenigstens 60 auf 120 FPS verdoppeln könnte. Man hätte zur Berechnung des Zwischenbildes ja deutlich mehr Zeit und die Hardwareeinheiten dürften entsprechend deutlich langsamer sein.


Ich vermute das Hauptproblem wird sein, dass die Optical Flow Einheit bei Ampere und Turing teil der Video Engine ist und daher nicht gut in den echtzeit 3D Render Ablauf integriert werden kann. Ich vermute das ist ein Architekturproblem und weniger ein Problem der Rechenleistung.


Sicherlich könnte Nvidia trotzdem FG für die alten Karten ermöglichen, so wie es vermutlich auch AMD mit FSR3 machen wird. Allerdings sorgen die Hardwareeinheiten ja auch dafür, dass z.B. Bewegungsvektoren generiert werden, an Stellen an denen Sie das Spiel nicht zur Verfügung stellt. Die Frage ist eben, wie viel schlechter es ohne aussehen wird.

Nvidia wird letztendlich auch keine Lust haben, FG in zwei Branches für alte und neue GPUs mit unterschiedlicher Qualität und unterschiedlichen Problemen zu pflegen. Zumal das beheben von Fehlern dann in der Version für die alten GPUs sicherlich deutlich aufwändiger wäre, da eben ohne die passende Hardwareeinheit das Ergebnis wahrscheinlich auch fehleranfälliger wäre. Hier würde man also viele Ressourcen binden die man nicht in die Weiterentwicklung auf Ada Lovelace stecken kann.

Auch muss man bedenken, dass solche Funktionen meist von einem relativ kleinen Team entwickelt werden und man da nicht mal eben 100 Leute auf ein Problem werfen kann, um dann zu hoffen, dass was gutes dabei herauskommt.

Letztendlich ist das alles nicht so einfach, wie man sich das wünscht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes, Fallout667 und ComputerJunge
Bei manchen Beiträgen hier könnte man meinen die Verfasser hocken noch mit 720p Auflösung bei 30Hz vorm Monitor und machen alles schlecht, weil sie es einfach nicht besser kennen und noch nie in echt gesehen haben. Ala "Zwischen 60Hz und 120Hz kann man den Unterschied eh nicht erkennen!"

So hab ich vor 15 Jahren auch mal gedacht. xD

Irgendwann kommt ihr aber auch in der modernen Zeit an, hoffe ich. :)


Ist doch gut wenn sich die Technologien weiterentwickeln, so bekommen wir immer hübschere Grafiken. Wäre es nicht so, würde man heute noch mit PS1 Grafik rumdaddeln... Könnte ich mir persönlich nicht mehr geben iwie.
 
  • Gefällt mir
Reaktionen: Fallout667, one2know, FiRAS und eine weitere Person
Muss man das Spiel besitzen, um auf die Grafikdemo zugriff zuhaben oder kommt die separat? Weil habe das Game nur auf der Series X und kein Bock wieder zukaufen nur wegen der DEMO.
 
  • Gefällt mir
Reaktionen: RayZen
MrHeisenberg schrieb:
Sehe ich nicht als Problem, sondern als stylistisches Mittel. In Cyberpunk 2077 ergibt es für mich Sinn. Es ist eine futuristische fiktive Stadt. Die muss nicht real aussehen.
In dem fall stimme ich dir auch zu. meine Aussage war jetzt auch nicht direkt an Cyberpunkt gerichtet.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
HaRdWar§FreSseR schrieb:
Muss man das Spiel besitzen, um auf die Grafikdemo zugriff zuhaben oder kommt die separat? Weil habe das Game nur auf der Series X und kein Bock wieder zukaufen nur wegen der DEMO.

Das ist keine Demo. Das volle Spiel wird pathtraced sein. Gibt dafür ein neues Grafiksetting. Dazu musst du das Spiel natürlich auch besitzen.

Man nennt es nur techdemo, weil es wahrscheinlich noch ein paar Probleme damit geben wird, die erst in den kommenden Monaten behoben werden.
 
  • Gefällt mir
Reaktionen: .Sentinel., ThirdLife und HaRdWar§FreSseR
Mimir schrieb:
Man nennt es nur techdemo, weil es wahrscheinlich noch ein paar Probleme damit geben wird, die erst in den kommenden Monaten behoben werden.
Alles klar danke für die schnelle Antwort mal gucken, vielleicht kauf ich es mir ein zweites Mal.
 
eLdroZe schrieb:
Bei manchen Beiträgen hier könnte man meinen die Verfasser hocken noch mit 720p Auflösung bei 30Hz vorm Monitor und machen alles schlecht, weil sie es einfach nicht besser kennen und noch nie in echt gesehen haben. Ala "Zwischen 60Hz und 120Hz kann man den Unterschied eh nicht erkennen!"

So hab ich vor 15 Jahren auch mal gedacht. xD

Irgendwann kommt ihr aber auch in der modernen Zeit an, hoffe ich. :)


Ist doch gut wenn sich die Technologien weiterentwickeln, so bekommen wir immer hübschere Grafiken. Wäre es nicht so, würde man heute noch mit PS1 Grafik rumdaddeln... Könnte ich mir persönlich nicht mehr geben iwie.

Die Frage ist eher ob manche vllt eine Lesebrille bräuchten und ihre 15 Jahre alte Bluetooth Maus mal gegen eine kabelgebundene austauschen sollten wenn sie von Input Lag und Bildqualität sprechen.

FG mag noch mit Controller funktionieren, aber bei Shootern würde es mich wundern wenn jemand das freiwillig anschalten würde.

Den einzigen nicht mehr spürbaren Input Lag bekommt man nur durch die Kopplung an DLSS, ergo macht man sich sein Bild erst schlechter um genug FPS zu haben, um dann Fake Bilder einzubauen, welche den Lag wieder erhöhen, mag am Ende für DLSS3 mit FG etwas weniger Lag sein als das native Bild, aber mehr als ohne FG.

Und je nach Spiel merkt man diesen Lag sehr deutlich...
 
bondki schrieb:
Und G-Sync mit Modul funktioniert ebenfalls bis heute besser als VRR.
Was soll daran besser funktionieren?
 
snaapsnaap schrieb:
FG mag noch mit Controller funktionieren, aber bei Shootern würde es mich wundern wenn jemand das freiwillig anschalten würde.

Ich spiele Atomic Heart und Cyberpunk mit FG.
Du darfst jetzt verwundert sein. Hat nur zwei Kommentare gedauert, bis du jemanden gefunden hast. Überraschung.

Ich weiß nicht wie oft man das noch durchkauen muss, aber du stehst NICHT vor der Wahl, ob du z.B. 120 FPS mit oder ohne FG haben willst, sondern du stehst immer vor der Wahl, ob du z.b. 60 FPS ohne FG oder 120 FPS mit FG haben willst.

Von daher ist FG praktisch nie eine Verschlechterung hinsichtlich Inputlag. Im Gegenteil viele spiele haben ohne Reflex meist einen deutlich höheren Inputlag.


Wenn es dich wundert, warum Leute shooter mit FG spielen, dann solltest du dich noch viel mehr darüber wundern, wie wir bisher ohne Reflex leben konnten (was tun eigentlich AMD User? R.I.P würde ich sagen? ). Falls dus nicht gemerkt hast wurde das erst seit DLSS3 zur pflicht und wurde zuvor nur in wenigen e-sports games überhaupt genutzt, aber nie in Singleplayer games.

Also wie konntest du all die Jahre Shooter ohne Reflex spielen?
Da hast du die ganze Zeit schon mit Inputlag auf dem Niveau von Frame Generation oder sogar schlechter gespielt.
Wie kannst du nur? :lol:


Um das vielleicht auch nochmal in Verhältnis zu setzen. Der Inputlag, den man mit klassischen Vsync hat ist gefühlt 2-3x so hoch wie mit Frame Generation, für mich heute kaum noch akzeptabel, selbst mit Controller. Wohingegen der Wechsel von FG zu reinem Reflex im Vergleich relativ gering ist. FG ist daher schon auf ziemlich brauchbarem Niveau unterwegs. Da muss man den Anspruch nichtmal runterschrauben um damit zufrieden sein zu können. Wie gesagt, von Vsync niveau sind wir immernoch SEHR weit entfernt. Also wo ist das Problem?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: akuji13 und ThirdLife
Zurück
Oben