• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077 RT Overdrive: Pathtracing-Modus kommt am 11. April als „Techdemo“

Ach inputlag , die was.. 20 ms , wenn ich so gut wäre das es bei mir was ausmacht 😂
FG ist auch genial weil es selbst im cpu limit ordentlich fps zaubert
 
ThirdLife schrieb:
Eine Großstadt mit einem Haufen künstlicher Beleuchtung und Regen wird IMMER spiegeln wie die Sau. Da gibts keinen künstlerischen Aspekt dran, das ist einfach völlig normal.

Dass es jetzt in CP halt öfter mal nachts regnet mag dann der "künstlerische Aspekt" sein auf den du dich beziehst, aber warum sollte man das einem SPIEL nicht zugestehen wollen aber bei einem Foto ist das ok ? Hier wird ein Fass aufgemacht von gefühlt all denen die's nicht haben können.

Genau wie die Leute die damals meinten Xenon brauch keiner aber dann kaltweisse Halogen Birnen illegal ins Auto geballert haben. :D
Nein, ich meine, dass es nicht GENAU SO wie auf den Bildern aussieht. Dass es spiegelt - klar. Aber hier ist z.B. im ersten Bild direkt zu sehen, dass es in Richtung film noir verändert wurde z.B. durch Unterbelichtung.

Xenon nervt und blendet übrigens auch heute noch.

DevPandi schrieb:
Das ändert aber leider nichts daran, dass man gerade hier bei einigen Kommentaren, die hier schnell mit dem Prädikat "unrealistisch" kommen, merkt, dass diese Nutzer eine sehr beschränkte Sicht auf unsere Natur und ebenso die Realität haben. Es scheint hier - auch in diesem Thema - einige zu geben, die scheinbar nur sehr wenig draußen sind und kaum eine Variation der Tageszeit haben und auch der Faktor Natur weitgehend ausgeklammert wird.
Internetnutzer halt :D :evillol:
 
akuji13 schrieb:
Danke, Latenz ist halt schlechter mit FG. Bei allen Spielen <60 sollte man auf FG verzichten(außer Genre bedingt wie Strategiespiele oder so)

Zu FG als solches, hm ich weiß nicht warum ich das mit der CPU am Limit und somit so viele Frames wie möglich entnommen habe aber jedenfalls sagen die Nvidia-Folien was anderes, daher bin ich hier eindeutig falsch mit meiner Aussage. Sprich, max 2:1 durch FG
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Warum bekommt es AMD hin zumindest FSR für eine 1080ti lauffähig zu machen und was hat Nvida zu bieten? Ach ja nix da fehlt bestimmt was wichtiges. Lasst euch nur weiter verarschen, das hat System bei Nvidia.
Warum bekommt es AMD nicht hin Raytraycing auf einer RX 5700XT zum Laufen zu bekommen?
Oder ein Pendant zu Reflex, oder DLSS3?
Ergänzung ()

ThirdLife schrieb:
Auch FSR 2.0 setzt diverse Algorithmen und kein Deep Learning ein.

Sorry, und das vergleichst du mit DLSS ?
FSR 2.0 arbeitet weitgehend identisch zu DLSS, hat zwar meist eine schlechtere Qualität, aber kommt nahe ran. FSR 1.0 war ein normaler Upscaler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know und ThirdLife
Mironicus1337 schrieb:
Warum bekommt es AMD nicht hin Raytraycing auf einer RX 5700XT zum Laufen zu bekommen?
Oder ein Pendant zu Reflex, oder DLSS3?
Fairerweise hat AMD glaub ein Pendant zu Reflex namens Radeon Anti-Lag, ist halt einfach massiv unterlegen und hat im Prinzip doppelte Latenz zu Reflex. IgorsLAB hat das mal getestet. :D

RT müsste aber im Prinzip auf jeder GPU laufen, ohne dedizierte Hardware halt gähnend langsam. Gab es nicht ein paar Hacks um auch auf einer GTX 1080 zB RT zum Laufen zu bringen ? Hat man halt in FHD und Cyberpunk noch 3fps übrig.😂
 
  • Gefällt mir
Reaktionen: one2know
HighEnd Spectacle Für HighEnd Geldbeutel.
1K Euro für Enrty level RTX !?
Und ab morgen verkaufen sie DLSS3 als Leistung der Graka.

RTX war schon eine Enttäuschung bei meiner 2070Super.
 
  • Gefällt mir
Reaktionen: McTheRipper
Mironicus1337 schrieb:
FSR 2.0 arbeitet weitgehend identisch zu DLSS, hat zwar meist eine schlechtere Qualität, aber kommt nahe ran. FSR 1.0 war ein normaler Upscaler.
Vom Ergebnis ja, von der Technologie drunter aber nicht. Daher auch die Not dedizierter Tensorkerne um DL-basierende Anwendungen zu beschleunigen. Und daher auch die fehlende Möglichkeit von DLSS auf GTX Karten.
Ergänzung ()

joel schrieb:
HighEnd Spectacle Für HighEnd Geldbeutel.
1K Euro für Enrty level RTX !?
Und ab morgen verkaufen sie DLSS3 als Leistung der Graka.
Entry-Level RTX ist eine RTX3050 und keine 4070. ;)

joel schrieb:
RTX war schon eine Enttäuschung bei meiner 2070Super.
Da war das auch brandneu und dementsprechend noch nicht wirklich ausgereift. Alle Tests haben das ja auch schon so angedeutet. RT unterhalb einer 2080 Ti war weitgehend nutzlos.

Hab daher auch lieber eine gebrauchte 1080 Ti für 500 Steine damals geholt statt einer RTX 2080 für 800 Tacken. :D Und die hat mir gute Dienste geleistet bis zur 3080.
 
  • Gefällt mir
Reaktionen: Cohen und Laphonso
Macht was her.
 
MeisterOek schrieb:
Also wenn mit einer 4090 100FPS bei DLSS3 rumkommen ist das für mich keine Techdemo mehr, sondern normal spielbar
Ist aber auch die Frage, mit welcher DLSS-Stufe die FPS erreicht wurden, denn das gibt Nvidia gar nicht an. Wenn man das erst mit "DLSS Performance" erreicht, wird das Spiel ja nur noch mit 1/4 der Auflösung (1080p) gerendert, was dann auch nicht mehr schön aussieht. Mit "DLSS Ultra Performance" wären es sogar nur noch 720p Renderauflösung, die dann auf 4K hochskaliert wird. Das ist dann zwar technisch gesehen spielbar, aber geht schon sehr stark zu Lasten der Bildqualität.
 
  • Gefällt mir
Reaktionen: MeisterOek
Sehr schön, da freue ich mich drauf. Habe Cyberpunk bisher tatsächlich nicht durchgespielt, weil ich jetzt seit fast 2,5 Jahren auf die finale Version warte. Mal schauen, ob in 4K mit DLSS Performance und Frame Generation die 100 FPS mit Cap gehalten werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper
bondki schrieb:
Sofern du lesen kannst, kannst du dir ja mal anschauen, was den Pascal Karten fehlt.
Pro-Tipp: Es geht um KI
ThirdLife schrieb:
Als FSR 1.0 rauskam war das gerade mal ein besseres Supersampling mit Sharpening. Auch FSR 2.0 setzt diverse Algorithmen und kein Deep Learning ein.

Sorry, und das vergleichst du mit DLSS ? Vielleicht setzt du dich mit dem technischen Background nochmal auseinander und verstehst dann vielleicht warum das halt nicht ohne dedizierte Hardware geht.

https://www.techadvisor.com/article...fx-super-resolution-whats-the-difference.html
Subsampling, nicht Supersampling! Auch DLSS unter Quality ist übrigens eigentlich SubSampling.

Aktuelles DLSS läuft auf den Tensorcores, weil Nvidia das so entschieden hat. Eine Zwischenstufe, DLSS 1.9, lief auf den Shadern.
DLSS 1 war übrigens eine reine Frechheit und FSR 1 ist dieser Frechheit sogar unterm Strich überlegen.

→ euer Tonfall ist (insbesondere angesichts der inhaltlichen Lücken!) nicht in Ordnung, und er wurde ja sogar noch schlimmer:
bondki schrieb:
Besorg dir technisches Wissen, dann darfst du mich gerne weiter zitieren.
 
Und nun? Jemand der nicht mal weiß, was bei Pascal fehlt um DLSS überhaupt erst zu können, braucht mich hier auch nicht zitieren. Punkt.

Mal ganz zu schweigen davon, dass so wie es reinruft, auch wieder raushallt.
 
  • Gefällt mir
Reaktionen: Sirhaubinger
CDLABSRadonP... schrieb:
DLSS 1 war übrigens eine reine Frechheit und FSR 1 ist dieser Frechheit sogar unterm Strich überlegen.
Der Vergleich hinkt aber Mal komplett. Fsr 1.0 kam 2 Jahre nach dlss 1.0 raus. Das kannst du eher Mal mit dlss 2.0 vergleichen und da sieht es kein Land.
Von einer Technik die 2 Jahre später rauskommt sollte man erwarten das sie besser ist.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Amos_515, MrHeisenberg und eine weitere Person
bondki schrieb:
Und nun? Jemand der nicht mal weiß, was bei Pascal fehlt um DLSS überhaupt erst zu können, braucht mich hier auch nicht zitieren. Punkt.
Da kannst du dir doch nicht einmal sicher sein. Genauso gut kann es sein, dass damit...
Dai6oro schrieb:
@bondki was ist denn der konkrete Grund dass man für die GTX 1xxx Reihe kein DLSS gebracht hat und warum bekommt AMD das hin und das für die Konurrenz ebenso wie für die eigenen Karten? Was ist der konkrete Grund?
...gemeint war, was denn der konkrete Grund war, keine Variante von DLSS 1 anzubieten, die ohne Tensorcores hätte laufen können.

Atnam schrieb:
Fsr 1.0 kam 2 Jahre nach dlss 1.0 raus. Das kannst du eher Mal mit dlss 2.0 vergleichen und da sieht es kein Land.
Von einer Technik die 2 Jahre später rauskommt sollte man erwarten das sie besser ist.
So einfach ist das nicht. Auf dem Papier klang DLSS 1 nach dem heißen Scheiß, nach dem viel hochtrabenderen Konzept als es DLSS 2.X und FSR 2.X jeweils nutzen. Es war halt nur leider nicht heißer Scheiß, sondern völliger Scheiß.

FSR 1 hingegen hat ein simples Konzept genutzt; ein wirklich simples Konzept; und dennoch wurde DLSS 1 besiegt. Ja, das liegt auch daran, dass DLSS 1 richtig schlecht war. Aber dennoch hat eine Technik auf simpler Basis eine geschlagen, die eine sehr hochtrabende Basis genutzt hat.
 
  • Gefällt mir
Reaktionen: up.whatever
Warum stecken die eigentlich noch soviel Manpower in das Game?
Wenn Du entdeckst, dass Du ein totes Pferd reitest, steig ab! 😁
 
F an alle gefallenen AMD Brüder, die CP2077 in voller Pracht erst in 4 Generationssprüngen von GPUs spielen werden können.^^
 
  • Gefällt mir
Reaktionen: Sirhaubinger
  • Gefällt mir
Reaktionen: Real_S_Seagal, MR2007, Laphonso und eine weitere Person
Zurück
Oben