• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Raytracing zum Start nur mit Nvidia-Grafikkarten

Was glaube viele verstehen nicht warum hier so "niedrige" CPU Anforderungen gestellt werden. Natürlich reichen die genannten CPUs auch um eine 3080 in 1080p zu befeuern, halt für (geraten) 45-60 FPS! Ohne irgendeine Aussage zur Bildrate völlig unsinnig!
MMn sind die Angaben weniger Wert als das Papier auf dem sie stehen und wurden wahrscheinlich ganz bewusst so gestellt um die Anforderungen möglichst niedrig aussehen zu lassen. Sry aber ich glaube einfach noch nicht dass das am Ende so stehen bleibt für halbwegs stimmige FPS. Natürlich lasse ich mich da gerne eines besseren belehren.
 
  • Gefällt mir
Reaktionen: Highskilled
duskstalker schrieb:
davon kann man halten, was man will - fakt ist jedenfalls, dass zumindest die hairworks umsetzung die damaligen radeonkarten in einen absoluten performance-abgrund gerissen hat. da muss man schon fette grüne brillen aufhaben, um da kein kalkül zu erkennen. das ist gezieltes ausnutzen einer praxisfernen schwäche der GCN architektur.
Du sogar mit einer 980ti habe ich hairworks nie angehabt.
Hab die woche tomb Raider gezockt und muss sagen, dass mir das AMD pendant besser gefällt.
 
  • Gefällt mir
Reaktionen: Celinna und Mcr-King
.Sentinel. schrieb:
Wie oben bereits geschrieben gibt es da nichts mehr, was man in den Griff bekommen müsste, da die Tesselierungseinheiten bei AMD inzwischen ähnlich stark sind....
Jein,
ich hatte geschrieben "je nach Gen"

foo_1337 schrieb:
Es liegt weniger am VRAM. Die Power reicht einfach nicht aus. Du hast die Wahl zwischen 4k ohne RT oder WQHD inkl. RT. Mit der 6800 geht ...
Normal sollte doch Perf. zu fast doppelten Fps reichen.(ausgehend von ColdWar)
Wie ne 6800xt in WQHD laufen würde weiss Keiner. (net mal Dr. FuManchu)

btw.
Die Riftbreakerdemo läuft mit leicht besseren Ergebnissen ggü. dem älteren Post.
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread
 

Anhänge

  • DLSS-Cold-War.png
    DLSS-Cold-War.png
    318,9 KB · Aufrufe: 368
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
edenjung schrieb:
Du sogar mit einer 980ti habe ich hairworks nie angehabt.
Hab die woche tomb Raider gezockt und muss sagen, dass mir das AMD pendant besser gefällt.
Mir gefallen die Haarsimulationen beider "Grafikkartenhersteller nicht sonderlich".
Die Game- Engine- Entwickler machen das meines Erachtens noch am natürlichsten:
 
  • Gefällt mir
Reaktionen: KlaraElfer, cruse, Maxxx800 und eine weitere Person
GerryB schrieb:
Normal sollte doch Perf. zu fast doppelten Fps reichen.
Die angegebenen 1440p mit RT sind ja schon mit aktiviertem DLSS. Für 4k wären dann 1440p inkl. RT nativ notwendig. Das packt die 3070 einfach nicht (mit rund 60fps). Und wenn es am VRAM liegen würde, wäre die 2080ti bei UHD aufgeführt. Ist sie aber nicht:

At 2560x1440, we recommend a GeForce RTX 3070 or GeForce RTX 2080 Ti. Ray tracing is taken to Ultra, which greatly increases the fidelity of the aforementioned effects, and the distance at which they are visible, while DLSS provides boosted frame rates with uncompromised image quality. And with rasterized settings also being cranked to Ultra, GeForce RTX 3070 and 2080 Ti gamers receive an incredible experience at the highest detail levels, unmatched by any other platform.
 
Zuletzt bearbeitet von einem Moderator:
itsommer schrieb:

Wo ist denn RT zu dunkel? Wenn du bei Metro Exodus meinst, waren die Tester damals einfach nur zu blöd den Helligkeitsregler richtig einzustellen. Und zu viele Daus sprangen darauf an.
 
GerryB schrieb:
Wie ne 6800xt in WQHD laufen würde weiss Keiner. (net mal Dr. FuManchu)
Ich sprach ja auch von der 6800. Aber wenn man z.B. Control als Grundlage nimmt, sieht es auch mit der xt schlecht in 1440p aus. Jedenfalls ohne Supersampling.
 
Artikel-Update: Nvidia hat als Partner den aktualisierten Systemanforderungen für Cyberpunk 2077 eine eigene Meldung gewidmet. Darin heißt es, dass zumindest bei den Mindestanforderungen für Raytracing („RT Minimum“) der Einsatz von DLSS einbezogen ist. Auch bei den Konfigurationen für 1440p („RT High“) und 2160p („RT Ultra“) ist von DLSS für höhere Bildraten die Rede. Mangels Angaben, für wie viel FPS die Systemanforderungen gelten, lassen sich die Äußerungen nur schwer einordnen.

Nvidia schrieb:
The minimum GPU for Ray Tracing, at 1920x1080, is the GeForce RTX 2060. Gamers will explore Night City with Medium Ray Tracing Preset powered by DLSS.
Danke an Community-Mitglied Linmoum für den Hinweis.
 
  • Gefällt mir
Reaktionen: fox40phil, mibbio, cruse und 3 andere
mc_ace schrieb:
Info an die Fake News Fraktion:
Habe heute auch gelesen, dass AMD volle Raytracing Unterstützung für Cyberpunk 2077 direkt ab dem Launch erhält. Das zum Thema Gerüchte, dass Cyberpunk (ab Launch) kein RT für AMD bietet.

Die Aussage ist wohl schlecht gealtert ^^
 
  • Gefällt mir
Reaktionen: KlaasKersting, Cool Master, C3LLoX und 11 andere
foo_1337 schrieb:
Ich sprach ja auch von der 6800. Aber wenn man z.B. Control als Grundlage nimmt, sieht es auch mit der xt schlecht in 1440p aus. Jedenfalls ohne Supersampling.
Control ist einfach vermurkst, ähnlich QuantumBreak auf AMD nur mit 30fps-Lock sinnvoll.
Konsolenports sind net immer glücklich gelöst. Da fährt man am sparsamsten mit dem guten alten DoubleVsync-Effekt.

Du hast Recht, wird interessant RTX 2080Ti vs. RTX3070.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MindofRafi und Maxxx800
cmi777 schrieb:
Die neuen Konsolen werden das erst mit dem "Next Gen"-Patch nächstes Jahr bekommen, vermute ich mal. Wenn es ganz dumm läuft, kommt dann auch erst der RT-Patch für RDNA2.

Die große Frage ist halt: wieviel von der "Magie" von CP2077 kommt vom RT und wieviel macht bereits "nur" high bzw. ultra aus. Ich bin aber sicher, auch ohne RT sieht das ganze bombastisch aus.

Das AMD hier wieder hinten ansteht, ist leider nicht überraschend, da CDPR immer "Pro-Nvidia" sind. Siehe die Diskussionen um Witcher3 etc. Hatte auch gehofft, das ist diesmal anders.
Danke für die Info mit dem Patch. Bis jetzz finde ich RT nicht sehr berrauschend. Bei Watcj Dogs sieht es nicht wirklich besser aus.
 
  • Gefällt mir
Reaktionen: Mcr-King
MichaG schrieb:
Auch bei den Konfigurationen für 1440p („RT High“) und 2160p („RT Ultra“) ist von DLSS für höhere Bildraten die Rede.
Cool, dann wird also für 1440p RT eine 3070 inkl. DLSS empfohlen.

Selbst wenn "empfohlen" nun für 60fps stehen sollte(was man immer noch nicht weiß), würde man mit einer 6800XT hier vermutlich irgendwas um die 30fps sehen. Wenn es für 30fps steht, sieht's noch düsterer aus.

Und das setzt bereits voraus, dass die 6800XT ohne RT die Leistung einer 3080 hat. Wenn sie da schon 10-30% schlechter ist, analog zu Witcher 3, braucht man RT hier mit AMD auch nach dem Patch gar nicht anzufassen, bevor FFX SR nicht draußen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Das Game wird in 4K UHD mit RT sicherlich sehr gut aussehen, da bin ich ja echt mal gespannt. Bin bisher sehr zufrieden, da ich endlich meinen UHD TV Monitor mit der RTX 3080 befeuern kann. Da macht es richtig Spaß, so manches Game nochmals zu spielen und die Grafik zu genießen!
 
  • Gefällt mir
Reaktionen: Karl S.
Tja, willkommen in der NextGen, wo man die Graka nach den Spielepräferenzen aussuchen muss ;)
 
  • Gefällt mir
Reaktionen: GERmaximus, andy484848, Laphonso und eine weitere Person
Dann wird Cyberpunk eben dieses Jahr mit einer geliehenen 2080Ti gespielt. Vorteil ist, dass ich dann auch vernünftige Preise für die 6800XT Customs abwarten kann^^
 
  • Gefällt mir
Reaktionen: adaptedALPHA und foo_1337
Taxxor schrieb:
Cool, dann wird also für 1440p RT eine 3070 inkl. DLSS empfohlen.
Dann noch Perf.Mode, oder ? = Schwachsinn
 

Anhänge

  • DLSS-Auflösung.png
    DLSS-Auflösung.png
    31,2 KB · Aufrufe: 388
GerryB schrieb:
Dann noch Perf.Mode, oder ? = Schwachsinn
Hast du dir den Perf Mode in 1440p auch mal angesehen? Und 720p ist grundsätzlich auf einem 1440p Monitor skaliert erstmal besser als 1080p, da es genau die halbierte Pixelzahl ist. 720p wird pixeliger, 1080p hingegen verzieht auch das Bild.
 
Das Wording ist: uncompromised image quality. Daher würde ich eher vom Quality oder zumindest Balanced ausgehen.
 
Gsr997 schrieb:
Bei Watcj Dogs sieht es nicht wirklich besser aus.

Dann schau einfach besser hin. Ich find es deutlich besser. Die Details machen halt den Unterschied!

 
  • Gefällt mir
Reaktionen: KlaasKersting, darkspark, C3LLoX und 7 andere
Zurück
Oben