• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Raytracing zum Start nur mit Nvidia-Grafikkarten

mibbio schrieb:
Mal so eine Vermutung in den Raum gestellt: Eventuell sind die Settings mit Raytracing nur mit aktivem DLSS flüssig möglich und deswegen nur Karten von nVidia aufgeführt. Die Radeons können zwar RT, müssten das ganze dann aber, mangels DLSS, in der nativen Auflösung rendern, wofür die Leistung weder bei nVidia, noch bei AMD ausreicht.

Könnte man ja diesbezüglich mal bei CDPR nachfragen, ob wegen notwendigem DLSS nur nVidia aufgeführt ist.


Wenn sie wegen Ampere u.a. stark auf FP32 ausgelegt ist, wirds schwerer. Denke mir dass bei RT sicherlich DLSS Performence an ist.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Artikel-Update: Die Frage der Redaktion, ob Cyberpunk 2077 Raytracing nur auf Nvidia GeForce RTX bieten wird, hat CD Projekt verneint und folgendes Statement abgegeben:

CD Projekt schrieb:
Wir arbeiten gemeinsam mit AMD daran, so schnell wie möglich Raytracing-Optionen für ihre Grafikkarten zu integrieren. Zum Launch des Spiels wird dies jedoch noch nicht der Fall sein.

Demnach wird Raytracing zur Veröffentlichung den GeForce-RTX-Systemen vorbehalten sein. Raytracing auf AMD Radeon RX 6000 wird es erst später geben.

Für wie viele FPS die jeweiligen Anforderungen gelten, konnte zur Stunde nicht beantwortet werden.
 
  • Gefällt mir
Reaktionen: i!!m@tic, Lübke82, BrollyLSSJ und 2 andere
mibbio schrieb:
Mal so eine Vermutung in den Raum gestellt: Eventuell sind die Settings mit Raytracing nur mit aktivem DLSS flüssig möglich
Interessant wäre natürlich, wenn sie RT nur in Kombination mit DLSS ermöglichen. Sie können ja argumentieren, dass es anderweitig nicht performant genug wäre. Dann wäre es wirklich ein Nvidia exklusives Feature, vollkommen unabhängig davon, ob es mittels DXR implementiert wurde oder nicht.

EDIT:
@MichaG
Ok. Das wäre auch etwas dreist gewesen.
 
@MichaG
Nix zu den FPS-Werten?
 
Bwääh, schon wieder ein knallpinker Screenshot... Je mehr ich von dem Spiel sehe, desto mehr denke ich an irgendwelche Kitsch-Spielzeugserien für verwöhnte Mädchen. Erinnert sich noch jemand an mein kleines Pony...?
Die Farbgebung war glaub ich ähnlich, pink und lila...

Und offenbar haben die Entwickler die 6000er von AMD noch gar nicht am laufen gehabt, die AMD-GraKa-Empfehlungen sind etwas seltsam im Vergleich mit NV
 
  • Gefällt mir
Reaktionen: Tatwaffe, USB-Kabeljau und Maxxx800
Dass einige Spiele jetzt schon 8 GB oder 10 GB Video RAM fordern lässt mich ein bisschen daran zweifeln, ob Nvidias Strategie den aktuellsten Karten maximal 10 GB zu verpassen wirklich die Beste war oder ob man lieber wie AMD da etwas mehr hätte verbauen sollen. So könnte sich das schon bei der nächsten Generation an Games als Bottleneck erweisen...
 
  • Gefällt mir
Reaktionen: Solavidos, Der Professor1, Maxxx800 und eine weitere Person
Punctum Maximum schrieb:
Dass einige Spiele jetzt schon 8 GB oder 10 GB Video RAM fordern lässt mich ein bisschen daran zweifeln, ob Nvidias Strategie den aktuellsten Karten maximal 10 GB zu verpassen wirklich die Beste war oder ob man lieber wie AMD da etwas mehr hätte verbauen sollen. So könnte sich das schon bei der nächsten Generation an Games als Bottleneck erweisen...

Es ist wirklich mehr als Fraglich, wie die 10GB in den nächsten 2-3 Jahren performen.
Hier muss man halt sagen, dass es wahrscheinlich auch eher Platzhalter sind -> 3080 reicht für RT Ultra + Ultra Raster -> Also mind 10GB

Watch Dogs Legion wollte auch erst 11GB für Ultra. Als dann die 3XXX Series veröffentlicht wurde warens offiziell dann auch nur 10GB.
 
  • Gefällt mir
Reaktionen: Maxxx800 und foo_1337
MichaG schrieb:
Die Zuweisung ist jedoch verwunderlich: Eigentlich konkurriert die RX 6800 XT mit Nvidias RTX 3080 und liefert im ComputerBase-Testparcours rund 50 Prozent mehr FPS als eine RTX 2080 Super.
Vielleicht haben die DLSS mit eingerechnet?

Wäre interessant, welche Target-Framerate die da ansetzen.
Kann mir irgendwie kaum vorstellen, dass ne RTX 2060 1440p auf Ultra mit stabilen 60fps rendern kann.
 
  • Gefällt mir
Reaktionen: Solavidos und Ikone
Punctum Maximum schrieb:
Dass einige Spiele jetzt schon 8 GB oder 10 GB Video RAM fordern lässt mich ein bisschen daran zweifeln, ob Nvidias Strategie den aktuellsten Karten maximal 10 GB zu verpassen wirklich die Beste war oder ob man lieber wie AMD da etwas mehr hätte verbauen sollen. So könnte sich das schon bei der nächsten Generation an Games als Bottleneck erweisen...

ha da können sich alle 3070/3080 Käufer nächstes Jahr wieder eine neue Karte kaufen, wenns NV-Fanboys sind, hat dann Nivida gut geld kassiert von diesen Käufern.
 
  • Gefällt mir
Reaktionen: fox40phil, Der Professor1 und II n II d II
Maggolos schrieb:
Watch Dogs Legion wollte auch erst 11GB für Ultra. Als dann die 3XXX Series veröffentlicht wurde warens offiziell dann auch nur 10GB.
Das liegt einfach nur daran, dass das angegeben wird, was die empfohlene Karte verbaut hat. Damals war es die 2080ti mit 11GB. Hätte die 12 oder 10GB gehabt, wäre das aufgeführt gewesen.
Ergänzung ()

USB-Kabeljau schrieb:
Kann mir irgendwie kaum vorstellen, dass ne RTX 2060 1440p auf Ultra mit stabilen 60fps rendern kann.
Schau dir die DLSS Benchmarks an von diversen Games an, dann weißt du, wieso auch ne RTX 2060 ausreicht.
 
  • Gefällt mir
Reaktionen: jdiv und stevefrogs
foo_1337 schrieb:
Das liegt einfach nur daran, dass das angegeben wird, was die empfohlene Karte verbaut hat. Damals war es die 2080ti mit 11GB. Hätte die 12 oder 10GB gehabt, wäre das aufgeführt gewesen.

Habe ich mich so falsch ausgedrückt? Der Absatz über diesem Paragraph sollte 1zu1 deine Aussage widerspiegeln
 
  • Gefällt mir
Reaktionen: foo_1337
MichaG schrieb:
Raytracing auf AMD Radeon RX 6000 wird es erst später geben.
Voher wird das Spiel nicht gekauft. Ganz einfach. 😁
 
Die lumpigen i7-6700/4790 auf dieselbe Stufe mit einem R5 3600 zu stellen ist schon ganz schön frech. Ist ja fast wie bei Userbenchmark.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax, Epistolarius, geist4711 und 9 andere
Mal sehen, an sich sollte die 1070 in WQHD@Hoch mit so 50-60 FPS laufen. Die 144 Hz von meinen Monitor werden dann den Rest erledigen.
 
Novasun schrieb:
Oh das ist aber Übel... Dann wäre die Engine wohl wirklich eine "schlechte" für AMD... Aber warten wir mal ab. Vielleicht kommt AMD`s Treiberteam noch dahinter wo die Bremse steckt...

the witcher 3 läuft auf der hauseigenen red-engine - und die kommt auch bei cyberpunk in einer neuen version zum einsatz. wieviel da überhaupt mit treibern zu machen ist, muss man sehen. wenn nvidia genügend "überzeugend" ist, dass amd in dem spiel nicht laufen soll, dann läuft amd auch nicht gut. da kann sich das amd treiberteam auf den kopf stellen und drei mal das vaterunser rückwärts beten.

die performance von radeon karten in witcher 3 war damals schon ein nicht unwesentlicher skandal, als eine ranghohe amd personalie nvidia performance-sabotage durch gameworks integration vorgeworfen hat.

davon kann man halten, was man will - fakt ist jedenfalls, dass zumindest die hairworks umsetzung die damaligen radeonkarten in einen absoluten performance-abgrund gerissen hat. da muss man schon fette grüne brillen aufhaben, um da kein kalkül zu erkennen. das ist gezieltes ausnutzen einer praxisfernen schwäche der GCN architektur.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tagesmenu, cele, Maxxx800 und eine weitere Person
ultra in 4k läuft :) freue mich schon wahnsinnig !
 
Ich weiß nicht Leute - für mich seht Ray Tracing (noch) nicht ausgereift aus.

Zu dunkel, zu viele (nicht "realistische") Spiegelungen, viele Artefakte/Bugs etc.

CP2077 wird hier keine Ausnahme sein.
 
  • Gefällt mir
Reaktionen: McFritte, Solavidos, Maxxx800 und eine weitere Person
Zurück
Oben