• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Raytracing zum Start nur mit Nvidia-Grafikkarten

Eines der wohl bestimmt besten Games aktuell hat keine "Verramschung" wie auf MyDealz verdient.

Ich habe zum Preis von 60 € bei GOG vorbestellt und erhalte alle Vorzüge wie Patches lückenlos, unkompliziert und mit reinem Gewissen CD Project gegenüber, die mir schon seit 2007 mit The Witcher meine Zockersessions versüßt haben.

Sowas habe ich stest in guter Erinnerung. Es setzt sich weiter fort und wird entspr. honoriert gegenüber dem AAA-Mist, der einem sonst so oft geboten wird!!

The Witcher musste sich als AAA erstmal durchsetzen und hat es, abgesehen von Teil 2, der damals einfach zu hohe Anforderungen ans System stellte, geschafft.

Ich hätte sehr, sehr gerne ein "The Witcher 4" unterstützt, aber naja. ☺
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna, Windell, Cpt.Willard und 4 andere
@Goozilla

Nichts für ungut aber bei einer teils so fehlerhaften Umsetzung wie in dem Vergleichsvideo verzichte ich gern darauf. Das einzige was mir wirklich gefallen hat war die Spiegelung in den Pfützen. Gerade reflektierte, bewegte Objekte scheinen ein ziemliches Problem zu sein.
 
  • Gefällt mir
Reaktionen: Mcr-King und Goozilla
Wadenbeisser schrieb:
Da wäre ich mir nicht so sicher denn in den sinnlos überzogenen Tesselationsfaktoren war nvidia dennoch schneller und die Tesselationsleistung wurde schon lange nicht mehr verglichen.
Muss auch nicht mehr wirklich verglichen werden. Mit der Tesselierung ist es inzwischen fast wie damals mit Anisotroper Filterung.
Ob man das nun zuschaltet oder nicht ist den heutigen Karten egal. Früher hat das richtig ins Rechenbudget geschlagen.
Die Tesselierungseinheiten sind mit Polaris deutlich aufgewertet worden. Seitdem gibt sich das nichts mehr.
Hat nur keiner weiter verfolgt.


Zuletzt hatte ich in der Erinnerung das man lediglich bis zum mittleren Bereich aufgeholt hatte. Bei der so gern gnadenlos überzogenen Tesselation, wo die Dreiecke schon kleiner als die Pixel wurden, waren sie dennoch führend.
Auch da haben die Karten schon länger einen so hohen vertex- Durchsatz, dass das nicht groß zum Tragen kommt.
Bzw. wichtiger- Die Einheiten sind sowohl bei Nvidia als AMD so stark, dass es da kein Thema mehr gibt.
Würde man irrsinnige Faktoren fahren, verlieren beide gleich viel-> Sinnlos.
Hatte ja weiter vorne ein par Videos dazu verlinkt.

Bei den Gameworks Spielchen waren dann auch noch so Geschichten drin wie das bestimmte Berechnungen anfangs nur auf gforce GPUs beschleunigt und bei der Konkurrenz auf die CPU ausgelagert wurden (z.B. einige Physik Berechnungen)
Genau- Aber da war GPU PhysX die Ausnahme. Das war hardwarebeschleunigt. Alle anderen Bibliotheken sind mit der gleichen Performance auch auf den Konkurrenzprodukten auszuführen.

was heute oftmals anders ist aber nach meinem letzten Wissensstand herrscht da dennoch nicht Gleichheit.
Kannst Du mit Assassins Creed Unity testen. Da ist PCS, HBAO+ und noch einige andere Gameworks- Dinge am Laufen. Da gibts keine Unterschiede mehr.

Es hat schon seinen Grund warum gerade bei den Gameworks Titeln die Geforce Karten gern mal besser abschnitten und die Radeons trotz Konsolen Versionen (ohne Gameworks...) erstaunlich schlecht liefen.
Spiele die allgemein nutzbare AMD Features nutzten liefen da meist deutlich neutraler.
Wie gesagt- Das war, weil AMD bei 2 Generationen an Karten einfach schwächere Recheneinheiten für bestimmte Zwecke hatte.
In Gameworks stecken aber keine "künstlichen" Bremsen. Ich hab die Bibliotheken mal auseinandergenommen.
Richtig performant geht anders, allerdings ist aber auch die Güte bzw. Berechnungsqualität recht hoch.

Dennoch wird da keine Karte bzw. kein Hersteller "ausgebremst", sondern es wurden die unterschiedlichen Stärken der Recheneinheiten herausgestellt.
Keine Vendor- Abfrage, keine Codepfad- Pfuscherei und keine proprietären Aufrufe...

Die Situation ist ein bißchen vergleichbar jetzt mit RTRT. Da hängt AMD einfach ein bisserl nach.
Und die Stimmen, die da Manipulation wittern bleiben natürlich nicht aus. Da tut man nvidia aber auf Softwareseite einfach unrecht.
Schon damals bei Witcher 3, wo es CDPR einfach versäumt hat, den Default- Wert bei Hairworks zu ändern.
Das war diese unsägliche Bremse, die sowohl nvidia- Karten und überproportional AMD Karten unnötig in die Knie gezwungen haben.

Danach hat AMD im Treiber einen Hotfix integriert und kurz darauf kam auch schon der Patch im Spiel selbst, wo man einen Regler für die Hairworks- Qualität hatte.

Da gabs im Forum schonmal eine sehr ausgedehnte Diskussion dazu, wo sich nachweislich keine der involvierten Firmen (nvidia, amd, cdpr) mit Ruhm bekleckert hat. Das war eher ein blöder Unfall bzw. Bug, wo sich die Firmen und die User anschließend gegenseitig mit Dreck beworfen haben.
Das bleibt nunmal im Gedächtnis hängen.

Genauso wie ich jetzt einem AMD nicht unterstelle bewusst die RTRT Werte in Watchdogs Legion zu manipulieren um sich in Benchmark- Messungen einen Vorteil zu verschaffen.
Da werden ein großteil der RT- Spiegelungen nicht berechnet und dementsprechend scheint die Performance deutlich zu Gunsten der AMD Karten auszufallen.

Inzwischen ist das Zeug alles so transparent und die Hersteller liefern einem so viele Hilfsmittel durch Profiler an die Hand, dass da ein Schwindel oder ein gezieltes Benachteiligen sofort ans Licht käme und einen Shitstorm epischen Ausmaßes nach sich ziehen würde. ;)

Da ist es aber halt auch immer so eine Sache, auf was ich optimiere. Dirt 5 z.B. ist so ein Kandidat, der ganz auffällig viele Berechnungen über INT32 durchführt (war bei den vorhergehenden TIteln nicht so).
Und zufällig kann dann Ampere seine Vorteile nicht ausspielen. Ein Schelm, wer Böses dabei denkt.

Ich denke, da nehmen sich die Firmen gegenseitig nicht so viel, wie es oftmals den Anschein hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade, KlaasKersting, adAstra und 2 andere
Schon interessant, wieviele Faktoren jetzt eine Rolle spielen, die vor 2 Jahren absolut kein Thema waren.
8-16 Threads in einer allerwelts CPU, 16(24!) GB VRAM, RT und DLSS uvm.
Der Aufwand für die Programmierer muss enorm sein um auf so vielen Setups wie möglich ein gutes
Ergebnis zu erzielen. Das Spiel an sich rückt dabei immer mehr in den Hintergrund und wird oftmals zur
spielbaren Techdemo, auch die Reviews sind voll von Technobabble und helfen wenig beim Kaufentscheid.
 
  • Gefällt mir
Reaktionen: xXcanwriterXx, LipsiaV und Mcr-King
Nvidia als Partner...damit weiss man, wie diese Einordnung zustande kommt und dass die Tabelle zumindest für AMD-user fürn Arsch ist.
 
  • Gefällt mir
Reaktionen: nekro1, littlem0j0, flug_rosetto und 2 andere
@.Sentinel.

Ich stelle mir da eher die Frage warum man solche sinnlosen Tesselationswerte überhaupt per default setzt. ;)
Gerade bei der Tesselation wurde die Konkurrenz nur allso gern künstlich ausgebremst denn wie hoch der Leistungseinbruch kann dem Hersteller ja egal sein wenn er selbst dann das schnellere Produkt liefert.
Als absolutes Negativ Beispiel habe ich beispielsweise auch die ersten beiden Metro Teile in Erinnerung wo per default die erweiterte Physik aktiviert wurde und die lief bei nvidia und der Konkurrenz jeweils wo? ;)

Edit: Ach bevor ich es vergesse, von relativ vielen Int Operationen profitierte bereits Turing im Vergleich zu Pascal, Ampere ging natürlich aufgrund dessen Arbeitsweise leer aus.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: GerryB
6800XT zum gamerelease kein DXR:
Schade das AMD mit CDPR nicht so gut zusammengearbeitet hat wie NVidia mit CDPR, denn dann würde vielleicht die gelistete DXR Radeon auch zum Spielelaunch DXR unterstützen.

Selbstverständlich ist nun ein fader Beigeschmack.
 
Na das sind ja mal gute Nachrichten bezüglich der Systemanforderungen.
Meine 3070 kommt morgen an und kann sich dann schonmal bei Metro und Control warmlaufen.

Und in 3 Wochen heißt es: Cyberpunk installieren, WQHD+RTX On+DLSS on und ab geht die wilde Fahrt! 😃

Ikone schrieb:
Selbstverständlich ist nun ein fader Beigeschmack.

So Fade wie der hier? https://www.pcgameshardware.de/Godf...aytracing-AMD-NVIDIA-Support-spaeter-1362122/

Da können ja die AMD User erstmal Godfall mit RT durchspielen und nVidia User gucken derweil in die Röhre.
Es ist das klassische Sandkastenspiel. Wenn du mir dein Schippchen nicht gibst, kriegst du mein Förmchen auch nicht.
 
  • Gefällt mir
Reaktionen: choyaa und nekro1
@borizb Wenn mans gescheit macht, sollte das eigentlich kein Aufwand sein.

Einfach erst mal alles einzig für die beste Endnutzer-Hardware programmieren und optimieren (hier dann 16c32t und RTX 3090) und danach bis zur schwächsten Hardware die man unterstützen will runteroptimieren.

Zumindest wäre das der Idealfall was, wie man leider weiß, nie irgendwo in der Praxis umgesetzt wird.
 
bl!nk schrieb:
Wow, hätte nicht gedacht, dass meine Einschätzung vom Sommer die Vega 56 für WQHD in Cyberpunk durch eine gebrauchte RX5700 XT zu ersetzen so eine derbe Punktlandung ergibt.

Selbst wenn die Empfehlung für 30 FPS gelten sollte, dürfte ich durch das verzichten auf eine Detailsstufe bei einigen Optionen (Schatten, Partikel) ohne extrem sichtbare Verschlechterung auf die von mir gewünschten >40 FPS kommen.

Das werde ich auch mit meiner vega56 schaffen.
 
  • Gefällt mir
Reaktionen: bugmum
Wadenbeisser schrieb:
@.Sentinel.

Ich stelle mir da eher die Frage warum man solche sinnlosen Tesselationswerte überhaupt per default setzt. ;)
Das waren noch Überbleibsel von der Attributierung einer Demo, die sie (nvidia) kurz vorher released hatten.
Eher mit heißer Nadel gestrickt und die neueste Version der Bibliothek einfach mit den dort hinterlegten Werten weitergegeben.

Selbes Spiel bei CDPR. Auch bei Witcher 3 wurde es alles sehr eng und auch mehrfach verschoben.
Die haben das schlichtweg am Schluss noch schnell "reingequetscht" und einfach nicht ordentlich getestet. Sonst wäre das aufgefallen, dass man mit AMD Karten deutlich unter die 30FPS fällt.

Als absolutes Negativ Beispiel habe ich beispielsweise auch die ersten beiden Metro Teile in Erinnerung wo per default die erweiterte Physik aktiviert wurde und die lief bei nvidia und der Konkurrenz jeweils wo? ;)
Generell hat mir das PhysX für meinen Geschmack viel zu viel Leistung abgezogen.
Ob das Default gesetzt war oder nicht... weiss ich ehrlich gesagt nicht mehr.

Wenn man die default config ansieht, sieht es aber eher nicht danach aus:
https://nothingherethatsspecial.fandom.com/wiki/Metro_2033/user.cfg
https://extreme.pcgameshardware.de/...ght-redux-aufloesung-nicht-aender-bar.382404/
Keine Ahnung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade und Mcr-King
Taxxor schrieb:
Die Aussage ist wohl schlecht gealtert ^^
Ich dachte Zeug von AMD altert idR besser. :D

@Topic
Wenn DLSS verwendet wird, AMD Raytracing später aber auch können soll, wird sicher erst AMDs DLSS-Gegenstück fertig sein müssen, bevor es Raytracing mit AMD in Cyberpunk gibt.

So, wie sich das im Test der 6800er gelesen hat, könnte das also noch ein ganzes Weilchen dauern.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Ikone schrieb:
Schade das AMD mit CDPR nicht so gut zusammengearbeitet hat wie NVidia mit CDPR
Die haben einen Batzen Geld von Nvidia dafür bekommen das es exakt so passiert - also pack deinen faden Beigeschmack einfach mal weg. So ist das eben bei "sponsored" Titeln - deswegen hat auch Godfall (ist halt nicht populär) am Anfang kein DXR für Nvidia.
 
  • Gefällt mir
Reaktionen: eXe777 und Mcr-King
Und wieso funktioniert dann RT mit WDL (Die Fehler mal ausgenommen) und in Cold War mit den AMD Karten? Auch da war nvidia sehr involviert.
 
Hat CDP niemand gesagt, dass man 2020 kein Game mehr rausbringt das nur 8GB VRAM braucht.
Das kann ja mal ein Texturmatsch werden :D .

.... oder die zeigen wieder mal, dass man auch Top Texturen/Grafik abliefern kann mit "nur" 6GB / 8Gb VRAM.
 
  • Gefällt mir
Reaktionen: empsim, KlaasKersting, Mcr-King und eine weitere Person
Czk666 schrieb:
Das werde ich auch mit meiner vega56 schaffen.

Wenn die Empfehlung von CDPR für 60 FPS gilt, dann ist das umso besser. Eventuell kann ich dann ohne weiteres Grafikkartenupdate auf UWQHD umsteigen. Naja, mein Bruder freut sich so oder so, dass ich im Sommer aufgerüstet habe, so kann er erst einmal die Vega 56 nutzen, bis die neuen Karten von nVidia und AMD dann endlich mal vernünftig verfügbar sind. :)

@Vitec

Beim Witcher war es zwar kein Texturenmatsch, aber auch nicht die Offenbarung zum Release. Nicht umsonst wurde da die Riesentexturmod erstellt.
 
Vitali.Metzger schrieb:
Bin in der gleichen Zwickmühle, jetzt mit der 1070 zocken oder auf die RX 6800 Pulse warten 🤔
Ich auch und werde es auch auf der 1070 zocken. Grafik wird schon passen. Am besten so Sachen wie Kantenglättung und diverse Postprocessing Effekte (die man eh kaum wahrnimmt) runterschrauben, dann bleibt mehr für die elementaren Grafikelemente.
 
  • Gefällt mir
Reaktionen: Czk666, Windell und Mcr-King
Zurück
Oben