• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077 RT Overdrive: Pathtracing-Modus kommt am 11. April als „Techdemo“

.Sentinel. schrieb:
Man sieht an den Screens, dass es pathtraced ist.

Mas sieht ganz klar es es eben nicht komplett pathtraced ist.

Und das sind nur die Marketing Bullshit Videos.
Wie das dann aussieht, wenns jeder selbst testen kann und das nicht nur in diesem beengten neonfarbigen Innenraum werden wir sehen.

Jede Wette, die nächste reine Mareting-Lügen-Geschichte.
Kennen wir ja mittlerweile schon mehrfach bezüglich der Kombi CDRed - Nvidia.
 
  • Gefällt mir
Reaktionen: Maxxx800
MeisterOek schrieb:
Also wenn mit einer 4090 100FPS bei DLSS3 rumkommen ist das für mich keine Techdemo mehr, sondern normal spielbar. Ist ja nicht so, als wenn die Grafikkarte, die dazu notwendig wäre erst in paar Jahren erscheint. Es ist also bereits jetzt möglich damit normal zu spielen. Hatte mir da bei "Techdemo" deutlich schlimmeres vorgestellt. Außer natürlich es kommt nun zu massiven Grafikfehlern, dann wäre es natürlich weiterhin eine Demo.
Es werden aber wie immer ohne Ende Leute mit bspw. einer RTX 2060 jammern - da nennt man es lieber sicherheitshalber Techdemo.
Ergänzung ()

mcsteph schrieb:
Das ist so übertrieben, dass es total unnatürlich aussieht. Das hat man Realismus nichts zu tun, damit holt man halt die Kiddies ab
Witzig, dass man deine zweite (sinnfreie) Antwort erneut (!) mit seiner ersten Antwort, auf die du dich in diesem Beitrag beziehst, beantworten kann …
Vigilant schrieb:
Was aber nicht das Problem der Technik ist, sondern in der Definition der Materialien durch die Entwickler begründet ist. Wie oft muss das eigentlich wiederholt werden?

Es sind aber nicht nur Spiegelungen, sondern insgesamt Beleuchtung und Schattenwurf, die hier noch mal deutlich verbessert werden.
„Wie oft muss das eigentlich wiederholt werden?“ :lol:

Dass weder RTX noch DLSS was sind, wofür gerade du dich begeistern kannst, wundert wenig bei deinen sonstigen meist fanatischen Kommentaren hier …

Aber irgendwann wird auch AMD eine vernünftige, hardwareseitige Lösung für Raytracing bieten, dann wird sich die „Meinung“ selbstverständlich wieder ändern …

Aber klar, auf meiner vorherigen RX 6900 XT würde ich das bestimmt auch nicht testen wollen :hammer_alt:
 
Zuletzt bearbeitet:
GreatEvil schrieb:
Mas sieht ganz klar es es eben nicht komplett pathtraced ist.
Wieso der Strohmann?
Woran machst Du das fest?

GreatEvil schrieb:
Jede Wette, die nächste reine Mareting-Lügen-Geschichte.
Kennen wir ja mittlerweile schon mehrfach bezüglich der Kombi CDRed - Nvidia.
Wieso sehnst Du ein Scheitern herbei?
Wäre es nicht für alle Vorteilhaft, wenn es sich um keine "Marketing-Lügen-Geschichte" handeln würde?
 
Zuletzt bearbeitet:
Ich freue mich immer wenn es neue Technologien zum ausprobieren gibt. Und die sollen meine Kiste richtig in die Knie zwingen und arbeiten lassen. Irgendwann muss es halt losgehen.

Aber gut, ich komme nicht aus der Generation die gleich rumjammert wenn nicht alles superflüssig läuft.
Ende 90er/Anfang 2000er war das normal dass jedes halbwegs neue Spiel den Rechner komplett zerlegt hat. Oder man stelle sich vor Crysis 1 hätte das Ziel gehabt auf allen Systemen flüssig zu laufen. :D

Cyberpunk 2077 erst gestern angefangen zu spielen, und es läuft relativ gut für höchste Einstellungen, RT Psycho, 3840x1600, 482 mods mit TexturePacks Tweaks und erhöhter Renderdistance auf meist stabil 75fps (Monitor kann halt nicht mehr). CPU im Eco-Mode und die 4080 ist Undervolted und PL auf 44%.
Immer wieder interessant wieviel Energie verpufft wenn man keine Limits setzt.

Zum Thema AMD, eine Generation hinterher, die holt man nicht einfach so auf. Wobei ich RT zwar mag, aber den Weg mit UE5 besser finde (Lumen, LOD usw.)
 

Anhänge

  • 20230409010903_1.jpg
    20230409010903_1.jpg
    2,1 MB · Aufrufe: 199
  • 20230409011303_1.jpg
    20230409011303_1.jpg
    985,1 KB · Aufrufe: 194
  • Gefällt mir
Reaktionen: Cohen, Volvo480 und MoGas
r4v398 schrieb:
Anhang anzeigen 1339037
Total unrealistische Spiegelungen.
Ein Sturmtruppler der mit Öl eingerieben wurde, das finden manche Leute wirklich geil?!
Naja, nVidia Marketing eben, damit schoen viele anbeissen bzw. sich blenden lassen, spaetestens bei den RTX 5000er Karten, die ganz im Zeichen von Real-Time PathTracing (RT-PT) stehen duerften.

Und die genannte Auswahl lässt es bereits vermuten: Noch sind selbst High-End-Grafikkarten wie die GeForce RTX 4090 (Test) nicht in der Lage, in Triple-A-Games mit aufwändiger Grafik gänzlich ohne Rasterizer-Grafik auszukommen.
Ja, dass wurde auch von RedGaming Tech im neuesten Leak Video zu den nVidia RTX 5000er (evt. als Blackwell kommend) eroertert und da gibt es mit Sicherheit noch eine RTX 4090Ti (womoeglich mit noch hoeher getuntem GDDR6X oder dem neuen GDDR6W Speicher vom Samsung) bevor dann wohl GDDR7 bei nVidia RTX 5000er und AMD/RTG RDNA4 (und wohl auch Intel Arc C(elestial)) Grafikkarten Einzug halten duerfte.


Die in Aussicht gestellte Leistungsverdoppelung und neu strukturierte Architektur bei nVidias RTX 5000er dGPUs, laesst - auch wenn die Karten wohl erst gegen Ende 2024 erscheinen duerften - aktuelle, sehr teure Ada Lovelace dGPUs als nur noch eingeschraenkt lohnend erscheinen.

MLID geht auch von weiterhin monolithischer Architektur und einem anderen Entwicklungsansatz bei nVidia aus fuer kommende dGPU-Generationen als das bei AMD/RTG laufen duerfte, die die Chiplet Architektur ausbauen duerften.
Das wird spannend zu beobachten sein (auch bzgl. der Preis- und Modellentwicklung) und wo sich dann Intel orientieren/positionieren wird als moegliche dritte Kraft im diskreten Grafikkartenmarkt.


Ob die aktuell in neuen Spieletiteln auffaellige Speichermengen- und -interfacemisere (besonders bei nVidia) in der Einsteiger- und Mittelklasse weiterhin fortgefuehrt wird, wird man natuerlich auch abwarten muessen und es besteht die Hoffnung, dass AMD/RTG und Intel dort (weiterhin) bessere Optionen bieten werden als nVidia Karten, zumal RT-RT und RT-PT in den Leistungsklassen eher nebensaechlich sein duerften (und die Grafikkarten dafuer zu beschnitten).

Die Bandbreitenmisere wird dann evt. mit GDDR7 behoben werden, aber wenn man erzaehlt bekommt, dass Spieleentwickler fuer 4K/UHD gerne 32GB Grafikkarten in naher Zukunft haetten, duerfte die Speichermengenmisere evt. Leute (Early Adopter und Hobby Enthusaisten zuvorderst) mit jetzigen 24GB Karten irgendwann (oder vielmehr puenktlich alle 2 Jahre spaetestens) zum aufruesten zwingen ;).
 
Taxxor schrieb:
Mooooomet, ich dachte gerade ich hätte ein dejavu, aber exakt diese unterhaltung habt ihr beide schon am Mittwoch auf Seite 16/17 geführt, ihr könnt euch das hin und her also jetzt sparen^^
Der Unterschied ist, dass es diesmal in der News steht. Das war diesmal der Anlass. Beim letzten Male hatte ich auf Userkommentare mit dem Fehler reagiert.
Ansonsten sieht es übrigens auch nicht gut aus. Denn zu meiner negativen Überraschung...
.Sentinel. schrieb:
Die Problematik ist, dass wenn so etwas unwidersprochen stehen bleibt, es ganz schnell eine Eigendynamik annehmen kann, wenn es auf fruchtbaren Boden der "Technikgegner" fällt.
...hat @.Sentinel. anscheinend nicht deshalb auf mein letztes Posting nicht mehr reagiert, weil es zu einer Einsicht kam. Ich hielt es eigentlich für eindeutig und detailliert genug...
 
CDLABSRadonP... schrieb:
Der Unterschied ist, dass es diesmal in der News steht. Zu meiner negativen Überraschung...
Du bist überrascht, dass in der News das "SS" in der Abkürzung "DLSS", wie sie von Nvidia definiert ist, ausgeschrieben wird?

DLSS heißt nun mal Deep Learning Super Sampling und das scheint auch von den Leuten hier im Forum, die selbst als Entwickler recht tief in der Materie drin stecken, niemand anzufechten, außer dir.
 
  • Gefällt mir
Reaktionen: Grestorn, MrHeisenberg und Sirhaubinger
Gibt's mit "Pathtracing" dann auch endlich Reflektionen von V auf reflektierenden Oberflächen? Fand es sehr immersionsstörend, wenn mit RT alles von der Spielwelt reflektiert wird, aber ich ein körperloser Geist bin und nicht reflektiert werde.
 
Bisher habe ich auch noch keine Brechungen oder Kaustiken mit Raytracing gesehen. Wenn man aber weiß, wieviel getrickst werden muss, um Raytraced Echtzeitgrafik zu erstellen, versteht man das aber schnell.
Bis z.b. mal wirklich scharfe multi-bounce RT-Spiegelungen und Brechungen in 60fps darstellbar sind, werden noch einige Grakagenerationen ins Land gehen.

Hier ist ein schönes Video, dass den wissenschaftlichen Stand von Echtzeit-RT super erklärt. Die Begeisterung des Sprechers ist durchaus wissenschaftlicher Neugier geschuldet ;-)

Und wen die Grundlagen interessieren: Hier ist ein sehr schönes (englisches) Video dazu.
 
Zuletzt bearbeitet:
RTX On/Off, i can't see a difference. Aber doch. Stromrechnung und Anschaffungskosten. 🤣
 
  • Gefällt mir
Reaktionen: el_zoido
controlokk schrieb:
RTX On/Off, i can't see a difference.
Gerade in Cyberpunk kann man solche Aussagen doch nur als Trolling abtun....
 
  • Gefällt mir
Reaktionen: CueSystem, Grestorn, rumpeLson und 5 andere
Chismon schrieb:
Die in Aussicht gestellte Leistungsverdoppelung und neu strukturierte Architektur bei nVidias RTX 5000er dGPUs, laesst - auch wenn die Karten wohl erst gegen Ende 2024 erscheinen duerften - aktuelle, sehr teure Ada Lovelace dGPUs als nur noch eingeschraenkt lohnend erscheinen.

Die Bandbreitenmisere wird dann evt. mit GDDR7 behoben werden, aber wenn man erzaehlt bekommt, dass Spieleentwickler fuer 4K/UHD gerne 32GB Grafikkarten in naher Zukunft haetten, duerfte die Speichermengenmisere evt. Leute (Early Adopter und Hobby Enthusaisten zuvorderst) mit jetzigen 24GB Karten irgendwann (oder vielmehr puenktlich alle 2 Jahre spaetestens) zum aufruesten zwingen ;).

Die nächste Generation hat immer mehr Power oder andere Architektur usw., wenn es also nach dem Prinzip des "eingeschränkt lohnend" gehen würde, dann kauft keiner mehr Grafikkarten oder sonstige Hardware. Bei Investitionen über 1000€ ist das natürlich ein legitimer Gedanke, eine Generation zu überspringen.
3000er Gen hab ich mich verweigert. Hier gab es nur wenig Mehrwert zur RTX2080.

Bin jetzt seit 30 Jahren mit PCs unterwegs, und man ist immer mit aufrüsten beschäftigt. Der eine im kürzeren Intervall, der andere im längeren.

Früher war es immer so der 2 Jahres Takt, heutzutage wenn ich Lust habe. Die meisten Komponenten werden wiederverwertet in z.B. einen Racing-PC, Gaming-PC für die Tochter, oder jüngst der Xeon 1231v3 mit GTX1070 für meiner Mutter als Ersatz für den alten i5-760 mit GTX970 der jetzt doch das Zeitliche segnet.

Und so schließt sich der Kreis immer wieder von neuem :D
 
  • Gefällt mir
Reaktionen: Chismon und ThreepQuest64
MalWiederIch schrieb:
Dass weder RTX noch DLSS was sind, wofür gerade du dich begeistern kannst, wundert wenig bei deinen sonstigen meist fanatischen Kommentaren hier …
War das an mich gerichtet?
 
nein, an mcsteph, dein kommentar wurde nur als Musterantwort auf seinen verwendet^^
 
  • Gefällt mir
Reaktionen: Vigilant
smuggler schrieb:
Ich freue mich immer wenn es neue Technologien zum ausprobieren gibt. Und die sollen meine Kiste richtig in die Knie zwingen und arbeiten lassen. Irgendwann muss es halt losgehen.

Aber gut, ich komme nicht aus der Generation die gleich rumjammert wenn nicht alles superflüssig läuft.
Ende 90er/Anfang 2000er war das normal dass jedes halbwegs neue Spiel den Rechner komplett zerlegt hat. Oder man stelle sich vor Crysis 1 hätte das Ziel gehabt auf allen Systemen flüssig zu laufen. :D
Sehe ich exakt genau so.

Früher war es normal, dass Du Deine Settings per Hand tunen musstest, damit es "flüssig" läuft. Dafür gab es dann extra Tuning Guides, wo genau untersucht wurde welche Optionen Du runterdrehen kannst ohne dass es zu schlecht aussieht, und wie viel Leistung es bringt. Das gibt es irgendwie gar nicht mehr so richtig, oder eher selten.

Archive of TweakGuides.com
 
Chismon schrieb:
Die in Aussicht gestellte Leistungsverdoppelung und neu strukturierte Architektur bei nVidias RTX 5000er dGPUs, laesst - auch wenn die Karten wohl erst gegen Ende 2024 erscheinen duerften - aktuelle, sehr teure Ada Lovelace dGPUs als nur noch eingeschraenkt lohnend erscheinen.
Die Leistungsverdopplung kommt fast sicher nur in Raytracing / Pathtracing Scenarien mit nochmal verbessertem DLSS.

Was TSMC zum Node sagt, von Wikipedia:
TSMC has stated that its 3 nm FinFET chips will reduce power consumption by 25-30% at the same speed, increase speed by 10-15% at the same amount of power and increase transistor density by about 33% compared to its previous 5 nm FinFET chips.
Das ist nicht nahezu genug um in Rasterization die Performance zu verdoppeln.

Bei einer Ziel-Geschwindigkeit von 3GHz wäre das 20% Mehrleistung dadurch (gegenüber dem aktuellen offiziellen Boost bei 2,5GHz) - und das wäre auch mit durch höhere Leistungsaufnahme erkauft, dann sind wir bei >500W TDP.
Durch eine um 33% höhere Transistordichte können wir vielleicht 33% mehr ALUs erwarten - vielleicht 50%, falls sich nvidia nochmal zu einem >700mm² Monster Die entscheidet. Völlig abstrus ist das nicht, zuletzt hatten wir 754mm² bei der RTX 2080. Die 3000er und 4000er Chips waren beide 'nur' knapp über 600mm².

Aber bestenfalls haben wir 20% mehr Takt und 50% mehr ALUs. Theoretisch also die 1,8-fache Rechenleistung - bei Faktor 2 sind wir da nicht.
Dazu kommt, dass insbesondere mehr ALUs alles andere als perfekt skalieren.

Beispiel zur Skalierung:
Die RTX 4090 hat 16384 ALUs, die 4070Ti hat 7680 - also Faktor 2,13. Im Durchschnitts-Takt bei 4K ist die 4070 Ti nur 50MHz über der 4090, das sind rund 2% Unterschied. Auch Taktbereinigt ist die rohe Rechenleistung der 4090 mehr als doppelt so hoch wie die der 4070 Ti.
Ich lade dich ein, mir einen Test zu suchen, in dem die 4090 eine mehr als 80% höhere Rasterizer-Performance zeigen kann gegenüber der 4070 Ti.

Rechnerisch: 1,5 [mehr ALUs] * (1,8/2,13) [Tatsächliche höhere Performance vs höhere Rechenleistung, best-case] = 1,27 [Performance-Gewinn durch mehr ALUs bei riesigem >700mm² Die]
1,27 * 1,2 [Takt-Plus] = 1,55 [Zu erwartende maximale mehr-Performance im Rasterizer]

Soll heißen: Wenn die RTX 5090 auch nur 60% Performance-Gewinn gegenüber der RTX 4090 schafft, staun ich einen Brocken. Ich rechne eher mit 50% besserer Rasterizer-Performance... bei 600W TDP.


Im Vergleich: Die 4090 schafft ggü der 3090 vielleicht 75% mehr Performance bei 52% mehr ALUs und 40~45% höherem Takt weil nvidia beim Sprung von Samsung 8nm auf TSMC 4nm die Taktschraube enorm hochdrehen konnte. Das wird bei 4nm auf 3nm nicht möglich sein.

Mach dich also mal mental darauf bereit, dass die RTX 5090 dich enttäuschen wird...
 
  • Gefällt mir
Reaktionen: Marflowah
Also mich macht die Ankündigung ganz wuschig. Und ich bin ernsthaft am überlegen, ob ich mir eine lackgesoffen teuer 4090 holen soll.
Meine 970 hat sich ihren Ruhestand verdient. Und ich will eh auf UHD aufsteigen. Da brauch ich mit weniger als einer XTX/4080 gar nicht erst anfangen. Auf die paarhundert Euro mehr kommt es dann auch fast nicht mehr an...

Dammit Nvidia!
 
  • Gefällt mir
Reaktionen: Jeffry26
Rickmer schrieb:
Die Leistungsverdopplung kommt fast sicher nur in Raytracing / Pathtracing Scenarien mit nochmal verbessertem DLSS.
Realistisch gesehen braucht es wohl auch Ende 2024 keine Verdoppelung der Rasterperformance, die einzigen Spiele, die eine 4090 ins Schwitzen bringen können, sind eben jene mit Raytracing.

Also wenn man eine Verdoppelung der RT Performance hin bekommt und nebenbei vielleicht noch 20% mehr Rasterperformance mitnimmt, wäre das schon ein Schritt in die richtige Richtung, denn dann geht man langsam aber sicher dazu über, dass Path Tracing immer mehr ersetzen kann und man so auch wieder weniger Rasterleistung braucht.
 
müsste halt dahin gehen dass es egal welche karte irgendwie stämmen kann so wie klassiche beleuchtung. wenn wir an dem punkt sind kommt da sgnaze auch aus der gimmik ecke raus. weil obwohl die großen PC games die technik schon gelegentlich einsetzen ist es noch ein weiter weg ist einen generellen umschwung festzustellen. besonders für die tatächlich größten PC spiele und Esports titel.

die technik ist wirklich da wenns jeder barrierelos benutzen kann.
 
Zurück
Oben