• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

.Sentinel. schrieb:
Ab wann ist denn eine Rendertechnik ausgereift? Wird jemals eine davon überhaupt jamals als ausgereift bezeichnet werden dürfen nach dieser Logik?
zum beispiel wenn nicht 75% leistung verloren geht nur weil man es aktiviert. bei 300fps wärs egal aber die games die bisher RT nutzen sind allesamt 3d games wie eben CP77, Metro, BF usw.
versteh mich bitte nicht falsch. ich finde es richtig toll das auch neue techniken wie eben RT entwickelt werden und ich werde definitiv auch diese nutzen, aber eben erst wenn 1. nicht so verdammt viel leistung weg geht und 2. auch ein wirklich sichtbarer nutzen da ist.
 
  • Gefällt mir
Reaktionen: Der Professor1 und Mracpad
.Sentinel. schrieb:
Irgendwas ist zu langsam? -> Kein Problem. Zusätzliche Karte zur alten rein und schon wird es schneller.
Immernoch zu langsam? -> Kein Problem. Zwei oder drei Karten rein.
Immernoch zu langsam? -> Kein Problem. Einfach mehrere günstige GPUs auf eine Karte quetschen und sie skalieren super.
Steile These, angesichts der aktuellen Hardwarepreise/Verfügbarkeit. Ganz davon ab, das es auch praktisch nicht funktioniert. Kurz gesagt, ein Theoretiker.
 
  • Gefällt mir
Reaktionen: Mracpad
.Sentinel. schrieb:
Doch, weil die Screenspace- Reflections je nach Blickwinkel garnicht vorhanden sind.
Der Unterschied ist mir schon klar, nur wann passiert das schon wirklich oft und man merkt es und es ist relevant? Gerade bei schnellen Aktionspielen.

Ich sage ja nicht, dass es keinen Unterschied gibt, nur das man oft genug davon keine Notiz nimmt. Und es ist was anderes, wenn du hier jetzt in aller Ruhe 2 Bilder vergleichst oder über nen Flur rennst im Dauerfeuer irgendwelche Zomies beschießt. ;)
 
  • Gefällt mir
Reaktionen: Der Professor1
DarkInterceptor schrieb:
zum beispiel wenn nicht 75% leistung verloren geht nur weil man es aktiviert.
Das ganze Wesen der Computergrafik besteht daraus, dass das Aktivieren von grafischen Einstellungen Leistung kostet.

DarkInterceptor schrieb:
aber eben erst wenn 1. nicht so verdammt viel leistung weg geht und 2. auch ein wirklich sichtbarer nutzen da ist.
Es ist das Wesen der Entwicklung der Computergrafik, dass verdammt viel Leistung weg geht.
Würde man alle grafischen Optionen ausstellen hätte man zigtausende von FPS. Aber genau das ist ja garnicht das Ziel der Entwicklung und auch nicht der Grund, warum sich die Nutzer neue Grafikkarten kaufen.

Ergänzung ()

vander schrieb:
Steile These, angesichts der aktuellen Hardwarepreise/Verfügbarkeit. Ganz davon ab, das es auch praktisch nicht funktioniert. Kurz gesagt, ein Theoretiker.
Nein- Ein Praktiker.

Zeig mir mal Deine Abhandlung zum Thema Raytracing, in der die massive Parallelität der Berechnung bestritten wird.

Und untermauere Deine These, warum Multiprozessor- Architekturen mit Raytracing schlecht skaliert.
Hast Du eine Idee, warum die Ansätze, die wir in Zukunft sehen werden Chiplet und Tile- basiert sind?

Du solltest, bevor Du meine Ausführungen als "steile Thesen" abtust mal etwas tiefer in der Materie stochern...
 
In CP77 konnte Anfangs, wie bekannt, nur auf Nvidia RT aktiviert werden. Wenn bei CP77 rein die in DX12 vorgesehene implementierung DXR von RT verwendet worden wäre, müsste meines Erachtens nicht erst ein umfangreicher Patch für AMD RT veröffentlicht werden. Wenn die Karte das DX12-Feature unterstützt, sollte es auch laufen. Aus meiner Sicht spricht also viel dafür, dass die RT-Implementierung für RTX optimiert wurde und nicht für das Standard-RT DXR aus DX12. Die in RT performancemässig etwas schlechteren 6800/6900 Karten fallen daher noch weiter zurück als normal.

Irgendwie fühle ich mich an die Anfänge von Tessellation erinnert. Lief auf Nvidia anfangs auch besser als auf AMD, weil die Programmierer die Werte auf die stärkere Nvidia-Implementierung optimiert hatten, ohne einen echten Mehrwert zu generieren. AMD sah da einfach schlechter aus als nötig.

Cunhell
 
  • Gefällt mir
Reaktionen: bad_sign und DarkerThanBlack
.Sentinel. schrieb:
Es ist das Wesen der Entwicklung der Computergrafik, dass verdammt viel Leistung weg geht.
Du missverstehst ihn doch absichtlich falsch. Es ist doch klar, dass er damit auch eine Art Kosten/Nutzen Abwägung impliziert hat. Sonst würden wir ja alle 16x MSAA aktiviert haben, weil wer braucht schon mehr als 5 FPS?
 
  • Gefällt mir
Reaktionen: MindofRafi, Der Professor1, MR2007 und 2 andere
cvzone schrieb:
Der Unterschied ist mir schon klar, nur wann passiert das schon wirklich oft und man merkt es und es ist relevant? Gerade bei schnellen Aktionspielen.
Gerade bei schnellen Actionspielen lenkt nichts mehr vom Geschehen ab, als wenn das ganze Bild mit Bewegung vor sich "hinwabert".
cvzone schrieb:
Ich sage ja nicht, dass es keinen Unterschied gibt, nur das man oft genug davon keine Notiz nimmt. Und es ist was anderes, wenn du hier jetzt in aller Ruhe 2 Bilder vergleichst oder über nen Flur rennst im Dauerfeuer irgendwelche Zomies beschießt. ;)
Der Unterschied ist streckenweise enorm. Nur ist der User über die Jahre so sehr an die Rastergrafik gewöhnt worden, dass er eben kaum was vermisst, wenn es fehlt.

Ich bestreite ja auch nicht, dass die grafische Qualität von Titeln zum Teil als good enough anzusehen ist (wenngleich auch da Raytracing zum Einsatz kommt, wenn auch vorberechnet).

Ich sage nur, dass der Wechsel der Rendertechnik sowohl grafisch als auch gameplaymechanisch neue Türen öffnet, wichtig ist und bereits jetzt seine Daseinsberechtigung hat.
 
Vorwege ich bin weder AMD oder Nvidia Fan. Ich kaufe das was das für mich mehr sinn macht. Ich hatte keine Lust für eine RTX 3090 mehrere Tausend Euros auszugeben. Ich hatte aber unter Anführungszeichen Glück und konnte für 1200€ eine 6900XT ergattern. Sicher ist alles ab der RTX 3070 was RT angeht besser als meine 6900XT. Aber mir sind FPS wichtiger als RT. Genau da liefert die 6900XT ab. Ohne RT ist sie oft schneller als eine RTX 3090. Aber mit RT würde ich auch auf einer RTX 3090 nicht meine gewünschten FPS erreichen. Es wird wohl noch 1 bis 2 Generationen dauern, bis RT in richtig sinn macht, ohne das die FPS in den Keller gehen.
 
  • Gefällt mir
Reaktionen: 8087 und daknoll
Ich frag mich, was einige hier für eine Erwartungshaltung haben?

Wir wissen seit langem, dass RT jede Menge FPS frisst. Nun kommt RT für AMD und man schiebt den schwarzen Peter CDPR mit schlechter Optimierung zu, weil Cyberpunk mit RT jede Menge FPS frisst?
 
cvzone schrieb:
Du missverstehst ihn doch absichtlich falsch. Es ist doch klar, dass er damit auch eine Art Kosten/Nutzen Abwägung impliziert hat. Sonst würden wir ja alle 16x MSAA aktiviert haben, weil wer braucht schon mehr als 5 FPS?
Ich sehe die sinnvolle Grenze der technischen Qualität der Grafik bei 4K und 120FPS.
Und ja- Bis das erreicht ist, wird es immer Kompromisse zwischen FPS und Grafikqualität geben.
 
.Sentinel. schrieb:
RT ist die Zukunft. Das bestreitet doch Niemand. Nur ist die aktuelle Hardware dazu einfach noch nicht bereit genug. Nvidia mit DLSS hat den richtigen Ansatz aber bei AMD ist es wie auf RTX 2000 eher noch ein Gimmick, um es sich mal anzusehen und dann zugunsten von 120 FPS wieder abzuschalten.
 
  • Gefällt mir
Reaktionen: Der Professor1, Mracpad und Andy1978
cvzone schrieb:
RT ist die Zukunft. Das betreitet doch Niemand. Nur ist die aktuelle Hardware dazu einfach noch nicht bereit genug.
In der Vergangenheit hat man aber unter deutlich schlechteren Voraussetzungen neue Techniken eingeführt.

Man darf einfach nicht vergessen, dass wir mit RTRT so weit sind, dass Du einen Path- Traced Titel mit 4K und 60FPS spielen kannst.
Wenn man das abtut als ein "die Technik ist noch nicht so weit", dann entzieht sich das meinem Verständnis...

cvzone schrieb:
Nvidia mit DLSS hat den richtigen Ansatz aber bei AMD ist es wie auf RTX 2000 eher noch ein Gimmick, um es sich mal anzusehen und dann zugunsten von 120 FPS wieder abzuschalten.
Einverstanden. Das hat aber doch weniger was mit Raytracing zu tun, als eher damit, dass AMD nicht in die Puschen kommt....
 
  • Gefällt mir
Reaktionen: adAstra
.Sentinel.
Das sehe ich auch so. Aber man muss AMD zugute halten, das die auf dem Stand der optimierten 2000 Serie 2021 von Nvidia sind. Was ja auch eine Leistung ist. Auch sind die RX 6000 noch neu, die Treiber können sicher noch das ein oder andre rausholen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
edenjung schrieb:
Die welt ist groß aber nicht vollgestopft und wirkt dadurch überschaubar und mega immersiv.
...um deine vorherige Darstellung aufzugreifen: meinst Du das wäre sie mit knalligen Farben und stilisierter Grafik z.B. Cellshading oder Pixelstyle auch noch? Weil meiner Meinung nach ist die Welt von RDR2 so geil, weil sie eben doch schon ziemlich realistisch und glaubhaft ausschaut.

@Topic:
Wer behauptet DLSS wäre geschummelt, würde wahrscheinlich auch back in 1996 behaupten, dass die Nutzung von Glide für den Vergleich von 3D Performance "geschummelt" ist und man doch bitte nur Software-Rendering vergleichen möge. Absoluter Humbug also.
 
  • Gefällt mir
Reaktionen: foo_1337 und kaxi-85
.Sentinel. schrieb:
Irgendwas ist zu langsam? -> Kein Problem. Zusätzliche Karte zur alten rein und schon wird es schneller.
Immernoch zu langsam? -> Kein Problem. Zwei oder drei Karten rein.
Immernoch zu langsam? -> Kein Problem. Einfach mehrere günstige GPUs auf eine Karte quetschen und sie skalieren super.
Das geht aber nur bei reinem Raytracing. Soweit ich weiß gibt es einige Dinge, die Raytracing weniger liegen als Rasterisierung, zum Beispiel die Verwendung von Texturen mit transparenten Teilen, Stichwort Blätter. Auch Anti-Aliasing ist mit Raytracing sehr viel kostspieliger als mit Rasterisierung. Daniel Pohl selbst hat das in den alten CB-Artikeln so geschrieben.

Von daher gehe ich davon aus, dass es bei den meisten Spielen beim hybriden Ansatz bleibt, mit einer stufenweisen Verstärkung des RT-Teils und hoffentlich nachziehenden GPU-Architekturen. Dann werden die Shader nicht mehr mehr, wohl aber die Ray Accelerators. Da wäre dein Argument wieder richtig und man könnte diese besser in die Breite skalieren. Hoffe ich zumindest, denn das hängt wohl auch von der jeweiligen Implementierung der RT-Befehlskette ab.
 
Zuletzt bearbeitet:
Colindo schrieb:
Das geht aber nur bei reinem Raytracing. Soweit ich weiß gibt es einige Dinge, die Raytracing weniger liegen als Rasterisierung, zum Beispiel die Verwendung von Texturen mit transparenten Teilen, Stichwort Blätter. Auch Anti-Aliasing ist mit Raytracing sehr viel kostspieliger als mit Rasterizierung. Daniel Pohl selbst hat das in den alten CB-Artikeln so geschrieben.
Die Verfahren haben sich seit damals geändert. Auch das Raytracing/Pathtracing wird deutlich schlauer gemacht, als zu Zeiten von Pohls Forschungen zu dem Thema.

Der Vorteil an Raytracing ist aber doch gerade, dass Du da eben fast beliebig Kerne draufwerfen kannst und es wird schneller.
Somit sind Multi- Die GPUs mit ökonomisch optimalen Die- Größe mit optimalem Verbrauch und nicht zwangsweise hoher Taktung (Sweetspot) denkbar.

Viele kleine billig- GPUs, die am großen Projekt gleichzeitig rechnen können. Du hast ja gerade bei Raytracing den Vorteil, dass Du die Berechnung in fast beliebig kleine Teilbereiche aufsplitten kannst.

Die CPUs skalieren beim Cinebench nicht umsonst über alle Maßen. Egal wieviel Kerne du draufwirfst.
Und das wird bei all den Betrachtungen und "ist noch nicht so weit" statements eben komplett außen vor gelassen.
Die Technik wäre da. Man wäre auch so weit. Es mangelt nur an der Akpzetanz der User, weil die sich im Circle- Jerk Modus gegen die Technik befinden, weil sie aus Gründen der Besitzstandswahrung Angst davor haben, dass sich das Hardwarekarussell mal wieder etwas schneller drehen könnte...

Diese unsäglichen Fan- Wars tun ihr Übriges dazu, dass diese Technik als unnötig, Gimmick und was weiss ich noch abgetan wird.

Colindo schrieb:
Von daher gehe ich davon aus, dass es bei den meisten Spielen beim hybriden Ansatz bleibt, mit einer stufenweisen Verstärkung des RT-Teils und hoffentlich nachziehenden GPU-Architekturen. Dann werden die Shader nicht mehr mehr, wohl aber die Ray Accelerators. Da wäre dein Argument wieder richtig und man könnte diese besser in die Breite skalieren. Hoffe ich zumindest, denn das hängt wohl auch von der jeweiligen Implementierung der RT-Befehlskette ab.
So wird es wohl laufen....
 
  • Gefällt mir
Reaktionen: adAstra
Da hat CDPR wieder ein tolles Marketing-Vehikel für nvidia gezaubert. :heilig:
 
  • Gefällt mir
Reaktionen: Fixkomma
Mhm, dann auf RDNA 3 von AMD warten?
Ich meine klar ist Cyberpunk nur ein Titel, aber ich habe es schon mal zu nem Thema von Ray-Tracing allgemein gesagt, es ist ja quasi eine Technik die "normal" werden sollte, weil es "einfach" nur bedeuted das Licht auf Objekte in Echtzeit gebrochen (somit auch reflektiert) wird.
Quasi nichts anderes, als ein weiterer Schritt in der 3D-Technik wie von vorgerenderten Hintergründen zu Echtzeit-Rendering.
Und naja, auch nVidia ist mit DLSS und der 3090 im Kosten/Nutzen Sinne ja noch eher überschaubar von der Performance, also man zahlt übermässig viel mehr für einen überschaubaren realen Nutzen.
Aber, es braucht solche Generationen.

Dazu muss man aber auch sagen, dass gefühlt Cyberpunk nicht perfekt programmiert wurde, was an den vielen Köchen liegt, in den Units die das zusammen geschustert haben, als auch in der Führungsetage der Männer, die zeigen, warum Eierschaukeln und Egogeficke von alten Männern zu keinen guten Produkten führen kann.

Hier kommt also so viel zusammen.
Trotzdem muss AMD seine RT Cores optimieren, das Gute ist, es ist der erste Aufschlag mit ihnen, es kann also nur besser werden.
Das Schlechte daran ist, das kann noch einige Zeit dauern, mit der Chip-Knappheit und dem wissen das RDNA 2 gerade erst vorgestellt wurde oder erhältlich sein wird, puh, das wird noch eine Zeit der Überbrückung sein.
Kann mir aber vorstellen, dass es auf den Next Gen Konsolen aufgrund der Optimierung besser laufen wird.

Zu dem Punkt, das viele Entwickler enger mit nVidia zusammen arbeiten, das muss ja Gründe haben, finanzielle oder in Sachen Support, das sind nicht nur einfache Verträge und genau hier könnte AMD eigentlich auch rein gehen aber anscheinend will man weder finanzielle Unterstützung leisten, noch Mitarbeiter abstellen, die dann zeitweise für die Optimierung bei den Entwicklern arbeiten.
Also dass sich da nVidia quasi "rein kauft" ist nichts, was AMD nicht auch könnte.
 
Einfach böse umgesetzt, vermutlich nur RDNA2 für RT "aktiviert" und null optimiert.

Ich habe mit meiner 6800 XT in BF5 gerade mal 30% Verlust bei gleichen Settings. Wobei dort ja ein Problem generell DirectX 12 ist, das mit AMD eher semi gut läuft.

Ja, RT ist in MP Shootern heutzutage eh noch fern von nutzbar, da die Wahrnehmung vlt. nicht die höchste/beste ist beim Spieler selbst.

Aber so Titel wie CP77 sollten doch bitte etwas mehr "Energie" in die Implementierung stecken, wenn sie es schon anbieten.
 
@.Sentinel. Das hättest du mir jetzt nicht alles nochmal erklären brauchen ;)

Ich würde von "vielen kleinen GPUs in Kombination" eben nicht sprechen, bis Raytracing auch so ausgelegt ist. Bei den reinen Pathtracing-Spielen könnte das klappen, aber je nachdem, wie das implementiert ist, auch durch DXR, kann das auch schiefgehen.

Bezüglich Akzeptanz der User fände ich es sinnvoller, wenn du nur einen detaillierten Post mit deiner Sichtweise schreiben würdest, anstatt auf so viele Nicht-Akzeptanzler zu antworten. Das bläht die Diskussion unnötig auf und deine wichtigen Details aus der Sicht des Entwicklers gehen unter. Just my two cents.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben