• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht Quo vadis, Cyberpunk 2077?: Die SMT-Problematik mit und ohne „Hack“ im Community-Test

Verangry schrieb:
Ich habe jedenfalls keine Lust mehr irgendwas zu recherchieren und zu testen das am Ende als "Nimm es so hin wie es ist, wir machen nichts" abgetan wird und werde solche Spiele dann einfach nicht kaufen.
Es zwingt dich ja auch keiner... und ehrlich gesagt, bis hier hin war mir das Thema unbekannt. Spiel lief (bin bei 1.04 eingestiegen) von der ersten Minute an wie Sahne! Einfach nur Episch das Spiel. Tipp. Mehr Spielen. Weniger Messen.
 
  • Gefällt mir
Reaktionen: Stimpanse, hansdampf84 und MR2007
Tom_111 schrieb:
Nein, seit ich WQHD habe macht das Zocken viel mehr Spaß als mit FHD. FHD ist schrecklich seit ich WQHD gewohnt bin.

Nun stell dir vor wie das mit UHD/4K ist ;) Vor allem auf 27" wo man 0 Pixel sieht.

Aber ja, der Schritt 1080 auf 1440 ist deutlich mächtiger als von 1440p auf 2160p.
 
  • Gefällt mir
Reaktionen: Wintermute
Ich habe das Spiel, wie bereits mehrmals erwähnt, mehr als nur einmal durchgespielt.

Spiele wie "Forspoken, Star Wars Jedi Survivor, Hogwarts Legacy, Gollum" und und und sind allesamt super programmiert.. Oh Moment...

Laut Tests sind die so schlecht programmiert, hätte das doch nur jemand getestet.. Ah ne, lieber spielen macht ja mehr Spaß..

Ich wünsche mir die Closed Betas zurück, samt Auswahl von Testern die Berichte schreiben wenn etwas nicht klappt. Was gibt es stattdessen? Unfertige, fehlerhafte Produkte, schlecht programmiert, aber "Hauptsache macht Spaß"..

Bei solchen Aussagen wie deiner kann ich echt nur den Kopf schütteln.

Probleme erkennen und beheben sollte gerade für die Entwickler auf der To-Do Liste ganz oben stehen, stattdessen wird released und Geld gemacht.

Klar kann immer mal ein kleiner Bug entstehen oder durchrutschen bei der Qualitätssicherung, aber es wissentlich zu ignorieren, in diesem Fall schon über zwei Jahre lang, ist einfach nur unterirdisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cm87 und Jan
DocWindows schrieb:
Was ist denn wenn das Auscanceln dieser Abfrage in Mission X im Endgame aufgrund eines Konflikts in der SMT Behandlung dafür sorgt, dass das Spiel abstürzt und vielleicht den Spielstand schrottet?
Wenn das passiert, wäre der Code eh schon massiv defekt. Ruckler und schlechte Frames ist was sich höchstens ändern sollte, wenn nicht deutlich massivere Probleme im Code stecken.

Und dann ist es auch nicht unbedingt falsch zu sagen, "es nicht nicht notwendig". Es ist höchstens notwendig für gute Performance auf bestimmten System. Korrekt laufen (also ohne Abstürze und Korruption sollte es absolut unabhängig davon.
Die Frage ist eher, gibt es Fälle für die es notwendig ist für ok Performance vs. wie viele andere Fälle werden dadurch schlechter. Und wie granular müsste man verschiedene CPUs erkennen und behandeln um aus allen CPUs jeweils das Maximum herauszuholen.

Mit jedem Fall, den sie mehr unterscheiden, gibt es ja auch immer mehr zu testen...
 
cm87 schrieb:
AMD Ryzen mit mehr als acht Kernen, also die 900er und die 950er Klassen mit 12 respektive 16 Kernen, verlieren hingegen teils deutlich an FPS – sowohl im Durchschnitt als auch bei den Perzentilen.
Kann ich so bestätigen. Das gleiche Bild zeigt sich bei meinem 5950X. Ohne SMT sind die FPS und die Perzentile höher und deutlich stabiler.
 
  • Gefällt mir
Reaktionen: Celinna, Matthias80 und cm87
Mal so außer Konkurrenz ein Datenpunkt von Linux, hier sieht man auch eine veränderte Auslastung. Daten sind hier mit MangoHUD statt CapFrameX erfasst:

System: Ryzen 7 5800X, RX 6900XT
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, Durchschnitt: 0,7%
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 1 %-Perzentil: 5,5%
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 4,3%

Das ist insofern interessant, weil unter Windows der 5800X (laut den Daten von PCGH) deutlich mehr und vorallem bei den AVG FPS von dem Fix profitiert, könnte also was DirectX spezifisches sein.

In WQHD macht das dagegen keinen Unterschied:

Durchschnitt: -0,7%
1 %-Perzentil: 0,3%
FPS, 0,2 %-Perzentil: -1,6%

Verangry schrieb:
Laut Tests sind die so schlecht programmiert, hätte das doch nur jemand getestet.. Ah ne, lieber spielen macht ja mehr Spaß..
Also das "mehr spielen, weniger Testen" brachte mich tatsächlich zum schmunzeln, denn da ist, gerade wenn man die Steam Deck Debatten mitbekommen hat, oft schon was dran. Eines der besten und populärsten Spiele des Jahres (Zelda TOTK) läuft ja auch nur mit 30 FPS, viele aktuelle Konsolenspiele schaffen die 60 FPS nicht und die Konsolenwelt interessiert das trotzdem kaum.

Dass man hier mit der Betrachtung von 0,2% Perzentilen in einer extrem kleinen und spezifischen Bubble ist, sollte einem da hoffentlich klar sein ;) Die überwiegende Mehrheit spielt einfach und ist gerade im Fall von CP77 ja auch mittlerweile ziemlich zufrieden. Habe das Spiel selbst 2x durch und hab bis zu dem Artikel her noch nie was von dem Problem gehört.

Verangry schrieb:
Was gibt es stattdessen? Unfertige, fehlerhafte Produkte, schlecht programmiert, aber "Hauptsache macht Spaß"..
Aber hier gehen mir ein wenig die Relationen verloren. Solche spezifischen CPU Multithreading Probleme sind in der Entwicklung äußerst komplex, vielseitig, hardwareabhängig, und gerade wenn viele heterogene Aufgaben für viele heterogene Systeme entwickelt werden IMMER ein Kompromiss. Beim Erscheinen des Spiels war die 5000er Reihe (die ja augenscheinlich als erste davon so wirklich profitiert) erst 2 Monate im Handel, da ändert man keine fundamentalen Strukturen mehr, vorallem wenn praktisch kaum Auswirkungen in realistischen Szenarien zu erwarten sind außerhalb von CPU Benchmarks (also jenseits der 720p).

Nicht falsch verstehen, ich finde das interessant und gut, wenn man das systematisch mal durchtestet und auch mit RayTracing könnte die Priorität davon wieder steigen, aber die Vorwürfe, wie dumm, unfähig, unfertig usw. das Spiel/die Entwickler wären, was hier in einigen Kommentaren zur Geltung kommt, schießt ziemlich über die Realität hinaus. Dafür ist das Problem hier einfach zu speziell und selbst AMD, obwohl sie ja die größten Profiteure davon wären, hat dem ja zugestimmt.
 
  • Gefällt mir
Reaktionen: Ray519
Du hast es auch nicht begriffen oder?

CPU Geschwindigkeiten in Spielen sind immer da, es gibt nur zu langsame Grafikkarten, sodass die CPU nicht mehr machen muss.

Je schneller die GPU wird desto eher bemerkt man, dass die CPU zu langsam ist.
Deswegen sind die Unterschiede auch so enorm.

Wenn man anstatt einer 4090 eine 6900XT verbaut hat merkt man das weniger als wenn man nun eine 5090 / 8900xtyz oder wie auch immer die nächste Generation heißen wird, einbaut.

Dann steht man plötzlich da mit seinen 50 FPS und wundert sich wieso andere mit einer schnelleren CPU aber langsameren GPU mehr FPS haben.

Je stärker die CPU Last (RT / PT) desto mehr merkt man den Unterschied

Und was den Zeitraum angeht, seit Bekanntwerden das die Abfrage bei CPUs von AMD mit 8 Kernen mehr Leistung bringt, wenn diese nicht vorhanden ist und wie ein Entwickler mit dieser Information umgeht steht auf einem anderen Blatt.

Sowas muss eigentlich seitens Entwickler überprüft werden und das ist es was ich hier bemängelt habe.
Stattdessen kommt eine Reaktion vom Hersteller dass einzelne Meldungen nicht ausreichend sind, also wird eben die Community gebeten mitzuhelfen.

Wenn dann immer noch nicht reagiert wird, dann sollte man sich Mal überlegen ob man das nächste Mal wieder ein Spiel dieses Entwicklers kauft (spätestens 1 Jahr danach sollte man es wenigstens Mal überprüft haben können, wurde aber wie besagt bis heute nicht gemacht).

Was die Konsolen angeht: ein Graus, egal was ich bis jetzt getestet habe PS1-4, Xbox, Wii usw keine der Konsolen konnte mich lange fesseln, bis auf FF7 und ggf Tekken, aber da braucht es tatsächlich keine Leistung, das lief so.

Wenn aber jeder Entwickler immer weniger Ressourcen in Qualitätssicherung steckt haben wir bald dauerhaft spiele wie "Gollum" will das einer?
 
Ich verstehe die Kritik an Vorbestellungen und das man damit falsche Signale aussendet usw...

Das Problem ist nur selbst wenn alle hier im Forum konsequent nicht Vorbestellen würden und man technisch schlechte Titel boykottieren würde, hätte es keinerlei Auswirkungen.^^

In Relation zu den vielen Millionen Käufern wären wir eine viel zu kleine Minderheit, in Grafikbenchmark ausgedrückt, wir wären eine Messungenauigkeit. :D

Das würden die Entwickler gar nicht wahrnehmen, also zumindest bei solchen Größenordnungen wie Cyberpunk 2077.

Und ich hatte trotz allem eine Menge Spaß mit Cyberpunk (ca. 120 Std. hab das direkt nach Release mit Day-One-Patch gespielt) den ich dann nicht gehabt hätte für was? Richtig, für nichts.^^
 
Verangry schrieb:
ob man das nächste Mal wieder ein Spiel dieses Entwicklers kauft
Verstehe ich. Aber wenn jetzt auch solche "spezial" Probleme in die Kaufentscheidung einfließen... Dann kann man gelinde gesagt gar nix mehr kaufen. Bis auf wenige indie Titel die auf einem Toaster laufen...
 
Verangry schrieb:
Ich hab keine Ahnung was du meinst. Das Savegame ist aus einem meiner ersten Durchläufe die ich gemacht habe, der Phallus ist absolut unbeabsichtigt und reiner Zufall ;)

Danach folgten mehrere Runs in höheren Schwierigkeitsstufen.
schönes Ding...!
 
Verangry schrieb:
Du hast es auch nicht begriffen oder?
[...]
Was die Konsolen angeht: ein Graus, egal was ich bis jetzt getestet habe PS1-4, Xbox, Wii usw keine der Konsolen konnte mich lange fesseln, bis auf FF7 und ggf Tekken, aber da braucht es tatsächlich keine Leistung, das lief so.
Muss denn diese Arroganz wirklich sein?

Ich kann nur nochmal betonen, ich will hier den Test nicht kritisieren, im Gegenteil ich finde das sinnvoll, aber die Art und Weise wie hier manche über die Entwicklung sprechen ohne den Hauch einer Ahnung davon zu haben. Denn...
Verangry schrieb:
Wenn aber jeder Entwickler immer weniger Ressourcen in Qualitätssicherung steckt haben wir bald dauerhaft spiele wie "Gollum" will das einer?
Ein sehr spezifisches Problem, das in absehbarer Zeit für >99% der Spieler in der Praxis irrelevant ist (4090 ist in den Steamstatistiken bei 0.5%, AMD Prozessoren bei 1/3 , 8-Kerner bei 20%, die Schnittmenge von alldem wird noch viel geringer sein), eines mittlerweile sehr erfolgreichen und technisch stabilen Spiels mit Gollum zu vergleichen, macht absolut keinen Sinn.
 
Das sollte nicht arrogant sein, sondern informativ.

Das ist ja das Problem mit dem Verständnis vieler, da muss man immer wieder erklären.
Aber wie man es macht, macht man es falsch und muss immer wieder erneut erklären wieso und warum.

Vielleicht sollte man gar keine Auflösung mehr auflisten in der getestet wird.
 
Zuletzt bearbeitet:
System: 7800X3D, RTX 4070 Ti
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, Durchschnitt: -1,054% (-1,69)
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 1 %-Perzentil: 4,411% (4,57)
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 3,337% (3,11)

https://capframex.com/api/SessionCollections/e8debea3-0085-468f-b795-eae8ee348a0b

Aggregierte Werte von je 3 Durchläufen wie unten dargestellt:
1688755390253.png


Einzeln mit Reihenfolge(T1-6) des Testdurchlaufs und NF=No Fix und F=Fix:
1688755599409.png

Maximale Totale CPU Auslastung war 1 mal mit SMT 100%, sonst ist es aber nicht eindeutig höher oder tiefer.
Mit SMT: 100, 89, 89 (Max %) / 84, 83, 83 (Avg %)
Ohne SMT: 86, 89, 92 (Max %) / 77, 82, 78 (Avg %)

Oh und minimum 22 FPS(ohne Fix) vs 82 FPS(mit Fix).
 
Zuletzt bearbeitet: (Minimum FPS am Ende angefügt.)
Tom_111 schrieb:
Nein, seit ich WQHD habe macht das Zocken viel mehr Spaß als mit FHD. FHD ist schrecklich seit ich WQHD gewohnt bin.
Ne ich meinte das bezogen auf Cyberpunk, weil ich bei dem Spiel irgendwie keinen Unterschied von 1080p und wqhd erkenne. Habe aber 15 FPS mehr bei 1080p

Ich bin was das angeht auch empfindlich, erkenne eigentlich schnell Unterschiede zwischen Auflösungen. Aber vielleicht sind das auch die ganzen neuen technologien heutzutage, die sich dazwischenschalten. FHD ist in dem Spiel auch sehr gut, komme ich perfekt mit klar. Bei alten Spielen ist es unerträglich.

Ich hab auch von der ganzen technik heutzutage keine Ahnung mehr, bin da komplett raus. Früher hast du ne Auflösung eingestellt und sofort die Unterschiede gesehen, und es ist auch immer genau das eingetreten was man erwartet hat. Heute ist das alles sehr undurchsichtig. Bei Death Stranding ´zb kann ich überhaupt kein wqhd einstellen. Das lässt mich nur max 1080p einstellen weil da auch wieder irgendwas Spielinternes
dazwischenfunkt denke ich.
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    187,4 KB · Aufrufe: 126
Zuletzt bearbeitet:
Tiimati schrieb:
System: 7800X3D, RTX 4070 Ti
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, Durchschnitt: -1,054% (-1,69)
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 1 %-Perzentil: 4,411% (4,57)
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 3,337% (3,11)

https://capframex.com/api/SessionCollections/e8debea3-0085-468f-b795-eae8ee348a0b
Die 4070Ti scheint hier zu schwach zu sein, du müsstest mit der CPU schon ohne den Fix deutlich mehr als 160FPS erreichen.
Ich weiß auch nicht, warum man es nicht genau wie bei PCGH macht @cm87 und FSR Ultra Performance nutzt, damit nicht jeder eine 4090 haben muss um die CPU Differenzen ermitteln zu können.



Tiimati schrieb:
Einzeln mit Reihenfolge(T1-6) des Testdurchlaufs und NF=No Fix und F=Fix:
Anhang anzeigen 1373526
Um dir zukünftig das editieren in Paint zu ersparen^^
1688816183001.png
 
Zuletzt bearbeitet:
@Taxxor danke, die Einstellung hatte ich gesucht und nicht gefunden. Übersehen hab ich das.
Ich könnte den Test ja noch mal mit dem GPU OC BIOS durchführen.
 
Zuletzt bearbeitet:
System: Ryzen 7 5800X, RX 6900XT
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, Durchschnitt: 5,24%
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 1 %-Perzentil: 16,88%
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 19,49%
 
Zurück
Oben