@Idris
Ahoi und herzlich Willkommen.
Auch von mir noch einmal ganz klare und "harte" Worte, um den allgemeinen Sachverhalt und die Probleme in der Denkweise mancher "Alles auf Ultra-Super-Todes-Settings"-Zocker zu untermauern:
Selbst mit der schnellsten möglichen Hardware am Markt - derzeit also ein System um ca. 3500 Euro rum (Ryzen 9 7950X3D, RTX 4090 als ROG Strix, schnellstmöglicher RAM, PCIe 5.0-SSD, etcpp) wirst du in 99% aller Spiele die Raytracing besitzen nicht einmal annähernd an dauerhafte ~144 FPS in WQHD kommen, geschweige denn an das absolut irrwitzige Wunschdenken von 270 FPS für den Monitor.
Es kann doch nicht so schwer sein, mit ein wenig realistischem Gedankengut an die Sache heranzugehen. Da braucht man sich einfach nur Benchmarks der RTX 4090 anschauen und weiß genau, was in etwa zu erwarten ist, das kann doch nicht zu viel verlangt sein:
https://www.computerbase.de/2022-10...nitt_benchmarks_mit_und_ohne_rt_in_2560__1440
Zusammengefasst, FPS mit Raytracing in WQHD auf einer RTX 4090:
Cyberpunk 2077 - ca. 64 FPS
Deathloop - ca 126 FPS
DooM Eternal - ca. 324 FPS (der Titel ist sowieso ne Performance-Ausnahme)
Dying Light 2 - ca. 120 FPS
F1 22 - ca. 152 FPS
Far Cry 6 - ca. 114 FPS
Ghostwhire Tokyo - ca. 100 FPS
Guardians of the Galaxy - ca. 144 FPS
Metro Exodus Enhanced - ca. 125 FPS
Saints Row - ca. 168 FPS
Spiderman Remastered - ca. 118 FPS
------
Schnitt: ca. 141 FPS
Wie sieht es nun mit einer 500 Euro-GPU aus? Ach, komm - was kost' die Welt? Wir strecken dein Budget einfach auf 600 Euro und vergleichen mit einer
RTX 4070:
Cyberpunk 2077 - ca. 39 FPS
Dying Light 2 - ca. 59 FPS
F1 22 - ca. 108 FPS
Hogwarts Legacy - ca. 55 FPS
Spiderman Miles Morales - ca. 74 FPS
------
Schnitt ca. 67 FPS
Wollen wir nun auch noch die CPU analysieren?
Allgemein rendert zwar die Grafikkarte das 3D-Bild, aber die CPU muss den ganzen Kladderadatsch zusammenführen. Sie koordiniert den Datenfluss zwischen GPU, RAM, Chipsatz, Sound und muss sich obendrein noch um NPCs, Physik, die ganze interaktive Spielwelt, etcpp. kümmern. Eine Grafikkarte, die theoretisch tausend FPS rendern könnte, ist nichts wert, wenn die CPU nicht einmal ein Zehntel davon mit dem Rest der Hardware kommunizieren kann.
Dein 9700K ist gewiss kein schlechter und auch ohne Probleme noch heute für's Gaming einsetzbar. 60 FPS für stabiles VSync? Klar! 90-100 FPS für ordentlichen Overhead und den nötigen "Ich bin ein Pr0-G4M0r"-Flow? Ja, in den entsprechenden Spielen sicher. 144+ bis 270 FPS in allen möglichen Games, weil die Grafik so schön ist und der Monitor das kann? Im Leben nicht!
Ein 9700K ist schon über 30% langsamer als ein Ryzen 7 5800X3D und der Ryzen 7 7800X3D wiederum ist seinerseits gute 25% schneller als der 5800X3D.
Es bringt also reichlich wenig, eine schnelle Grafikkarte mit dem Ziel "möglichst hoher FPS" mit einer verhältnismäßig langsamen CPU zu paaren. Wenn es um stabile FPS im "vernünftigen" (!) Bereich geht - klar, keine Frage.
Ich will ja echt kein Spielverderber sein, aber das Wunschdenken mancher ist selbst mit allem Geld der Welt nicht umsetzbar, weil: ist derzeit technisch einfach nicht möglich, nicht einmal annähernd.
Wenn der klassische Autovergleich, wie hahnebüchen er auch sein mag, wieder einmal herangezogen wird, dann versteht es komischerweise jeder: "Ich hab hier nen 5er Golf Diesel, is'n solides Auto, hat auch ausreichend Leistung - jetzt will ich auf 24h Le Mans-Niveau fahren und habe 500 Euro, was genau muss ich an dem Auto verändern?"
Das Schlimme ist: wenn man hier genug Geld aufbringen würde (eher mal so ZWEI Nullen an die 500 dran), dann wäre es technisch immerhin möglich, den Diesel-Golf tatsächlich auf Le Mans-Niveau zu hieven.
cllN schrieb:
Hardware ist einfach schweineteuer geworden... Alleine die Grafikkarten.
Das ist so eine Sache. Eine GTX 1080 Ti kostete selbst lange nach Markteinführung ebenfalls noch über 600 Euro und war (abseits der absurden Titan-Modelle) das Maß der Dinge.
Wenn du dir heute eine 600 Euro-Grafikkarte kaufst, eben z.B. eine RTX 4070, dann kannst du damit (bei realistischen Einstellungen) eigentlich alles total entspannt bei WQHD-Auflösung spielen - das ist ca. 80% mehr Pixelcount als noch zu GTX 1080-Zeiten.
Was jedoch wird "uns" (ich will eigentlich eher "euch" sagen, weil bei mir klappt das nicht) eingetrichtert? "Ihr MÜSST uuuuuuunbedingt 4K UHD spielen - ach was, 8K ist das Maß der Dinge! PS5 und co. können 120 FPS bei bliblablub, de Werbetrommel dreht sich und dreht sich und die Geldbeutel der Kunden geben es doch her, also los - kauft euch den dritten OLED-TV für's Gästebad!"
Genau das ist das Problem. Wenn man denkt, man muss unbedingt in 4K UHD durch die Welt rennen - dann bitte, dann darf man das auch zahlen. WQHD hingegen ist zwar auch nicht unbedingt "billig", aber eben deutlich günstiger umsetzbar und bietet immer noch einen immensen Qualitätsunterschied zum klassischen Full HD.
Wann genau seit Anbeginn der Ära der PC-Spiele, Anfang der 90er, gab es das denn schon einmal, dass Spiele plötzlich den VIERFACHEN Pixelcount hatten und jeder "musste" unbedingt so spielen? Im Grunde genommen gab es diese Vervierfachung noch nie! Der Weg von Full HD zu 4K UHD (im Entertainment-Bereich) ist hier der de facto erste Fall in der IT-Geschichte, wo dies tatsächlich zutrifft.
Nehmen wir mal die Mitte der 90er, als gerade so der Wechsel von 320x200/240 Pixel auf 640x480 Pixel im Gaming-Bereich durchgeführt wurde.
"Aber das IST doch der vierfache Pixelcount zu vorher!" - richtig, dennoch gab es immer den Zwischenschritt der 512x384 Pixel und darüber hinaus war auch zu damaliger Zeit keiner der krückenlahmen S3, Tseng, OAK und sonstigen Chips in der Lage, ein Duke Nukem 3D flüssig mit auch nur annähernd 30 FPS in 640x480 zu rendern. Für Quake gilt das gleiche.
Was geschah? 3Dfx geschah! Über die Jahre wurden dann "schrittweise" (!) Wechsel von 640x480 auf 800x600 Pixel vollzogen, danach kam 1024x768 in Mode, daraufhin 1280x960 und 1600x1200 - um bei den 4:3-Auflösungen zu bleiben. All diese Schritte sind über mehrere Jahre hinweg gekommen und keiner dieser Schritte bildet eine Pixelverdopplung ab, geschweige denn gar eine Vervierfachung, wie wir es heute haben. Und selbst, wenn wir unser heutiges WQHD als Zwischenschritt zwischen Full HD und 4K UHD ansehen (was die Unterhaltungsindustrie aber nicht tut, da ist 4K UHD ganz klar der Nachfolger von Full HD), so ist vielen scheinbar dennoch nicht bewusst, dass selbst von WQHD ausgehend mehr als der doppelte Pixelcount für 4K UHD anliegt -> 2560x1440 = 3.686.400 Pixel zu 3840x2160 = 8.294.400 Pixel.
Erneut: 4K UHD-Gaming ist am PC ein reines und absolutes Enthusiastending - wer hier auch nur annähernd flüssige (und keineswegs immer dreistellige) Bildraten haben will, der muss ganz tief in die Tasche greifen.
Alternativ - das ist ein Gerücht, da muss man ja vorsichtig sein - habe ich gehört, dass man gar nicht gezwungen ist, jeden Regler in Grafikmenüs bis auf Anschlag nach rechts zu drehen - oder gar darüber hinaus, dass die Maus schon an der Zimmerwand anschlägt. Es geht wohl in vielen Spielen sogar, dass man den Grafikregler nach LINKS drehen kann. Ich weiß, das ist total irre. Ich hoffe, das ist kein Religionsbruch, der wird ja sträflich verfolgt, deshalb muss ich echt aufpassen, was ich hier öffentlich schreibe, aber ... versucht es vielleicht einfach mal selbst. Dreht mal den Regler für Schatten von "Ultra" auf "High" ... oder den der Ambient Occlusion auf "Medium"... und dann spielt einfach mal das Spiel und schaut dabei auf die FPS oder alternativ auf den reduzierten Stromverbrauch bei festem FPS-Sync.
Aber erneut: Vorsicht ist geboten! Die 4K UHD Ultra-Super-Todes-Qualitäts-Settings-of-Death-Metal-Inquisition könnte davon Wind bekommen und euch kurzerhand den Garaus machen - Ihr seid gewarnt