Ich finde es auch schade das FullHD nicht mehr enthalten ist, ich zähle nämlich zu den 11% der Leser die das noch nutzen, wobei der Anteil eurer Leser vermutlich höher liegt als der ANteil derer die an der Umfrage teilgenommen haben. Laut eurer Umfrage nutzen ja auch fast 20% irgendwelche Ultra Wide Auflösungen, was ja trauriger Weise noch nicht mal alle Spieleentwickler durchgängig interessiert. Das sich die Tests im laufe der Zeit ändern verstehe auch ich, das ihr nicht mehr auf die Presets eingeht zumindest mit einer Grafikkarte finde ich aber durchaus schade. So genug gemeckert erstmal fertig lesen.
-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Kingdom Come: Deliverance 2 im Test: Benchmarks mit 21 Grafikkarten samt Tuning-Tipps
"Die Leser" hatten die Chance, sich zu beteiligen bei der Umfrage. Wir haben hier nur noch 14%, die auf 1920x1080/1200 spielen, also demnach nur knapp jeder 7te.Kadett_Pirx schrieb:nö, das ist der Elfenbeinturm des Computerbase-Forums - und das ist etwas ganz anderes, als die Leser
Der Testaufwand für so eine kleine Gruppe steht in keinem Verhältnis zu den Full HD Usern.
Die Gruppe wird auch noch kleiner mit den 5070er, 5070Tis, 9070er und 9070XTs, die ideale WQHD/UWQHD GPUs sind.
Ich verstehe die Kritik nicht.
Beim nächsten Mal sollten also die - angeblich so vielen - Full HD Leserinnen und Leser außerhalb des Elfenbeinturms einfach mit abstimmen.
Interaktion ist also vorher wichtig, nicht Interaktion beim Rumjammern später ;-)
- Registriert
- Okt. 2023
- Beiträge
- 2.634
Was für ein Aufwand. Ganze 5 Sekunden.Habu schrieb:Könnt ihr nicht einfach an anderer Stelle schreiben, wie fantastisch Nvidia und DLSS4 sind? Oder einen Disclaimer auf die Seite packen?![]()
![Freaky :freaky: :freaky:](/forum/styles/smilies/freaky.gif)
Sowas hätte ich mir dann eigentlich schon erwartet. Schade.
Ich hoffe mal das die Treiber für Radeon noch etwas Performance bringen, bei Hunt Showdown waren die Radeons ja eigentlich im normalen Bereich. Da Nvidia und Intel weiter vorne liegen als normal spricht viel dafür das man da noch etwas rausholen kann.
Ich kaufe eh erst wenn es auf GOG erscheint.
Ich kaufe eh erst wenn es auf GOG erscheint.
Habu
Lt. Junior Grade
- Registriert
- Aug. 2024
- Beiträge
- 478
Passt doch viel besser in den eigenen (Leser-)Artikel für DLSS4. Ich hab daraufhin alle meine Spiele auf Version 4 umgestellt und es ist überall eine Verbesserung gewesen. Bei KCDII ist auch nicht anders.Quidproquo77 schrieb:Was für ein Aufwand. Ganze 5 Sekunden.
Sowas hätte ich mir dann eigentlich schon erwartet. Schade.
Und wo siehts noch so aus wie bei Gamegpu....nirgends. Das war und ist für mich kein Benchmarkportal auf das ich einen Pfifferling geben würde.GerryB schrieb:Vllt. hat CB ne komische Szene erwischt?
Woanders siehts eher normaler aus.
Sumatrabarbe
Lt. Junior Grade Pro
- Registriert
- Okt. 2007
- Beiträge
- 408
Also ich zocke auf meiner 6800xt in 4k mit FSR quality und in den erweiterten Settings auf Hoch/Ultra. Einzig die vegetationsdetails sind bei mir auf mittel + die motion blur settings sind aus... sieht soweit sehr gut aus und habe konstant zwischen 50-60 fps... schatten scheinen massiv performance zu kosten, daher bin ich hier "nur" auf hoch.
Nookyn
Lt. Junior Grade
- Registriert
- Sep. 2014
- Beiträge
- 265
Das interessiert mich jetzt!Laphonso schrieb:"Die Leser" hatten die Chance, sich zu beteiligen bei der Umfrage. Wir haben hier nur noch 14%, die auf 1920x1080/1200 spielen, also demnach nur knapp jeder 7te.
Der Testaufwand für so eine kleine Gruppe steht in keinem Verhältnis zu den Full HD Usern.
Die Gruppe wird auch noch kleiner mit den 5070er, 5070Tis, 9070er und 9070XTs, die ideale WQHD/UWQHD GPUs sind.
Ich verstehe die Kritik nicht.
Beim nächsten Mal sollten also die - angeblich so vielen - Full HD Leserinnen und Leser außerhalb des Elfenbeinturms einfach mit abstimmen.
Interaktion ist also vorher wichtig, nicht Interaktion beim Rumjammern später ;-)
Ich habe einen neuen Monitor gesucht und mir dabei viele Testergebnisse auf verschiedenen Seiten rausgesucht, die ich nie besuche, nur rein hier speziell zu dem Monitor.
Du sagst damit, dass ihr NUR eure Leser, die an der Umfrage teilgenommen haben, berücksichtigt, nicht aber die breite Masse da draußen, die vielleicht etwas "rückständiger" ist?
Ihr Mods macht echt beste Wahlwerbung...
PCGH (Link) hat einen FullHD Preset-Vergleich - so was gehört mit in den Test, wie zuvor geschrieben!
Wie einige Kommentare schon erwähnen, skaliert KDC2 bilderbuchmäßig mit den Einstellungen, ohne gleich schlecht auszusehen. Das ist wichtig für Nutzer von fast allen Karten. Bei Mittelklasse, für mögliches tuning und bei Low-End - um abschätzen zu können, ob man sinnvoll in spielbare Regionen kommt.
z.B. die 6700XT in FullHD
45 fps Ultra
70 fps High
90 fps Mittel
130 fps Low
Wie einige Kommentare schon erwähnen, skaliert KDC2 bilderbuchmäßig mit den Einstellungen, ohne gleich schlecht auszusehen. Das ist wichtig für Nutzer von fast allen Karten. Bei Mittelklasse, für mögliches tuning und bei Low-End - um abschätzen zu können, ob man sinnvoll in spielbare Regionen kommt.
z.B. die 6700XT in FullHD
45 fps Ultra
70 fps High
90 fps Mittel
130 fps Low
Zuletzt bearbeitet:
Das ist die VRAM Allokation, nicht der VRAM usage, AimeroAimero schrieb:Also wenn ich KCD2 anschmeiße sind die 16gb VRAM immer voll.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Mit der 4090 hatte ich auch Games mit 21 GB VRAM sogar unter nur UWQHD; das wird halt - je nach Game und Engine - voll, wenn der "Raum" da ist.
Simanova
Rear Admiral
- Registriert
- Dez. 2012
- Beiträge
- 5.532
Zur Information: Das Spiel läuft einer GTX 1660 Mobile mit 30-45 fps auf Niedrig in 1080p
Eine Desktop GTX 1650 läuft in ähnlichen Regionen. Link zum Video
Eine Desktop GTX 1650 läuft in ähnlichen Regionen. Link zum Video
Das "rückständig" ist Deine Bewertung, niemals hat das ComputerBase so über Full HD gesprochen!Nookyn schrieb:Du sagst damit, dass ihr NUR eure Leser, die an der Umfrage teilgenommen haben, berücksichtigt, nicht aber die breite Masse da draußen, die vielleicht etwas "rückständiger" ist?
Es geht hier um die eigene Grundgesamtheit der (INTER)AKTIVEN Leserschaft, die mit über 7000 TN alle Merkmale repräsentativer Umfragen übererfüllt.
Die angeblich so "breite Masse" der passiven CB Lederschaft wird statistisch also wenig Prozentpunkte hier und da abweichen.
Selbst wenn es bis zu 20% Full HD User sein sollten, ist das nur jede/r fünfte, und damit eine zu kleine Gruppe für den Aufwand der Testläufe, hier fließen summiert Tage an Personenstunden rein.
Ich möchte nicht sticheln, aber das Gejammer von non-Pro Usern ist irgendwie kurios, denn eine Anspruchshaltung, ohne dass man die Computerbase a priori supported, finde ich auch komisch.
Davon abgesehen kann ich einen Umstieg auf 27 Zoll und WQHD nur empfehlen, die Immersion ist immer besser, wenn man "mehr sieht" :-)
Dank FSR und DLSS kann man auch ältere GPUs hier mit Upsclaing fps versorgen, klappt wunderbar!
Siehe hier:
DerToerke schrieb:FSR auf Qualität, hohe Einstellungen außer Ultra Texturen durchweg 85 FPS oder mehr. Sieht super aus und spielt sich sehr flüssig.
Zuletzt bearbeitet:
...gesagt vom Besitzer einer 900 Euro GPU.. LolCorpus Delicti schrieb:Macht auf mich den Eindruck dass man die >1000€ GPU Käufer zufriedenstellen möchte.
DerToerke
Ensign
- Registriert
- Apr. 2018
- Beiträge
- 228
Ich hab auf ner RX 6800 XT in 2560x1440, FSR auf Qualität, hohe Einstellungen außer Ultra Texturen durchweg 85 FPS oder mehr. Sieht super aus und spielt sich sehr flüssig.Zapp schrieb:Ich kann mir diese schlechten Ergebnisse von AMD-Karten in diesem Benchmark von CB nicht erklären.
Zumindest mit meiner 7900XTX (ohne OC) kommen die FPS bei einer Aufkösung von 3440x1400 auf Ultra mit FSR Qualität wirklich nie unter 90FPS. (auch nicht in sehr dichten Wäldern)
Meistens sind es 100-110 FPS.
Wie es in Kuttenberg läuft weiß ich noch nicht.
Ohne FSR bin ich so bei 60-65 FPS und aufwärts.
Playstation 5 Gamerpitu schrieb:Wer von euch spielt freiwillig mit 30 fps?
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Habu
Lt. Junior Grade
- Registriert
- Aug. 2024
- Beiträge
- 478
Das ist auch genau der Grund, weswegen ich hier bin. Ein gutes Beispiel für ein Magazin, dass sich eher an die Google-Laufkundschaft anpasst, wäre die Gamestar. Ich kann auf Artikel der Marke "Die 10 besten Grafikkarten 2024" oder "Ich habe eine Woche Kingdom Come Deliverance 2 auf einem 1080p-Monitor gespielt und DAS IST PASSIERT!" gut verzichten. Davon gibt es genug...Laphonso schrieb:Es geht hier um die eigene Grundgesamtheit der (INTER)AKTIVEN Leserschaft, die mit über 7000 TN alle Merkmale repräsentativer Umfragen übererfüllt.
Aimero
Lt. Junior Grade
- Registriert
- Apr. 2018
- Beiträge
- 483
Ah ok, und wie bzw. wo kann ich den tatsächlichen Verbrauch sehen?Laphonso schrieb:Das ist die VRAM Allokation, nicht der VRAM usage, Aimero
Mit der 4090 hatte ich auch Games mit 21 GB VRAM sogar unter nur UWQHD; das wird halt - je nach Game und Engine - voll, wenn der "Raum" da ist.
Mit HWinfo, GPU-Z und Afterburner kann man m.W. GPU Utilization versus GPU Usage sehen.Aimero schrieb:und wie bzw. wo kann ich den tatsächlichen Verbrauch sehen?
Leider zeigt Windows das mit Bordmittlen nicht an.
https://www.hwinfo.com/forum/threads/what-is-d3d-usage.759/
"GPU D3D Usage" should display GPU utilization via Direct3D and "GPU D3D Memory" the GPU memory utilization.
GPU Utilization" is read straight from the GPU internal registers, so this should be the more precise value and it should cover the entire GPU.
"D3D Usage" is read via Direct3D, so it covers only this interface.
Unfortunately, hardware vendors don't give out information that would help us to understand such things, so sometimes we're just left to try and see...