Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestManor Lords im Test: 28 Grafikkarten von Nvidia, AMD & Intel im Benchmark
ComputerBase hat 28 Grafikkarten (13 × Nvidia, 12 × AMD, 3 × Intel) in Manor Lords getestet. Anhand diverser Benchmarks in Full HD, WQHD und Ultra HD zeigt die Redaktion die Performance des Aufbaustrategiespiels mit maximaler Grafikpracht und einer stark reduzierten Detailstufe.
Sehr spannender Test. Ich finde es klasse, dass ihr das "Mittel"-Preset auch getestet habt. Da sieht man mal, wie gut man solche Spiele auch noch mit relativ alter oder langsamer GPU zocken kann. Wie ihr schon geschrieben habt, ist der optische Unterschied auch nicht dramatisch. Und plötzlich liegt man mit einer absolut bezahlbaren GPU bei über 90 FPS. Mit etwas stärkerem Upscaling würde meine 6600 XT so wohl auch WQHD locker packen.
Bei den Tests bei Ultra Details sieht es ja mittlerweile oft so aus, als wäre alles unter einer 4060 nicht mehr nutzbar. Teils nicht mal für Full HD. Was aber natürlich dann nur für Ultra gilt meist. Wir groß der Unterschied sein kann, sieht man dann in so einem Vergleich.
Ich spiele es auf einer GXT 770. Natürlich nicht auf hohen Details, aber völlig ausreichend und es ist sehr erfreulich, dass es auf meiner uralt Hardware überhaupt spielbar läuft und nicht aussieht wie Brei der pixelt. Für Casuals wie mich ein Träumchen.
Ist das ein spezielles Features was die Performance so beeinträchtigt? In der Regel ist doch die Schattendarstellung schuld oder war das hier nicht zu erkennen?
'Shadows' und/oder 'Volumetric Fog' sind in 90% der Fälle die gefräßigsten Leistungsnehmer (abseits von RT/PT).
Ob's in Manor Lords auch diese beiden Schlingel sind und man diese nur ein Setting niedriger stellen muss weiß ich allerdings nicht, da ich den Titel noch nicht selber spielte.
Ist das ein spezielles Features was die Performance so beeinträchtigt? In der Regel ist doch die Schattendarstellung schuld oder war das hier nicht zu erkennen?
Schatten, Beleuchtung und Gras (-Dichte) hauen mit am meisten rein habe ich festgestellt. Auch das Deaktivieren der "volumetrischen Wolken", von denen man eh nicht viel mitbekommt, bringt einiges an Performance. Und natürlich Kantenglättung. Mit Upscaling, respektive DLSS, fährt man im Vergleich zu klassischem TAA viel besser, bei nahezu gleicher Bildqualität.
Drm möchte im mich anschließen und hinzufügen, daß,die Tabelle mit ab Kartr x, Karte Y, Karte Z, also den verschiedenen Reihe top ist. An NV 1080 hilft nämlich nicht wenn man einr 2060, 3060 oder 4060 hat. Danke dafür.
Aber mit irgendeinem Ultra Setting scheint RDNA3 ja wirklich Probleme zu haben. Sonst würde die 7600 nicht die 6650 in Medium überholen, ich vergleich zu FHD Ultra. Wieder so ein AMD Ding. Ok ist Alpha dies das, aber mittlerweile sind Alphas eben auch Titel die gespielt werden.
Danke für den ausführlichen Benchmark! Ich überlege immer noch, ob ich den Early Access mitmache. Jetzt weiß ich aber schon mal, dass es nicht an der Hardware scheitert .
Sehe ich genau anders herum. Man kann sich die FSR Performance ableiten, in dem man einfach eine Auflösung runtergeht und ca 2-3% zusätzlich abzieht (für den Upscalling Overhead).
Außerdem muss man die Werte sowieso immer auf sein System anwenden, möglicherweise schwächere CPU, ich habe UWQHD also bin so in etwas zwischen 30-40% zwischen WQHD und 4k usw .. etwas mitdenken hilft. Die Raw Leistung ist meiner Meinung nach die beste KPI.
Schön zu sehen, dass eine passiv gekühlte RTX 3050 locker 60 fps auf dem Mittel Preset erreichen kann.
Einige Grafikeinstellungen wirken sich stärker auf die Performance aus, als andere. Wer dort noch rum spielt, kann ohne Qualitätsverlust weitere FPS rauskitzeln.
Upscaling Overhead hängt auch vom Spiel ab und beispielsweise wie viele Effekte vor und welche erst nach dem Upscaling in voller Auflösung appliziert werden.
Bei Alan Wake 2 wird das Depth of Field z.B. bei der höchsten Einstellung nach dem Upscaling appliziert und kostet dadurch ziemlich viel Leistung.
Aber mit irgendeinem Ultra Setting scheint RDNA3 ja wirklich Probleme zu haben. Sonst würde die 7600 nicht die 6650 in Medium überholen, ich vergleich zu FHD Ultra. Wieder so ein AMD Ding. Ok ist Alpha dies das, aber mittlerweile sind Alphas eben auch Titel die gespielt werden.
Das ist eigentlich die interessante Erkenntnis in dem Benchmark. Was schmeckt RDNA3 an den Ultra-Settings nicht? Vor allem ja auch der Vergleich zu NV.
1080p Ultra und die 4060 ist 30% voraus.
1080p Medium und die 4060 ist nur noch 5% voraus.
Oder rennen wir hier ins CPU-Limit?
Aber eben auch im Generationenvergleich. RDNA3 hat allgemein irgendwelche Probleme, die RDNA2 nicht hat.