• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Homeworld 3 im Test: GPU- und CPU-Benchmarks zum Weltraum-Strategiespiel

CadillacFan77 schrieb:
Und wenn man ganz ehrlich ist, dann wäre gerade ein Weltraumspiel mit realistischer Beleuchtung ziemlich, ziemlich dunkel und man würde wohl kaum was sehen.
Na ja, zumindest wäre es sehr kontrastreich mit krassen Schlagschatten. Realistische Vertonung wäre aber denke ich noch trauriger. ^^

Zum Thema Realismus vs. "Spiel": Ja, natürlich muss ein Spiel nicht realistisch sein und natürlich muss auch Grafik nicht realistisch sein. Sehr viele gute Spiele haben bewusst nicht diesen Anspruch und bieten Fantasy, Magie und verschiedenste wunderschöne Art-Styles, die kein Raytracing brauchen oder damit sogar gar nichts anfangen könnten. Es gibt aber ebenso Spiele, die sich im einen oder anderen Bereich (oder in beiden) Realismus auf die Fahne schreiben. Und da ist es dann eben letzte Konsequenz, die Grafik/Beleuchtung über Raytracing umzusetzen, denn nur so kann sie tatsächlich ordentlich realistisch sein.

Braucht es das immer und ist das immer sinnvoll? Nein, deswegen sind nahezu alle bis dato verfügaren Raytracing-Impelemntierungen ja auch nur eine Gratwanderung zwischen klassischem Rasterizing und Raytracing, selbst bei der Beleuchtung. Ein paar Pathtracing-Ausnahmen gibt es, aber der ganze Rest läuft dann auch dort über klassische Raster-Grafik. Noch sind wir also ohnehin nicht soweit, weil die Leistung nicht ausreicht.

Zur Debatte "Raytracing aus ist schöner" hat Wolfgang ja schon viel geschrieben in früheren Tests und Berichten. Einerseits ist das viel Gewohnheit, weil man aus Spielen eben bislang nur falsche Beleuchtung gewohnt war und korrekte Beleuchtung dann erst einmal befremdlich merken mag. Andererseits kann es auch gut sein, dass hier eher eine Kluft zwischen gewünschter und vorhandener Impression von Seiten der Entwickler entsteht, also was wollten diese umsetzen und wie hat das mit verschiedenen Techniken geklappt.

Letztendlich wird sich diese Debatte darüber erübrigen, dass in 10 Jahren alles über Raytracing läuft und wir perspektivisch dahin gehen, dass der Fallback-Renderpfad "Rasterizing" irgendwann gar entfallen wird. Dann stellt sich die Frage nicht mehr. Es gibt aber keine Beleuchtung, die über Rasterizing-Techniken umsetzbar ist, die nicht auch über Raytracing bewerkstelligt werden kann. Man muss dann eben nur Parameter anpassen und Lichtquellen platzieren, wo eigentlich keine sind. Wenn es also aktuell subjektive Unterschiede zwischen Rastergrafik und Raytracing-Grafik gibt, wo du urteilen würdest, dass die RT-Variante schlechter aussieht, dann liegt das höchstwahrscheinlich daran, dass die Entwickler einen anderen Eindruck von "schlechter" hatten. ;)
 
  • Gefällt mir
Reaktionen: CableGuy82 und Holzinternet
Aimero schrieb:
Naja, Cyberpunk ist nichtmehr spielbar mit RT auf ner 4090.
Und ob du jetzt12 oder 20 fps hast macht den Kohl auch nicht fett
Wenn man bewusst auf DLSS verzichtet natürlich. Spiele es in UWQHD wunderbar mit 80-90FPS und PT, nativ wären es auch nicht 20 sondern 30-35
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Herdware und CB.R
gur_helios schrieb:
Die Leistungsaufnahme ist für mich hingegen irrelevant. Überlege mir ja im Voraus, welche Voraussetzungen mein System mit sich bringen soll und priorisiere dann die entsprechenden Punkte.
Wäre toll, wenn du deinen Schluckspecht nicht in den Himmel loben würdest. (man sollte das kaufen, was man möchte)

Was sind denn die Voraussetzungen, dass es nur Intel sein konnte und was muss dein System leisten, dass ein 125W 14900K es nicht könnte?
 
  • Gefällt mir
Reaktionen: CableGuy82
Schade das RDNA2 (6800XT) in diesem Fall so schlecht abschneidet, entweder noch ein zwei patches warten oder ka. Wollte eigentlich nicht auf NV wechseln, allein wegen den Preisgestaltung schon.
 
Boimler schrieb:
Warum liefern die CPUs dort nicht einmal 100fps, in den GPU-Benchmarks in höherer Auflösung wird aber teilweise das doppelte und dreifache ausgegeben.
Wird im Text erklärt.
 
  • Gefällt mir
Reaktionen: CableGuy82, Miuwa und Boimler
CB.R schrieb:
Eigentlich ..? Das ist doch schon lange vorbei. Jetzt sind die Karten doch aufgrund der vielen Schwächen schon out of the Box Alteisen. Teures Alteisen.

Überall wo RT zugeschaltet wird sind sie weit hinten dran. Dafür sind die AMD Karten dann einfach zu teuer.
Naja, nicht so ganz. Rasterizer wird hoffentlich noch lange Zeit der Standard bleiben und uns vor RT verschonen


Taxxor schrieb:
Wenn man bewusst auf DLSS verzichtet natürlich. Spiele es in UWQHD wunderbar mit 80-90FPS und PT, nativ wären es auch nicht 20 sondern 30-35
Also sehe ich das richtig und du tauscht ein paar kleine reflektionen hier und da, die beim Spielen selbst eh nicht groß auffallen gegen Ghosting und Artefakte ein?

LoL genau mein Humor.
 
  • Gefällt mir
Reaktionen: Miuwa
Syrato schrieb:
Wöre toll, wenn du deinen Schluckspecht nicht in den Himmel loben würdest.
Wir haben schon verstanden, dass dein Intel der Beste ist.

Was sind denn die Voraussetzungen, dass es nur Intel sein konnte und was muss dein System leisten, dass ein 125W 14900K es nicht könnte?
Verwende meinen Rechner auch nicht zum Spielen, sondern für naturwissenschaftliche Anwendungen und Simulationen im Bereich Physik, Mathematik und Chemie. Nutze Programme wie Matlab, Mathematica, Maple etc. und die arbeiten auf Intel-Prozessoren am besten und ziehen eben entsprechend auch Leistung.
 
136fps in 1080p Mittel auf ner 3060. Sollte ja auch gut auf iGPUs laufen.Toll.

Das Framepacibg muss so bei Strategiespielen. Ist ein ungeschriebenes Gesetz. 😅
 
OT: @gur_helios wäre der Leistungsverlust @125W so brachial?
 
Aimero schrieb:
Also sehe ich das richtig und du tauscht ein paar kleine reflektionen hier und da, die beim Spielen selbst eh nicht groß auffallen gegen Ghosting und Artefakte ein?
Bei Pathtracing wird die gesamte Beleuchtung über Raytracing umgesetzt, d. h. es geht nicht nur um Reflexionen, sondern auch um die globale Beleuchtung (ob direkt oder indirekt), die Farbwürfe der Beleuchtung und den Schattenwurf sowie indirekt damit auch Ambient Occlusion und der ganze andere Rest, der bei Raster-Grafik durch aufwändige und fehleranfällige Hilfsalgorithmen implementiert werden muss.

Ghosting und Artefakte hat die DLSS-Implementierung in Cyberpunk derweil nur minder. Selbst wenn dem aber so wäre, wie hier in Homeworld 3: Dann gibt es die Abwägung zwischen höherer Bildqualität mit DLSS und schlicht und ergreifend (bei gleichen FPS) schlechterem Bild nativ (mit anderer Kantenglättung). DLSS gewinnt diesen Vergleich in eigentlich allen mir bekannten relevanten Fällen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg, Herdware, squadric und eine weitere Person
Marcel55 schrieb:
und in diesem Spiel heißt das einfach mehr als doppelt so viele FPS. Normalerweise liegt der Vorteil bei 50-80%. Hier 230-250%.
In diesem spiel……
Aber nur wenn du eine cpu hast die wir noch nicht kennen, denn das cpu limit schlägt nach kurzer zeit hart zu, dann ist es egal ob du ein 6800xt oder rtx4080 im Rechner hast 😉
 
  • Gefällt mir
Reaktionen: CableGuy82, Marcel55, fox40phil und 3 andere
Syrato schrieb:
OT: @gur_helios wäre der Leistungsverlust @125W so brachial?
Ja, der Leistungsverlust ist doch sehr sehr spürbar (habe da haufenweise Tests gemacht). Mir wäre eine effizientere CPU natürlich auch lieber als mein "Hitzkopf", aber derzeit gibt es keine Alternative dazu. Die Anwendungen sind zudem für Intel-CPUs optimiert.
 
Aimero schrieb:
Naja, Cyberpunk ist nichtmehr spielbar mit RT auf ner 4090.
Doch natürlich, musst nur die Auflösung reduzieren und mit 4K eben DLSS benutzen, funktioniert wunderbar. Habe mehr als genug fps. 1440p läuft auch ohne DLSS.
Ergänzung ()

Fighter1993 schrieb:
Selbst Wolfgang sagt ja AMD muss mal langsam was liefern sonst wird es eng.
Der wird wohl am meisten Ahnung haben von uns hier...
Mit Verlaub, nicht alles was Wolfgang sagt ist die absolute Wahrheit und wer am meisten Ahnung hat wirst du nun auch nicht wissen und nicht einfach so beurteilen können. Ausserdem geht es nicht darum wer am meisten Ahnung hat, hier.

Weiters stimmt es schon das AMD Karten in der Regel besser alterten, früher war das aber wegen zukunftsorientierter tech wie zb. DX12 optimierter Architektur, heutzutage hat Nvidia das auch, somit altern beide Hersteller gleich schlecht, sehe da keinen Unterschied mehr, da seit RX6000 und RTX 2000 immer noch DX12 Ultimate das Maß der Dinge ist, nur RT Leistung ist eben Nvidia vorne und Nvidia hat den KI Zug auch nicht so verschlafen wie AMD, daher hängt in beiden diesen Disziplinen AMD etwas hinterher. Ist aber kein Beinbruch solange AMD es nachliefert, für Highend würde ich aber wegen DLSS/RT eher einen Bogen um AMD machen, im Mid Sektor ist AMD aber mit der 7800 XT zb recht gut aufgestellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
Vitche schrieb:
Bei Pathtracing wird die gesamte Beleuchtung über Raytracing umgesetzt, d. h. es geht nicht nur um Reflexionen, sondern auch um die globale Beleuchtung (ob direkt oder indirekt), die Farbwürfe der Beleuchtung und den Schattenwurf sowie indirekt damit auch Ambient Occlusion und der ganze andere Rest, der bei Raster-Grafik durch aufwändige und fehleranfällige Hilfsalgorithmen implementiert werden muss.
Sieht aber halt auch meist besser aus.
Bei z.B. Metro Redux sieht RT richtig mies aus und zerstört die komplette Athmospäre des games.

Vitche schrieb:
Ghosting und Artefakte hat die DLSS-Implementierung in Cyberpunk derweil nur minder. Selbst wenn dem aber so wäre, wie hier in Homeworld 3: Dann gibt es die Abwägung zwischen höherer Bildqualität mit DLSS und schlicht und ergreifend (bei gleichen FPS) schlechterem Bild nativ (mit anderer Kantenglättung). DLSS gewinnt diesen Vergleich in eigentlich allen mir bekannten relevanten Fällen.
Ich finde es wirklich erheiternd wie du vorhin noch meintest, dass man gutes Lighting ohne RT nur mit Trickserei hin bekommt und nun lobst du DLSS. Ist ja absolut keine Trickserei, ne?
Ich muss DLSS und FSR immer abschalten, weil ich das nicht ertrage.
Gibt nur wenig Spiele, bei denen mir das geghoste und die artefakte nicht auffallen.

eazen schrieb:
Doch natürlich, musst nur die Auflösung reduzieren und mit 4K eben DLSS benutzen, funktioniert wunderbar. Habe mehr als genug fps. 1440p läuft auch ohne DLSS.

Wie oben geschrieben ist DLSS meist mit Ghosting und Artefakten gesegnet.
Also keine Alternative. Du willst schönere Grafik, renderst dann auf niedriger auflösung, nur um dann wieder hoch zu tricksen.
Ne, DLSS und FSR sollten das bleiben, was es eigentlich ist: Grafikkarten, die ihr Limit erreicht haben wieder zu etwas mehr Leben verhelfen.
Nicht um irgendwelche Grafikspielereien "spielbar" zu machen, weil sie sonst nicht funktionieren.

Ich kauf mir ja auch kein Sofa mit schönem Stoff, nur um dann qualitativ ähnlichen, aber fehlerbehafteten stoff drüber zu ziehen, weil der original stoff nicht nutzbar ist, weil man drauf schwitzt wie sau
 
eazen schrieb:
Mit Verlaub, nicht alles was Wolfgang sagt ist die absolute Wahrheit und wer am meisten Ahnung hat wirst du nun auch nicht wissen und nicht einfach so beurteilen können. Ausserdem geht es nicht darum wer am meisten Ahnung hat, hier.
Ich glaube wir kommen hier nicht mehr auf einen grünen Zweig.
 
  • Gefällt mir
Reaktionen: Quidproquo77
eazen schrieb:
Mit Verlaub, nicht alles was Wolfgang sagt ist die absolute Wahrheit und wer am meisten Ahnung hat wirst du nun auch nicht wissen und nicht einfach so beurteilen können. Ausserdem geht es nicht darum wer am meisten Ahnung hat, hier.
Objektiv betrachtet hat er aber Recht.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Aimero schrieb:
Wie oben geschrieben ist DLSS meist mit Ghosting und Artefakten gesegnet.
Das stimmt absolut nicht, im Gegenteil hat DLSS meist sogar eine bessere Qualität, ghosting ist eher selten. Das DLSS eine hohe Qualität und oft besser als native ist, sagt CB immer wieder also keine Ahnung worauf du dich beziehst. Rate da auch zu den Videos von Digital Foundry.
Ergänzung ()

gur_helios schrieb:
Objektiv betrachtet hat er aber Recht.
Sorry aber deine unbegründete Meinung ist nicht objektiv, sondern nur subjektiv.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Northstar2710 schrieb:
In diesem spiel……
Nicht nur. Schau dir mal die letzten Benchmarks an. Die 3080 vergrößert ihren Abstand zur 6800xt immer mehr in 4k, trotz 10 gb. AMD scheint ihre Treiber nicht mehr pflegen zu wollen, warum auch immer.
 
eazen schrieb:
Sorry aber deine unbegründete Meinung ist nicht objektiv, sondern nur subjektiv.
Nur zeigen dies ja die in den vergangenen Jahren erstellten Tests und Benchmarks. Und diese widerspiegeln eben Wolfgangs Aussage und sind somit sehr wohl von objektiver Bedeutung.
 
  • Gefällt mir
Reaktionen: fox40phil
H6-Mobs schrieb:
Nicht nur. Schau dir mal die letzten Benchmarks an. Die 3080 vergrößert ihren Abstand zur 6800xt immer mehr in 4k, trotz 10 gb. AMD scheint ihre Treiber nicht mehr pflegen zu wollen, warum auch immer.
Die 6800 / 6900 XT waren in 4K schon immer suboptimal weil sie wegen fehlender Bandbreite (nur 256 Bit) nicht mehr mithalten können bzw Nvidias Architektur besonders gut für 4K skaliert, da die vielen shader da besser ausgelastet werden.
Ergänzung ()

gur_helios schrieb:
Nur zeigen dies ja die in den vergangenen Jahren erstellten Tests und Benchmarks. Und diese widerspiegeln eben Wolfgangs Aussage und sind somit sehr wohl von objektiver Bedeutung.
Ich habe Wolfgang ja in diesem Fall nicht widersprochen, ich sagte nur das es dahingestellt sei wer am meisten Ahnung habe. Und das kann keiner hier beurteilen ohne allwissend zu sein, somit sind solche Aussagen absolut lächerlich und kindisch.
 
Zurück
Oben