• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Homeworld 3 im Test: GPU- und CPU-Benchmarks zum Weltraum-Strategiespiel

Einfach nur episch wie ein Betagter langsam in die Jahre gekommener
60W 5800X3D! den >200W 14900k in zwei Hälften versägt.

Intel hinkt AMD mittlerweile wirklich mehr 5 Jahre hinter her.
Die Raptoren sind so etwas von Jurassic instabil, >200W und eine Flugzeug Turbine zur Kühlung
samt 1000W Netzteil darf natürlich auch nicht fehlen.
Hab ich noch etwas vergessen?
 
Ich konnte jetzt wiedr mal dasSpiel starten und meine vermutung nochmals Nachprüfen.

Wer Probleme hat mit den min fps, wegen älterer cpu oder einer mit wenig cache z.b. einer APU wie meiner 8700G. Der sollte in den Grafikeinstellungen die "Grafikeffekte" auf niedrig stellen, alles andere hat praktisch keinen Einfluss auf die CPU.

Hier der vergleich mit dem internen Benchmark

8700g/ 7800XT/ 32GBRAM

720p Epic einstellung. Nur Grafikeffekte wurde verändert

Homeworld 3 bench epic 720p.png


@Wolfgang ein beispiel mit deinem Benchmark und einem Intel/ryzen x3D cpu währe wirklich super.


Auf diese Grafikeffekte kann man auf jedenfall verzichten, die sind eher marginal. Besonders bei Kriegspiele/Scharmützel. In der Kampagne fallen sie auch nicht wirklich auf, zumindest mir.

Mal zur info, so sieht der Benchmark aus. Das ist kein Video von mir einfach bei youtube gesucht. Aber so ähnlich sieht es bei meinem system auch aus. Man erkennt das die Framerate durch die Anzahl an Schiffen und deren Effekten runtergeht.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aimero
Northstar2710 schrieb:
Obwohl keiner die technischen mängel anführt ausser die wegfindung. Die Fans haben nunmal sehr lange auf einen Nachfolger gewartet, teils in der fig kampagne 2019 vorbestellt. Nur haben sie leider kein weiteres Homeworld 2 oder besser Catalysm bekommen, sondern etwas neueres.
Weißt du Näheres darüber was die Backer der Fig Kampagne erhalten haben? Ich habe damals auch daran teilgenommen und stehe ein wenig auf dem Schlauch, was daraus geworden ist....
 
Syrato schrieb:
IMHO sind bei einem so unausgereiften Spiel sind Vergleiche, welche Hardware da besser auf einem Bein durch den Parkour hüpfen kann sowieso fragwürdig. Wie @Wolfgang ja auch schreibt, liegen zuerst die Intel Cores vorne, um dann, sobald es wuseliger zugeht, von den Ryzens mit VCache überholt zu werden. Bei den dGPUs haben selbst die großen RDNA Karten zu kämpfen, und so geht's gerade weiter.
Daß allerdings in vielen, ausgereifteren Spielen die Ryzens mit 3D Cache oft vorne liegen ist durchaus bekannt, aber auch da kommt's meistens eher auf die dGPU an. Ich finde es schon merkwürdig, daß dieses Spiel so erschienen ist.
 
Zuletzt bearbeitet von einem Moderator:
Danke von mir an die Redaktion für die Zeit und Mühen.

Ich als Homeworld Spieler der ersten Stunde werde warten.

Und Danke für die ausführlichen Erläuterungen zur Grafik. Ich empfand das als sehr hilfreich.

CB ist für mich immer erste Adresse im Netz !

Gruß
Holzinternet
 
derkleinedieb schrieb:
Weißt du Näheres darüber was die Backer der Fig Kampagne erhalten haben? Ich habe damals auch daran teilgenommen und stehe ein wenig auf dem Schlauch, was daraus geworden ist....
es kommt darauf an was du damals bestellt hast.

es steht in der email von Gearbox wo dir dein Steam code geschickt wurde. Ich hatte die einfache digital version.

„Here’s your code for the digital edition of Homeworld 3, which includes the Pre-Order bonus, Fig Exclusive Rewards(ship decals und 3 profil Banner) and early access“

dazu konntest du vor ein paar jahren Homeworld mobil kostenlos testen. Da ich damals kein tablet hatte ging es aber nicht.
 
Zuletzt bearbeitet:
Mir ist aufgefallen, dass in den letzten Tests Nvidia besser abschneidet als Amd, vor allem im Kampf 4080 Super gegen 7900xtx.
Gab es in letzter Zeit da irgendwie ein gescheites Treiber Update?
 
ArrakisSand schrieb:
Hab ich noch etwas vergessen?
Ach ja, das Wichtigste habe ich natürlich wieder einmal vergessen.
Kosten, Kosten und nochmals Kosten die Intel CPU ist im Vergleich schweineteuer, von der Plattform erst
gar nicht erst zu reden.Teurer DDR5 kommt natürlich als Sahnehäubchen noch hinzu und als wäre dies nicht schon genug. Ist diese Plattform bereits EOL.

Hab ich noch etwas vergessen?
 
Cleaner57 schrieb:
Gab es in letzter Zeit da irgendwie ein gescheites Treiber Update?
Nö, es sind in letzter Zeit einfach auch immer wieder mal Spiele getestet worden wo AMD gut performt hat, jetzt kommen eben auch mal wieder ein paar Spiele wo es in die andere Richtung geht
 
Cleaner57 schrieb:
Mir ist aufgefallen, dass in den letzten Tests Nvidia besser abschneidet als Amd, vor allem im Kampf 4080 Super gegen 7900xtx.
kommt ganz auf das spiel an. Und Ob Amd Nvidia treiber anpassungen vorgenommen hat. beim neussten Ghost of tsushima sieht es normal aus.
IMG_0383.jpeg


bei Z.b. No Rest for Wicked hat nur Nvidia eine treiber anpassung(unterstützung) geliefert. Das sieht man auch ein wenig an den Ergebnissen. Ist aber auch noch ein Early A Game. So auch bei Homeworld3, hat Nvidia was am treiber aktualisiert.
 
Northstar2710 schrieb:
beim neussten Ghost of tsushima sieht es normal aus.
Anhang anzeigen 1484479
Naja, "normal" sieht das auch nicht aus, wenn mans mit dem CB Ranking vergleicht, wo die 7900XTX in 4K im Schnitt 2% vor der 4080 Super ist.
Dort sind es 12,5%.
Genauso liegt die 4090 dort 11% vor der 7900XTX, im CB Ranking sind es 29%.


Edit: Wobei es im CB eigenen Test auch in Ghost of Tsushima so aussieht, wie im allgemeinen Ranking^^
1716025992999.png
 
Zuletzt bearbeitet:
gur_helios schrieb:
Darum bitte den Test mit den vorschriftsmässigen Leistungsdaten des 14900K nachholen und diesen nicht auf 125W limitieren. ;)
Waas genau ist denn deiner Meinung nach "Vorschriftsmäßig"? Finde das seit dem letzten Intel-"Gate" völlig undurchsichtig.

gur_helios schrieb:
@Wolfgang
Alles klar. Verwundert mich jedoch sehr, wie dieses Ergebnis zustandekommt.
Die Erklärung, die auf der Hand liegt ist, dass das Spiel halt vor allem durch die Speicherbandbreite limitiert wird. Wenn die Kerne die ganze Zeit darauf warten müssen, dass Daten vom RAM kommen ist es kein Wunder, dass sie keinen Strom verbrauchen. Und umgekehrt erklärt das warum die X3D-CPUs so gut abschneiden.
 
Miuwa schrieb:
Waas genau ist denn deiner Meinung nach "Vorschriftsmäßig"? Finde das seit dem letzten Intel-"Gate" völlig undurchsichtig.
Wollte damit nur sagen, dass der 14900K mit seinen von Intel vorgegebenen Standardwerten arbeiten sollte, was er ja anscheinend auch tut. Habe mich da ein wenig unglücklich ausgedrückt. ;)
 
@gur_helios
Sorry, meine Frage klang wahrscheinlich aggressiver als sie gemeint war.
Aber mir ging's tatsächlich darum was denn jetzt die von Intel vorgegeben Standardwerte für die K/KS Prozessoren sind - auch unabhängig von diesem konkreten Benchmark. Da scheint es ja jetzt verschiedene Profile zu geben? Ich hab beim letzten CB-Podcast, wo sie das erklärt haben nicht ganz durchgeblickt (da ich derzeit keinen Intel habe ist das aber auch nicht wirklich relevant für mich).
 
Zurück
Oben