• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Homeworld 3 im Test: GPU- und CPU-Benchmarks zum Weltraum-Strategiespiel

gur_helios schrieb:
Weil dies ein Vergleich ist, der den vorgegebenen physikalischen Voraussetzungen der CPUs nicht standhält. Wird die 14900K ohne künstliche Begrenzung betrieben, sähe das Resultat anders aus.
irrelevant, bei vermutlich doppeltem Stromverbrauch.
 
  • Gefällt mir
Reaktionen: CableGuy82
  • Gefällt mir
Reaktionen: CableGuy82, Miuwa, Holzinternet und 7 andere
gur_helios schrieb:
Ihr habt die 14900K auf 125W limitiert und zusätzlich die Einstellung "Enforce all Limits" aktiviert?
Nicht bös gemeint, aber lies den Test nochmal 😉
 
  • Gefällt mir
Reaktionen: CableGuy82 und Miuwa
Mein kleiner 5800x3d ist einfach die beste 250€ CPU die ich je gekauft habe. Braucht wenig Strom und performed wie Hölle auf meinem alten Board mit normalen Speicher. Bin mal gespannt, ob ich AM5 komplett auslassen kann.
 
  • Gefällt mir
Reaktionen: CableGuy82, Coeckchen, Derenei und 4 andere
Benjamin_Blume schrieb:
irrelevant, bei vermutlich doppeltem Stromverbrauch.
Die Leistungsaufnahme ist für mich hingegen irrelevant. Überlege mir ja im Voraus, welche Voraussetzungen mein System mit sich bringen soll und priorisiere dann die entsprechenden Punkte.
Ergänzung ()

R4mses schrieb:
Nicht bös gemeint, aber lies den Test nochmal 😉
Ja, haste Recht. War meine Fehlinterpretation. :freak: :p
 
  • Gefällt mir
Reaktionen: R4mses
Aimero schrieb:
raytracing Müll, anstatt Spiele ordentlich grafisch zu designen
Dieser „raytracing Müll“ ist der exakt einzige zur Verfügung stehende Weg, 3D-Computergrafik mit Beleuchtung „ordentlich“, also akkurat, realistisch und dabei effizient umzusetzen.
 
  • Gefällt mir
Reaktionen: patze812, CableGuy82, Holzinternet und 11 andere
Wow das Spiel bringt wirklich alle stärken der UE4 ins Licht
perfekter Multicore Support
Generell farblose Engine, kein extremes BIAS
Absolut anfängerfreundlich für Entwickler
eignet sich für JEDES Genre

eine wahre Bereicherung
 
  • Gefällt mir
Reaktionen: spw
Fighter1993 schrieb:
Wenn man sowas liest dann könnte das der Untergang von AMD sein was Grafikkarten angeht wenn sie nicht langsam mal in die Puschen kommen.
Man sollte allerdings wegen einem schlecht programmierten Spiel nicht so ausrasten und verallgemeinern. FSR ist generell eher gut als schlecht, aber klar, DLSS ist noch besser daher arbeitet AMD ja auch an FSR 3.1. Da das Spiel eh die ganze Zeit im CPU Limit ist würde ich dann (wäre ich Radeon User) einfach native oder sogar Supersampling benutzen, dann wird immerhin die GPU ordentlich benutzt.
gur_helios schrieb:
Die Leistungsaufnahme ist für mich hingegen irrelevant.
Keine gute Einstellung und insbesondere heutzutage aus der Zeit gefallen so egoistisch zu sein. Und selbst wenn Geld und Umweltverschmutzung keine Rolle spielt heizt man damit den Raum unnötig auf, ach ne, dann benutzt der Intel-Fan vermutlich ne Klimaanlage um das auch noch auszugleichen. Ist wirklich abenteuerlich wie sehr Intel AMD in Sachen Effizienz hinterherhinkt.
 
  • Gefällt mir
Reaktionen: CableGuy82 und bad_sign
Vitche schrieb:
Dieser „raytracing Müll“ ist der exakt einzige zur Verfügung stehende Weg, 3D-Computergrafik mit Beleuchtung „ordentlich“, also akkurat, realistisch und dabei effizient umzusetzen.

Ahhhh ja, klar. Effizient.
So effizient, dass sogar ne 4090 abkackt dabei.

Sogar F.E.A.R hatte damals geniales Lighting und da war RT noch nicht mal ansatzweise ein Gedanke
 
  • Gefällt mir
Reaktionen: Miuwa, Hellyeah und ReVan1199
eazen schrieb:
Keine gute Einstellung und insbesondere heutzutage aus der Zeit gefallen so egoistisch zu sein. Und selbst wenn Geld und Umweltverschmutzung keine Rolle spielt heizt man damit den Raum unnötig auf, ach ne, dann benutzt der Intel-Fan vermutlich ne Klimaanlage um das auch noch auszugleichen. Ist wirklich abenteuerlich wie sehr Intel AMD in Sachen Effizienz hinterherhinkt.
Komplett einseitige Einstellung von dir und ebenfalls sinnfrei, dies detailierter zu kommentieren. Unzusammenhängende Schlagwörter verpackt in einem ebenso unwissenden Kommentar über mich und meinen CO2-Fussabdruck etc. Du würdest dich wundern, wie minim dieser ausfällt.

PS: Besitze kein Auto, mache keine Flugreisen oder Ferienausflüge, besitze eine hocheffiziente Heizung in meiner Wohnung (unser Quartier ist an einer Fernheizung angeschlossen), ernähre mich vegetarisch und ausschliesslich von hiesigen Anbietern usw.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miuwa, Neubauten, R4mses und eine weitere Person
Aimero schrieb:
Ahhhh ja, klar. Effizient.
Ja, sehr effizient sogar, weil die andere Möglichkeit für "ordentliche", also akkurate und realistische Beleuchtung, darin bestehen würde, die Strahlen nicht wie beim Raytracing aus der Kamera/dem Auge zu schießen, sondern sie wie in der Realität von allen Lichtquellen in alle Richtungen ausgehen zu lassen. Aber ich kann dir verraten: Das ist ganz und gar nicht effizient, weil ein Großteil davon niemals im Auge ankommen wird und daher hätte gar nicht berechnet werden müssen.

Alles, was du deiner Meinung nach als Beispiel guter Grafik oder Beleuchtung anführen kannst, das ohne Raytracing daherkommt, mag zwar für dich in der damaligen Zeit hübsch gewesen sein, aber mit lauter Tricks und Schummelei beim Versuch, Raster-Grafik an der Physik zu orientieren, definitiv nicht "ordentlich".
 
  • Gefällt mir
Reaktionen: CableGuy82, Leereiyuu, MrHeisenberg und 5 andere
Aimero schrieb:
Ahhhh ja, klar. Effizient.
So effizient, dass sogar ne 4090 abkackt dabei.
Ich denke er meinte effektiv, nicht effizient. Es ist relativ effizient im Vergleich zu Software Ray/Pathtracing was früher immer verwendet wurde bevor es Hardware Raytracing gab. Und warum kackt ne 4090 in RT ab? Ne, sie wird dann sogar erst richtig gut, setzt sich dann um 60%+ von der 4080 ab.
 
eazen schrieb:
Man sollte allerdings wegen einem schlecht programmierten Spiel nicht so ausrasten und verallgemeinern
Naja ausrasten kann man das ja nicht nennen.
Selbst Wolfgang sagt ja AMD muss mal langsam was liefern sonst wird es eng.
Der wird wohl am meisten Ahnung haben von uns hier...
 
Vitche schrieb:
Alles, was du deiner Meinung nach als Beispiel guter Grafik oder Beleuchtung anführen kannst, das ohne Raytracing daherkommt, mag zwar für dich in der damaligen Zeit hübsch gewesen sein, aber mit lauter Tricks und Schummelei beim Versuch, Raster-Grafik an der Physik zu orientieren, definitiv nicht "ordentlich".
Naja, es ist aber auch fraglich, ob "realistisch" oder "physikalisch korrekt" in Spielen immer sinnvoll ist. Schliesslich kennen wir alle die Realität, Spiele sollen und müssen sich auch teilweise davon lossagen.

Und wenn man ganz ehrlich ist, dann wäre gerade ein Weltraumspiel mit realistischer Beleuchtung ziemlich, ziemlich dunkel und man würde wohl kaum was sehen ;)
Zumindest nicht, wenn nicht grad eine Sonne in der Nähe ist.

Darum finde ich dieses Totschlagargument "aber RT ist realistisch" zwar inhaltlich absolut korrekt, aber halt nicht immer und schon gar nicht überall zielführend. Die "Fakebeleuchtung" wie Du sie nennst kann und ist teilweise (sogar mehrheitlich würde ich sagen) angenehmer und schöner.
 
  • Gefällt mir
Reaktionen: ALPHA-S und Aimero
Vitche schrieb:
Ja, sehr effizient sogar, weil die andere Möglichkeit für "ordentliche", also akkurate und realistische Beleuchtung, darin bestehen würde, die Strahlen nicht wie beim Raytracing aus der Kamera/dem Auge zu schießen, sondern sie wie in der Realität von allen Lichtquellen in alle Richtungen ausgehen zu lassen. Aber ich kann dir verraten: Das ist ganz und gar nicht effizient, weil ein Großteil davon niemals im Auge ankommen wird und daher hätte gar nicht berechnet werden müssen.

und trotzdem ist es wesentlich weniger Ressourcenfressend.
Als bestes Beispiel finde ich für geniales Lighting ohne RT Hitman.
Absolut geniales Lighting mit sehr guter Performance ausbeute.


Vitche schrieb:
Alles, was du deiner Meinung nach als Beispiel guter Grafik oder Beleuchtung anführen kannst, das ohne Raytracing daherkommt, mag zwar für dich in der damaligen Zeit hübsch gewesen sein, aber mit lauter Tricks und Schummelei beim Versuch, Raster-Grafik an der Physik zu orientieren, definitiv nicht "ordentlich".
Ist doch egal ob tricks und schummelei. Wenn es gut aussieht und nicht mal die Hälfte der FPS frisst, wie es RT tut, solls mir recht sein. Gut platzierte Cubemaps stehen RT in nichts nach.
So wird >schönes< gaming halt wieder nur der Oberschicht vorenthalten bleiben.
Kein mensch braucht eine physikalisch korrekte Reflektion auf einem Plastikbecher, der auf dem Müll liegt.

eazen schrieb:
Ich denke er meinte effektiv, nicht effizient. Es ist relativ effizient im Vergleich zu Software Ray/Pathtracing was früher immer verwendet wurde bevor es Hardware Raytracing gab. Und warum kackt ne 4090 in RT ab? Ne, sie wird dann sogar erst richtig gut, setzt sich dann um 60%+ von der 4080 ab.
Naja, Cyberpunk ist nichtmehr spielbar mit RT auf ner 4090.
Und ob du jetzt12 oder 20 fps hast macht den Kohl auch nicht fett
 
  • Gefällt mir
Reaktionen: CableGuy82 und ReVan1199
Heiliger Bimbam...

Ich bin kürzlich von der 6800XT auf die 4080S gewechselt und in diesem Spiel heißt das einfach mehr als doppelt so viele FPS. Normalerweise liegt der Vorteil bei 50-80%. Hier 230-250%.

Eigentlich altern AMD Karten ja wie feiner Wein, aber in den letzten Benches war es leider nicht so der Fall.

Ich mag Nvidia nach wie vor nicht, aber aus technischen Gründen hatte ich irgendwie kaum ne andere Wahl. Bei heutigen Preisen um 1000€ war es für mich zumindest ein akzeptabler Deal, wenngleich ich noch nie so viel für ne Grafikkarte ausgegeben habe. Aber da ich auch in VR zocken möchte und da mit der AMD da immer Problemchen hatte war der Wechsel leider notwendig. Auch da ich 4K120 als Ziel hab wenn nicht VR, mit DLSS (Quality) fast immer erreichbar.

Das Spiel sieht auf jeden Fall interessant aus, muss ich mir mal genauer angucken. Das mit den Frametimes ist ärgerlich, wahrscheinlich wird es sich auch nie ändern, aber für ein Strategiespiel für mich akzeptabel.
 
Zuletzt bearbeitet:
anarchie99 schrieb:
Zum Glück habe ich mich für die 4070 entschieden anstatt der RX 7800 XT. Echt ein Trauerspiel wie die RX 7800 XT in den letzten 10 Benchmarks von CB performt. Zum Großteil läuft die 4070 besser und das auch bei den wichtigen Perzentilen.
Würde AMD auch gerne bei der Grafikkarte eine Chance geben in Verbindung mit einem 7800X3D.
Aber wird wohl eine 4070 Super bei mir. Mal sehen, wie sich die RTX 5000er Generation auf die Preise auswirkt.
AMD RX 9000er Refresh soll ja auch dieses Jahr kommen.
 
  • Gefällt mir
Reaktionen: CableGuy82, fox40phil und anarchie99
DrFreaK666 schrieb:
Also meine 6700XT kommt langsam in die Jahre Monate.
Meine 6800 geht in WQHD in den von mir gespielten Titeln noch (ohne Raytracing) halbwegs annehmbar gut.
DrFreaK666 schrieb:
Hoffe dass RDNA4 taugt
Die Hoffnung teile ich nicht (mehr). Dasselbe hatte ich schon bei RDNA3 gehofft, leider vergeblich.

Meine nächste Karte wird daher aus Gründen der einfachsten Logik nur von NVIDIA kommen. Eine AMD Karte ist für mich derzeit größtenteils nur noch Geldverbrennung, die sind hinter NV jetzt einfach schon zu weit zurück.
Was AMD bietet überzeugt einfach nicht mehr. Immer beinahe überall hintendran.
 
  • Gefällt mir
Reaktionen: fox40phil, anarchie99 und gur_helios
Irgendwie irritieren mich die CPU-Benchmarks. Warum liefern die CPUs dort nicht einmal 100fps, in den GPU-Benchmarks in höherer Auflösung wird aber teilweise das doppelte und dreifache ausgegeben. Wie kann die CPU da mehr FPS abliefern?
 
Marcel55 schrieb:
Eigentlich altern AMD Karten ja wie feiner Wein,
Eigentlich ..? Das ist doch schon lange vorbei. Jetzt sind die Karten doch aufgrund der vielen Schwächen schon out of the Box Alteisen. Teures Alteisen.
Marcel55 schrieb:
aber in den letzten Benches war es leider nicht so der Fall.
Überall wo RT zugeschaltet wird sind sie weit hinten dran. Dafür sind die AMD Karten dann einfach zu teuer.
 
  • Gefällt mir
Reaktionen: gur_helios
Zurück
Oben