• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Troy: A Total War Saga im Test: Extremes Gras lässt selbst 16 Kerne schwitzen

Buggi85 schrieb:
Das 9/10tel an Rechnern für das Game quasi ausscheiden spiegelt sich dann im Umsatz wieder. Sowas darf auch keine Referenz werden, sonst benötigt man bald schon 4 Kerne nur zum Minesweeper zocken, weil im Umgang mit Leistung nur noch geschlampt wird.

Wir reden hier immernoch über eine opt in Funktion die im GUI mit dem Label "Extreme" gekennzeichnet ist, oder?
 
  • Gefällt mir
Reaktionen: stevefrogs, Otsy, Alphanerd und eine weitere Person
Ned Flanders schrieb:
Wir reden hier immernoch über eine opt in Funktion die im GUI mit dem Label "Extreme" gekennzeichnet ist, oder?
Das macht es runtergebrochen auf nicht Extreme nicht besser. Ein guter Extreme Algorithmus skaliert ja auch nach unten hin. So oder so wird das Gras seinen Anteil an der Leistung ausmachen, es sei denn ganz ausschalten, falls das geht.
Ergänzung ()

Karre schrieb:
Warum verbraucht das Gras so viel Performance? Wird es in Echtzeit berechnet und von den Truppen „bewegt“? 🤔
Das sind doch eigentlich nur wackelnde Texturen ...
Wahrscheinlich Physik und wenn ich richtig liege erbt das Gras Objekt die Physik. Wenn man jetzt mehr Gras erzeugt besitzt jedes Objekt seine eigene Physik und wird unabhängig berechnet. Dadurch steigt mit der Anzahl zwangsläufig die Auslastung. Besser wäre nur einmal Physik berechnen und das Ergebnis an alle Objekte geben. Kann ja auch an Kollisionen geknüpft werden.
 
Zuletzt bearbeitet:
Buggi85 schrieb:
So oder so wird das Gras seinen Anteil an der Leistung ausmachen, es sei denn ganz ausschalten, falls das geht.
Es steht doch schon im Text, dass mit Gras auf Ultra bereits 6 Kerne für die volle Performance ausreichen, heißt darüber skaliert es auch nicht mehr. Wobei das hier dann wieder am GPU Limit liegen wird
 
@Buggi85 und dennoch liegt ihr ein Limit der Hardware vor, völlig egal wie die Software geschrieben ist. Sieht man daran das Hardware die mehr Kerne hat auch mehr liefert.

Ist das selbe wie mit dem GPU Limit. Da sagt man auch nicht "die Software ist Müll" sondern "die GPU limitiert".
 
@Pisaro, bei der Logik gibt es keine schlechte Programmierung sondern bei allem liegt ein Limit in der Hardware vor, die könnte ja schlicht die Komponenten enthalten um das programmierte gut umzusetzen
 
  • Gefällt mir
Reaktionen: KlaraElfer und Buggi85
Taxxor schrieb:
Es steht doch schon im Text, dass mit Gras auf Ultra bereits 6 Kerne für die volle Performance ausreichen, heißt darüber skaliert es auch nicht mehr. Wobei das hier dann wieder am GPU Limit liegen wird
Dann ist Ultra die Schwelle ab der man einfach nicht weiter drüber nachgedacht hat und einfach die Hardware machen lässt.
 
@Taxxor jetzt ist plötzlich eine Auslastung mehrere Kerne schlechte Programmierung? Sorry, dass ist großer Unsinn.
 
  • Gefällt mir
Reaktionen: Mario2002
Alle Benchmarks im Bereich Produktivität zeigen seit jeher: mehr CPU Kerne können mehr berechnen als weniger Kerne.

Nun, da es endlich auch ein Game gibt, das mehr Kerne ausnutzt, sollte dieser Zusammenhang auch Gamern verständlich sein.

Jedenfalls sollte klar sein wo die Reise auch bei Games hingeht. Gute Aussichten für CPU Hersteller :)
 
  • Gefällt mir
Reaktionen: Mario2002 und Pisaro
Pisaro schrieb:
@Taxxor jetzt ist plötzlich eine Auslastung mehrere Kerne schlechte Programmierung? Sorry, dass ist großer Unsinn.
Auslastung um der Auslastung Willen ist schlechte Programmierung natürlich, denn die Kerne hätte man anderweitig sinnvoller nutzen können.

Oder siehst du da was was diese Auslastung rechtfertigen würde?
Pisaro schrieb:
Ist das selbe wie mit dem GPU Limit. Da sagt man auch nicht "die Software ist Müll" sondern "die GPU limitiert".
Wie schon mehrmals gesagt, kommt drauf an wie die GPU limitiert.
Bestes Beispiel gerade Horizon zero dawn, wo eine 2080Ti 100% Auslastung zeigt, aber gerade mal 200--250W zieht statt den eigentlich üblichen 300W.

Hier wird die GPU durch die Software ausgebremst.
 
  • Gefällt mir
Reaktionen: Celinna und Esenel
Pisaro schrieb:
@Buggi85 und dennoch liegt ihr ein Limit der Hardware vor, völlig egal wie die Software geschrieben ist. Sieht man daran das Hardware die mehr Kerne hat auch mehr liefert.

Ist das selbe wie mit dem GPU Limit. Da sagt man auch nicht "die Software ist Müll" sondern "die GPU limitiert".
Na ja, du möcht aber doch sicherlich keinen Supercomputer für ein Spiel benötigen für eine Option auf Extreme.
 
Wieso sollte das schlecht programmiert sein? Nur weil das in der höchsten Stufe 16 Kerne nutzt? Ich wusste gar nicht, dass hier so viele professionelle Spieleprogrammierer unterwegs sind.
 
  • Gefällt mir
Reaktionen: max9123, Alphanerd, Mario2002 und 2 andere
Mein nächstes Spiel setzt für Ultra Settings 64 Kerne vorraus, da die Wolken, die ganz weit weg sind und die sich eh niemand anschaut, millimeter genau in Echtzeit berechnet werden.

Ihr könnt euch ja nen Epyc kaufen um es auf Ultra spielen zu können, ansonsten limitiert halt einfach eure Hardware, geschrieben ist das Spiel aber 1A.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Krautmaster, Esenel und 2 andere
ZeroStrat schrieb:
Wieso sollte das schlecht programmiert sein? Nur weil das in der höchsten Stufe 16 Kerne nutzt? Ich wusste gar nicht, dass hier so viele professionelle Spieleprogrammierer unterwegs sind.
Tjoa, gehört aber leider noch zu den Grundlagen der Programmierung.
Ergänzung ()

Taxxor hat das korrekt erkannt. CPU Leistung für Nichtigkeiten verschwenden...
 
  • Gefällt mir
Reaktionen: Esenel
Vielleicht hat AMD auch einfach den Nvidia Move gemacht und dem Entwickler nahegelegt, auf dem extrem Setting irgendwo unter der Spielwelt alles voll mit zusätzlichem Gras zu machen, was von der CPU berechnet werden muss ^^
 
  • Gefällt mir
Reaktionen: KlaraElfer und stevefrogs
Je nach verwendetem Multithreading Backend wäre es auch bei anderen Spielen interessant wie sie auf das setzen der entsprechenden Umgebungsvariablen reagieren. Bei OpenMP ist das relativ einfach auszuprobiern.

zB.: MSVC OpenMP Implementierung:
https://docs.microsoft.com/en-us/cp...nce/openmp-environment-variables?view=vs-2019

Bei Intel OpenMP und Ryzen kann auch setzen der Threadaffinity einen Einfluss haben.
https://software.intel.com/content/...ead-affinity-interface-linux-and-windows.html
 
Buggi85 schrieb:
Tjoa, gehört aber leider noch zu den Grundlagen der Programmierung.
Ergänzung ()

Taxxor hat das korrekt erkannt. CPU Leistung für Nichtigkeiten verschwenden...
Inwiefern? Wie definierst du schlechte Programmierung? Dass es für dich ein schlechtes Verhältnis aus Aufwand und Image Qualität ist, ist doch nicht grundsätzlich schlechte Programmierung. Wenn eine deulich kleinere Komplexitätsklasse erreicht werden kann bei äquivalentem Ergebnis, das ist für mich schlechte Programmierung. Dabei hat man den Faktor Implementierungsaufwand noch nicht einmal betrachtet. Das ist ein komplexes Thema Leute.
 
  • Gefällt mir
Reaktionen: Mario2002 und Pisaro
Faszinierend was hier zusammenspekuliert und als Tatsache hingestellt wird.
Wenn bei der extremen Gras Berechnung wirklich eine ernsthafte Physik Berechnung mit ins Spiel kommt und/oder es richtib bei der Schattenberechnung mit einbezogen wird dann würde mich der Hardware Hunger nichtmal ansatzweise verwundern. Beides können vor allem in der Masse extreme Leistungsfresser sein und der optische Unterschied zur plausiblen Simulation je nach Umsetzung relativ gering aber anstatt es zu würdigen das man sich die Mühe gemacht hat meckert man lieber über ein optionales Feature welches nicht das eigene Weltbild wiederspiegelt.
Es ist ja nicht so als wenn seit zig Jahren bekannt wäre das nur allso oft selbst kleine optische Verbesserungen wegen dem dahinter stehenden erheblichen Rechenaufwand übermäßig viel Leistung fressen.
Ergänzung ()

Taxxor schrieb:
Vielleicht hat AMD auch einfach den Nvidia Move gemacht.....
Hieß es nicht das AMD bei der Entwicklung dieses Spiels nicht beteiligt war?
A Total War Saga hat DirectX 12 „verlernt“, stattdessen gibt es nur noch DirectX 11, während die Warhammer-Teile auch mit DirectX 12 umgehen konnten. Das liegt vielleicht auch daran, dass Troy anders als Warhammer nicht mehr in Zusammenarbeit mit AMD entstanden ist.
 
  • Gefällt mir
Reaktionen: max9123 und Dai6oro
ZeroStrat schrieb:
Inwiefern? Wie definierst du schlechte Programmierung? Dass es für dich ein schlechtes Verhältnis aus Aufwand und Image Qualität ist, ist doch nicht grundsätzlich schlechte Programmierung. Wenn eine deulich kleinere Komplexitätsklasse erreicht werden kann bei äquivalentem Ergebnis, das ist für mich schlechte Programmierung. Dabei hat man den Faktor Implementierungsaufwand noch nicht einmal beteachtet. Das ist ein komplexes Thema Leute.
Es ist einfach. Die machen auch nichts anderes als debuggen. Jedem Entwickler, der feststellt das die Leistung durch seine Arbeit enorm einbricht unter bestimmten Settings, sollte auch in der Lage sein eine Lösung zu finden das dies nicht soweit abdriftet. Programmieren ist ja nicht nur programmieren um irgendwelche Variablen von A nach B zu schieben und jeder Spieleentwickelt weiß auch daß er an zeitkritischer Software arbeitet. So ne Option im Spiel freizugeben ist einfach fahrlässig, sei es wegen des Rufs, Umsatzes oder was auch immer, professionell ist es jedenfalls nicht und wir reden hier nur über Gras. Red Dead Redemption bildet auch überall Gras ab und das auch schon beim ersten Teil auf den alten Konsolen und trotzdem war das nie ein Thema. Das wir in 2020 bei einem Spiel von brutalem Performanceeinbruch, unter höchstem Setting, für Gras sprechen ist sowas von Retro.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben