• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Troy: A Total War Saga im Test: Extremes Gras lässt selbst 16 Kerne schwitzen

Die CPU ist im Schnitt 2% schneller, ja.

Dadurch dass es sich aber bei diesem Gras Setting um etwas handelt was die CPU sehr beansprucht, kommt hier die TDP auch nochmal zum tragen und die CPU würde sich weiter absetzen.

Hinzu kommt dass durch sie Veränderung der STIM Zusammensetzung, dem dickeren HS und dem dünneren DIE die Temperaturen ein gutes Stück geringer sind und dadurch auch die Leistungsaufnahme.

Aber ihr habt recht.
Was weiß ich schon.
Ich beschäftige mich viel zu wenig mit dem Thema, um Ahnung zu haben....
 
KlaraElfer schrieb:
Da geht es nicht um die Rangliste sondern das Kosten/Nutzen Verhältnis, auch unabhängig der Kernskalierung.
Kernskalierung ist eine nice Geschichte, aber hier einfach nicht effizient.
Du meinst das Kosten/Nutzen Verhältnis wo AMDs Modelle bei gleicher Leistung günstiger sind (3700X ca. 270€ vs. 9900k ca. 400€) oder die Effizienz wo man bei mehr Kernen mehr Rechenleistung pro Watt bekommt?
 
Wadenbeisser schrieb:
Du meinst das Kosten/Nutzen Verhältnis wo AMDs Modelle bei gleicher Leistung günstiger sind (3700X ca. 270€ vs. 9900k ca. 400€) oder die Effizienz wo man bei mehr Kernen mehr Rechenleistung pro Watt bekommt?

Selbst wenn du einen 16 Kerner hast, geht die Framerate durch das Gras deutlich nach unten, das meine ich damit.
Eine "gute Skalierung" existiert hier schlicht und ergreifend nicht, vielleicht ist das auch einfach ein Bug.
Der 10700F kostet nur 309 Euro und ist in der Regel, gerade mit gleichem Speicher schneller als ein 3700x, selbst wenn der übertaktet ist, wieso vergleichst du da mit dem 9900K von 2018?

In Spielen sind die Intels pro Watt nicht hinten dran, da ists eher ausgeglichen.
 
@KlaraElfer

Hattest du nur zufällig den 3900x übersprungen der ca. so viel kostet und Strom frißt wie der 9900k sich aber gute 30-35% von jenem ansetzen dürfte?

Des weiteren kann sich der teurere 10700K noch nicht einmal ernsthaft vom 9900k absetzen.
Was glaubst du wohl wo das gedrosselte F Modell landet, sofern man es nicht per Boost fressen läßt was es will und die Effizienz dabei den Bach runter geht?

Was man aber nur allso deutlich bei dir herauslesen kann, deine ganze Argumentation bezieht sich nicht auf diesen test und schon sind wir bei der von mir angesprochenen Rangfolge.
 
Intel hat da so ne ganz eigene Meinung zu Total War:

https://www.intel.co.uk/content/www...s/how-cpus-affect-your-gaming-experience.html

“This is best illustrated in Total War: THREE KINGDOMS’ new Dynasty Mode, where you can crank the unit count up by 500%. The more cores your CPU has, the better framerate you get.”

wirbt sogar aktiv mit mehr Soldaten auf dem Schlachtfeld, die rein durch Hardware (Kernen) ermöglichst werden und auf einmal ist das alles schlecht optimiert und oder ein Bug. Auch der Dynasty Mode ist nichts anderes als ein Extremszenario um was auszulasten? Ach ja genau die Kerne ihrer 10 Core CPU. Wie zuvor der laboratory Modus bei Warhammer II (auch Intel gesponsort). Intel hat eventuell die Soldaten aber AMD das Gras:D
 
Dai6oro schrieb:
Die Aussage ist schon richtig, mehr Einheiten machen aber auch mehr Sinn als mehr Grashalme oder? Wären es die Wolken wäre das auch nicht viel anders. Man verschwendet Ressourcen für nix. Grasfetischisten haben halt einen Grund zum aufrüsten, okay.
 
Zuletzt bearbeitet von einem Moderator:
Bei 3K waren Extreme Shadows äußerst ungenau (teilweise Schatten die nicht hätten existieren sollen), CPU fraß das dennoch ungemein. Dass das Multithreading wohl keine Kunst bei Schatten bzw Grass Kalkulationen sind, scheint mir im Artikel zu kurz zu kommen (das kann ja eh weitestgehend unabhängig voneinander berechnet werden). Bei Rundenende stürzt die FPS bei Troy dennoch auf den einstelligen Bereich ein, da die wesentlichen AI Züge eben doch nicht ordentlich auf die CPU Kerne skaliert berechnet werden können. Mein 9700k reicht mir völlig und eine Ressourcenschinderei brauche ich für mein Gameplay ned. Erst waren 8 bzw 12 threads ausreichend für die meisten Games, und nun sollen nicht mal 12 ganze Kerne mehr ausreichen (9700k hat sogar nur 8/8T) ? Sorry, die wesentlichen Gamethreads (AI, Movement Range etc.) sind sicherlich nicht auf mehr als 4 Kerne parallelisiert. Typische "Choke Points" an den Toren zwingen da wahrscheinlich auch ein 16 Kerner in die Knie da eben die wesentlichen Threads in der Gameloop nur von 2-4 Kernen bearbeitet werden. Ob das extreme Grass dann schon berechnet wurde macht die anderen mehr kritischen Threads auch nicht schneller. Mir freut es aber, dass Troy auf den ersten Blick mit normalen Settings gegenüber TWW2 und 3K flüssiger in der Kampagnenkarte läuft, war aber noch nicht über Midgame gekommen. Rant on: Nebel schien bei TWW2 ein grösseres Problem für FPS zu sein, sogar das HUD frass schon selbst 10-20 fps, bzw. ührte zu seltsamen Rucklern. Aber darüber lohnt es sich wohl nicht zu schreiben, Rant off. CPU Utilization sells, auch wenn die zusätzlichen Kerne zum Idïot Savant werden ...
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Hattest du nur zufällig den 3900x übersprungen...

Du hast 3700x mit 9900K verglichen und den 3900x übersprungen, allerdings ist der 9900K nicht das aktuelle Modell, ein Vergleich ergibt da wenig Sinn.

Wadenbeisser schrieb:
der ca. so viel kostet und Strom frißt wie der 9900k sich aber gute 30-35% von jenem ansetzen dürfte?

Unter welchem Szenario? TDP Limit JA/Nein, Workload? Das ist unterschiedlich.

Wadenbeisser schrieb:
Des weiteren kann sich der teurere 10700K noch nicht einmal ernsthaft vom 9900k absetzen.

Der 10700K ist teurer als ein 9900K? Wo das?

Wadenbeisser schrieb:
Was glaubst du wohl wo das gedrosselte F Modell landet, sofern man es nicht per Boost fressen läßt was es will und die Effizienz dabei den Bach runter geht?

In Spielen benötigen Prozessoren nicht viel Energie und der Unterschied zwischen F Modell und K Version ist mit 100 Mhz im Allcore Boost gering, demzufolge auch der Performanceunterschied.
 
Dai6oro schrieb:
Das Extreme Setting bei Gras einfach nicht anzubieten? Völliger Blödsinn. Wie schon gesagt beim Vorgänger musste man auch auch Extreme Shadows abschalten, weil es sonst ohne eine 2080TI kaum spielbar gewesen wäre. Hat sich da jemand beschwert?
Völlig lächerliche

PS: Und was die Programmierung angeht. Der PC war und wird niemals die Plattform der effizientesten Programmierung sein. Da geht euch lieber ne Konsole kaufen, wenn ihr das haben wollt. Da bekommt ihr bei vorgegebener Hardware das Effizienteste raus.

1) Extreme Schatten sind bei TWW2 mit einer 2080TI und >=8 Kerner schon zu bewältigen. Teilweise sah Ultra aufgrund von Bugs wie Low aus, was mich zwang Extreme zu wählen (je nach Betrachtungswinkel war Ultra echt low res.).

2) Das war mal mit PS2 und N64. Dass Entwickler spezialisierte Co-Prozessoren und damit verbundene Architekturen etc. ausreizen ist davon abhängig wie exklusiv der Titel für die jeweilige Plattform ist und ob wirklich die Zeit für solche Optimierungen mehr genommen wird (Hardware effektivster Port der Geschichte war wohl REvil 2 von PS1 auf N64, und das mit Änderungen am Mikrocode der N64 ...) . Einfacher ist es bei Konsolen PC-architekturähnlich vorzugehen und dann bei Performance Hickups einfach an der Settingsschraube zu drehen (GTA5, RDR2). Aber ja, den Konsolen haben wir besseres Multithreading schon zu verdanken, musste ja aus einem Kostenstandpunkt so gegangen werden. Taktweise hieß es vor 10 Zehn Jahren, dass wir heute schon >7/8 Ghz haben sollten, das scheint man wohl mit mehr Kernen zu kompensieren, jedoch kann nicht jede kritische Gameloop Komponente parallelisiert werden. Ansonsten würde wir hier nicht über das Extreme Setting schreiben, sondern generell über eine bessere Skalierung.
 
Zuletzt bearbeitet:
@KlaraElfer

Jetzt nicht pampig werden und absichtlich uminterpretieren.
Du hattest das Märchen der Kosten/Nutzen Verhältnisses zu gunsten des teureren, ca. gleich schnellen Modells (3700x vs. 10700K/F/9900k) und mangelhaften Effizienz bei der Kernskalierung zugunsten des gleich viel Strom fressenden, langsameren Modells (z.B. 9900k vs. 3900x) erzählt.
Zudem beziehst du dich bei deinen Aussagen offensichtlich ausschließlich um den Teillast Bereich bei dem mehr Kerne überhaupt nicht genutzt aber mitbezahlt werden. Sinn bei Aussagen zur Energieeffizienz mit mehr Kernen?

Damit beziehst du dich also ausdrücklich nicht auf die Ergebnisse dieses Tests.
Würdest du das (wie ich) wären deine Fragen ganz einfach überflüssig denn deine Aussagen zum 10700F wirken da fast schon peinlich da der 9900k mit seinem deutlich höheren Allcore Takt und mehr Strombedarf nicht gegen den 3700x ankommt, zumal der 10700F dennoch teurer als ein 3700x ist.

Und nochmal ein kleiner Exkurs zu den Angaben der K und der F Variante des 10700, sowie als Vergleich die des 9900k.
10700K = 125W TDP, Basistakt 3,8 GHz, Boost 5,1 GHz
10700F = 65W TDP, Basistakt 2,9 GHz, Boost 4,8 GHz
9900k = 95W TDP, Basistakt 3,6 GHz, Boost 5,0 GHz

Sollte der 10700F also durch eine entsprechende Kühlung so hoch boosten das nur noch 100 MHz zwischen beiden stehen dann kann man sich die 65W Angabe auch getrost abschminken denn diese bezieht sich bei Intel inzwischen wohl lediglich auf den Basistakt an den die sich ohnehin nicht mehr halten wenn die Kühlung passt.
Ich bin mir allerdings ebenso sicher das dir das durchaus bewußt war aber fehlt weil es nicht zur Argumentation passte.
 
So, hier wie versprochen das CPU-Replay.
Das müsst ihr nur in den richtigen Ordner kopieren (unter C:\Users\Benutzer\AppData\Roaming\The Creative Assembly ).

Der Benchmark geht für 25 Sekunden los nachdem der Benchmark bei 1:30 Minuten angekommen ist (dahin könnt ihr vorspulen). Mit der Kamera geht ihr einfach nach vorne, bis ihr bei der Stelle die im Video zu sehen ist angekommen seit.
 

Anhänge

Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, Otsy, Wadenbeisser und 6 andere
Man hätte den Richtigen Pfad noch angeben können, dafür muss man nämlich die Versteckten Ordner anzeigen lassen. C:\Users\Benutzer\AppData\Roaming\The Creative Assembly

Hab grad den Kompletten Pfad nicht im Kopf da ich nicht am Haupt Rechner bin
 
  • Gefällt mir
Reaktionen: stevefrogs und Wolfgang
Wadenbeisser schrieb:
Dann lieber Gras als Soldaten? :volllol:

Das wäre doch eine schöne geschmeidige Welt :D

Wolfgang schrieb:
So, hier wie versprochen das CPU-Replay.
Das müsst ihr nur in den richtigen Ordner kopieren (unter C:/Benutzer).
Dann mal los, Sohn hat es leider nicht gegrabbt, der war am Lehrgang, daher nix zum zum benchen. Wäre 2600 mit 480 gewesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Die_antwoord
Ultra ist das ganz normale Ultra Preset, Ultra/Extreme ist das was CB eingestellt hat.

Getestet in 720p, was mich zumindest bei Ultra/Extreme im CPU Limit gehalten hat, beim Ultra Preset aber immernoch zuviel war für meine GPU^^

CX_2020-17-8_10-21-59_Comparison.png

CX_2020-17-8_10-22-01_Comparison.png



Sensordaten Ultra

ultrasensor.png



Sensordaten Ultra/Extreme

ultraextremesensor.png


Tatsächlich das erste mal, dass die CPU in einem Spiel an ihr PPT Limit gekommen ist
Ergänzung ()

@Wolfgang ist 0,2% Perzentil in der Tabelle für die CPUs richtig? Normalerweise nehmt ihr für CPU Tests ja immer das 1% Perzentil und das würde vom Wert auch exakt zu meinem Ergebnis passen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und ZeroStrat
Buggi85 schrieb:
Das macht es runtergebrochen auf nicht Extreme nicht besser. Ein guter Extreme Algorithmus skaliert ja auch nach unten hin. So oder so wird das Gras seinen Anteil an der Leistung ausmachen, es sei denn ganz ausschalten, falls das geht.
Ergänzung ()


Wahrscheinlich Physik und wenn ich richtig liege erbt das Gras Objekt die Physik. Wenn man jetzt mehr Gras erzeugt besitzt jedes Objekt seine eigene Physik und wird unabhängig berechnet. Dadurch steigt mit der Anzahl zwangsläufig die Auslastung. Besser wäre nur einmal Physik berechnen und das Ergebnis an alle Objekte geben. Kann ja auch an Kollisionen geknüpft werden.
Aber es interagiert doch mit nichts in dem spiel.
 
Taxxor schrieb:
@Wolfgang ist 0,2% Perzentil in der Tabelle für die CPUs richtig? Normalerweise nehmt ihr für CPU Tests ja immer das 1% Perzentil und das würde vom Wert auch exakt zu meinem Ergebnis passen
Ja, der 0,2 Perzentil ist richtig, den hab ich immer genommen.
 
Hm dann ist mein 3700X wohl einfach schlechter^^
 
Das ist alles sehr interessant. Von technischer Seite geht mir da einer ab.

Ich muss allerdings auch sagen, dass die einzig "Extreme" Sache an dem Spiel, die unsexyness ist :D.

Ich kann die FS2020 Benchmarks kaum erwarten.
 
Zurück
Oben