• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Troy: A Total War Saga im Test: Extremes Gras lässt selbst 16 Kerne schwitzen

Schade das kein 2700X dabei ist. Hätte mich schon interessiert wie der hier auch gegen den 3600X abschneidet.
 
  • Gefällt mir
Reaktionen: OCMC
Esenel schrieb:
Das Savegame.
Und dann wird der 10 Kerner mal dagegen gestellt ;-)
Dann drücke ich dir einmal die Daumen. 👊Mit meinen popeligen 6 Threads & Vega GPU brauch ich das erst gar nicht versuchen.
 
Zuletzt bearbeitet:
Mal gespannt ob sich dieser Trend bei den Next Gen Games vorsetzen tut.
 
Ich würds auch mit dem großen Threadripper probieren, habe aber leider gerade eben erst von den 24 Stunden gelesen und 50€ ist mir für ein Spiel das ich vermutlich eh nie spielen werde zu viel.
 
Bright0001 schrieb:
Berechtigter Kritikpunkt, man sollte an dieser Stelle jedoch klar differenzieren:
Schlecht: Gras braucht massiv CPU-Leistung.
Gut: Das Game nutzt alle vorhandenen Kerne um sich diese Leistung zu schnappen.

Ich mein, wenn das Teil nur in einem Thread laufen würde, aber das Gras genauso gefräßig wäre, dann wäre ja auch niemandem geholfen. :D
Wahrscheinlich ist es nicht mal das Gras selbst sondern viel mehr die Physik dahinter. Das wirkt als hätte ein Praktikant herausgefunden wie er Gras Objekte in einer Schleife mehrfach erstellt. Bei 10 Gras Objekten ist alles tutti, aber bei 10.000 bricht alles zusammen. Der Algorithmus für Gras ist ineffizient und 16 Kerne sind einfach nur die Holzhammer Methode das zu kaschieren. Schlechte Algorithmen darf man nicht schön reden, denn die Kunst ist nicht massiv Rechenleistung für Nebensächlichkeiten aufzubringen.^^
 
  • Gefällt mir
Reaktionen: Alpha.Male
Seitdem diese Frau da am Werk ist ruinieren die sich immer weiter...

Egal der König steht immer noch unangefochten auf seinem Thron:

 
  • Gefällt mir
Reaktionen: KarlsruheArgus, Lando1, Floppes und eine weitere Person
Sehr Geil, wenn jetzt die Leute wieder mal einen PC im Kaufberatungsforum wollen, der alles mit 144Hz in Ultra abspielt, kann man schön sagen "Da braucht es schon einen 16-Kerner, besser noch ein 32-Kerner". Ich freu mich schon auf die Diskussionen.

Können wir uns endlich mal darauf einigen dass HOCH die Standard Einstellung sein sollte die erstrebenswert ist? Lieber Hoch in 4k als Ultra in FHD bei ähnlichen FPS. Ist ja nicht das einzige Spiel, das mit minimalen Verbesserungen in der Optik die Anforderungen in die Höhe treibt.
 
  • Gefällt mir
Reaktionen: RNG_AGESA, HisN und Balikon
CR93 schrieb:
Ein Spiel das gut mit Kernen skaliert - hat hier jemand zufällig einen Threadripper? xD

also mein TR 3970 langweilt sich
 
  • Gefällt mir
Reaktionen: PS828 und Tenchi Muyo
Wolfgang schrieb:
RDNA2 wird von der Basis schätze ich mal gleich wie RDNA1 sein. Daher werden künftige Treiberoptimierungen vermute ich auch für RDNA1 gelten. Genauso wie es damals bei GCN gewesen ist. AMDs Treiberteam hat GCN halt offensichtlich vor ein paar Monaten gänzlich abseits von Bug-Fixing fallen gelassen und konzentriert sich voll auf RDNA. Kann man auch verstehen, auch wenns für GCN-Besitzer zweifelsohne ärgerlich ist.

Nope. Kann dir jetzt schon sagen, dass RDNA1 wie Milch altern wird. RDNA2 hat signifikante Architektur-Änderungen die die Unterstützung der wichtigen Next Gen DX12 Ultimate API erlaubt, die auch die neue Xbox nutzt.. Da RDNA1 damit nicht kompatibel ist, wird sie deutlich hinter RDNA2 zurückfallen.
 
eRacoon schrieb:
Versteh nicht ganz warum dass Game dann von euch regelrecht "gefeiert" wird dass endlich mal ein Game 16 Kerne nutzt wenn man mit einer Option die optisch jetzt nur marginal ist plötzlich nur noch 1/4 der Kerne braucht?
Früher nannte man dass eine unfassbar beschissen optimierte Engine, heute feiert man das? :schluck: :D
Ich dachte immer früher war das ein Grund für eine stärkere Grafikkarte. :D
Ich finde es beeindruckend dass es wirklich gelingt, auch 16 CPU Kerne voll auszulasten. Üblicherweise in solchen Test wurde festgestellt, dass 4 Kerne gut, 6 Kerne besser und 8 Kerne nur noch eine kleinen, aber nicht nennenswerten Vorteil in Spielen bringen. Dann hieß es schnell: mehr als 6 Kerne braucht man nicht.


eRacoon schrieb:
Wobei dass ja noch milde ausgedrückt ist, wenn ich 8 Ryzen 3000 Kerne mehr brauche um den optischen Zugewinn von Ultra auf Extreme zu erzeugen dann ist das einfach murks in meinen Augen und gehört nicht in ein Optionsmenü wo Unwissende das aus versehen aktivieren können. :rolleyes:
Dann gehören Ultra Einstellungen auch nicht hinein, weil Unwissende mit einer 100 Euro GraKa dieses ja versehentlich aktivieren können. Sinnvoll wäre natürlich ein Hinweis im Optionsmenü, wenn die Option aktiviert wird.
 
  • Gefällt mir
Reaktionen: Otsy und HisN
dampflokfreund schrieb:
Nope. Kann dir jetzt schon sagen, dass RDNA1 wie Milch altern wird.
Das weiß jetzt aktuell noch keiner. Ist nur eine Vermutung. Das die Karte aber deutlich hinter rdna2 zurück Fallen wird da gebe ich dir Recht.

Die Vega Karten sind auch relativ gut gealtert.
 
mibbio schrieb:
Die hat teils Macken & Probleme, die schon seit Urzeiten ungefixt mitgeschleppt werden. Die hat quasi noch Altlasten drin, die rund 20 Jahre alt sind.
Korrekt. Die Betonung liegt auf „ungefixt“. Denn diese Probleme ließen sich ja beheben, zumindest haben das andere Entwickler bei ihren Engines auch geschafft, oder schaffen es immer wieder. Nur haben Bethesdas Spiele technisch generell meistens eine eher schlechte Qualität. Skyrim hat noch immer Bugs, die nie gefixt wurden. Das scheint also generell so die Philosophie von Bethesda zu sein und daher sollte einem der Zustand der Engine nicht groß wundern.

Eine Engine kann eigentlich immer angepasst werden. Es gibt Entwickler die passen ihre Engine seid über 20 Jahren an und übernehmen bei jeder neuen Version den größten Teil des Codes, ergänzen Features und beheben Bugs... nur legt eben nicht jeder den Fokus auf die Technik, so wie eben dein Paradebeispiel Bethesda
 
MXE schrieb:
Welche Schranken? In 720p? In unrealistischen Settings? Jenseits von 240FPS? Gibts dazu auch einen günstigeren Stromtarif? Ein neues Netzteil? Einen brauchbaren Kühler?

Schon schlimm wenn man so die Augen verschließt.

2 Kerne mehr.
200MHz mehr Boost Takt.
266MHz mehr RAM Takt.
Höheres TDP Limit.

Aber bleib lieber in der Blase...
 
Weyoun schrieb:
Waren schon ein paar mehr als 5 Spiele und mittlerweile funktioniert es auch auf AMD-Karten. ;)
Dann solltest du das aber mal ganz schnell nvidia sagen denn die sind der Meinung das ihre Physx System Software immernoch nur auf ihren GPUs beschleunigt wird und sonst von der CPU berechnet wird.
Fallst du damit das Gameworks Hintertürchen meinst, es wäre noch nie ein ernsthaftes Problem gewesen es auch auf anderen GPUs berechnen zu lassen. Man hätte nur eine API verwenden müssen die für alle nutzbar ist.
Das hat am Ende den gleichen Grund warum man die Spieler Variante auf die alten SDKs begrenzt die unfähig sind mit mehr als einen CPU Kern umzugehen.....Marketing.
 
  • Gefällt mir
Reaktionen: Dai6oro
Irgendwas mach ich falsch, mein R7 1700 @ Stock langweilt sich zu Tode, auch mit maximalen Gras Details.
 
Ich sehe bei der Reihe seit Medieval 2 keine signifikante Weiterentwicklung ind hatte auch mit keinem Teil seit dem mehr so viel Spaß. Das neue hier habe ich mir nicht geholt, auch nicht geschenkt. Wird auch seinen Grund haben, warum die dafür kein Geld nehmen.
 
  • Gefällt mir
Reaktionen: Painkiller72 und mini_me
Empire: Total War hatte damals diese krassen KI-Bugs, die die CPU-Auslastung extrem in die Höhe getrieben haben. Je nach dem, wie ein Gefecht verlief, konnte sich die KI nicht entscheiden, was sie machen soll. Da wurde den Einheiten dann hundertfach pro Sekunde verschiedene Befehle erteilt, was dann darin resultierte, dass sie sich aufgrund der Reaktionszeit nicht mehr fortbewegt haben. Erst mit der Einnahme von Schlüsselstellen auf der Karte durch den Spieler löste sich der Knoten, und die CPU-Auslastung ging rapide runter.
Vielleicht ist das gleiche hier ja auch der Fall :D
 
  • Gefällt mir
Reaktionen: Painkiller72 und Steini1990
Wolfgang schrieb:
Man sollte die Hardware niemals nur nach einem einzigen Benchmark kaufen. Das gilt für Troy natürlich umso mehr. Der Benchmark-Test zu Troy ist aber ja auch keine Kaufberatung für Hardware.

Ich seh schon die diversen Kaufberatungsthreads eskalieren und Leute 3900x mit RTX2060 und co. kombinieren weil sie gelesen haben dass Games ja mittlerweile mehr als 8 Cores benötigen.

Bin weiterhin der Meinung ihr solltet das schnellstens entsprechend in dem Diagramm markieren oder einen Test mit Graß auf Ultra nachlegen sonst wütet hier die nächsten Monate der Mob in den Kaufberatungsthreads. :D

Denn auch wenn der Test natürlich der Wahrheit entspricht ist er doch ziemlich irreführend.
Speziell der 10400F und R3600 kommen hier viel zu schlecht weg.

Chismon schrieb:
... da braucht es wohl idealerweise einen 12-Kerne Vermeer Zen3 in Zukunft, au Backe, mehr als 8Kerne+SMT wollte ich eigentlich nicht einplanen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben