Test Anno 1800: Benchmark-Ergebnisse der Community

laurooon schrieb:
Bei Shootern hast du Partikeleffekte, Regeneffekte, Explosionen, Physikeffekte, voluminetrischen Nebel, Horden von Gegnern (wenn auch nicht 50k wie bei Anno).


Alles was du nennt, geht fast alles auf die GPU. Das ist überhaupt nicht vergleichbar mit Anno. Es gibt Gründe, weswegen Actionspiele mit freier Welt und viel KI CPU lastiger sind als die üblichen 0815 Shooter. Da liegt es auch an der KI. Und in Anno gibt es sehr viel KI, die simuliert werden muss.
 
laurooon schrieb:
(ich habe auf allen Kernen immer so 20-40% schwankend.)
Ich habe den Eindruck, dass du die Annahme hast, eine CPU wäre nur voll ausgelastet, wenn "100% Auslastung" angezeigt wird. Bei einem Achtkerner kann das bereits bei 13% der Fall sein.

mkl1 schrieb:
Es gibt Gründe, weswegen Actionspiele mit freier Welt und viel KI CPU lastiger sind als die üblichen 0815 Shooter.
Anno ist ein gutes Beispiel dafür, dass es innerhalb eines Spieles sowohl ein CPU- als auch ein Graphikkartenlimit geben kann. Häufig lese ich in Kaufberatungen "Kauf einen Ryzen für WQHD und 4k, da bist du sowieso im Graphiklimit". Offensichtlich ist das nicht immer der Fall.
 
Ich bin jetzt bei 5500 Investoren angekommen und habe die Weltausstellung gebaut.
Im Grunde habe ich jetzt alles gesehen, ich kann noch mehr Investoren bauen und mit der Weltausstellung größere Events veranstalten, aber beide Inselwelten sind voll erschlossen und einige Inseln auch voll bebaut.

Also ich würde sagen ich bin im Endgame angekommen. :)

Ich bin stark überrascht, wie stabil doch die Performance geblieben ist.
Klar am Anfang hatte ich viel viel mehr FPS und noch kein CPU limit, aber schon ab der dritten Bevölkerungsstufe hatten sich die Anforderungen scheinbar eingependelt.

Ich habe extra nur mein 16GB Kit verbaut, um zu sehen ob der Ram irgendwann ausgeht...und ja ich denke das Spiel möchte gerne mehr Ram.
Allerdings leert es den Ram von Zeit zu Zeit wenn er sich den 16GB nährt und die FPS scheinen nicht wirklich zu leiden. Ich würde allerdings sagen, dass es mit 16GB öfter Nachladeruckler gibt und das Hereinladen mancher Texturen deutlich länger dauert....aber ich werde das eventuell nochmal genauer testen.

Also meine ursprüngliche Benchmarkszene war die Stufe 3, voll versorgt und bereit aufzusteigen.
Die Inselwelt war schon besiedelt, ich brauchte aber noch nicht allzuviele Schiffe um die Versorgung zu halten.
Ich habe eine Bevölkerung von 14 tausend auf der Inselwelt.
776376

Diese Szene hatte auf meinem Ryzen 1800X mit 16GB Ram und einer Radeon VII 30,78 avg FPS über 2,5min
Die 0.1% low Frametimes lagen bei guten 26,2 1/s

Jetzt viele Spielstunden später und mit einer zweiten Hauptinsel, mit 5500 voll versorgten Investoren und insgesamt 43 tausend Einwohnern:
776377

Komme ich auf fast gleiche 30,47 avg FPS und 25,4 1/s 0.1% low Frametimes

Wie man sieht hat sich das Stadtbild kaum verändert, da ich schnell gemerkt habe, dass mir auf dieser Insel der Platz fehlt um Investoren zu erreichen und ich daraufhin die alte Hauptinsel von Beryl als "Investroenparadies" auserkoren hatte.

Gucke ich mir diese Insel an, auf der ich mich etwas mehr im Schönbauen versucht habe und noch Platz habe um mehr Bevölkerung anzuhäufen:
776379

...dann sieht das erstmal pompöser aus, läuft aus Performance Sicht jedoch besser:
32,45 avg FPS und 27,0 0.1% low Frametimes.

Also auch wenn ich mir vorstelle, das ich noch einige Versorgung bauen muss um 20 tausend Investoren oder sowas zu versorgen, so bin ich doch zuversichtlich, dass es weiterhin gut laufen wird.

Die Leistung scheint im CPU limit weniger von der Flottengröße und Menge an Einwohnern/Produktion abzuhängen sondern vor allem von den Drawcalls auf dem Main-Thread.

Denn gucke ich andere Inseln an, die nicht so bebaut sind, erreiche ich locker über 60 FPS im GPU limit.
Die Spielwelt an sich scheint das Spiel ganz gut auf die vielen Threads zu verteilen...ich habe jetzt noch nicht getestet, wie es mit 4 Kernen aussieht, aber mit 8 sind die worst case szenen (bei meinen Grafikeinstellungen)
single thread CPU limts über den großen Städten.

Wobei man auch da noch einiges an Leistung herausholen kann, wenn man auf etwas Sichtweite verzichtet.
Gehe ich in der worst case Szene, 43tausen Einwohner aber meine alte Stadt, mit der Sichtweite von Ultra auf sehr hoch runter, steigen die avg FPS von 30,47 auf 45,2 FPS!


Was sind eure Erfahrungen im Lategame?
CB hat ja geschrieben, sie haben ein Savegame mit 60 tausend einwohnern erhalten....wie sieht es da aus?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlanK, cm87 und Jan
Jan schrieb:
Artikel-Update: ComputerBase-Leser Meleager hat der Redaktion inzwischen ein Savegame mit 65.000 Einwohnern bereitgestellt. Das stellt im Vergleich zum Spielstand mit 10.000 Einwohnern noch einmal deutlich höhere Anforderungen an die CPU. ComputerBase bietet auch dieses Savegame zum Download an und freut sich über zahlreiche Ergebnisse der Community.

Beim Lategame-Test könnte es interessant sein zu sehen, ob CPUs mit mehr Kernen sich stärker absetzen können. Wenn mehr zu rechnen ist, ist auch die Chance, dass mehr parallel gerechnet werden kann.
 
Eine Frage zum Punkt "Early- vs. Late-Game – 1.920 × 1.080 – Reduzierte Settings"
Soll nicht die Grafikkarte von AMD einen höheren Overhead produzieren als die von Nvidia?
Warum verliert dann die Nvidia deutlich mehr bei höherer CPU-Last?
Mit der höheren Last zieht AMD ja sogar vorbei.
 
Sollte man das Late Game nicht auch mit der gleichen GPU, aber unterschiedlichen CPUs und Threadanzahl testen? Es geht ja schließlich ums CPU Limit.
 
Drakrochma schrieb:
Eine Frage zum Punkt "Early- vs. Late-Game – 1.920 × 1.080 – Reduzierte Settings"
Soll nicht die Grafikkarte von AMD einen höheren Overhead produzieren als die von Nvidia?
Warum verliert dann die Nvidia deutlich mehr bei höherer CPU-Last?
Mit der höheren Last zieht AMD ja sogar vorbei.
AMD Karten haben einen Hardware-scheduler, während die Nvidia Karten dieses über die Cpu teilauslagern. Denke da kommt im CPU-Limit der CPU einfach nicht mehr richtig hinterher, und die Leistung der 2080ti wird nicht abgefragt.
Ich nehme an, dass vorher (max-details) immernoch ein gpu-limit herrscht.
 
Bevor ich den Ram für euch teste - hat jemand schon mal ein Spiel richtig gewonnen?
Sprich - keine KI mehr auf der Karte und Piraten auch weg?
 
Link zum Test mit 10000 Einwohnern: Link
Mit 10000, 65000er Ergebnis zum Vergleich direkt dahinter:
System: i5-4670K OC, RX 580 CD OC, 16/2200
1920x1080 Ultrahoch, 4xMSAA, WF Ultrahoch DX12, VSync off: 31,9; mit 65.000 Savegame: 27,3
1920x1080 Mittel, WF Mittel, DX12, VSync off: 117,8; mit 65.000 Savegame: 96,1
 
  • Gefällt mir
Reaktionen: Jan und so_oder_so
manche Ergebnisse sind schon eigenartig. Wie kann eine 1060 schneller sein, als eine 1070? Oder ein AMD 1700er schneller als ein 9900K (bei jeweils identischen Restsystemen)?
Dennoch gute Idee, weil man ein Gefühl bekommt, was man erwarten kann und was nicht und wo man in etwa landen dürfte.
 
Smartin schrieb:
manche Ergebnisse sind schon eigenartig. Wie kann eine 1060 schneller sein, als eine 1070? Oder ein AMD 1700er schneller als ein 9900K (bei jeweils identischen Restsystemen)?
Dennoch gute Idee, weil man ein Gefühl bekommt, was man erwarten kann und was nicht und wo man in etwa landen dürfte.

Welche Ergebnisse meinst du? Kannst mal nen Screenshot mit Markierung von der Liste machen?
 
Drakrochma schrieb:
Eine Frage zum Punkt "Early- vs. Late-Game – 1.920 × 1.080 – Reduzierte Settings"
Soll nicht die Grafikkarte von AMD einen höheren Overhead produzieren als die von Nvidia?
Warum verliert dann die Nvidia deutlich mehr bei höherer CPU-Last?
Mit der höheren Last zieht AMD ja sogar vorbei.


Lässt sich schlecht vergleichen, weil sich die settings unterscheiden. Es könnte an bestimmten Detailsettings liegen, die AMD GPUs weniger schmecken auf höherer Qualitätsstufe. Das mit der höheren CPU Last galt außerdem immer für DX11, wo der AMD Treiber einen höheren overhead erzeugt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und so_oder_so
@sifusanders: Danke das endlich mal jmd meine Annahme bestätigt, dass nvidia gpu's rechenaufgaben auf die cpu auslagern und deswegen ne 2070 auch mehr fps als eine 1060 liefern würde obwohl das system im cpu limit hängt. aufgaben die die 1060 der cpu abgibt, erledigt die 2070 alleine und entlastet somit die cpu !
 
mylight schrieb:
@sifusanders: Danke das endlich mal jmd meine Annahme bestätigt, dass nvidia gpu's rechenaufgaben auf die cpu auslagern und deswegen ne 2070 auch mehr fps als eine 1060 liefern würde obwohl das system im cpu limit hängt. aufgaben die die 1060 der cpu abgibt, erledigt die 2070 alleine und entlastet somit die cpu !

Müsste dann nicht aber ein 2700X deutlich besser performen mit einer 2080 im Vergleich zu meiner 1080Ti? o_O
 
so_oder_so schrieb:
Müsste dann nicht aber ein 2700X deutlich besser performen mit einer 2080 im Vergleich zu meiner 1080Ti? o_O
Ich weiß ehrlich gesagt nicht, ob sich zwischen touring und pascal etwas am scheduler geändert hat. Da müsst Ihr wen fragen, der sich besser auskennt.
 
Smartin schrieb:
manche Ergebnisse sind schon eigenartig. Wie kann eine 1060 schneller sein, als eine 1070? Oder ein AMD 1700er schneller als ein 9900K (bei jeweils identischen Restsystemen)?
Dennoch gute Idee, weil man ein Gefühl bekommt, was man erwarten kann und was nicht und wo man in etwa landen dürfte.

Also es gibt kein identisches Restsystem bei i9-9900K vs R7 1700X.

Nach der GPU schau ich fix.

Und in dem Fall muss die GTX 1060 schneller sein, ...

GTX 1060 + i9-9900k + 32GB DDR4 3200

GTX 1070 + i5-4670k + 16GB DDR3 1600

Das Spiel ist stark CPU-lastig und abhängig von schnellem Ram mit niedrigen Timings.

Von daher wundert es mich nicht, dass die Ergebnisse so sind, wie sie sind.
 
Zuletzt bearbeitet von einem Moderator:
@so_oder_so: Ich nahm an 1080Ti sind in etwa gleich, es gibt sicherlich minimale Unterschiede. Das mit dem Sheduler ist echt interessant :)
 
so_oder_so schrieb:
Welche Ergebnisse meinst du? Kannst mal nen Screenshot mit Markierung von der Liste machen?
bei 4k (siehe Anhang unten)
Ergänzung ()

so_oder_so schrieb:
Also es gibt kein identisches Restsystem bei i9-9900K vs R7 1700X.

Nach der GPU schau ich fix.
hm hab ich mich verguckt, ich schau auch nochmal

EDIT siehe Anhang (x3 ist 1920x1080)
 

Anhänge

  • x1.PNG
    x1.PNG
    16,6 KB · Aufrufe: 421
  • x3.PNG
    x3.PNG
    10,3 KB · Aufrufe: 418
Zuletzt bearbeitet:
Smartin schrieb:
bei 4k (siehe Anhang unten)
Ergänzung ()


hm hab ich mich verguckt, ich schau auch nochmal

EDIT siehe Anhang

Du vergleichst 1080 Ti FE mit einer Custom Design overclocked 1080Ti.

Das funktioniert so nicht, vor allem im GPU Limit, welches bei 4K auftritt.

Auch hier ist alles korrekt.

Bei 4k juckts kaum noch ob da ein 2700X oder ein übertakteter i9 9900k im System ist.

Komplette Verschiebung der Auslastung.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben