• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Anno 2205 Benchmarks: Bombastische Grafik braucht richtig Leistung

Chismon schrieb:
... man stelle sich vor, AMD würde die gleiche, miese Politik wie nVidia mit einigen Entwicklungsstudios fahren, d.h. in diesem Fall den Titel so mies programmieren lassen, dass dieser auf Karten des Konkurrenten sowie bei älteren Karten mit eigenen Chips absichtlich schlecht läuft. Wer diese Kundenpolitik dennoch wissend unterstützt, dem ist sowieso nicht mehr zu helfen bzw. den kann ich nicht wirklich Ernst nehmen :rolleyes:.
Für diese Unterstellungen hast du ja wahrscheinlich absolut glaubwürdige Belege, stimmt's?
Sonst würdest du hier ja wohl kaum so rumpoltern.

Mensch ... und ich Trottel bin bis eben noch davon ausgegangen, daß AMD einfach mal wieder kaum Ressourcen dafür frei gemacht hat, im Vorfeld seine Treiber zu optimieren.

Aber es ist natürlich viel wahrscheinlicher, daß die Entwickler dieses Spiels es mit Absicht scheiße programmiert haben, nur um AMD gegen den Karren zu fahren.
Weil weißt du, wenn man schon Jahre an einem Produkt entwickelt, dabei ne Menge Kohle auf dem Spiel steht, und man z.T. auch mit Herzblut bei der Sache ist, dann ist es natürlich trotzdem wichtiger, AMD eine reinzuwürgen, weil man Nvidia so gern hat.
Achso ... klar ... und die alten NVidia-Karten sollen natürlich auch schlecht laufen, damit Nvidia ganz viele neue Grafikkarten verkaufen kann. Das ist wirklich das wichtigste für so ein Entwickler-Studio.
 
Ist hier vielleicht jemand mal drauf gekommen, dass AMD hier versagt hat in Sachen Treibeesupport? Daran wird nie gedacht, oder?
 
Ist das nicht bei jedem Test so? ^^
AMD ist am fortschrittlichsten und sollte immer am besten abschneiden. Schneidet AMD aber bei irgendeinem Test schlecht ab, dann kann es nur eine Verschwörung sein, wo die Spieleprogrammierer, die Newsseiten und die PR-Leute in den Foren unter einer Decke stecken. Computerbase ist dann immer die Oberhure die es mit Intel, NVIDIA, Microsoft und Apple gleichzeitig treibt. Ein Fehler von AMD kann es jedoch niemals sein.

Genau diese Argumentationskette nervt mich in fast jeder Diskussion über irgendeinen Test. . .
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Für diese Unterstellungen hast du ja wahrscheinlich absolut glaubwürdige Belege, stimmt's?
Sonst würdest du hier ja wohl kaum so rumpoltern.

Mensch ... und ich Trottel bin bis eben noch davon ausgegangen, daß AMD einfach mal wieder kaum Ressourcen dafür frei gemacht hat, im Vorfeld seine Treiber zu optimieren.

Aber es ist natürlich viel wahrscheinlicher, daß die Entwickler dieses Spiels es mit Absicht scheiße programmiert haben, nur um AMD gegen den Karren zu fahren.
Weil weißt du, wenn man schon Jahre an einem Produkt entwickelt, dabei ne Menge Kohle auf dem Spiel steht, und man z.T. auch mit Herzblut bei der Sache ist, dann ist es natürlich trotzdem wichtiger, AMD eine reinzuwürgen, weil man Nvidia so gern hat.
Achso ... klar ... und die alten NVidia-Karten sollen natürlich auch schlecht laufen, damit Nvidia ganz viele neue Grafikkarten verkaufen kann. Das ist wirklich das wichtigste für so ein Entwickler-Studio.

Beschwerden über die miese Kundenpolitik nVidias gab es schon vielfach, sonst hätten sich nicht im nVidia Forum wahnsinnig viele Kepler Besitzer über den miesen (absichtlich schlechten) Kepler Treiber-Support beschwert und dass Ubisoft nach nVidias Pfeife tanzt, kann man auch relativ klar an den letzten Titeln zu sehen ... Einnahmen verpassen, wieso das, wenn nVidia es sponsort und es gibt genügend Spieler, die diese Politik nicht stört und eben nicht konsequent Ihr Macht als Käufer konsequent einzusetzen wissen?

Eine bessere Werbung gibt es gar nicht ... hier auf CB, auf PCGH, etc. für ein DX11 "Grafikporno"-Spiel von Ubisoft bei dem AMD und Kepler vergleichsweise extrem alt aussehen und die Leistungs-Verhältnisse zueinander absolut lachhaft sind (eine Fury langsamer als eine Krüppel GTX970 ... mit Treiberproblemen kann man das nicht wirklich mehr begründen), das sollte zu denken geben ... man könnte es glatt - mit Verlaub - Verarschung nennen was hier betrieben wird ... nur gut, dass nicht jeder so leichtgläubig ist, aber diejenigen, die sich in der Materie nicht auskennen und die Grafikkartenvergleiche hier oder anderswo lesen kann man ja vielleicht davon überzeugen, wie viel "besser" denn Maxwell als alles andere ist, quasi nonplusultra (nur für wie lange, bis Pascal kommt und Maxwell dann absichtlich mies unterstützt wird?) ... wer's glaubt ... ja ja Treiberprobleme bzw. -optimierung, die alte Mär ... was anderes fällt Dir dazu wohl auch nicht mehr ein (in einem der anderen Kommentare abgeschaut?) um so einen Mumpitz zu begründen, dafür ist das Leistungsgefälle viel zu groß ... natürlich steckt Absicht dahinter.
 
Zuletzt bearbeitet:
@ Chismon
Worauf stützt du deine Überzeugung, dass diese Unterschiede so groß sind, dass sie sich nicht mehr durch Optimierung sondern nur durch künstliche Ausbremsung erklären lassen? Hast du Erfahrungen beim allgemeinen GPU-Programmieren oder bei der hardwarenahen Optimerung für GPUs?

Zumindest meine Programmiererfahrungen sagen etwas anderes. Denn bei den Projekten, an denen ich bislang gearbeitet habe, waren durch hardwarenahe GPU-Optimierung im Durchschnitt wohl in etwa 50 \% mehr Performance drinnen.

Erschwerend kommt im Vergleich zwischen Maxwell und Kepler noch hinzu, dass die Kepler-Architektur so ihre Probleme hat. So sind die einzelnen Prozessorkerne, aus welchen jede Kepler-GPU ausgebaut ist, eine "Meisterleistung" der Ingenieurskunst und die komplexesten und größten GPU-Kerne die jemals gebaut worden sind. So besitzen sie beispielhaft 192 CUDA-Cores, welche deutlich mehr als die 128 CUDA-Cores eines Maxwell-Kerns oder die 64 "CUDA-Cores" eines GCN-Kerns sind. Aber wie so oft ist nicht alles Gold was glänzt - viele Sachen skalieren einfach nicht so gut mit der Kerngröße. Deshalb hatte ein Kepler-Kern oft Probleme die Performance seiner 192 CUDA-Cores auch umzusetzen, gerade wenn man nicht spezifisch für ihn optimiert hat. NVIDIA hat dies jedoch mit Maxwell erkannt und die GPU-Kerne wieder stark von 192-CUDA-Cores auf 128 CUDA-Cores verkleinert. Dadurch unterscheiden sich beide Architekturen auch sehr stark.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Woher willst du denn wissen, daß Nvidia es bei den Kepler-Karten schleifen lässt?
Kann genau so gut sein, daß die Maxwell-Architektur hier einfach Vorteile hat.

seh ich nicht ganz so. Schau dir die Benches an... die GPU wird zunehmend besser ausgelastet also können gerade neue Karten ihre zumeist theoretisch höhere Leistung auch immer besser umsetzen. Das System kommt mehr ins GPU Limit und die Karten differenzieren sich mehr. Schau dir an wie die GTX 980 TI nun zum Teil vor der 970 / 980 liegt, einfach weil sie doch ne Ecke mehr Shader hat was zu Beginn gar nicht so rüber kam.

Dazu der niedrige Takt... gerade bei Kepler Karten um GTX 780 die durch die Bank 30% OC macht. Selbst bei der GTX 980 TI muss man wohl bei Custom Karten schon etwa 15% draufrechnen, Manuell OC eher gegen 30%.

CB hatte doch mal immer diese OC Modell Karten in der Liste. Findet man heute irgendwie nicht, eigentlich etwas schade da wohl kaum jemand noch zu einem Referenzmodell greift wenn die Custom Karte 15% schneller is bei kleinem Aufpreis, dazu noch oft leiser. Bei grün wie rot...

Bei ANNO Fällt auf, dass das "Sehr Hoch" Preset den Maxwell Karten besonders gut liegt (spricht für eine Skalierung über Takt) ... woran das liegt (im Vergleich zu AMD schneiden die Kepler Karten hier normal ab), kein Plan, bei Ultra ist das Testfeld wieder näher beisammen und es deckt sich deutlich eher mit dem Rating über viele Titel. Karten wie der GTX 770 geht so langsam der RAM aus, auch wenns damals keiner wahr haben wollte ;)
Genau deswegen sind diese "Ich nehm SLI und 4K um Future Games zu simulieren"-Tests auch fürn Arsch.
 
Zuletzt bearbeitet:
Vielleicht kann mir ja hier jemand helfen, denn auf dem PC meines Vaters (mit i7-960 und GTX 260 - knapp 1GB) wird nichtmal eine Insel angezeigt :D Alles grau, aber Menüs usw lassen sich sehen ;)
 
Naja, mit einer gtx 260 sollte man solche Spiele doch kaum noch starten können, oder? :).
 
Ja das ist schon was her als die Graka aktuell war ;)
Hatte aber echt gedacht das es zumindest auf NIEDRIG klappt, aber Fehlanzeige... :D
 
Ersteinmal ein Hallo in die Runde!

Und nun zu einer vielleicht etwas merkwürdigen Bitte. Und zwar bräuchte ich eure Hilfe. Beziehungsweise eure Savegames:D
Warum: Wir würden uns gerne anschauen, wie sich die Performance von Anno bei steigender Bewohnerzahl verhält. Da gibts bestimmt größere Unterschiede. Ich selbst bin bis jetzt zum Spielen aber leider quasi noch gar nicht gekommen...

Darum sind wir auf der Suche nach einem Savegame mit etwa 5.000 Bewohner, 10.000, 20.000 usw.
Falls ihr uns euer Savegame zur Verfügung stellen wollt, hier findet ihr es:
Program Files (x86)\Ubisoft\Ubisoft Game Launcher\savegames\accountnummer\1253

Die Savegames könnt ihr an wa@computerbase.de schicken.
 
in den diagrammen ist die 680er nirgens zu finden und dann unten in der tabelle bei empfehlungen führt sie mit auf?! muss man das verstehen? also doch mit getestet oder doch nicht?!
 
Orientier dich doch an der GTX 770 die ist nur minimal schneller, ist auch der gleiche CHIP.

@CB bitte bei den savegames auch noch gleich nach Speicherbedarf schauen. Angeblich geht im late game die Performance runter und der Speicherbedarf nach oben.
 
Ist für das Spiel eigtl auch schon ein CPU mit Hyper-Threading Pflicht?
Oder könnte man dort zumindest weiter auf einen i5 setzen?
 
Nai schrieb:
Die Spiele und der Treiber an sich genügen ja den Standards der API, weswegen die Spiele überhaupt erst (und idr sogar weitestgehend fehlerfrei) lauffähig sind. ... Ein gewöhnlicher Spieleprogrammierer hat jedoch in der Regel beides nicht oder nur eingeschränkt. Aus diesem Grund kann er die Optimierungen nur mit einem schlechteren Endergebnis sowie nur mit viel Aufwand und dadurch hohen Kosten durchführen. ...

Ist es bei DX12 nicht so, dass dem (Spiele)entwickler mehr Kontrolle über die Resourcen bekommt, und damit auch mehr Verantwortung? Und dass er damit letztendlich sehr viel mehr ge- bzw. letztendlich sogar überfordert wird?
 
ich weiss schon dass ich mich an der 770er orientieren kann. aber dann kann man gleich 680/770er im diagramm schreiben (diese stiefmütterliche behandlung eines flagschiffes (nicht der gpu) finde ich nicht schön ;P )

ansonsten find ich es superinteressant wenn ihr noch mit fortgeschrittenem savegame testen würdet

grüße
 
eston schrieb:
ich weiss schon dass ich mich an der 770er orientieren kann. aber dann kann man gleich 680/770er im diagramm schreiben (diese stiefmütterliche behandlung eines flagschiffes (nicht der gpu) finde ich nicht schön ;P )

ansonsten find ich es superinteressant wenn ihr noch mit fortgeschrittenem savegame testen würdet

grüße

Nur weil du dich Leistungstechnisch an dieser orientieren kannst, heißt es nicht, dass sie die selben Leistungen in diesem Spiel aufweisen. Du siehst doch selbst den Unterschied zwischen 970 und 780, obwohl diese eigentlich recht dich zusammen sein sollten. Es wäre höchsten Grades unprofessionell und falsch einfach hin zu schreiben, dass es die selben sind und die selben Ergebnisse bringen.
 
Zurück
Oben