• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Anno 2205 Benchmarks: Bombastische Grafik braucht richtig Leistung

Morrich schrieb:
HBM wird auch in der nächsten Generation wohl nur bei den High End Modellen verfügbar sein. Wenn du also eher im Mittelklasse Bereich kaufst, dann wird GDDR5/GDDR5X weiterhin genutzt werden.

Ich weis. Deswegen wird hier auch 'ne Ausnahme gemacht - wenn ich GraKas kaufe, dann so, dass sie mindestens 2 weitere Generationen überstehen und wenn mir 1080p irgendwann nicht mehr reicht und ich nen neuen Monitor kaufe, will ich keine GDDR5x Karte haben.
Übrigens wäre es durchaus möglich, dass auch HBM 1.0 in der oberen Mittelklasse nochmal zum Einsatz kommt.
 
Anhand der Kommentare kann man hier deutlich sehen was falsch läuft vielen scheint nicht klar zu sein das es nicht die Aufgabe von Nvidia und AMD ist ihre Treiber für jedes beschissene Spiel was auf den Markt kommt zu optimieren sondern es ist die Aufgabe der Spiele Entwickler ihre Software auf die bestehenden Standards an zu passen und die der Treiber Entwickler diese Standards zu bieten. Es kann nicht sein das die Spiele Entwickler unfertige Spiele auf den Markt werfen und das dann den Grafikkartenherstellern in die Schuhe schieben wenn ihr Softwaremüll schlecht performt. Ein ordentlich programmiertes Spiel läuft auch ordentlich ohne irgendwelche Optimierungen seitens der Grafikkartenhersteller wie die Indie Game Scene immer wieder beweist aber die meisten großen Spielstudios scheinen das nicht mehr für nötig zu erachten was ein Problem ist und auch durch die Käufer abgestraft werden sollte.
 
wann ist es schlecht programmiert? Wenn es bei der Grafik so wenig FPS liefert? :rolleyes:

Manche verkennen wohl dass die Engines und Software auch immer komplexer werden und je mehr auf eine Plattform optimiert werden muss (Konsolen) umso schwerer fällt es eine anständige Portierung hinzubekommen, dazu alles unter massivem Kostendruck.

Zudem sieht man es hier doch wunderbar. 5% bessere Grafik kosten 50% mehr Leistung. Normal.
 
Fighter1993 schrieb:
saftladen dann nächstes mal wieder AMD
da siehts aber auch nicht besser aus ^^

@krautmaster
in den Konsolen werkelt AMD zeug ^^ - und amd kackt bei den Benchmarks ab. Würde nicht behaupten das hier irgendwas optimiert wurde.
 
Zuletzt bearbeitet:
Morrich schrieb:
Und NVidia Fanboys saugen sich einfach solcherlei Blödsinn aus den Fingern...

Ich hab mit meiner AMD Karte in Witcher 3 keinerlei Probleme. Obwohl sie eigentlich sogar nur am unteren Ende der Systemanforderungen angesiedelt ist.
Auch meine AMD CPU ist in dem Game kein Flaschenhals.

Und ich besitze Witcher 3 schon seit kurz nach Release.

Dass die NVidia Gameworks Inhalte auf AMD Karten eindeutig schlechter laufen, ist kein Geheimnis und hat auch nichts mit den Treibern zutun.
Aber Hairworks und Co. sieht jetzt auch nicht so prickelnd aus, dass ich das unbedingt bräuchte. Von daher hab ich auch als AMD Hardware Besitzer mit Witcher 3 absolut kein Problem.

Und wenn ich mir die Ergebnisse zu Anno 2205 anschaue, sehe ich für mich auch keinerlei Problem.

Einzig, dass mir UPlay auf die Nüsse geht und das Spuiel von Ubischrott ist, stößt mir sauer auf.

Du bist süß.
Hast du gerade die Minimal Systemanforderunge erfüllt, ja? (800x600 :D )
Achso, deswegen hast du ja auch keine Probleme .... Alles Klar!

(Ich hoffe du verstehst das und bemerkst das manche Leute in wesentlich höheren Auflösungen / Details und Frames unterwegs sein wollen)
 
Zuletzt bearbeitet:
Was ist denn mit MFAA?
2xMSAA Ingame schalten und in den Treibern MFAA aktivieren. 4xMSAA für umsonst?
 
cruse schrieb:
da siehts aber auch nicht besser aus ^^

@krautmaster
in den Konsolen werkelt AMD zeug ^^ - und amd kackt bei den Benchmarks ab. Würde nicht behaupten das hier irgendwas optimiert wurde.

es zeigen viele Benches und Titel dass sich das nicht direkt vergleichen lässt (gerade wenn es zwischen Detailstufen so schwankt wie hier, da spielen die Konsolen 5 Klassen darunter), zudem hat Nvidia dank mehr Asche auch mehr in den DX11 Treiber investiert, auch kein Geheimnis. Noch weniger ein Geheimnis dass Nvidia am PC viel mehr Marktanteil hat und es nur logisch ist dass die Engine mit Fokus auf den Größten Anteil entwickelt wird, alles andere wäre eben.... wirtschaftlich unklug. Das reicht ja schon wenn die Entwicklungshardware auch auf grün läuft oder Nvidia durch bessere Finanzen mehr unterstützend wirken kann.

Das sind alles Gründe... und keiner davon ist wirklich jemand direkt anzulasten da alles zusammenhängt. Nvidia kann wenig dafür wenn sie durch bessere finanzielle und Marktsituationsbedingte Gegebenheiten durch Mehraufwand besser dastehen, bzw. irgendwas müssen sie wohl in Vergangenheit besser gemacht haben.

Hätte AMDs GPU Sparte vielleicht nicht lange den CPU Klotz am Bein gehabt und würde vielleicht noch ATI heißen gäbst nun vielleicht auch ne Latte neuer Mittelklasse AMD HBM Chips und mehr Unterstützung auf Entwicklerseite.
 
Zuletzt bearbeitet:
naja ich hab aber auch noch kein indi game gesehen das solche grafik monster bringt.

liegt woll daran das die garnicht das geld für solche grafik engines haben.

die überzeugen meist mit einem recht bug freien game was die großen ja auch schon nicht mehr schaffen.

ist aber ein andres thema!

naja wens nur 1 architektur und 1 gpu geben würde würden die spiele entwickler wie bei konsolen genau darauf programmieren und optimieren.

nur ist das nicht so.

aktuell kann man davon ausgehen das es eben 2 aktuele amd architekturen giebt gcn 1.1 und 1.2 mit 3-4 chips die aktuell sind.

tonga fiji und hawai die die aktuellste serie bilden.

bei nvidia sind es 2 architekturen Kepler und Maxwell mit 5 chips die aktuell sind.

gm200 (titan x 980ti) gm204(980 und 970) gm206 (960) gk 110 (780ti 780) und evtl noch gk104 chips (770 680 670)

ist also nicht ganz so easy
 
eben, die eine bietet mehr Tessellationsperformance, die andere mehr Texturleistung, Polygondurchsatz usw...

Man erkennt ja auch gut wie es innerhalb eines Herstellers zu teils starken Abweichungen kommt. Zudem entwickelt man die Engines ja nicht von Grund und erfindet das Rad jedes mal neu. Dazu geht das über Jahre, da ändert sich ja auch die Architektur & Flaschenhälse der Grafikkarten.
 
Zuletzt bearbeitet:
SchaGur schrieb:
NV hat keine Treue zu ihren Kepler Karten. Das geht mal gar nicht und macht auch mir Sorgen.
Woher willst du denn wissen, daß Nvidia es bei den Kepler-Karten schleifen lässt?
Kann genau so gut sein, daß die Maxwell-Architektur hier einfach Vorteile hat.

Marcel55 schrieb:
Das Ergebnis für Kepler zeigt wie es für Maxwell aussieht wenn Pascal draußen ist und auch wie nVidia mit seinen Kunden umgeht.
Ja. Bei AMD isses viel besser.
Da sind wenigstens auch die neuen Karten lahm. :rolleyes:
 
@ xxxx
Anhand der Kommentare kann man hier deutlich sehen was falsch läuft vielen scheint nicht klar zu sein das es nicht die Aufgabe von Nvidia und AMD ist ihre Treiber für jedes beschissene Spiel was auf den Markt kommt zu optimieren sondern es ist die Aufgabe der Spiele Entwickler ihre Software auf die bestehenden Standards an zu passen und die der Treiber Entwickler diese Standards zu bieten.

An dem Post ist einiges im argen. Die Spiele und der Treiber an sich genügen ja den Standards der API, weswegen die Spiele überhaupt erst (und idr sogar weitestgehend fehlerfrei) lauffähig sind. Alleine auf einen Standard kann man als Programmierer jedoch in der Regel nur schlecht optimieren. Somit muss ein Programmierer für Optimierungen immer auch die zugrundelegende Hardware berücksichtigen. Will er zudem eine sehr gute Performance so muss er sogar spezifisch auf eine bestimmte Hardware optimieren. Für diese hardwarenahen und spezifischen Optimierung benötigt er nicht nur Wissen über den Aufbau der Hardware sondern auch Erfahrung wie man für die Hardware optimiert. Ein gewöhnlicher Spieleprogrammierer hat jedoch in der Regel beides nicht oder nur eingeschränkt. Aus diesem Grund kann er die Optimierungen nur mit einem schlechteren Endergebnis sowie nur mit viel Aufwand und dadurch hohen Kosten durchführen. GPU-Hersteller besitzen hier jedoch viel Wissen über ihre Hardware und wie man für sie optimiert. Deshalb können sie sehr performante Optimierungen mit wenig Aufwand durchführen. Dementsprechend ist es so wie es aktuell ist für beide eine Win-Win-Situation: Die Programmierer müssen sich nicht extrem viel Gedanken über die Hardware der vielen verschiedenen aktuellen GPU-Generationen machen und die GPU-Hersteller können mit wenig Aufwand ihre Hardware ins bessere Licht rücken. Diese aktuelle Vorgehensweise ist sogar einer der Gründe, weshalb aktuelle Spiele auch auf jeder aktuellen GPU vergleichsweise performant laufen. Bei CPUs ist diese spezifische Optimierung ja nicht gegeben, weil ja das Spiel direkt als ein einziger Maschinencode für alle Architekturen ausgeliefert wird. Deswegen dauert es ja auch Jahre bis sich Sachen wie Multithreading oder neue Instruktionen in den Spielen ankommen.


@ Flintenuschi
Bist du *zufällig* ein Viertaccount und der Nachfolger von Crucial ? ;)
Und bist du Pipapa, Daedal, oder liege ich vollkommen falsch?

Edit: Verdammt zu langsam - jetzt ist er schon verbannt. Ich werde es wohl nie erfahren :(
 
Zuletzt bearbeitet:
Nur zur Info:

AFR skaliert vorbildlich, meine zwei GTX 980ti @1470Mhz spielen im Mittel 80FPS unter 4K mit Sehr hohem Shader Preset /AA ist deaktiviert.

Das Ultra preset scheint noch Bugie zu sein, trotz der möglichen Rohleistung bekomme ich im Mittel nur 40FPS;-(

Mir scheint als ob das Shader Ultra preset im CPU limit festhängt , weil schlagartig skalieren beide GPU´s sehr schlecht im mittel bei 50-70% vorher 80-95%+.

Sandy 2500K@4,5Ghz
 
Zuletzt bearbeitet von einem Moderator:
Exactly , sieht nicht viel besser aus als die vorgänger aber verlangt nach einer 980GTX , definitiv UbiSchrott programming.
 
der Mond sieht extrem gut aus, wer sagt das sieht nicht besser aus als der Vorgänger sollte sich ne Brille zulegen. Die Eisberge in der Arktis auch. Nur das Wasser ist ein wenig enttäuschend aber das schreibt CB ja auch.
 
Krautmaster schrieb:
zudem hat Nvidia dank mehr Asche auch mehr in den DX11 Treiber investiert, auch kein Geheimnis. Noch weniger ein Geheimnis dass Nvidia am PC viel mehr Marktanteil hat und es nur logisch ist dass die Engine mit Fokus auf den Größten Anteil entwickelt wird, alles andere wäre eben.... wirtschaftlich unklug. Das reicht ja schon wenn die Entwicklungshardware auch auf grün läuft oder Nvidia durch bessere Finanzen mehr unterstützend wirken kann.

Wie erklärst du denn dann, dass Kepler auch solch eine Schwäche gegenüber Maxwell hat?
Vielleicht durch den besseren nVidia-Treiber?

Da liegt meiner Meinung nach deutlich woanders noch etwas im argen. (Unnötig) Hohe Tesselationsfaktoren z.B. wurden bisher noch nicht ausgeschlossen. Auch zeigt doch der CPU- Test, dass eine Fury X bereits mit Mid-End-CPUs voll ausgelastet wird. An dem Overhead von AMD unter DX11, auf den du anspielst kann es wohl also nicht liegen.

Letztendlich hast du damals aber auch die Technik von Batman: Arkham Knight vollkommen überzogen verteidigt. (Ich rede von der Technik, nicht der Story/das Setting etc.)
Das Spiel hatte Streamingprobleme unter beiden Herstellern, du hast versucht mit Overhead und anderen Geschichten ein Game zu verteidigen, dass von viel zu vielen Leuten bereits als Performance-Katastrophe betitelt und deshalb in einer bisher noch nie dagewesenen Form von offizieller Seite für Entschädigung gesorgt wurde.
 
@ BookerDeWitt
Man sollte bedenken, dass der Treiber auch dafür verantwortlich ist, aus dem Shader-Quelltext den Maschinen-Code für die entsprechende GPU zu erzeugen. Gerade hier besteht sehr viel Optimierungspotential im Treiber. In der Regel und in beliebten und aktuellen Spielen hinterlegen die GPU-Hersteller für jeden Shader einen dazugehörigen Maschinen-Code im Treiber, den sie zuvor per Hand spezifisch auf die GPU optimiert haben. Meines Kenntnissstands nach ist dies sogar der Hauptoptimierungsansatz der GPU-Hersteller. Dadurch lassen sich auch unerwartet große Unterschiede in der Performance zwischen den GPU-Generationen erklären: Hinterlegt ein Hersteller keinen spezifisch optimierten Maschinencode für eine ältere GPU im Treiber so ist sie dementsprechend deutlich schlechter.
 
Ein fast identischer Test wie auf PCGH, nur leider etwas zu spät, CB. Tja, irgendwie scheint PCGH mittlerweile Computer Base bei fast allen Neuigkeiten zuvor zu kommen, auch hinsichtlich AMD Entwicklungen und anderen relevanten Hardware-Nachrichten, die hier gar nicht auftauchen/erwähnt werden.

Wer diesen peinlichen nVidia Maxwell Vorzeige-/Werbetest braucht? Dieses Ubisoft Spiel (Anno 2205) spare ich mir gerne und man stelle sich vor, AMD würde die gleiche, miese Politik wie nVidia mit einigen Entwicklungsstudios fahren, d.h. in diesem Fall den Titel so mies programmieren lassen, dass dieser auf Karten des Konkurrenten sowie bei älteren Karten mit eigenen Chips absichtlich schlecht läuft. Wer diese Kundenpolitik dennoch wissend unterstützt, dem ist sowieso nicht mehr zu helfen bzw. den kann ich nicht wirklich Ernst nehmen :rolleyes:. Hoffentlich ziehen viele vorherige Käufer/Spieler der Serie die richtigen Konsequenzen und Ubisoft und deren Entwicklungsstudio bleiben auf dem Titel sitzen und die Verkäufe laufen nicht so gut wie erwartet, denn so einen Denkzettel braucht man dort wohl scheinbar für so eine unverschämte nVidia Maxwell Propaganda auf Kosten des Rests der Kundschaft an welcher vorbei programmiert wurde (da fragt man sich beinahe schon, ob es den Entwicklern in erster Linie um die Spieler/Kunden oder nVidia Maxwell Werbung geht). Es bleibt abzuwarten wie schnell Maxwell dann von nVidia abserviert/fallen gelassen wird, nach Einführung von Pascal (analog zu Kepler momentan) ... nur gut, dass nVidia (noch) nicht den gesamten Spielemarkt bzw. die Mehrheit der Spieleentwickler dominiert/gekauft/verpflichtet hat und AMD und Intel (siehe A-Sync/Free-Sync vs. G-Sync) noch dagegen halten ... sicherlich ein Grund mehr zukünftig zu AMD zu greifen.
 
Zuletzt bearbeitet:
Zurück
Oben