• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Assassin's Creed Unity im Test

Das Setting ist für mich durchaus interessant.
Allerdings habe ich im Moment durch Halo und Forza Horizon 2 genug zu spielen.

Ich werde das Spiel dann mal nächstes Jahr angehen, wenn es günstiger ist.
 
Wenn eine GTX 780 Ti SLI 50 Frames schafft, sollte eine GTX 980 SLI bestimmt 60 FPS schaffen - mit Einbrüchen versteht sich.

Wir müssen nunmal abwarten, bis das Day-1-Patch draußen ist sowie Tests mit GTX 980. Aber muss dir zustimmen, sowas darf nicht sein. Wird bzw. muss gepatcht werden.

Watch Dogs läuft mit Grafikmods sehr flüssig mit meiner Hardware (40 - 60 FPS durchgehend). Wo es nicht gepatcht war, gab es Framedrops. Zwar nicht so stark wie in AC:U jedoch immer noch.
 
Zuletzt bearbeitet:
Eben nicht da es, wie jedes AC, stark CPU limitiert ist. Die Auslastung der beiden Karten war jeweils keine 80%.
 
Von der FSK ist das Spiel übrigens ab 16 eingestuft.
Nur mal so als Anmerkung fürs Fazit ;)
 
Wie gesagt, Ubisoft muss da was machen. Nicht jeder kauft sich eine 400€ - 700€ Karte. Besonders nicht als SLI. ^^
 
alpaycal schrieb:
CPU? Es zeigt aber nur die GPU-Auslastung an.

Wenn die Karten nicht voll ausgelastet sind kanns nur die CPU sein...
 
alpaycal schrieb:
Wenn eine GTX 780 Ti SLI 50 Frames schafft, sollte eine GTX 980 SLI bestimmt 60 FPS schaffen - mit Einbrüchen versteht sich.

Wir müssen nunmal abwarten, bis das Day-1-Patch draußen ist sowie Tests mit GTX 980. Aber muss dir zustimmen, sowas darf nicht sein. Wird bzw. muss gepatcht werden.

Was soll man da noch ganz groß patchen?
Anders als bei anderen Portierungsgurken (GTA4) sieht man doch wie extrem die Engine Leistung vernichtet.
Wenn die Konsolenvarianten top liefen und nur der PC betroffen wäre ok, aber man hat sich schlicht überhoben mit der modifizierten AnvilNext Engine.
Wenn es irgendwo noch große Lücken gäbe wo man Leistung herausholen könnte hätte man die bereits entdeckt, die Jungs von ubisoft sind mit der Engine ja seit jahren vertraut.;)

DonSerious schrieb:
Wenn die Karten nicht voll ausgelastet sind kanns nur die CPU sein...

Dann müsste man ja mit Mantle-Patch einen riesigen Leistungssprung haben.
 
wie siehts denn performancetechnisch nun aus? hat der 900MB "kleine" Day1 Patch was gebracht? Oder ist es noch immer quasi unspielbar auf 95% aller "high end" Gaming PCs?

GTX 980 SLI für 60fps ? lol! are you kidding me? hier ist doch klar, dass die PC-Kundschaft Ubisoft einen SCH!!!! interessiert! verkauft wird für konsole! :(
 
Zuletzt bearbeitet:
Naddel_81 schrieb:
wie siehts denn performancetechnisch nun aus? hat der 900MB "kleine" Day1 Patch was gebracht? Oder ist es noch immer quasi unspielbar auf 95% aller "high end" Gaming PCs?

GTX 980 SLI für 60fps ? lol! are you kidding me? hier ist doch klar, dass die PC-Kundschaft Ubisoft einen SCH!!!! interessiert! verkauft wird für konsole! :(

Ja, der Patch bringt ein paar Frames, vor allem die min FPS liegen jetzt etwas höher, Popups und Grafikbrei aber nach wie vor:(

edit: Wieso nur die PC Kundschaft?:D
Das Spiel hätte so einfach nicht erscheinen dürfen, aber mit Betatesting zum Vollpreis muss man sich ja mitlerweile abfinden.
 
Zuletzt bearbeitet:
Ich sage nur dass AC oft am CPU-Management gescheitert ist. In Freedom Cry habe ich 61 FPS ob mit 680 oder 970. Ausgelastet ist ein Kern auf 100%, der Rest dümpelt auf 10-20% rum.
 
Shio schrieb:
Man pausiere mal bei 6:55 und schaut sich die Straße an...
Sowas nennt man dann Ultra :)
Guter Witz!

Warscheinlich bricht die Performance nochmal um 50% ein wenn man den Cheat entfernt.

DonSerious schrieb:
Ich sage nur dass AC oft am CPU-Management gescheitert ist. In Freedom Cry habe ich 61 FPS ob mit 680 oder 970. Ausgelastet ist ein Kern auf 100%, der Rest dümpelt auf 10-20% rum.

Und du denkst das ist denen in der Entwicklung nicht aufgefallen bisher?
Das ist doch auch auf Konsolen zu 100% ne x86 Desktop CPU.
 
Kann ich mir Hoffnungen machen, dass das Spiel auf meinem PC in Ultra mit max. AA auf Full-HD mit über 40FPS läuft? Hoffentlich ist es es nicht so kritisch wie bei Minecraft, wo 40FPS bereits unspielbar sind. Unity würde bestimmt auch auf 30 FPS abk*cken.

Wenn ich hier lese, 50FPS auf 780TI-SLI, dann ist eher fehlende SLI-Tauglichkeit der Fall?
 
Banger schrieb:
Kann ich mir Hoffnungen machen, dass das Spiel auf meinem PC in Ultra mit max. AA auf Full-HD mit über 40FPS läuft? Hoffentlich ist es es nicht so kritisch wie bei Minecraft, wo 40FPS bereits unspielbar sind. Unity würde bestimmt auch auf 30 FPS abk*cken.

Im Moment nein, zumindest nicht die Minimum Frames.
Was heisst denn maximal AA?

http://gamegpu.ru/images/remote/htt...Action-Assassins_Creed_Unity-test-ac_proz.jpg

@ alpaycal: Die Kerne skalieren anscheinend sehr gut. Schlechtes CPU Management fällt schon einmal aus.
Hoffe AMD bringt einen Mantle Patch, scheint ja noch einiges zu gehen wenn die CPU hier limitiert.
 
Zuletzt bearbeitet:
I am so pumped for this game :D

Ich hatte mir von der Pick Your Path aktion das Spiel geholt, es taucht aber nirgendwo auf in Uplay (Website und Client) :/ ?
 
tombrady schrieb:
Man sieht doch bereits bei Minute 6 und am Ende ein leicht ruckelndes Bild.
Und wie bereits oft besprochen sind die Framedrops der Fall wenn viele NPCs(und das ist sehr oft der Fall) sich im Bild tummeln.
Nun macht es wenig Sinn Videoschnipsel rauszusuchen wo stellenweise kaum jemand bis maximal 20-30 da sind.
So läuft es natürlich halbwegs rund, aber umschifft die Wahrheit ganz beträchtlich.

Es ist im Internet in vielen Foren die Rede von extrem ruckeliger Darstellung und Unspielbarkeit. Dass es ab und zu zu kleinen Rucklern kommen kann (auf der Konsole) ist normal und erlebt man in den bestprogrammiertesten Spielen, aber das ist am PC (sei es aufgrund der oft mieserablen "Optimierung")ja nicht anders. (ich hab hier Spiele von 2006, die mit einer GTX 780 noch immer an exakt denselben Stellen ruckeln, wie vor 8 Jahren mit einer 6800GT in einem sehr viel langsameren PC.) Ist ja nicht so, dass ich erst seit gestern (PC-)Spiele zocke. Ein klein wenig praktische Erfahrungen sind SCHON vorhanden.

tombrady schrieb:
Zum zweiten Punkt:
1. Sieht das auf deinem nicht VRam Krüppel PS4 und Box exakt genauso aus.

Ich frag mal umgekehrt: Sind die Unterschiede so gravierend oder auch nur signifikant, dass sie die PC-Version "rechtfertigen"? Und WER beurteilt überhaupt, ob das für alle so ist? Darüber kann man absolut geteilter Meinung sein, ebenso wie z.B. hinsichtlich der Frage, ob man in SO EINEM Spiel 60fps braucht oder ob 30fsp es genauso tun. (und damit habe ich i.Ü. - nur um das gleich vorwegzunehmen - weder das eine noch das andere befürwortet oder verworfen. Ich stelle es angsichts all der diesbzüglichen, letztlich völlig sinnlosen/endlosen Diskussionen zu dem Thema nur mal etwas in Frage.)

Die heutigen ("Highend-")Grafikkarten sind DESHALB vRam-Krüppel bzw. Speicherkastrate, weil sie in bestimmten aktuellen Spielen bereits zeigen, dass sie dafür bereits jetzt nicht mehr genügend Speicher bereitstellen können, um diese in optimaler Bildqualität darstellen zu können. Ein aktuelles Bsp. dafür ist etwas "Mordords Schatten", dass bereits 6GB vRAm benötigt, um darauf (sogn./angebliche) UHD-Texturen (ob die wirklich überhaupt nach UHD aussehen, sei wiederum dahingestellt) ohne Nachladeruckler darstellen zu können.

Es spiel dabei auch keinerlei Rolle, ob das nun ursächlich an einer kostengünstigen, sprich schlampigen Optimierung/extrem halbherzigen Portierung seitens der Hersteller liegt, denn wenn man es so betrachtet, dann könnte Nvidia "Monolith Productions", die Schuld für die schlechte Optimierung geben (dass der Speicher nicht reicht) und die wiederum könnten Nvidia die Schuld in die Schuhe schieben, dass sie ihre Grakas von Hause aus einfach mit zu wenige vRam bestücken.

Wer hat nun recht und noch wichtiger: Was ändert das für jenen, der 520 € für so eine Graka (GTX 980) ausgegeben hat?

Genau, es ändert garnichts (daran, dass man verarscht wird bzw. sich zu Recht so fühlt!)

tombrady schrieb:
2. Bekommen es Spiele mit einer vielfach größeren Open World, wie ein extrem gemoddetes Skyrim hin in 1600p mit 3GB VRam auszukommen und dabei nicht wie Operation Flashpoint auszusehen sobald man 30 Meter in den Hintergrund schaut.

Selbst eine 8GB 290X läuft nicht besser und ist NICHT frei von dem Texturenleim den du hier der "unterlegenen PC Hardware" in die Schuhe schieben willst.

Habe Skyrim nie gespielt, abe viel darüber (auch die Mods gelesen) und mir sind schon oft ganz andere Dinge darüber zu Ohren gekommen, wie genügsam das Spiel mit hochauflösenden Texturen noch ist.

So sieht man wieder mal, wie die Aussagen/Eindrücke/Erfahrungen sich anscheinend wiedersprechen!

Wem soll man nun glauben?

Ich glaube daher nur noch das, was ich mit meinen eigenen Sinnen erfasse, sprich ich bewerte Dinge nur noch auf Basis meiner eigenen Erfahrungen. Andere können (mir) viel erzählen wenn der Tag lang und die Nacht kurz ist und das deckt sich auch mit meinen Erfahrungen. (und von denen hat man dann mit knapp 45 Jahren doch schon so ein paar.)

Mikey158 schrieb:
Da muss ich dir zustimmen. Ich kanns nur wiederholen: Ich werde mal gucken wie es wirklich läuft sobald ich es habe. Bin mal gespannt was da alles dran ist.

Genau: Seine eigenen Erfahrungen zu sammeln ist immer 10.000x besser, als auf das Geschwafel andere (am Besten solcher, die es nur aufgeschnappt haben und munter weiterplappern zu hören.)

Man ist ja auch nicht gezwungen, das Spiel (JETZT oder ÜBERHAUPT) zu kaufen. Man kann abwarten, bis man weiss, wie es wirklich läuft und/oder warten bis Patches ggf. alles groben Probleme gefixt haben.

Aber das ist ja das "Witzige": Wenn ein Spiel erscheint, ist erstmal überall der dicke Punk angesagt. Das quilllen die Foren vor Shitstorms und umgekehrt ggf. auch beschönigenden Test-Berichten (damit meine ich jetzt nicht diesen hier, der zu dem Topic gehört) nur so über und dann, wenige Tage oder Wochen später, wenn das Spiel ggf. tatsächlich rund läuft oder endlich bekannt ist, wie es sich tatsächlich macht, hört man ABSOLUT NICHTS mehr.

Bsp: "Alien Isolation" (das Spiel besitze ich seit Release in er PS4-Fassung.): Wo wird heute noch über den ausstehenden Patch gesprochen, um einige Fehler zu beheben (u.a. Speicherbugs, die dazu führen können, dass man den Titel an einer bestimmten späten Stelle im Spiel nicht mehr weiterzocken kann oder auch die schlecht implementierte Kantenglättung?) Da muss man sich dann nicht wundern, dass Hersteller die Titel so schnell fallen lassen, denn nach dem ersten hysterischen Hype zum Zeitpunkt der Veröffentlichung scheint sich niemand mehr für diese Spiele zu interessieren.

AnkH schrieb:
Du vermischst da lustig Dinge. Erstens zeigt das Beispiel WD auf, dass die HD Texturen sehr wohl auf 3GB RAM Karten laufen, ruckelfrei. Der Custom Patch macht dies möglich. Ergo ist der Fehler nicht zu kleine RAMs bei den Grafikkartenhersteller, sondern faule Entwickler. Zweitens hat eine PS4 resp. XBox One 8GB Speicher IN TOTAL. Ein aktuelles System mit einer 4GB Karte und 8GB RAM hat also 50% mehr Speicher IN TOTAL. Die Entwickler sind nur zu faul resp. es ist zu teuer, die Spiele für den PC mit getrenntem System-RAM und Grafik-RAM zu optimieren. Also einfach zu sagen, eine aktuelle Konsole biete mehr RAM als ein aktueller PC ist falsch.

Ich mische überhauptnichts "lustig" durcheinander, sondern sehe die Dinge nur mit etwas mehr Weitblick, als offenbar viele andere "Kurzsichtige" (sonst würden sie sich ja nicht für viel Geld diese Speicherkastrate kaufen, um kurz darauf schon wieder darüber rumzuheulen, dass sie schon wieder etwas Neues brauchen, eben z.B. weil der vRam nicht mehr reicht.)

Wenn du versuchst, in einen 10 Liter Wassereimer 15 Liter Wasser reinzuschütten, dann wird er überlaufen und dir den Teppich versauen. Es spielt dabei auch keinerlei Rolle, ob derjenige, der das Wasser bereitstellt, bei sparsamem Verbrauch/intelligenter Nutzung des kühlen Nasses auch mit 9-10 Litern ausgekommen wäre, denn der Teppich wird dennoch versaut und der Besitzer der Wohnung hat dann den Ärger.

Aber das hab ich oben ja auch schon geschrieben!

Du hast natürlich völlig recht (und das hab auch ich früher hier im Forum an anderer Stelle schon thematisiert) dass Pc-Spiele heute (mehr denn je, obwohl das auch nicht neu ist) oft (es gibt auch noch immer rühmliche Ausnahmen, auch solche, die nicht plattform-exklusiv sind) schlampig portiert bzw. "optimiert" werden, auch im Hinblick auf das Speichermanagement. Aber ändert das etwas für den Nutzer?

Und natürlich wäre es in diesem Zusammenhang dann auch mal aufschlussreich sich (als PC-Spieler) die (ggf. selbst-)kritische Frage zu stellen, WARUM Spiele-Entwickler bzw. vielmehr deren Grosspublisher den PC-Fassungen von Multiplattformern (was sehr schade ist) heutzutage offensichtlich kaum noch genügend Bedeutung beimessen, was sich dann eben daran zeigt, dass sie so halbherzig und mit wenig zeit- und Geldaufwand portiert resp. für diese Plattform optimiert werden. (und oder der Patch-Support wird schon kurz nach dem Release wieder eingestellt und man hat dann nie wieder etwas davon gehört.)

Bei den Dumpingpreisen, zu denen PC-Spiele heutzutage (insbesondere via Steam & Co.) zum Grossteil feilgeboten werden, wundert mich das ehrlich gesagt aber auch herzlich wenig. Oder wie kommt es sonst, dass die Konsolenfassungen von Multiplattform-Titeln (obwohl doch immer so damit kokettiert wird, wie viel schlechter die angeblich im Vergleich zu den PC-Fassungen aussehen.) grundsätzlich erstens schon beim Release deutlich teurer sind als deren PC-Pendants und zweitens dann auch deutlich langsamer und weniger krass im Preis fallen?! Ist doch unlogisch, wenn man auf den Konsolen eh weniger erhält als am PC, oder nicht?! (man erhält i.Ü. auch deutlich weniger spielspasskillenden DRM, was u.a. einer der Hauptgründe für mich gewesen ist, mir eine PS4 zuzulegen.)

Einerseits wollen die Leute nur einen Appel und ein Ei für ein PC-Spiel bezahlen, andererseits erwarten sie aber eine perfekte Portierung und einen vorbildlichen Service (darunter fällt auch die Patch-Nachsorge.)

Das grösste Rätsel dabei ist eigentlich vielmehr die naheliegende und unbeantwortet im Raum stehende Frage, wieso diesen Leute das nicht selbst komisch vorkommt... (ihre eigene schizoide Vorstellung dazu, meine ich. <- einerseits Perfektion/Markellosigkeit von einem PC-Spiel erwarten, aber andererseits dafür nichts zahlen wollen.)

Übrigens kann ich mir so eine Aussage glaube ich durchaus "leisten", aus dem einfachen Grund, dass ich in meiner (PC-)Spielelaufbahn (immerhin fast 20 Jahre mittlerweile, mit entsprechender Erfahrung und Überblick hinsichtlich der Entwicklung) so gut wie immer Vollpreis-/Retailtitel zum Zeitpunkt der Veröffentlichung gekauft habe. (zuletzt die "Ripley Edition inkl. Artbook von "Alien Isolation", wenn auch jetzt für die PS4) Allerdings habe ich in all den Jahren den Kauf dieser Titel (Diablo 3 PC ist eine der wenigen Ausnahmen und es ist auch der einzige Titel den ich besitze, der als DRM einen perm. Onlinezwang auch im Singleplayer einfordert <- erste und letzte Mal, dass ich sowas gekauft habe. Deshalb ja auch die PS4) auch so gut wie nie bereut, da ich so gut wie immer das erhalten habe, was ich erwartete (sei es, weil ich mich vorher hinreichend informiert und scheinbar auch ein Gespür für die für mich richtigen Titel habe.)

Ich erwarte übrigens dennoch keine technische Perfektion von einem Spiel, da ich mir darüber bewusst bin, dass es den perfekten Programmcode nie geben wird und es (das war schon immer so) nur die wenigsten Hersteller schaffen, zum Zeitpunkt der Veröffentlichung ein wirklich fehlerfreies und perfekt optimiertes Spiel abzuliefern. Spiel sind heutzutage (schon rein technisch) sehr viel komplexer als vor 10-20 Jahren, was man schon allein daran erkennt, dass sehr viel mehr Leute an so einem Titel arbeiten, als das früher der Fall gewesen ist. Sollte nicht schwer sein, da zu verstehen, dass es dann auch viel leichter zu Fehlern kommen kann und es entsprechend länger dauert und ein höherer Aufwand ist, diese zu bereinigen.

Die Frage ist nur die, OB sie das dann nachholen und wie lange es dauert. (wem das zu riskant/nervig ist, der wartet erstmal ein Weilchen ab oder lässt das Spiel nach dem Kauf liegen und zockt es erst dann, wenn die Optimierung abgeschlossen ist. Aber dafür muss man natürlich über eine Eigenschaft verfügen, welche den meisten heutigen Menschen offensichtlich völlig fremd geworden ist, nämlich: GEDULD!)
 
Also mein Bruder hat einen 3770K@4,5 Ghz und eine gtx 770. Das Spiel läuft mit patch in FHD auf Mediumeinstellungen zwischen 20-40 fps... Ubisoft hat ja wirklich hanze Arbeit geleistet.:freak:

Die Performance steht in keinem vernünftigen Verhältnis zur Grafik...


Ubisoft verkauft ein verbuggtes Spiel zum Vollpreis anstatt es erstaml vertigzustellen und denkt sie können damit durchkommen.
Die Französische Revolution reizt mich, aber so werde ich es garantiert nicht kaufen. Vielleicht in ein oder zwei Jahren wenn es ein fertiggepatchte Version erschienen ist.
 
Arno Nimus schrieb:
Ich frag mal umgekehrt: Sind die Unterschiede so gravierend oder auch nur signifikant, dass sie die PC-Version "rechtfertigen"? Und WER beurteilt überhaupt, ob das für alle so ist? Darüber kann man absolut geteilter Meinung sein, ebenso wie z.B. hinsichtlich der Frage, ob man in SO EINEM Spiel 60fps braucht oder ob 30fsp es genauso tun. (und damit habe ich i.Ü. - nur um das gleich vorwegzunehmen - weder das eine noch das andere befürwortet oder verworfen. Ich stelle es angsichts all der diesbzüglichen, letztlich völlig sinnlosen/endlosen Diskussionen zu dem Thema nur mal etwas in Frage.)

Die heutigen ("Highend-")Grafikkarten sind DESHALB vRam-Krüppel bzw. Speicherkastrate, weil sie in bestimmten aktuellen Spielen bereits zeigen, dass sie dafür bereits jetzt nicht mehr genügend Speicher bereitstellen können, um diese in optimaler Bildqualität darstellen zu können. Ein aktuelles Bsp. dafür ist etwas "Mordords Schatten", dass bereits 6GB vRAm benötigt, um darauf (sogn./angebliche) UHD-Texturen (ob die wirklich überhaupt nach UHD aussehen, sei wiederum dahingestellt) ohne Nachladeruckler darstellen zu können.

Es spiel dabei auch keinerlei Rolle, ob das nun ursächlich an einer kostengünstigen, sprich schlampigen Optimierung/extrem halbherzigen Portierung seitens der Hersteller liegt, denn wenn man es so betrachtet, dann könnte Nvidia "Monolith Productions", die Schuld für die schlechte Optimierung geben (dass der Speicher nicht reicht) und die wiederum könnten Nvidia die Schuld in die Schuhe schieben, dass sie ihre Grakas von Hause aus einfach mit zu wenige vRam bestücken.

Warum gehst du nicht auf den Tapetenkleister in der Distanzdarstellung ein?
Es geht bei anderen Spielen auch, die mit überragender Distanzdarstellung bei gemäßigten Anforderungen klarkommen.
Muss man Unity hier nicht mit der (besseren) Konkurrenz vergleichen?
Und warum reichen dann weder eine 8GB 290X noch eine Titan noch die PS4?
Wieviel VRam möchtest du denn gern?
Am besten gleich 64 Gigabyte, dann können wir komplette Games in den Speicher klatschen.;)

Und ja die Entwickler bei HdR waren stockfaul und haben sehr warscheinlich den kompletten Unified Ram den die PS4 zur Verfügung stellt einfach in den VRam am PC geschoben anstatt eine Woche damit zu verbringen die Daten separat in Ram und V-Ram zu stecken.
Den Schuh kann man AMD und Nvidia nicht anziehen, 4Gb reichen für 98% aller User, für die Extremos gibts dann die 8GB Variante.

Für die die meinen es gäbe ja nur ein paar Performanceprobleme:
http://i.imgur.com/3gVb3EG.jpg
http://i.imgur.com/H49uxWW.jpg
http://i.imgur.com/yowY5JO.jpg
http://abload.de/img/beauty_beast_lol8hsi1.jpg
http://i.imgur.com/GS0Zrd2.gif
http://i.imgur.com/c52Qvab.jpg:evillol:
http://i.imgur.com/7HBhk2U.jpg
http://i.imgur.com/qX1oJsK.jpg

http://i.imgur.com/H59vi5y.png
http://i.imgur.com/rQJfqiA.jpg
http://i.imgur.com/ZYREy9S.jpg
http://i.imgur.com/ltBpLZP.jpg
http://i.imgur.com/SGz8Ppo.jpg
http://i.imgur.com/qmcl9oh.gif
https://www.youtube.com/watch?v=5ppbp_gaHS4
https://www.youtube.com/watch?v=-PkzIGSyjLQ

http://i.imgur.com/z1vqAUe.gif:cool_alt:


Wenigstens fühle ich mich unterhalten:D
 
Zuletzt bearbeitet:
Zurück
Oben