• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Assassin's Creed Unity im Test

Äääändi schrieb:

Ich denke der tester war der Meinung wenn man im besitz einer Konsole ist, dass es einfach bequemer ist diese anzuschalten und los zu daddeln.
Einen merklichen Unterschied sieht man eigentlich nicht wenn man auf dem PC mit hohen settings spielt. Er ist da aber minimal.
Ergänzung ()

EngeldesHasses schrieb:
----- Edit ----

Fehler gefunden ... liegt/lag am MSI Afterburner....

Sagt ich doch an einer Übertaktung.
Ergänzung ()

Gegeben schrieb:
N ich hab den momentan stärksten Prozessor

Welchen? Einen Xeon mit 64 Kernen? Oder ein Haswell für den Home bereich?
 
Mr.nobody schrieb:
Welchen? Einen Xeon mit 64 Kernen? Oder ein Haswell für den Home bereich?
Er hat bereits gesagt dass es ein 4790k ist.

Ist zwar ein weiter Fall vom momentan stärksten Prozessor, aber man übertreibt ja gerne mal. Machen all die Firmen auf dieser Welt ja auch alle.
 
Wenn ich die 6000€ von oben hätte, würde ich mir den Xeon sofort kaufen. Dann hätte ich die nächsten Jahre Ruhe. Wobei der für den Eigenbedarf kaum zu gebrauchen ist
 
Gegeben schrieb:
Ja, ich weiß noch wie alle bei Far Cry 1 gestöhnt haben, weil sie diese Bombastgrafik nicht auf Anschlag stellen konnten, hat alles geruckelt. Bei mir ja auch.

Aber keiner hat gemeckert und den Entwickler dafür gemobbt. Dann wurde einfach eine neue Karte gekauft, es lief besser aber ruckelte eben immer noch. Dann lief es endlich gut mit 30- 40 fps. An 60 fps hatte gar keiner gedacht, weil das niemand nötig hätte. Alle waren froh. Aber keiner ist auf die Idee gekommen das Spiel deshalb zu entwerten. Was heute abgeht ist die Härte.


Daran cry 1 lief sogar auf einer alten geforce 2. Dann War es teilweise nicht mehr besonders hübsch aber es lief. Mit mittleren Details lief es schon auf einer geforce 4. Auf hohen Details mit einer radeon 9700. Ach ja mit 60 fps und mehr. Woher ich das weiß? Ich hab es damals schon gespielt und auch damals gab es schon fraps. Und sogar noch röhrenmonitore das heißt nicht 60 fps sondern eher 75-85.

Da jemand watch dogs erwähnt : dieses Spiel wurde doch mit Mods aufgehübscht bei kaum performanceverlust.
 
Welche Mods? Die 2 Parameter die die Grafik verschlechtert haben? Wie sich die Leute einreden haben lassen dass das besser aussehen würde nur weil man gegen Ubisoft zu gehen HAT ;).
 
Von was genau redest du? TheWorse Mod? Wo genau sieht das Spiel damit schlechter aus? Vielleicht bist du ein Angestellter von Ubisoft, aber deine Objektivität ist mangelhaft.
 
DonSerious schrieb:
Welche Mods? Die 2 Parameter die die Grafik verschlechtert haben? Wie sich die Leute einreden haben lassen dass das besser aussehen würde nur weil man gegen Ubisoft zu gehen HAT ;).

Mit der Worse oder Lunayah Mod sieht das Spiel schon deutlich besser aus.
http://imagizer.imageshack.us/v2/1920x1080q100/538/8xvCUs.png
http://nsa34.casimages.com/img/2014/09/11/14091102071522437.png
http://nsa33.casimages.com/img/2014/09/11/140911061914573316.png
 
Zuletzt bearbeitet:
tombrady schrieb:

Tut mir leid aber das sieht auch so wie auf den Bildern aus. Die Schärfe hat mit AA zu tun was bei den meisten nicht realisierbar ist. Ich spiele leider nur mit temporal SMAA weil es einfach zu viel Leistung kostet es so aussehen zu lassen wie auf Bild 1. Das Wasser ist allgemein grandios und die Explosion sieht jetzt auch nicht anders aus.
 
@CB resp. insbesondere Sasan Abdi:

An und für sich ein guter Test. Danke dafür!

Mindestens einen Kritikpunkt gibt es aber dann doch:

Kopier- & Jugendschutz

„Assassin's Creed Unity“ funktioniert über uPlay, sodass der Key über die Ubisoft-Plattform aktiviert werden muss. Dazu ist einmalig eine Internetverbindung nötig; ein Wiederverkauf wird durch die Bindung an das uPlay-Konto aber quasi unmöglich gemacht.

Da ihr im Text darüber expliztit daruf hinweisst, dass ihr für diesen Test vornehmlich die PS4-Fassung des Spiels verwendet habt, solltet ihr veileicht auch ebenso deutlich betonen, dass sich diese Kopierschutzmassnahme in Form einer Accountbindung (Uplay) ausschliesslich aufd die PC-Fassung beschränkt, oder muss man auch für die Current-Gen-Konsolen ein Uplay Konto einrichten und das Spiel darüber registrieren um es spielen zu können? (würde mich gemäss meiner bisherigen Erfahrungen mit PS4-Titeln im Vergleich zu PC-Titeln sehr wundern.)

tombrady schrieb:
Lol, du flamest die Leute an und hast bisher keine Ahnung davon?
Die Konsolen sind noch mieser dran, PS4 Version liegt permanent unter 30fps mit Drops bis 17fps, die Xbone hat weniger Probleme, vermutlich weil die Grafikqualität im vornherein abgesenkt wurde.

Das hier sieht mir nach deutlich mehr als 17fps aus:

https://www.youtube.com/watch?v=vHSP_EdJUIg

Und da dieses Video schon seit ein paar Tagen im Netz ist, handelt es sich dabei wohl noch nichtmal um die via "Day-One-Patch" verbesserte Version.

Von grausam ruckelig, wie so mancher (nicht nur hier, überall im Netz liest man davon) behauptet (der anscheinend die PS4-Fassung selbst noch garnicht gezockt hat) kann ich da weit und breit nichts erkennen.

Im Gegenteil: Sieht für mich jederzeit sehr geschmeidig/flüssig aus!

DonSerious schrieb:
Welche Mods? Die 2 Parameter die die Grafik verschlechtert haben? Wie sich die Leute einreden haben lassen dass das besser aussehen würde nur weil man gegen Ubisoft zu gehen HAT ;).

http://extreme.pcgameshardware.de/actionspiele/339230-watch-dogs-extrem-grafik-mod.html

Ist optisch im Vergleich zur "Ubi-Release-Version" schon ein Unterschied wie Tag und Nacht und entspricht dann "wieder" dem, was man werbetechnisch vor 1-2 Jahren im Vorfeld der bevorstehenden Markteinführung der NG-Konsolen "versprochen" hatte. Und eine Möglichkeit, die Ruckelei am Pc fast völlig zu beseitigen haben sie offensichtlich auch gefunden, wie aus dem Verlauf des Topics hervorgeht (wohlgemerkt: NICHT Ubisoft, sondern Dritte, die sich darum bemüht haben.) Mittlerweile gibt es sicher auch offiziell von Ubi Patches (der Titel ist ja aber nun auch schon ein paar Monate auf dem Markt) die das fixen/adressieren, aber zu Anfang soll es ja wohl ziemlich übel ruckelig gewesen sein. (zumindest, wenn man den Aussagen zahlreicher Spieler trauen kann, wo man sich aber auch nie so ganz sicher sein kann, wie man erst jüngst hier an diesem Besp. Unity wieder sehr gut erkennen kann.)

Bei mir hört es mit dem Vertrauen spätestens da auf, wo man (Jahre vor dem Relese eines bestimmten Spieles) im Vorfeld hochauflösende Screenshots und Story/Gameplay-Trailer veröffentlicht, wo das Spiel doppelt bis dreimal so gut aussieht, wie dann später in der fertigen Verkaufsversion.

Für mich ist das schlicht und ergreifend Irreführung und Betrug.

Und man sieht ja, dass es (am PC) sehr wohl sehr viel besser geht. (wenn man es denn will und sich Mühe mit der Portierung gibt.)

Das bezieht sich jetzt auf Watchdogs, bei Unity scheint es nicht so krass zu sein... (zumindest gemäss dem, was ich bisher gesehen habe.)

AnkH schrieb:
Ehm, habt ihr euch die Screenshots angesehen? Es geht ja nicht mal nur um die unterirdische Performance, sondern darum, wie das Spiel aussieht. Wenn ich 5m vor dem Charakter bereits kein Gras mehr sehen kann, in 20m Entfernung die Hauswände nur noch aus Matschtexturen bestehen und alles was 100m entfernt ist in einem Dunstschleier verschwindet, so kann ich mich sehr wohl über eine lausige Performance beim Gebotenen ärgern, wenn die Screenshots die maximal möglichen Einstellungen zeigen. Denn das heisst schlicht: auch mit einem 10'000€ System wirds nicht besser, nur flüssiger.

Wenn Grafikkartenhersteller wie insbesondere Nvidia (bei ihren Wucherpreisen) mal ihre vRam-Krüppel-Poltik, die sie selbst bei ihren sogn. Highend-Grafikkarten seit den Zeiten der 9800GTX (sprich seit 5-6 Jahren) fahren aufgeben und den Karten wieder ein formidables Speicherpolster spendieren würden, dann könnte Ubisoft in einem diesbezüglich anspruchsvollen Open-Word-Titel wie "Unity" auch ECHTE HD- oder gar UHD-Texturen verwenden, die diesen Namen verdienen/ihm Ehre machen und auch danach aussehen.

Es wird hier aber ja schon bei 2-3 GB vRam Bedarf gejammert. (was nur daran liegt, dass die heutigen Grakas viel zu wenig vRam bieten.)

Selbst die ach so minderwertigen und stetig von Hardcore-PC'lern verspotteten Current-Gen-Konsolen (Xbox One und PS4) bieten mit ihren 8GB Unified resp. Shared Memory bereits mehr als sogar eine GTX 980. (selbst wenn es stimmen sollte, dass Spiele davon "nur" 5,5-6GB als "vram" nutzen können.)

Das sagt doch nun wirklich alles und bedarf keiner weiteren Kommentierung mehr...
 
Zuletzt bearbeitet:
Bei mir sah der Worsemod nicht so aus wie auf den Bildern. Außer DoF und Schatten ist mir nichts aufgefallen. Ich verstehe aber deine Ansicht dass sie die Grafik etwas runtergeschraubt haben. Das ist auch richtig.
 
Loro Husk schrieb:
Guter Test und scheinbar ein sehr gelungenes AC! Insbesondere die verbesserte KI und die lebendigere (und hoffentlich authentische) Spielwelt sind positiv zu erwähnen, endlich gibt es hier Fortschritte. Bleibt für mich nur noch die Frage, für den Laptop kaufen (i5 und 860M) oder für die PS4, welches wird die bessere Grafik liefern?

Dein Laptop
 
Tralx schrieb:

Mein Laptop mit i7-3630QM und gtx 675MX war auch schon besser in WD und AC IV. Die Konsolen sind relativ schwach und das merkt man in ACU einfach daran dass Ubisoft die next Gen überschätzt hat.
 
Danke für den Test. Für mich war es interessant zu lesen, wie das Spiel sich abseits der technischen Aspekte so macht. Zur Performance wird's ja noch in den nächsten Wochen viel zu sagen geben (oder auch nicht).

Ich denke, dass die Community in der Masse durch dieses aufschreiartige Niedermachen ein Stück selber dafür sorgt, dass die Publisher eigentlich nicht mehr zuhören. Es gibt nur noch "die" und "wir". Aber auch das pauschale Verteidigen der Defizite ist falsch. Soll doch jeder selber beurteilen, was für ihn persönlich "unspielbar" und akzeptabel ist.

Wir wissen als PC-Spieler aber selber aus dem eigenen Umfeld ganz genau, dass viele eben nicht genau definieren können, was sie für ein Problem haben. Da werden viele Dinge vermischt, die nicht zusammengehören. Und irgendwie wird immer so ein allgemeiner Anspruch formuliert, als wäre FPS und Auflösung irgendwo im Grundgesetz verankert. Ferner stört mich, dass in den Posts immer irgendeine übergeordnete Instanz angesprochen wird. Als gäbe es da einen Erziehungsberechtigten, der sagt "Ja, das stimmt, mein Kind. Da muss ich mit Herrn Ubisoft mal ein ernstes Wörtchen sprechen".

Sorry Leute, aber es gibt da niemanden. Zieht Eure eigenen Konsequenzen, schreibt nicht (nur) darüber. Handelt entsprechend. Und lasst den anderen Leuten, die das anders sehen einfach ihre Meinung. Die tun Euch nix.

Okay, der Austusch ist natürlich trotzdem interessant. Bitte nur mal wieder ein Maß finden. Peace. gl & hf!!
 
Zuletzt bearbeitet:
Arno Nimus schrieb:
Das hier sieht mir nach deutlich mehr als 17fps aus:

Und da dieses Video schon seit ein paar Tagen im Netz ist, handelt es sich dabei wohl noch nichtmal um die via "Day-One-Patch" verbesserte Version.

Von grausam ruckelig, wie so mancher (nicht nur hier, überall im Netz liest man davon) behauptet (der anscheinend die PS4-Fassung selbst noch garnicht gezockt hat) kann ich da weit und breit nichts erkennen.

Im Gegenteil: Sieht für mich jederzeit sehr geschmeidig/flüssig aus!


Wenn Grafikkartenhersteller wie insbesondere Nvidia (bei ihren Wucherpreisen) mal ihre vRam-Krüppel-Poltik, die sie selbst bei ihren sogn. Highend-Grafikkarten seit den Zeiten der 9800GTX (sprich seit 5-6 Jahren) fahren aufgeben und den Karten wieder ein formidables Speicherpolster spendieren würden, dann könnte Ubisoft in einem diesbezüglich anspruchsvollen Open-Word-Titel wie "Unity" auch ECHTE HD- oder gar UHD-Texturen verwenden, die diesen Namen verdienen/ihm Ehre machen und auch danach aussehen.

Es wird hier aber ja schon bei 2-3 GB vRam Bedarf gejammert. (was nur daran liegt, dass die heutigen Grakas viel zu wenig vRam bieten.)

Selbst die ach so minderwertigen und stetig von Hardcore-PC'lern verspotteten Current-Gen-Konsolen (Xbox One und PS4) bieten mit ihren 8GB Unified resp. Shared Memory bereits mehr als sogar eine GTX 980. (selbst wenn es stimmen sollte, dass Spiele davon "nur" 5,5-6GB als "vram" nutzen können.)

Das sagt doch nun wirklich alles und bedarf keiner weiteren Kommentierung mehr...


Man sieht doch bereits bei Minute 6 und am Ende ein leicht ruckelndes Bild.
Und wie bereits oft besprochen sind die Framedrops der Fall wenn viele NPCs(und das ist sehr oft der Fall) sich im Bild tummeln.
Nun macht es wenig Sinn Videoschnipsel rauszusuchen wo stellenweise kaum jemand bis maximal 20-30 da sind.
So läuft es natürlich halbwegs rund, aber umschifft die Wahrheit ganz beträchtlich.

Zum zweiten Punkt:
1. Sieht das auf deinem nicht VRam Krüppel PS4 und Box exakt genauso aus.
2. Bekommen es Spiele mit einer vielfach größeren Open World, wie ein extrem gemoddetes Skyrim hin in 1600p mit 3GB VRam auszukommen und dabei nicht wie Operation Flashpoint auszusehen sobald man 30 Meter in den Hintergrund schaut.

Selbst eine 8GB 290X läuft nicht besser und ist NICHT frei von dem Texturenleim den du hier der "unterlegenen PC Hardware" in die Schuhe schieben willst.
 
DonSerious schrieb:
Mein Laptop mit i7-3630QM und gtx 675MX war auch schon besser in WD und AC IV. Die Konsolen sind relativ schwach und das merkt man in ACU einfach daran dass Ubisoft die next Gen überschätzt hat.

In deinen Träumen vielleicht :D Ich glaub kaum dass du WD auf Ultra stellen kannst ohne dass es ruckelt :D
 
Besser als auf den Konsolen mein Freund! Von Ultra war nie die Rede.
 
DonSerious schrieb:
Tut mir leid aber das sieht auch so wie auf den Bildern aus. Die Schärfe hat mit AA zu tun was bei den meisten nicht realisierbar ist. Ich spiele leider nur mit temporal SMAA weil es einfach zu viel Leistung kostet es so aussehen zu lassen wie auf Bild 1. Das Wasser ist allgemein grandios und die Explosion sieht jetzt auch nicht anders aus.

Ich empfehle mal für WD das neue DSR auszuprobieren. Auf 2560x1440 zusammen mit der kleinsten AA Einstellung erhalte ich ein gut geglättetes WD ohne allzu viel Performanceverlust. Must Du eventuell ein bisschen rumspielen mit den Settings, aktuell nutze ich DSR Smoothness von 25% (guter Kompromiss zwischen Bildschärfe und Glättung).

Arno Nimus schrieb:
Open-Word-Titel wie "Unity" auch ECHTE HD- oder gar UHD-Texturen verwenden, die diesen Namen verdienen/ihm Ehre machen und auch danach aussehen.

Es wird hier aber ja schon bei 2-3 GB vRam Bedarf gejammert. (was nur daran liegt, dass die heutigen Grakas viel zu wenig vRam bieten.)

Selbst die ach so minderwertigen und stetig von Hardcore-PC'lern verspotteten Current-Gen-Konsolen (Xbox One und PS4) bieten mit ihren 8GB Unified resp. Shared Memory bereits mehr als sogar eine GTX 980. (selbst wenn es stimmen sollte, dass Spiele davon "nur" 5,5-6GB als "vram" nutzen können.)

Das sagt doch nun wirklich alles und bedarf keiner weiteren Kommentierung mehr...

Du vermischst da lustig Dinge. Erstens zeigt das Beispiel WD auf, dass die HD Texturen sehr wohl auf 3GB RAM Karten laufen, ruckelfrei. Der Custom Patch macht dies möglich. Ergo ist der Fehler nicht zu kleine RAMs bei den Grafikkartenhersteller, sondern faule Entwickler. Zweitens hat eine PS4 resp. XBox One 8GB Speicher IN TOTAL. Ein aktuelles System mit einer 4GB Karte und 8GB RAM hat also 50% mehr Speicher IN TOTAL. Die Entwickler sind nur zu faul resp. es ist zu teuer, die Spiele für den PC mit getrenntem System-RAM und Grafik-RAM zu optimieren. Also einfach zu sagen, eine aktuelle Konsole biete mehr RAM als ein aktueller PC ist falsch.
 
Tralx schrieb:

Haha, du weisst schon in welcher Leistungsklasse eine 860M liegt?
Die ist rein leistungstechnisch nicht so weit weg von der PS4 GPU dazu noch der leistungsfressende Grottenport obendrauf.

Dazu noch der Dualcore i5.
Ganz ehrlich, das spielen darauf kannst du dir zumindest für das Spiel abschminken.
 
Zurück
Oben