Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestWatch Dogs 2 Benchmark: GPUs müssen schnell und Speicher groß sein
Danke Linmoum!
DAS ist faktisch ein deutlich besserer Test als der von CB! Die CPU-Skalierung und Kernauslastung ist hier viel besser in einer richtigen Grafik abgebildet.
Dass AMD-CPUs mit AMD GPUs besonders schlecht arbeiten, wurde schon zum X-ten Mal aufgezeigt. Das muss CB nicht immer wieder groß testen. Das haben wir verstanden und mittlerweile verinnerlicht. Textliche Erwähnung reicht aus. Lieber mehr CPUs im Skalierungstest! Wenn es nach mir geht immer nur, wenn leistungsstarke i5s mit weniger als 60 fps avg ins CPU-Limit laufen.
viel interessanter wäre ein cpu benchmark immer das gleiche, gpu benchmarks sind schön und gut, aber cpu benchmarks sind bei gta-like open world spielen wertvoller. mag sein das watch dogs 2 größtenteils bei der gpu limitiert, aber viele haben auch nur i5 cpus (mit eingeschlossen) und die schwächeln ja extrem seit einigen jahren bei open world games. ich kann mit meinem 2500k@4ghz t.b. bei sogut wie keinem spiel mehr 60fps konstant halten. oft gehts runter in die 30er bereiche wegen cpu limit. hab erst gestern watch dogs 1 durchgezockt und das musste ich mitm 30fps lock zocken trotz meiner 980ti weil meine cpu so stark limitierte.
nun bin ich recht interessiert an watch dogs 2, aber die preisfrage ist: wie sehr wird meine cpu limitieren ?!? sind 60fps doch drin weil die entwicklet vernünftig optimiert haben oder nicht mehr. sind überhaupt noch 30fps konstant drin oder nicht mit der cpu ??
deshalb würde ich mir einen cpu benchmark wünschen und nicht die üblichen leichten gpu benchmarks
ansonsten @ topic.. hart die anforderungen aber kein 980ti schafft das wohl locker noch achja wo ist die 980ti/1070er in den benchmarks ? wie kann man nur auf die idee kommen diese essentielle grafikkarte wegzulassen ? grade die 1070er ist wohl die beliebteste der 1000er reihe und die 980ti ist mehr oder weniger identisch zur 1070er (daher reichts schon wenn ne 1070er aufgeführt werden würde)
sry aber wenn ich lese, dass das spiel nur mit einer GTX1080 mit vollen details auf fullHD über 60fps, bzw. mit konstanten fps zum laufen zu bringen ist, dann ist es schlicht und ergreifend schlecht programmiert, bzw. optimiert.
BF1 läuft bei mir auf 2560x1080 ULTRA Settings nie unter 68fps (<-tiefster drop).
Daran sollte sich Ubisoft mal ein Beispiel nehmen.
sry aber wenn ich lese, dass das spiel nur mit einer GTX1080 mit vollen details auf fullHD über 60fps, bzw. mit konstanten fps zum laufen zu bringen ist, dann ist es schlicht und ergreifend schlecht programmiert, bzw. optimiert.
danke !! richtig genial das du das gepostet hast. ich wäre auf ne russische seite niemals von alleine gegangen hätte ich das vorher gesehen. nun hab ich draufgeklickt und alles scheint ok zu sein (keine viren usw.. lol.. vllt sinds vorurteile aber vorsicht is besser als nachsicht, besonders heutzutage) und die cpu benchmarks versprechen vieles. mein 2500k@4ghz sollte somit immer über 60fps bleiben so wie es aussieht. sehr geil, so muss es sein
bis zum 7700k muss der noch aushalten und vllt sogar noch länger bis zum skylake enthusiast weil ich nich sicher bin ob es sinn macht nochmal 4kerne zu kaufen. 6kerne+HT wäre heutzutage mit der konsolenarchitektur wohl vieeel sinnvoller
Die Benchmarks wurden mit einem SLI System gemacht Finde es aber auch beachtlich das mein alter FX einen i5 6600 einfach mal so stehen lässt, aber wie bereits erwähnt wurde 5 Jahre zu spät.
Bitte an ComputerBase:
Wäre es möglich bei den Benchmarks zu erwähnen, welche Modelle von welcher Grafikkarte
und welche Taktraten ihr dabei verwendet habt?
Joa, oder die 1070/980Ti mal dauerhaft mit-testen, denn auch die wäre sicher in der Lage
die Attribute, die der 1080 zugeschrieben werden (Very High Preset >60fps@FHD und 8GB)
zu liefern - bei deutlich humanerem Preis. Dass die 1060 die bei Release mehr als doppelt
so teure HBM Fury X von letztem Jahr in Schach hält, zeigt wie sehr AMD die Vega Karten
braucht um in DX11 wieder Schritt halten zu können.
@Vitali: beziehst du dich dabei auf meinen post oben ?? wenn ja dann frage ich: ja und ?? ist doch klar das mit sli gebenched werden muss um überhaupt nen cpu limit zu bekommen wenn das game soviel gpu zieht anders würden die cpus wieder in nen gpu limit laufen und nicht umgekehrt.. daher ist schon alles richtig so wie es dort steht.
Die 8GB Vram der 480 helfen der Karte nicht um an der 1060 6GB vorbeizuziehen.Sie fällt sogar noch leicht hinter einer 970 4GB zurück. Zumindest bei mittleren Details. Soviel dazu:
Dieses schlecht gemache immer... Seit wann hat ein Gamestarbenchmark mehr Gewicht, als CB und PCGH - wahrscheinlich auch nur wenn es genau so aussieht wie man es möchte, was?
Warum testet ihr bei 1440p und höher nur mit High und ohne HBAO+? Mich würde vielmehr interessieren was meine Karte auf Ultra + GameWorks so leistet im Vergleich zu anderen Karten besonders auch in Hinblick auf die hier fehlende GTX 1070... So ist der Test für mich (leider mal wieder) nicht viel Wert.
Er hat schon recht, bei PCGH wurde Custom vs. Custom getestet und da ist in FHD ne RX480 nur knapp hinter einer GTX 1060 6GB und in WQHD bereits gleichauf. Sowas verfälscht dann halt bei der Gamestar-Leserschaft.
Aber abgesehen davon ziemlich viel Tamtam um ein mittelmäßiges Spiel, das viel Potential verschenkt.