• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Bericht: Diablo 3 im Benchmark-Test

Blubber123 schrieb:
@ Rob : An der Platte lag es bei mir nicht (Spiel liegt auf der M4 SSD am Intel S-ATA3 Controller - sauber installiert und nach benchen für sehr gut befunden ;) ) .
Nichts desto trotz schadet die Installation von D3 auf SSD in jedem Fall nicht. Meist ist man schon eine Bildschirmbreite durch den Dungeon gelaufen bevor sich der Rest der Gruppe reingeladen hat :D .


Nochmal zu diesem Hintergrundsruckeln. CB hat das ganze in der Testzusammenfassung auch kurz angerissen :



Schade nur das CB hier offenbar verpasst hat die V-Sync Aktivierung zu testen .Dadurch ist das Problem -wie bereits oben geschrieben- behoben. Vielleicht sollte man das noch als Hinweis an den Test anhängen da diese "Problematik" mit Sicherheit viele umtreibt.

Ich habe jetzt das game von der SSD gespielt (Vertex 3). Was soll ich sagen, die Ladezeiten haben sich auf 1-2 Sekunden reduziert. Mit der Festplatte waren diese gut 15 Sekunden lang.
Ingame Ruckler sind vollkommen weg.
 
Rob83 schrieb:
Ich habe jetzt das game von der SSD gespielt (Vertex 3). Was soll ich sagen, die Ladezeiten haben sich auf 1-2 Sekunden reduziert. Mit der Festplatte waren diese gut 15 Sekunden lang.
Ingame Ruckler sind vollkommen weg.

Ich spiele auch von SSD. Wenn ich V-Sync ausschalte, habe ich trotzdem diese Mikroruckler. Mit V-Sync sind sie weg und alles läuft butterweich.

Insgesamt finde ich den CB Test eher bescheiden. Es ist nicht mehr als ein netter Überblick über ein paar Grafikkarten für D3 aber imho nichts, was den Namen Test verdient. Die Sache mit dem V-Sync sollten sie auf jeden Fall nochmal testen.
 
also diese kleinen Ruckler habe ich auch aber das stört einen nicht so sehr :)
 
Also mit i5-3570k und gtx 560 eigentlich alles gut. Bis auf die winzigen mikroruckler zwischendurch die dann doch leider ins augefallen. Werde es heute mal mit Vsync probieren
 
Seit nun 2004 bin ich hier Angemeldet und bin aber schon länger auf CB. Was mich immer aufgeregt hat, das Benchmarks mit so Aktueller HW gemacht wird wie sie vielleicht 2% der Leser hat was ja nicht schlecht ist weil man gut sehen kann wie sich neue HW mit neuer SW schlägt.

Aber warum zur Hölle werden nicht die Grafikkarten und Prozessoren genommen die in 80% der Haushalte sind !?

Nehmt euch halt noch einen Tag mehr Zeit und nehmt einen Q6600 und steckt eine GTX 260 rein. Das haben die Leute. Ich kenne niemand der einen 3770K hat ...

Ich für meinen Teil Kaufe mir HW wenn diese genau doppelt so schnell ist. Alles andere wäre Quatsch und rausgeschmissenes Geld, in meinen Augen.

Also Bitte nehmt doch diese Konstelation mit in euren Tests auf - Danke!
 
Hallo,

hat hier jemand schon getestet, ob Diablo 3 auf einem Macbook Pro Mitte 2009 (Geforce 9400m, C2D 2,26 Ghz, 4 GB RAM) läuft? Ist es zumindest auf niedrigen Details spielbar? Falls ja, bitte mit angeben, ob ihr es unter OS X oder unter Windows getestet habt.

Dankeschön! :)
 
Aktueller HW gemacht wird wie sie vielleicht 2% der Leser hat
Aber warum zur Hölle werden nicht die Grafikkarten und Prozessoren genommen die in 80% der Haushalte sind !?

Das glaubst aber fast nur du ,die meisten haben neuere Systeme ,der Q6600 ist von 2007 und die GTX 260 von 2008 !

Nehmt euch halt noch einen Tag mehr Zeit und nehmt einen Q6600 und steckt eine GTX 260 rein. Das haben die Leute. Ich kenne niemand der einen 3770K hat .

Warum denn ,Tests wurden in der Vergangenheit schon genug mit gemacht.
Man sollte sich als Leser mal die Mühe mache und die alten Tests zu Rate führen ,dann kann man seine alte Hardware in etwa einordnen.
Viele haben einen i7-2600 und den kann man mit einem 3770k vergleichen.

Ich für meinen Teil Kaufe mir HW wenn diese genau doppelt so schnell ist. Alles andere wäre Quatsch und rausgeschmissenes Geld, in meinen Augen.

Der Q6600 hat noch ca. 50% eines 3770k / 2600k ,die Graka noch etwa 35% einer GTX680.
Wäre mal an der Zeit über einen Wechsel nachzudenken nach deiner eigenen These :freaky:
 
Ich habe mir jetzt nicht alles durchgelesen, aber kennt jmd vllt den Befehl, mit dem man die FPS anzeigen lassen kann? Ist das legal oder bekommt man dann einen Bann?

Ach übrigens ich spiele das Spiel komplett flüssig auf höchsten Einstellungen @ 1680x 1050:
phenom 2 x4 965 be @3,4
nvidia gf 9600gt @ 512 mb
und ne ganz normale alte festplatte
 
strg + r
 
Tofu schrieb:
Das glaubst aber fast nur du ,die meisten haben neuere Systeme ,der Q6600 ist von 2007 und die GTX 260 von 2008 !

Warum denn ,Tests wurden in der Vergangenheit schon genug mit gemacht.
Man sollte sich als Leser mal die Mühe mache und die alten Tests zu Rate führen ,dann kann man seine alte Hardware in etwa einordnen.
Viele haben einen i7-2600 und den kann man mit einem 3770k vergleichen.

Der Q6600 hat noch ca. 50% eines 3770k / 2600k ,die Graka noch etwa 35% einer GTX680.
Wäre mal an der Zeit über einen Wechsel nachzudenken nach deiner eigenen These :freaky:

Weißt du, es gibt Leute die halt nicht alle 2 Jahre Geld für einen Rechner ausgeben da es noch andere Prioritäten im Leben gibt, ich hoffe du findest sie irgendwann.

Ich denke du wirst Staunen bei einer Hardware Umfrage.
 
Tofu schrieb:
Das glaubst aber fast nur du ,die meisten haben neuere Systeme ,der Q6600 ist von 2007 und die GTX 260 von 2008 !

Laut der Steam Hardware Survey Stand April 2012 haben noch weit über die Hälfte der Spieler eine DX10 Karte und ein Großteil noch eine CPU zwischen 2.3 Ghz und 2.69 Ghz Was genau auf Q6600 und GTX260 passt. True Story.
 
Dafuer kann man Blizzard einfach nur lieben, so gut wie jeder kann ihre Spiele spielen. Meine GTX285 brauch ich jedenfalls die naechste Zeit nicht wechseln.
 
Mikrorucker sind kein Tearing!

DonConto schrieb:
Ich spiele auch von SSD. Wenn ich V-Sync ausschalte, habe ich trotzdem diese Mikroruckler. Mit V-Sync sind sie weg und alles läuft butterweich.

grmlfimmel schrieb:
Also mit i5-3570k und gtx 560 eigentlich alles gut. Bis auf die winzigen mikroruckler zwischendurch die dann doch leider ins augefallen. Werde es heute mal mit Vsync probieren

Bitte NICHT von "Mikrorucklern" reden, wenn es hier nicht um SLI oder CrossFire geht!

Das, was hier beschrieben wird, ist ein ganz typisches "Tearing", was man bei praktisch jedem (3D-beschleunigten) Bild bekommt, wenn die Wiederholfrequenz des Monitors NICHT exakt mit den Bildern pro Sekunde der Grafikkartenausgabe übereinstimmt!

Tearing und nichts anderes.

Und genau dafür gibt es schon seit Ewigkeiten (seit Mitte der 90er ist es mir persönlich bekannt, z.B. aus Turok, Quake, Jedi Knight u.v.a) entweder einen "V-Sync"-Schalter im Spiel selbst oder aber im Menü der Grafikkartentreiber.

Eine weitere Alternative (Quake 1 und 2 als gute Beispiele) wäre eine FPS-Limitierung, die man mittels Konsole (bzw. Config) ebenfalls erreichen konnte und somit ähnlich wie ein V-Sync arbeiten konnte, sofern man das FPS-Limit auf den Wert der Wiederholfrequenz des Monitors gesetzt hat.

Mich wundert's doch sehr, dass sich hier praktisch niemand mit der Beschaffenheit von V-Sync auskennt.


"AF" (anisotroper Filter) - performanceseitig irrelevant!

Eine weitere Eigenheit wäre das permanente Hervorheben bei Grafikkartentests des anisotropen Filters.

Was soll das eigentlich?

Anti-Aliasing, ja... das frisst Performance, bei jeder Grafikkarte spür- oder zumindest messbar, aber der anisotrope Filter? Auf 16x (der gängigen Maximaleinstellung) macht das nur in extremsten Beispielen mal mehr als einen Prozet in der Performance aus, den grafischen Unterschied sieht man jedoch sehr deutlich durch abgehacktes und stark verschwommen wirkendes Aneinandersetzen von entfernten (z.B. Boden-)Texturen.

Kann man das permanente und unnötige Extra-Erwähnen des anisotropen Filters nicht endlich mal aussen vor lassen und STANDARDMÄSSIG mit aktiviertem 16x AF testen?

Damit würdet ihr euch ja auch selbst viele Benchmarkdurchläufe ersparen.

Da fände ich persönlich Spiele "ohne Schatten" zu benchmarken, deutlich interessanter, da diese tatsächlich meist der größte Performancefresser (neben aktiviertem Anti-Aliasing) sind und man hier in aller Regel auf kaum Details und Realismus verzichten muss, wenn man besagte Schatten deaktiviert.

Diablo III wäre hierfür ebenfalls ein tolles Beispiel!

Cya, Mäxl
 
Ich hoffe, dass Intel da noch Treiberupdates bringt. Die HD3000/4000 mögen vielleicht nicht schnell sein, aber um D3 darzustellen reicht das eindeutig. League of Legends läuft teilweise mit High-Einstellungen flüssig, D3 nicht einmal auf Low. :rolleyes:
 
Ich muss bei diesen 1xAA + 1xAF zustimmen. Hat bei mir bisher maximal 1FPS unterschied ausgemacht.

Aber habt ihr mal kontrolliert, ob die Spiele nicht schon ingame AF aktiv haben? Das muss ja nicht unbedingt einstellbar sein, sondern kann irgendwo in ner config hinterlegt sein.

Mirrors Edge würde mir da als erstes einfallen. Soweit ich weis konnte man da ingame kein AF einstellen, doch es war trotzdem aktiv. Wenn man nun AF treiberseitig hinzugeschaltet hat, sind die FPS (damals auf ner 8800 GTS 512) gesunken, obwohl es visuell absolut keine Unterschiede gab (hab damals extra nen screenshot vergleich gemacht).

Bei Batman Arkham city ist es genauso. AF ist standardmäßig aktiv. Wenn ich es im Treiber hinzuschalte sieht man keinerlei unterschied. Allerdings sinken hier im Gegensatz zu Mirrors Edge die FPS nicht beim Treiber AF.

Es gibt sicherlich noch weitere Spiele.
 
Habs mal auf meinem Notebook laufen lassen 14" i5 und eine 6470m. Hab alles runtergestellt, aber AA angemacht, läuft super, positiv überrascht :D
 
Diese kleinen Ruckler habe ich ohne vsynch auch obowhl durchgehend ca. 110-120fps, wenn ich vsynch anmache habe ich tearing, zwar nur bisschen aber man merkt es, die Ruckler sind aber komplett weg.

Entweder liegt es mMn an meinem 120hz Monitor, es gibt ja in den Optionen keine 120hz Einstellungen wie in Battlefield 3 z.B. und vsynch limitiert auch nur auf 60fps, obwohl es normal auf 120fps limitieren sollte.
Oder es liegt an der SSD.
Oder an Blizzard.
 
Soylent schrieb:
Ich hoffe, dass Intel da noch Treiberupdates bringt. Die HD3000/4000 mögen vielleicht nicht schnell sein, aber um D3 darzustellen reicht das eindeutig. League of Legends läuft teilweise mit High-Einstellungen flüssig, D3 nicht einmal auf Low. :rolleyes:

Das ist ein Blizzard Spiel. Blizzard kann keine Grafik-Engines programmieren, das konnten sie noch nie. Wie hier im Thread schon festgestellt, das Verhältniss von Grafik zu Hardwareanforderungen ist bei D3 unglaublich schlecht.

Da wird Intel nicht wirklich was dran machen können, selbst wenn sie wollten (was ich für unwahrscheinlich halte).
 
Zurück
Oben