• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Bericht: Diablo 3 im Benchmark-Test

devebero schrieb:
Hat mal jemand getestet, ob das Spiel mit einer GT540M in Verbindung mit einem i5-2410M ausreichend schnell läuft?

Lt. http://www.systemrequirementslab.com/cyri/intro.aspx erfüllt mein Notebook weit mehr als die empfohlene Anforderung. Kann das stimmen?

Habe die gleichen Komponenten in einem Acer 5750G....während der Beta wurde mein Laptop so heiß, dass ich nicht weiter spielen konnte,. Starkes ruckeln im Multiplayer.

Habe ihne säubern lassen von Acer. Momentan spiele ich alles auf niedrig nur Texturqualität hoch und alles läuft flüßig im SINGLEplayer.

Werde die Tage mal den Multiplayer und höhere Einstellungen testen.
 
Auch wenn das kleine Bild auf Diablo 3 mit bezogen ist, finde ich es dennoch auch etwas "unpassend" in der News ^^

P.S.
Ich spiele sogar mit meiner alten 9600GT ohne große Probleme auf hohen Einstellungen. ( AA habe ich jedoch deaktiviert)
 
~DeD~ schrieb:
also wenn ich bedenke, dass das menschliche auge gerade mal 20 bilder von einander unterscheiden kann und ab 25 alles flüßig ist, frage ich mich doch wie ihr zu dem fazit bei >37 fps kommt.

Das menschliche Auge nimmt bis zu 60 FPS wahr. Und das ist ein durchschnittlicher Wert.

Wie du auf 20 FPS kommst, ist mir ein Rätsel. Unbedingt gefährliches Halbwissen auffrischen! ;)
 
erstmal finde ich es sehr gut das wenn ich auf Kommentare klicke, das ich nicht gleich auf der letzten seite lande :freak: so wie das bisher der fall war. :daumen:
wobei ich mir jetzt nicht so sicher bin ob das an meiner einstellung (PC) lag oder an eurer. :evillol:


Diablo 3 hab ich zwar noch nie gezockt... aber, irgendwie erinnert mich das an Neo Contra. :D


mfg
S1mpLeX
 
Blubber123 schrieb:
Ja habe ich -> V-Sync aktivieren .
Ich hatte - unter höchsten Einstellungen bei 1920x1080- mit meiner alten GTX570 Phantom (~120FPS) sowie der neuen GTX670 (~210FPS) beim jeweiligen testen auf meinem alten 24er sowie dem neuen 27er LED immer das nervtötende, versetzte Miniruckeln des Hintergrunds.
Das ganze sah wie die Microruckler aus die ich eigentlich nur aus meinem früheren SLI System kannte. Bei Singlegpu Karten habe ich das ganze zuvor nie gesehen.
Hey Blubber, danke für den Hinweis. Leider habe ich das schon probiert. Ingame-V-Sync an/aus. FPS-Limitierung Vordergrund/Hintergrund, egal welcher Wert. V-Sync über 3rd-Party-Tool erzwingen, Triple-Buffering. Hilft alles nichts. Ab und an habe ich dieses merkwürdige Ruckeln immernoch.
 
Also ich besitze einen betagten Intel Q8200 Vierkerner und eine MSI GTS 450 OC und spiele auf 1920x1080 mit Standardeinstellungen völlig ruckelfrei. Im Fenstermodus (Vollbild) ruckelt es auch.

Oder mein 35 Jahre altes Auge ist bereits viel zu träge um Mikroruckeln zu bemerken :D
 
Ergänzung ()

qHiL schrieb:
Hey Blubber, danke für den Hinweis. Leider habe ich das schon probiert. Ingame-V-Sync an/aus. FPS-Limitierung Vordergrund/Hintergrund, egal welcher Wert. V-Sync über 3rd-Party-Tool erzwingen, Triple-Buffering. Hilft alles nichts. Ab und an habe ich dieses merkwürdige Ruckeln immernoch.

Bei mir hilft das auch. Bei mir war V-Sync per Default eingeschaltet. Als ich dann mal die maximalen FPS checken wollte schaltete ich es aus und bemerkte fortan dieses Ruckeln. Ich schaltete V-Sync wieder an und es war wieder weg.

Ich spiele aber auch mit Virtu MVP im H-Mode. Keine Ahnung ob das einen Unterschied macht.
 
Zuletzt bearbeitet:
Also mir sind insgesamt 3 Dinge, welche nicht so schön sind, aufgefallen:
  1. Kurzes Stocken / Ruckeln: Diese Ruckler sind vermutlich Nachlade-Ruckler. Sie sind bei mir eigentlich nur da, wenn ich das Spiel frisch gestartet habe. Nach rund 5-10 Minuten Spielzeit ist dieses Problem weg.
  2. Tearing: Sollte jeder kennen. Wenn V-Sync aus ist, tritt dieses Problem auf. Ist V-Sync an, ist alles super. Der Effekt wird sogar noch besser, wenn die Vordergrund-FPS-Limitierung auf 200 steht.
  3. Slow-Downs: Dieses Verhalten ist eigentlich das, was ich meine. Es scheint, als würden die FPS schlagartig von 60 auf 20 Frames fallen, obwohl dem nicht so ist - Die Anzeige über Fraps zeigt konstant 58-60 FPS an. Es scheint halt so, als ob einige Frames übersprungen werden. Glücklicherweise tritt es nicht sooo oft auf - zur Not kann ich damit leben :) An einer eventuellen Lösung wäre ich dennoch interessiert ;) V-Sync hilft hier nämlich nicht, aber vielleicht ist mein Rechner auch zu schlecht :freak:
 
"Der AMD A8-3650 ermöglicht für 1.366 x 768 mit maximalen Details und ohne Kantenglättung sowie anisotrope Filterung so gerade ein halbwegs flüssiges Spielen..."

WTF? Ich sehe da 35 FPS in der Tabelle beim A8-3650. Eine solche FPS Zahl ist für mich absolut flüssig wahrnehmbar.
Nix mit "halbwegs flüssig".

Das Spiel lässt sich mit Llano im Gegensatz zu Intels IGP selbst auf Full HD ohne AA/AF noch flüssig spielen.
Mal abwarten ob Intel mit besseren Treibern nachzieht.
Im Gegensatz zur landläufigen Meinung man braucht > 60FPS ist das hier nich der Fall.

Für Strategiespiele reichen schon ca 30 FPS aus, solange die CPU nicht zu langsam ist und es keine erheblichen Framedrops gibt, merke ich beispislweise bei Anno 1404, oder auch Command and Conquer.

Retro Gamer schrieb:
bei d3 sehen 35 fps teilweise noch sehr ruckelig aus ... die probleme gibts auch bei skyrim unter bestimmten szenarios ... und wer welche fps als annehmbar empfindet, kann ein anderer garnicht beruteilen ...

Kann ich nicht nachvollziehen. Strategiespiele mit nicht schnell wechselnden Bildinhalten brauchen keine hohen FPSum flüssig zu erscheinen.

kaltblut schrieb:
Wie du auf 20 FPS kommst, ist mir ein Rätsel. Unbedingt gefährliches Halbwissen auffrischen!

War von ihm natürlich etwas zu pauschal, allerdings trifft das bei Strategiespielen schon eher zu, als bei Shootern.
 
Zuletzt bearbeitet:
kaltblut schrieb:
Das menschliche Auge nimmt bis zu 60 FPS wahr. Und das ist ein durchschnittlicher Wert.

Wie du auf 20 FPS kommst, ist mir ein Rätsel. Unbedingt gefährliches Halbwissen auffrischen! ;)

Alle solche Pauschalaussagen sind falsch.

Sicherlich gibt es irgendwo eine absolute Obergrenze, aber der jeder Mensch unter allen Umständen keine Unterschiede mehr wahrnehmen kann (wahrscheinlich irgendwo zwischen 60 oder sogar >100 FPS), aber alles darunter hängt von sehr vielen Faktoren ab. Besonders von der Art der Bewegung des Bildes. Also z.B. ob es sehr schnelle "Kamera"-Schwenks gibt usw.
In einem Making-Of von Der Hobbit hat Peter Jackson z.B. erklärt, dass dank erstmaligen 48 Bildern/Sekunde jetzt viele Beschränkungen wegfallen, die man als Filmmacher vorher bei einem 24P-Kinofilm beachten musste.

Deshalb ist es auch extrem von der Art des Spiels abhängig, ab wie viel FPS man es als flüssig empfindet. Bei einem eher statischen Strategie-Spiel mit Vogelperspektive sind vielleicht wirklich schon 20 FPS genug, aber bei einem Egoshooter sind nicht wenigen sogar 60 noch zu wenig. (Weshalb diverse FPS-Gamer ewig bei ihren alten Röhren geblieben sind.)

In den alten Homecomputer-Tagen galt übrigens mal 10 FPS als ausreichend. Aber damals bewarb man auch Röhrenbildschirme mit weniger als 60Hz aus "flimmerfrei". ;)
 
Also 20 FPS sind es nicht das kann ich bestätigen wenn ich bei mir unter OS X Schatten auf High/Ultra stelle habe ich genau 20 FPS und das ist bei weitem nicht flüssig.
 
stimme qHiL zu, ohne vsync komme ich auf 100 fps, aber das Tearing schmerzt in den Augen und auch diese Nachladeruckler sind etwas unschön
 
Wieder mal typisches Blizzardspiel mit scheiss Grafik und extremen Hardwarehunger.
Naja, gut, dass ich auf D3 verzichten kann und werde, viel spaß beim 6. DLC Addon für 30€ von Activision-Blizzard.
 
Apocaliptica schrieb:
Wieder mal typisches Blizzardspiel mit scheiss Grafik und extremen Hardwarehunger.

Extrem Hardwarehunger. Was für ein Quatsch. Wenn du Blizzard nicht magst, ignorier doch einfach die News und spar dir deine Trollversuche.

60FPS mit ner 80 Euro Grafikkarte. Wenn das extreme Anforderungen sind, dann weiß ich es auch nicht.
 
AMD!NOW! schrieb:
das kann doch garnicht sein, das die HD 6670 schneller als ne HD 4890 ist... - oder? Oo

Hab ich mir auch gedacht da leistungmäßig 6770 = 5770 = 4870 < 6670.

Selbes Spielchen bei der GTS 450 und der GTX 285 (die normalerweise auf Niveau der GTX 460 1GB ist).. echt eigenartiges Spiel :D
 
Mike-o2 schrieb:
Bei mir lief die Beta mit einem X2 6000+ und vollen Details (samt AA und AF) absolut flüssig. Vielleicht hat die HD6870 den Unterschied ausgemacht.

Denke eher dass der 6000+ halt schon eine ganze Nummer schneller ist als der 4000+ und so der eine eben ausreicht wo der andere schon einbricht.


hardwarekäufer schrieb:
Toll dass der TEst nur die aktuellsten Chipsätze testet.

Wie wärs mal mit einer Erweiterung Richtung Centrino oder Centrino2 Chipsatz ? Auflösung bis 1280*800 und dann mal die Intel GM45 IGP ?

Dazu und zu allen ähnlichen Posts:

Ja finde ich auch! Und S775, 1366, AM2, 939, usw. inkl. ein paar verschiedener passender CPUs und dann noch jeweils einige Grakas aus der Zeit in allen gängigen oder weniger gängigen Auflösungen.
Lächerlich CB - ein paar hundert Konfigurationen mehr oder weniger spielen doch wohl keine Rolle. Ihr solltet doch wissen dass eure Leser nicht abstrahieren können und so ein Test wertlos ist wenn nicht genau die Konfiguration jedes einzelnen Users mit enthalten ist!!!
 
Hakaori schrieb:
Meint ihr eine Geforce GT555 reicht im Notebook für Zocken auf FullHD aus?

Läuft auf meinem XPS17 in FullHD, alle Settings auf "Hoch" total flüssig.
 
~DeD~ schrieb:
also wenn ich bedenke, dass das menschliche auge gerade mal 20 bilder von einander unterscheiden kann und ab 25 alles flüßig ist, frage ich mich doch wie ihr zu dem fazit bei >37 fps kommt.

Weils ein totaler Quatsch ist mit den "25 Bildern pro Sekunde".

Das ist ein AMMENMÄRCHEN, das dem (deutschen) Bürger durch den PAL-Standard der TV-Übertragung eingetrichtert wurde, da hier mit ca. 24 Bildern pro Sekunde (mit PAL-Speedup auf 25 Bilder pro Sekunde) übertragen wurde - und zwar im Halbzeilenverfahren.
Deshalb hast du effektiv auch 50 Bilder pro Sekunde (50Hz-Flimmern der alten Röhrenkisten).
Später kam dann die 100 Hz-Technik ins Spiel, die entweder Zwischenbilder errechnet hat (womit wir also nochmal mehr als 50 Bilder pro Sekunde gehabt haben), oder aber sie fügten "Blanks" (Schwarzbilder) ein, um das Auge mit den angeblichen 100Hz zu täuschen.

Heute gibt es ja mittlerweile 600Hz-Panels (Panasonic z.B.), wo superwild Bilder zwischenberechnet und aufpoliert werden, das Rohmaterial (z.B. einer Blu-ray) hat jedoch weiterhin 24 Bilder pro Sekunde.

Und wie bereits einige Vorredner sagten, du willst doch nicht ernsthaft ein Bild mit lediglich 24 Bildern pro Sekunde bespielen?

Stell deine Monitorwiederholfrequelz mal auf die besagten 24Hz (das geht ja ohne Probleme mit Windows ab XP) und dann berichte nochmal :)
Selbst 30Hz sind noch äusserst störend!

Warum sonst sollten Monitore auch mindestens 60Hz horizontale Zeilenfrequenz haben?

Cya, Mäxl
 
Zurück
Oben