• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht Dirt 4: CPU- und GPU-Benchmarks zeigen Überraschungen

Wow, wie wie Fury X abgeht!
Unglaublich wie die immer mal wieder überraschen kann wenn die Spiele gut umgesetzt sind. :D
 
leipziger1979 schrieb:
Schön das vermutlich so gut wie keine Sau weiß was das ist und es auch nicht weiter beleuchtet/erklärt wird.
Aber die AMD Werte sind damit ein kleines bisschen besser als die von Intel, also muss man es anführen?

Tja, ich musste es letztens auch erstmal nachlesen.
Tatsächlich ist die Angabe aber sehr sinnvoll, sie sagt aus, wie sich die Hardware zu 99% der Zeit verhält.
Womit sich sehr lange min-, max- oder durchschnittliche-fps-Balken, wie sie gerne angegeben werden, häufig in Luft auflösen.
 
Schade dass man den CPU-Test teil nicht noch mit einer Fury X z.B. gemacht hat oder eine RX580....
 
Pisaro schrieb:
Dann muss etwas mit deinem System nicht stimmen, denn besagte Spiele brauchen einfach nur eine hohe IPC. Die IPC eines Ryzen ist höher als die eines 2600K.

Ja hohe IPC vergleicht man taktbereinigt und hier ist Ryzen vorne.

Aber dann 3.9ghz vs 4.6ghz oder so holt Sandy in Sachen Singlethread Leistung auf ;)

Haber aber oben ein Video gelinkt, wo der 1600x @4ghz ca. gleich performt wie ein 7600k@4.9ghz (der ja nochmal 10% mehr IPC als Ryzen aufbringt) in Overwatch.

Starcraft stimmt leider, da brauchst einen Kaby mit 5ghz xD
 
Sowohl Overwatch, als auch Hots performen zumindest gut bei mir, sprich sie liegen so oder so voll im GPU-Limit :D
 
Endlich wird bei den CPU Tests nicht mehr in 720p herumgepfuscht, um die Relevanz der CPU künstlich zu betonen. Ab FHD gibt's essentiell keine Unterschiede bei den CPUs - und da niemand unterhalb FHD spielt, sollte das auch in Benchmarks wiedergespiegelt werden.
 
Bei Starcraft muss man sich eher fragen was die Entwickler dort bitte gemacht haben.
Wofür braucht dieses Spiel bitte soviel Leistung? Die KI ist ja nun auch nicht das Glanzlicht, die Einheitenmengen sprengen auch nicht Rekorde und die Grafik ist auch nicht ein Wunderwerk.
 
Versteeh das gehate nicht, das SPiel scheint altbacken aber zumindest brauch- und spielbar optimiert zu sein.
Mir würde auch ein Vergleich mit einer älteren Intel Generation gefallen da wäre auch gleich der DDR3 Speicher mitbetrachtet (am besten gleich OC auf 4GHz, wo die meisten "alten" Intel's wohl mittlerweile auch laufen, ja auch non K) Grafikkarten Performen beide Lager gut ist doch erfreulich, ist doch besser als wenn es wieder x Patche und eine Vierteljahr Zeit braucht bis dieser Zusand erreicht ist.

Ja ich habe eine Nvidia Graka und einen Intel Prozzi (wenn auch alt) und gönne euch allen X FPS und mehr solang es bei mir auch brauchbar läuft! Aber ich hatte bis letztes Jahr auch noch eine HD6870 drin und weiß wie man die Preset Regler benutzt^^

Theoretisch hätten sie auch den Intel G4560 Benchen können das wäre vermutlich auch noch Vorzeigbare Ergebnisse gewesen.

Aber wie hier einige schon geschrieben haben nur Spielen macht doch fast keiner es läuft doch fast immer ein Player oder Browser im anderen Monitor oder man lässt nebenbei was kompilieren zumindest nutze ich mein System so das ist auch der Grund warum die Leistung langsam schmal wird und man auch schon zur nächst größeren CPU schielt.
 
Zuletzt bearbeitet:
poi schrieb:
Früher gab es doch Dirt gratis bei Radeon GPUs dabei meine ich. Die starke AMD Performance ist also kein Zufall wenn sich die Engines tatsächlich so sehr ähneln.

Die Preset Ergebnisse sind merkwürdig.

AMD Evolved Games sind aber Quelloffen und haben in der Vergangenheit gezeigt dass man hier keine Bremsen eingebaut hat.. Also bitte für Verschwörungstheorien bitte Links die Tür ;)

Was dieses Spiel aber viel besser zeigt, ist eine 100% gut abgestimmte Engine, denn sowohl NV als auch AMD laufen hier sehr gut und ruhig, das 99te Perzentil ist vermutlich der geringeren Power der GP106 geschuldet...
Ebenso Beeindruckend finde ich dass der 1600(X) keine 2 Monate später schon mit dem Gerücht aufräumt, dass 4 Kerner reichen, auch was die Frames betrifft.. Ebenso gut finde ich dass das GPU Limit hier früh greift, und man also wie es sich für ein Rennspiel gehört mit einer Kartoffel CPU spielen könnte.
Ich hoffe der Trend hält zumindest bei Codemasters an und man kommt langsam weg von Gamemurks.

Und wer hier meinte mit doppelt so viele 7700k wie 1700 bei MF.. Nunja wir reden dann immer noch von jeder 5te CPU ist ein AMD.. Vorher war es jeder 9te? Wer glaubt AMD kann mit einer Gen alles ausbügel ist 1. Fanboy und 2. Naiv..
 
2500k oder 2600k Test wäre in der Tat super! ich glaube die sind noch sehr verbreitet. Wären natürlich nochmal zusätzlich n Konfigurationen, aber interessant wäre es.
 
Volkimann schrieb:
Bei Starcraft muss man sich eher fragen was die Entwickler dort bitte gemacht haben.
Wofür braucht dieses Spiel bitte soviel Leistung? Die KI ist ja nun auch nicht das Glanzlicht, die Einheitenmengen sprengen auch nicht Rekorde und die Grafik ist auch nicht ein Wunderwerk.

Weil grad das Remake in den News ist - Age of Empires 1 aus den späten 90ern frisst auf meinem 6600K bei Mehrspielerszenarien noch immer 100% eines Kerns, und läuft dabei teilweise langsam - schlicht und einfach weil man die Wegsuche damals selten dämlich programmiert hat. Das wird in nochmal 20 Jahren und der dann aktuellen Hardware noch immer so sein.

Oder Fallout 4 frisst zB auch verdammt viel CPU, und wenig GPU. CPU Last hab ich, besonders in der Innenstadt dauernd 100%, und die GPU langweilt sich irgendwo bei 50%, die Lüfter laufen kaum, etc.. dabei gehen die FPS auf 30 runter.. also klar CPU-limitiert. Besonders viel Physik oder Effekte kommen dabei gar nicht vor, also offensichtlich wiederum schlecht programmiert - was ja, da das Game ein Konsolen-Port ist, auch überhaupt nicht wundert.
 
stoneeh schrieb:
Endlich wird bei den CPU Tests nicht mehr in 720p herumgepfuscht, um die Relevanz der CPU künstlich zu betonen. Ab FHD gibt's essentiell keine Unterschiede bei den CPUs - und da niemand unterhalb FHD spielt, sollte das auch in Benchmarks wiedergespiegelt werden.

Eben.
720p intressiert keinen Gamer, hoechstens Theoretiker.

Ich will FullHD und 4k Benches, mit 99th/minfps/fpsverlauf/frametimes whatever.

Ich will wissen welche CPU und welche GPU mir in den intensivsten Szenen die bessere Performance bietet. Und zwar in der Aufloesung in der ich spiele.
 
EchoeZ schrieb:
Im Fall Fps werden nur die schlechtesten Bilder aussortiert, und aus dem Rest ergeben sich die Bilder pro Sekunde. Und aus denen wird dann über die Dauer des Leistungstests der Mittelwert gebildet, was eben dazu führt, daß bei nVidia mehr aussortiert werden als bei AMD.

Nicht so ganz richtig. Aussortiert werden nicht nur die schlechtesten, sondern fast alle fps Werte, da die Angabe sich nicht auf einen Mittelwert, sondern immer auf den minimalen fps Wert bezieht.

Ein 99% Percentile Wert von 65fps z.B. sagt einfach aus, dass über 99% der Zeit der Testsequenz 65fps das schlechteste Ergebnis war und nur 1% aller Werte unter diese 65 gefallen sind.

Das gibt es auch anders herum formuliert, sagt aber das gleiche aus. Ein 0,1% Percentile Wert von 65fps bedeutet, dass die fps 99,9% der Zeit bei mindestens 65 lagen.

Im Grunde ist diese Darstellung nichts anderes als eine einfache min fps Angabe, durch das Aussortieren von 0,1%, bzw 1% der schlechtesten Werte wird nur verhindert, dass ein einziger 0,2s kurzer Drop auf 20fps diesen Wert als min fps Wert wiederspigelt, obwohl er 99,9% der restlichen Zeit über 60 lag.
 
Zuletzt bearbeitet:
Ulukay schrieb:
Und zwar in der Aufloesung in der ich spiele.

Auflösung schön und gut, aber welche Detailstufe? Denn Überraschung: die kann man auch noch anpassen.

Was ich aus einem CPU Benchmark herauslesen können will ist welche CPU mir genug FPS für ein flüssiges Gameplay liefern kann. Die Grafik passe ich mir dann schon selbst entsprechend an dass auch die GPU mitkommt.

Aber wenn bei einem Spiel bei FullHD - Full Detail die GPU auf 40FPS limitiert sehe ich im Benchmark eben nicht welche CPU mir 60FPS liefern könnte wenn ich die Details runter stelle.

Und wenn du jetzt sagst: 60FPS gehen doch immer... mag sein. Es gibt neben mir auch noch Leute die 144Hz Monitore haben und die mit entsprechenden FPS beliefern wollen ;-) ich bin mit meinem 47" TV gerät eher die Ausnahme...

Deswegen sind für mich die 720p Benchmarks sehr interessant. Trotzdem sehe ich auch ganz gerne Benchmarks in höherer Auflösung um zu sehen wie die Plattform (CPU+Chipsatz) im GPU Limit agiert, da ergeben sich ab und an noch Differenzen. Von daher sollte beides gemacht werden 8und vor allem auch die 99th Benchmarks, denn die haben wenigsten Aussagekraft im Gegensatz zum Durchschnitt oder Minimum)
 
OldboyX schrieb:
Bedeutet das, dass an dem Gerücht was dran ist, dass auf AMD Hardware (Grafik und CPU) das Spielerlebnis für die Empfindlichen unter uns einfach "smoother" ist? Dazu kursieren so einige Geschichten im WWW, gerade auch was Ryzen betrifft.

Nein, die Jahre davor gab es die gleichen Gerüchte nur halt mit Intel oder Nvidia.

Das Ganze stammt aus einer Zeit als die Treiber beider GPU Hersteller noch so rückschrittlich waren das viele Spiele bei Release gar erst nach einem Treiber-Update zu starten waren. Auch gab es da dann oft noch lange unzählige Bugs, von denen alle offensichtlichen mit der Zeit immer bereinigt wurden, was teuer und unbequem für Nvidia/AMD ist. Weniger offensichtlliche Probleme mit einzelnen Titeln und deren Frametimings wurden aber manchmal nie behoben und wenn möglich vertuscht.

Danach wurde SLI/Crossfire anfangs sehr beliebt, was bei vielen auch zu dubiosen Problemen geführt hat, somit unzählige Forenthreads wo Leute mit toller Hardware manche Titel kaum spielen können und die nie gelöst wurden. Erstklassiger Gerüchteherd.

Daher kommt dieses "smoother" anfühlen ohne das jetzt bei Fraps-Vergleichen argumentieren zu können.
 
Ich würde mal den Ryzen 5 als Sieger sehen. Für Spieler mit Abstand das beste Preis-/Leistungsverhältnis.
 
Volkimann schrieb:
Bei Starcraft muss man sich eher fragen was die Entwickler dort bitte gemacht haben.
Wofür braucht dieses Spiel bitte soviel Leistung? Die KI ist ja nun auch nicht das Glanzlicht, die Einheitenmengen sprengen auch nicht Rekorde und die Grafik ist auch nicht ein Wunderwerk.

das liegt vermutlich daran, wie das spiel "funktioniert" - das gesamte spielgeschehen ist hinterher ja über ein wenige kilobyte großes replay wieder abrufbar. ich kann mir vorstellen, dass diese replayfunktion schon einige einschränkungen mitbringt, also ggf. einschränkungen bei der parallelisierbarkeit und ggf. werden auch so effizientere methoden ausgeschlossen. ausserdem werden bestimme dinge immer wieder gesynct - ich kanns dir nicht genau sagen, auf jedenfall ist der technische unterbau von sc2 relativ kompliziert. zumal sc2 ja schon ziemlich alt ist und dann blizzard generell eher zu intel/nvidia + wenig cores tendiert. außerdem hat blizzard bewiesen, dass sie nicht unbedingt die performantesten / effizientesten engines programmieren, siehe bspw wow oder allem voran diablo 3. overwatch ist gemessen an der optik auch eher mittelmäßig - wenn man das bspw mal mit doom vergleicht.

ich hatte aber nie ernste performanceprobleme in SC2, ich frag mich, wieso das immer wieder auf den tisch gebracht wird?
 
Volkimann schrieb:
Bei Starcraft muss man sich eher fragen was die Entwickler dort bitte gemacht haben.
Wofür braucht dieses Spiel bitte soviel Leistung? Die KI ist ja nun auch nicht das Glanzlicht, die Einheitenmengen sprengen auch nicht Rekorde und die Grafik ist auch nicht ein Wunderwerk.

Das Spiel stammt aus einer Zeit vor moderner CPU Befehlssätze, profitiert also von denen nicht. Da sich die IPC der CPUs kaum erhöht, bleibt die Leistung bescheiden.
Des weiteren ist die CPU Auslastung im Taskamanger kein Echtzeitmonitor sondern eine grobe Hochrechnung, wäre der Performance ja sonst wirklich nicht hilfreich.

Blizzard hat sich entschieden den Titel umsonst herzugeben, auch keine 3.50€ dafür zu verlangen, eben weil es nicht modernen Standards entspricht.

Wenn ich alte Spiele in einem open source emulator nach 15 Jahren mal wieder am Laufen habe, umsonst und legal, ist es vollkommen in Ordnung wenn niemand hunderte IT-Arbeitsstunden bezahlt hat um die Performance zu optimieren, sofern alles gut läuft, was es tut.
 
Jesterfox schrieb:
Auflösung schön und gut, aber welche Detailstufe? Denn Überraschung: die kann man auch noch anpassen.

Na die hoechste natuerlich!
Auch Detailstufen koennen extrem auf die CPU schlagen. Schau dir mal Arma3 an. ;)
 
Zurück
Oben