• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht Dirt 4: CPU- und GPU-Benchmarks zeigen Überraschungen

Taxxor schrieb:
Nicht so ganz richtig. Aussortiert werden nicht nur die schlechtesten, sondern fast alle fps Werte, da die Angabe sich nicht auf einen Mittelwert, sondern immer auf den minimalen fps Wert bezieht.
Da hast Du einen Denkfehler, denn es werden nur 'f' also einzelne Frames die überdurchschnittlich lange berechnet werden, aussortiert. Wenn Du in einer kurzen Benchmarksequenz von - sagen wir mal 10s - insgesamt 900 Bilder berechnet werden, hast Du 90 Bilder pro Sekunde. Da dauert die Berechnung eines Bildes 11,1ms. (Anm. Gilt in dem Fall bei wirklich gleichmäßigen 90 Bilder pro Sekunde)
Wenn von den insgesamt 900 Bilder MEHR als 1% durchschnittlich höher ausfallen werden diese aussortiert.
Bsp.1:
5%, also 45 Bilder brauchen länger als 11,1ms bleiben 855 Bilder insgesamt übrig, der Fps-Durchschnitt sinkt von 90fps (herkömmliche AvgFPS) auf 85,5fps (mit 99.Perzentil).

Bsp.2:
10%, also 90 Bilder brauchen länger als 11,1ms bleiben 810 Bilder insgesamt übrig und der Durchschnitt sinkt auf 81fps

Nun kommt für die Nachvollziehbarkeit der Berechnung erschwerend hinzu, daß die Fps von Sekunde zu Sekunde schwanken.
Werden in der einen Sekunde 100 Bilder (10ms Frametime), und in der nächsten 80 Bilder (12,5ms Frametime) ausgegeben muss man in jeder einzelnen Sekunde berechnen, wieviele Bilder dieser Sekunde länger brauchen um berechnet zu werden.
Das macht dann die Mess-Software zum Glück automatisch.
Du gehst bei deinen Beispielen vom weglassen ganzer Sekunden aus, und das ist nicht richtig!

Im Grunde ist diese Darstellung nichts anderes als eine einfache min fps Angabe, durch das Aussortieren von 0,1%, bzw 1% der schlechtesten Werte wird nur verhindert, dass ein einziger 0,2s kurzer Drop auf 20fps diesen Wert als min fps Wert wiederspigelt, obwohl er 99,9% der restlichen Zeit über 60 lag.
Das ist dann die falsche Schlussfolgerung.
Bei einem Drop auf 20fps dauert die Berechnung eines einzelnen Bildes 50ms. Wenn dort nur ein Bild in der gesamten Sekunde länger braucht als 50ms liegt man über dem 1% und es wird weg gelassen. Bei den Beispielsweise 10s Benchmark würde der Durchschnitt im 99. Perzentil von 20fps auf 19fps sinken.
Wie gesagt, es ist nicht einfach nachzuvollziehen und noch schwerer, quasi unmöglich von Hand zu berechnen, bei den teilweise sehr starken Fps-Schwankungen im Benchmark der dazu noch länger dauert als 10s.


Jesterfox schrieb:
Auflösung schön und gut, aber welche Detailstufe? Denn Überraschung: die kann man auch noch anpassen.
Dafür werden doch die Benchmarks (leider nicht immer) in unterschiedlichen Qualitäts-Voreinstellungen gemessen! FullHD vom Low bis Ultra, wie hier bei Dirt 4 geschehen ;)

Cuxnase schrieb:
Du kannst halt eher sehen was die CPU in Verbindung mit einer Highend-CPU die in den wenigsten Rechner werkelt, kann. Demzufolge sehr sehr wichtig.
Habs mal editiert.
Demzufolge nur für die Besitzer dieser teuersten Karten sehr sehr wichtig, die in 720p zocken!
Mit deutlich schwächeren Karten bist Du eh viel eher im GPU Limit


--------------------------------------------

Ergänzung: Als extremes Beispiel
Call of Duty Infinyte Warfare_1080p.png
Die GTX1080Ti FE 'verliert' 44% der berechnetet Frames in der Perzentil Angabe
Die Sapphire RX580 Nitro dagegen nur 15%
Das ist natürlich ein theoretischer Wert, die höheren Fps bleiben der 1080Ti praktisch erhalten.
Nur wirkt das Gaming auf der RX580 flüssiger, weil diese verhältnismäßig weniger Bilder mit überdurchschnittlicher Berechnungzeit ausgibt.
Deswegen ist für mich die Perzentil Angabe im Verhältnis zu herkömmlichen AvgFPS Angabe ein Qualitätswert, und kein Leistungswert.

Hier noch was, es betrifft nur bedingt die 99.Perzentil-Angabe, aber daraus kann man die Kalkulation ableiten[FONT=Trebuchet MS, Arial, Helvetica]
http://www.mvps.org/directx/articles/fps_versus_frame_time.htm
[/FONT]
 
Zuletzt bearbeitet: (Ergänzung und ein paar Korrekturen)
DagdaMor schrieb:
Dem schliesse ich mich an, da die alten i7 bei allen (i7-2600K/2700K) oder
fast allen (i5-2500K) aktuellen Spielen absolut ausreichend sind.
Einem Vergleich zu den neueren Generationen finde ich sehr interessant.

Battlefield 1 mit nem 2500k auf 4x 4,3 war schwierig (teils 25 fps). Mit nem 4770k Standard läuft es butterweich. Immer 60 fps (GeForce 970)
 
stoneeh schrieb:
Endlich wird bei den CPU Tests nicht mehr in 720p herumgepfuscht, um die Relevanz der CPU künstlich zu betonen. Ab FHD gibt's essentiell keine Unterschiede bei den CPUs - und da niemand unterhalb FHD spielt, sollte das auch in Benchmarks wiedergespiegelt werden.


Dann hast du den Sinn solcher CPU Tests nicht verstanden. Schade das der nicht mehr drin ist, bei CPU lastigen Games bitte wieder einfügen!
 
mgr R.O.G. schrieb:
Ich habe es letztens schonmal angemerkt, als normaler Deutscher versteht man euer "Denglisch-Geschreibsel" kaum noch.
. ..Spoiler...
...Mickeymouse-Auflösung ...
...Presets...

Ich habs versucht, aber ich habe dein denglisch nicht verstanden. So als "normaler" Doitscher ;)

Zum Test: hier kann man wohl mit jeder Kombination Intel/AMD/Nvidia spielen, so sollte es sein.
Es ist super, wie gut RyZen dasteht.
 
So sieht es aus.

Die Kombo ist nahezu egal, die Unterschiede sind minimal und können im nächsten Titel schon wieder anders aussehen.
Dennoch gut zu sehen das AMD zurück ist. :)

Ohne die Werte wären 99% der Leute die sich jetzt daran hochziehen auch gar nicht in der Lage irgendwas negatives festzustellen im Spiel selbst. :D

Aldaric87 schrieb:
Es geht um Neukäufer, und da ist der Ryzen ganz klar der Sieger. Was willst du da mit irgendwelchen i7 ? Es zeigt nur, dass Neukäufer diese überteuerten CPU's nicht kaufen müssen.

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/3/#abschnitt_spiele_full_hdhd

Ein 1800X ist ~90€ teurer als ein 6800K, ~80€ teurer als ein 5820K und langsamer in Spielen (schon ohne OC, mit wird der Abstand größer), wozu also den überteuerten AMD kaufen? ;)

Und jetzt komm bitte nicht mit der Kombo 1800X+low cost board um die Ecke! :D
Vergleichbare boards liegen 30-40€ auseinander womit die Intel Kombo noch immer günstiger ist.
 
Zuletzt bearbeitet:
akuji13 schrieb:
Ein 1800X ist ~90€ teurer als ein 6800K, ~80€ teurer als ein 5820K und langsamer in Spielen (schon ohne OC, mit wird der Abstand größer), wozu also den überteuerten AMD kaufen? ;)

Und jetzt komm bitte nicht mit der Kombo 1800X+low cost board um die Ecke! :D
Vergleichbare boards liegen 30-40€ auseinander womit die Intel Kombo noch immer günstiger ist.

1. Du vergleichst jetzt einfach mal 8 vs 6 Kerne, coole Logik.
2. R7 1700 ist vom P/L her der Sweet Spot (siehe Aussage CB).
3. Du ziehst den Release Test von Ryzen heran, seitdem hat sich einiges getan.

Hätte ich nicht Anfang des Jahres aufrüsten müssen, wäre es jetzt niemals ein Intel geworden.
 
Ist doch gar nicht wichtig was man sich jetzt kauft und genau das ist doch der Punkt. Wir haben mit Ryzen eine Alternative auf dem CPU Markt und genau das wollten doch die Leute. Man sehe sich nur den (zugegebenermaßen alten) FX8350 hier an. Keiner muss seit diesem Jahr Intel kaufen.

Die Konkurrenz äußert sich doch schon jetzt massiv positiv und kommt jedem Käufer egal ob Intel oder AMD entgegen. So muss das sein. Das ganze jetzt bitte noch im GPU Markt und dann kann jeder kaufen wozu er Lust hat.
 
OC Potential ist ein grosser Vorteil der Intels. Allerdings muss man klar festhalten, dass die Leistungsaufnahme dann stark ansteigt. Das gefällt nicht jedem. Wer eine CPU mit hoher Leistung und exzellenter Energieeffizienz will, ist mit Ryzen mindestens so gut bedient wie mit den aktuellen Intels.

Abgesehen davon geht der Sockel bei AMD wahrscheinlich auch für die nächsten 2, 3 CPU-Generationen bzw Refreshes noch.. bei Intel musst dir jedesmal neues MB, und regelmässig auch neuen RAM kaufen.
 
meckswell schrieb:
Was is mir aufgefallen bis jetzt? In Michigan im Wald, Blätter auf dem Boden sehen übel aus, sieht aus wie 2D-Tapeten. Aber ...
Die Strecke ansich, die Autos, Wetterverhältnisse, das sieht schon Top aus. Nur die Vegetation in etwas Abstand, das sieht nicht so gut aus.

Genau das dachte ich mir auch, die Blätter sehen vom sehr niedrig bis zum ultra Preset einfach furchtbar aus :D
 
Zuletzt bearbeitet:
televon schrieb:
Battlefield 1 mit nem 2500k auf 4x 4,3 war schwierig (teils 25 fps). Mit nem 4770k Standard läuft es butterweich. Immer 60 fps (GeForce 970)


Ja. Deswegen habe ich vom 2500k auf den 2700k aufgerüstet
(und weil ich den 2700k recht günstig erworben konnte)
Wo der 2500k @ 4,4 / 4,6Ghz bei machen aktuellen Games schwer zu kämpfen hatte,
läuft jetzt mit dem 2700k @Standard alles butterweich.
(wobei ich den auch auf 4,6Ghz kriege ohne jedwede Anpassung;
falls es mal nötig sein sollte :))
Ergänzung ()

EchoeZ schrieb:
Auf Stufe Niedrig sehen die Bäume/ Landschaft wie von Bob Ross gemalt aus :D
Anhang anzeigen 628115Anhang anzeigen 628116

:daumen:

Maybe we'll have tiny little bits of pieces here, here, here... and here

We don't make mistakes, we just have happy accidents

:D
 
Zuletzt bearbeitet:
Zuletzt bearbeitet: (/)
Cuxnase schrieb:

Weder den Sinn des Testes noch meine Aussage verstanden.. Respekt ;)

Nochmal für dich. Die Gp106 hat weniger Performance und einen kleineren Speicher, wenn man weniger Texturpower hat kann man eben nicht mit der RX mithalten (was auch derzeit beim Mining passiert).. Ist ja auch nur logisch, aber naja du hast erst 10 Beiträge, ich denke auch du wirst noch lernen und verstehen ;)

Und wo ich sagte das Gamemurks die CPU Last erhöht würde mich doch mal brennend interessieren.. Die Kernaussage ist (wenn man den Anfangsruckler bei den Grünen ignoriert): Die Systeme haben identische Performance und Bildlaufzeiten.. Denn bei einem Rennspiel sind smoothe FPS viel wichtiger als eben 150 oder 175FPS..
Die Qualität ist eben bei der AMD besser weil die Bildlaufzeiten besser sind, Max FPS interessieren eben nur die Gamerkiddies die sonst nichts zutun haben.

Und in einem Rennspiel, was selbst mit einem G4650 laufen wird bei 200 FPS (wenn man ne 1080Ti nimmt) ist die CPU Last so mit das unwichtigste der Welt.. Aber ja ich versteh schon, AMD Darf nicht aufschließen, denn sonst wäre Intel ja schlecht ;)
 
AMD-Mafiosi schrieb:
Ist ja auch nur logisch, aber naja du hast erst 10 Beiträge, ich denke auch du wirst noch lernen und verstehen ;)

Was hat die Anzahl der Beiträge denn bitte mit Hard-/Softwarewissen zu tun? Gibt genug stille Mitleser die sich hier neu anmelden und deutlich mehr Ahnung haben als die meisten hier.
 
Oha, hab nun die Hälfte aller Kommentare etwa gelesen und kann nur kopfschüttelnd mich abwenden. Kaum zu glauben wie klein das technische Verständnis bzw. Wissen hier von vielen ist die tatsächlich nicht einsehen, wieso bei einem CPU-Vergleich 720p-Tests verwendet werden. Leute, so schwer ist das nun doch nicht zu verstehen, oder? Nur bei geringen Auflösungen sieht man welche CPU mehr potenzielle Reserven hat!
 
immortuos schrieb:
Was hat die Anzahl der Beiträge denn bitte mit Hard-/Softwarewissen zu tun? Gibt genug stille Mitleser die sich hier neu anmelden und deutlich mehr Ahnung haben als die meisten hier.

Wie gesagt, lies meinen Beitrag und dann seinen.. Und dann sag mir wo der Sinn ist ;) Ich hab nur etwas Grundsätzliches gesagt und besagte Person meint gleich die NV Flagge zu hissen...
Und Menschen die richtig Ahnung haben, werden sich nicht in CB beteiligen. Dafür gibts dann Fachforen. Und Lesen UND Verstehen ist glaube ich Grundschule. Wie gesagt ich bin zu alt um mich mit solchen Leuten rumzuärgern.. Soll er ma

@Lübke:
Richtig, nur ist Dirt 4 kein Game welches die CPU fordert.. Bei Civ6 oder meinetwegen auch EU4 oder Stellaris, da machts Sinn.. So sin die 720P Tests eigentlich vergeudete Zeit. Zudem WOLLEN die User das auch nicht wissen, so ne CPU im GPU Limit ist einfach viel objektiver ;)
 
Wie ist es denn mit dem MicroStuttering in Dirt 4? Bei Dirt Rally hatten ja einige (unter anderem ich) das Problem, dass sich das Spiel trotz performanter Hardware ab und zu mal kleine Gedenkpausen gönnt, die extrem auffallen. Ich bin eigentlich konstant mit 100 fps unterwegs und wenn es mal kurz zu Framedrops kommt dann bügelt das der G-Sync Monitor weg. Aber in Dirt Rally gibt es als immer wieder regelrechte Hänger, wo das ganze Spiel einfach kurz stockt. Konnte das sonst noch nirgendwo beobachten...
 
Lübke82 schrieb:
Kaum zu glauben wie klein das technische Verständnis bzw. Wissen hier von vielen ist [..]

Du scheinst mit deinem technischen Verständnis ziemlich festgefahren zu sein. Falls Du es bis jetzt nicht bemerkt hast - und das scheint offensichtlich zu sein - ist die Ära mit 4C/8T und immer mehr Takt bald vorbei. Mit riesigen IPC Sprüngen ist auch nicht mehr zu rechnen.
>4C/8T ist mit Zen bezahlbar geworden, und auch Intel hats wohl eingesehen und zieht mit.
Das geht an den Entwicklern der Spieleschmieden auch nicht spurlos vorbei.
Schau Dir mal den PCGH Techniktest zu Dirt 4 an, insbesondere die Kernskalierung bei 2GHz. Das spricht Bände.
Bildschirmfoto_2017-06-15_18-07-58.pngBildschirmfoto_2017-06-15_18-08-51.png
Mehr Kerne ist nur das eine Standbein, LL APIs bilden das andere.
Du darfst Dich gerne wehement weigern, dies einzusehen und weiter daran festhalten, daß man aus einem 720p Test irgendwelche Aussagen über die Langlebigkeit oder Leistungsfähigkeit einer CPU machen kann. Das ist dann allerdings dein persönliches Ding...

Das soll nicht heissen, ein 7700K bspw. würde nutzlos sein, zocke ich doch selber mit einem i3-6100. Die Plattform ist allerding nun fast 2 Jahre alt und sollte möglichst noch 2 Jahre seinen Dienst tun, aber das nächste System wird deutlich mehr Kerne haben (6 oder 8) und der maximale Takt eher unwichtig sein. Meine alten Lieblings-Games wie CoD W@W, Racedriver Grid und Ähnliches, wird auch auf einem 6,8 Kern Prozessor mit 3GHz wunderbar rennen und zuküftige Spiele die eher auf mehr Kerne setzen als auf die Brechstange mit höchstem Takt werden sicher auch nicht limitieren.
 
Zuletzt bearbeitet:
Zurück
Oben