Test Intel Coffee Lake im Test: Core i7-8700K, i5-8400, i3-8350K und -8100 vs. Ryzen

StefVR schrieb:
https://www.gamersnexus.net/images/media/2017/CPUs/8700k/8700k-legacy-bf1-benchmark.png

Ist 1080p (GPU: 1080 FTW1) aber der Ryzen OC mit Superram immer noch hinter einem Stock 8700k...
In 1440p ist der ASbstand kleiner: GPU limit, mit ner 1080 ti wieder bischen grösser. Meiner holt evtl noch 10 frames mehr raus und vielleicht 20 mehr als der stock, mehr aber vermutlich nicht. Fall abgeschlossen...

Spielspass wird man mit beiden haben oder mit beiden nicht, aber meiner heizt das Wohnzimmer im Winter besser auf (im Sommer leider auch....).

Da ich seine Ergebnisse nicht nachstellen kann, schwer zu sagen.
Aber Anandtech verwendet den intigrierten Rise of the Tomb Raider Benchmark in 1080p High Preset. Und ich habe sogar exakt die gleiche Grafikkarte ;-)
https://www.anandtech.com/show/1185...lake-review-8700k-and-8400-initial-numbers/16
20171026_201552.jpg

Zeigt doch irgendwie ein anderes Bild?

tek9 schrieb:
Imho macht ein 144hz Display für die meisten nur Sinn wenn es auch Free- oder Gsync unterstützt.

Denn so hat man immer ein relativ ruhiges Bild, auch wenn die Framerate stark droppt.

144hz only halte ich für wenig sinnvoll. Selbst die schnellsten CPUs und Grafikkarten liefern (auch mit 1080p) nicht immer solch hohe Frameraten.

Ein WQHD 144Hz Screen ohne Free- oder G-Sync zu verwenden macht wirklich gar keinen Sinn.
Keine Grafikkarte hält die 144 fps in allen Titeln. Und wenn man dafür die Seetings auf Low stellen muss, hätte man sich kein solches Monstersystem kaufen müssen XD (Auch Aldaraic87 seine Worte ;-) )

@Caramelito:
Wir können gerne die fps in WQHD (vorgegebene Settings) in folgenden Spielen testen:
Rise of the Tomb Raider, Witcher 3, BF1, Watch Dogs 1, Crysis 3.

Und ich zeige dir gerne, dass dein System künstlich verkrüppelt ist ;-)
@ StefVR. Deiner ist und bleibt schneller ;-)
 
StefVR schrieb:
Egal welche Settings in 1440p? Quest accepted! Am Samstag kommt der neue Speicher (4 mal 8 GB 3600 MHZ, 16 16 16 36 B die den ich hoff noch bischen pimpen kann) Nur seht ihr dann wie schlecht der Opa Pubg spielt da wird auch chargen übers MAuspad nicht drüber hinwegtaeuschen . Gezaehlt wird ab Landung vorher gehts ja noch nicht richitg los.

Gibt bestimmt mal ein paar Drops aber bin selber gespannt.

Entscheidend sind die Gegenden um Georgopol und Polyana. Das erzeugt massiv Overhead. Würde mich stark wundern, wenn der 8700K - trotzdem starkem OC des Speichercontrollers, des Caches und der CPU an sich - hier auch nur annähernd 144fps erzeugen würde. Das liegt aber nicht am 8700K, sondern einfach an der Software. In 1440p kommt man in diese FPS-Bereiche wenn nur, wenn man die Qualität komplett auf ein Minimum setzt. Auf Ultra limitiert selbst eine 1080 Ti in 1440p in vielen Szenarien.
Ergänzung ()

Esenel schrieb:
Ein WQHD 144Hz Screen ohne Free- oder G-Sync zu verwenden macht wirklich gar keinen Sinn.
Keine Grafikkarte hält die 144 fps in allen Titeln. Und wenn man dafür die Seetings auf Low stellen muss, hätte man sich kein solches Monstersystem kaufen müssen XD (Auch Aldaraic87 seine Worte ;-) )

Komplett Bullshit, sorry. Ein 144Hz Panel setzt nicht zwingend 144fps voraus. Der größte Vorteil sind die 144Hz. Das merkt man bereits auf dem Desktop. Das Movement, selbst der Maus, ist wesentlich smoother.
 
Ja testen wir einfach mal. Ich nehms mitm ipad auf. Auf die videoquali kommts ja nicht an. Ultra ist natuerlich unmoeglich. Wenn die bomben fallen wirds auch ne volta titan aus den socken hauen. Aber wir testen mal mit gpu overhead geht ja um die cpu.
 
Zuletzt bearbeitet:
Wenn Menschen sich von overclock.net bilden lassen...

Coreparking ist wie min 144 FPS @144Hz Refreshrate totaler Blödsinn.
 
SKu schrieb:
Ergänzung ()

Komplett Bullshit, sorry. Ein 144Hz Panel setzt nicht zwingend 144fps voraus. Der größte Vorteil sind die 144Hz. Das merkt man bereits auf dem Desktop. Das Movement, selbst der Maus, ist wesentlich smoother.

Nein?
Desktop/Windows ist das klar, dort kann die Grafikkarte die 144 fps halten. Stimme ich dir zu. Smoothes Erlebnis.
Aber in Spielen bringt dir ein 144Hz Panel gar nichts, wenn du schwankende fps hast, da es zu Screentearing kommt.
Selbst wenn die Grafikkarte 120 fps konstant liefert, refreshed der Bildschirm mit 144Hz => Screentearing.
Das ist super einfach reproduzierbar und merke ich selbst auch beim benchen, wenn ich G-Sync ausschalte.

Hier ein Beispiel. Nicht das Beste, aber es zeigt, dass man trotz 144Hz Tearing hat. Zwischen 2:40 und 2:45:
https://www.youtube.com/watch?v=Ax8NxWn48tY
Oder einfach mal so etwas probieren:
https://www.youtube.com/watch?v=VuZaplT9eFY
Gibt es bei mir z.B. nicht mehr :-)
Hat man einmal G-Sync gesehen, wird man nicht mehr ohne wollen. Ist eine ganz andere Liga :-)
Ergänzung ()

StefVR schrieb:
Ja testen wir einfach mal. Ich nehms mitm ipad auf. Auf die videoquali kommts ja nicht an. Ultra ist natuerlich unmoeglich. Wenn die bomben fallen wirds auch ne volta titan aus den socken hauen. Aber wir testen mal mit gpu overhead geht ja um die cpu.

Hau raus die Tests :-)
 
Caramelito schrieb:
Was Esenel nicht versteht ist, dass ich in den Games, wenn ich die Grafik runtersetze 144fps halte ohne Drops.
Zu diesen 144fps kommt dann Ryzen oft nicht einmal weil Single Core Power fehlt, oder das Game nicht optimiert wurde (GTA 5 zB).
In GTA V hält auch ein 8700k keine 144 FPS, genauso wie in keinem einzigen Spiel im CB Test. Keine Ahnung was du für Spiele spielst, aber die 144 FPS stabil nehm ich dir allgemein nicht ab ;)

StefVR schrieb:
https://www.gamersnexus.net/images/media/2017/CPUs/8700k/8700k-legacy-bf1-benchmark.png

Ist 1080p (GPU: 1080 FTW1) aber der Ryzen OC mit Superram immer noch hinter einem Stock 8700k...
In 1440p ist der ASbstand kleiner: GPU limit, mit ner 1080 ti wieder bischen grösser. Meiner holt evtl noch 10 frames mehr raus und vielleicht 20 mehr als der stock, mehr aber vermutlich nicht. Fall abgeschlossen...

Und der i7 4790k ist schneller als der 6700k und der 7700k ist schneller als der 8700k. Die Werte stimmen doch hinten und vorne nicht.
 
@Esenel: Du weißt schon, dass z.B. bei CS keiner, der sich auskennt, mit G- oder Freesync spielt? Dadurch erhöht sich immer das Input-lag geringfügig.

Ein 144Hz Monitor bringt natürlich auch was, wenn die fps nicht konstant gehalten werden können, da sich durch das Mehr an Zwischenbildern das wahrgenommene Screentearing verringert.

Und bei Core ist schneller RAM weniger Hilfreich als bei Ryzen. Halte das auch für nicht richtig, was du da erzählst.
 
Zuletzt bearbeitet:
Esenel schrieb:
Nein?
Desktop/Windows ist das klar, dort kann die Grafikkarte die 144 fps halten. Stimme ich dir zu. Smoothes Erlebnis.
Aber in Spielen bringt dir ein 144Hz Panel gar nichts, wenn du schwankende fps hast, da es zu Screentearing kommt.

Ich weiß, das passt nicht in das Weltbild überzeugter Sync-Nutzer. Allerdings gibt es auch Menschen, die bemerken Tearing entweder nicht oder aber es ihnen trotzdem völlig egal. Ich kann meinen Monitor auf 60Hz einstellen und bemerke Tearing. Sobald ich ihn auf 144Hz stelle, bemerke ich das Tearing nicht mehr. Wenn es auftritt, dann in konstruierten, fest erzwungenen Umgebungen, die für mich keine Relevanz für das Gameplay besitzen. Ganz einfach aus dem Grund, weil so niemand spielt. Je schneller das Gameplay, desto weniger Konzentration für das Drumherum. Egal was für Sync-Technik, der Input-Lag ist immer höher als ohne. Ich habe noch nie mit Sync gespielt, selbst damals zu CS 1.3 Zeiten nicht.
 
Weshalb sollte sich bei G oder Free Sync der Input-Lag erhöhen? Damit wird doch nur die Bildwiederholrate des Monitors den FPS angepasst.

Und für mich geht Tearing einfach gar nicht... dafür kann ich viele Spiele auch mit weit unter 60FPS noch beruhigt zocken ;-)
 
Caramelito schrieb:
Ne Sku, dort ist es die Graka die dicht macht.
Die CPU chillt :-)

In D2 gibt's eben Stellen da steigt die %power der Graka auf einmal um ca. 10% was bedeutet, der Stromverbrauch steigt. Die Auslastung bleibt bei 99%.

Sieht man immer schön am Graphen in MSI Ab. Leider geht OSD nicht sonst wärs deutlich sichtbarer.

Ich müsste die Grafiksettings zu stark runterdrehen so dass die Graka immer 140+ liefert. Dasselbe in Forza7

Stell doch noch auf 720p, dann geht er noch geiler, als nur mit reduzierter grafik,
 
Jesterfox schrieb:
Weshalb sollte sich bei G oder Free Sync der Input-Lag erhöhen? Damit wird doch nur die Bildwiederholrate des Monitors den FPS angepasst.

Und für mich geht Tearing einfach gar nicht... dafür kann ich viele Spiele auch mit weit unter 60FPS noch beruhigt zocken ;-)

Und bei mir ist es genau anders herum.

Wenn Sync nicht den Input-Lag erhöhen würde, könnten diese Ergebnisse nicht entstehen. Gerade bei low fps ist das schon extrem.

https://www.youtube.com/watch?v=MzHxhjcE0eQ
 
Zuletzt bearbeitet:
NV1 schrieb:
Ram ist Schnuppe. DDR4 2133 samt CR 1T ist bis zu 10% lahmer in "best scenario case" als DDR4 4K+, also total Hupe. Big Numbers eben.

Falsch. Verallgemeinerung... Ungenaue Daten etc.

DDR4 2133 samt CR 1T kann je nach Anwendung auch mal locker 100% unter den Leistungsdaten eines DDR4 4K+ liegen.

Grüße
Zero
 
Zuletzt bearbeitet:
SKu schrieb:
Ich weiß, das passt nicht in das Weltbild überzeugter Sync-Nutzer. Allerdings gibt es auch Menschen, die bemerken Tearing entweder nicht oder aber es ihnen trotzdem völlig egal. Ich kann meinen Monitor auf 60Hz einstellen und bemerke Tearing. Sobald ich ihn auf 144Hz stelle, bemerke ich das Tearing nicht mehr. Wenn es auftritt, dann in konstruierten, fest erzwungenen Umgebungen, die für mich keine Relevanz für das Gameplay besitzen. Ganz einfach aus dem Grund, weil so niemand spielt. Je schneller das Gameplay, desto weniger Konzentration für das Drumherum. Egal was für Sync-Technik, der Input-Lag ist immer höher als ohne. Ich habe noch nie mit Sync gespielt, selbst damals zu CS 1.3 Zeiten nicht.

Ja der Input-Lag steigt.
Da ich kein CS, Overwatch, etc. spiele hat für mich der höhere Input-Lag keine schlimmen Auswirkungen :-)
Das Spielgefühl finde ich aber nochmal einfach eine Stufe besser mit Sync.
Kommt halt dann auf die persönliche Präferenz an.

Und nochmal für die "RAM macht keinen Unterschied Leute"...
https://www.youtube.com/watch?v=CZIVaGcax70&t=2s
Video bei 11:30 einfach ansehen.
Irgendwie verpufft der 5 Ghz OC? :freak:
 
@Esenel
Das kommt noch aus den alten Zeiten, als die CPUs dem RAM bezüglich der Verarbeitungsgschwindigkeit hinterher hing bzw. die verhältnismäßig großen Caches viel abgefangen haben.
Die Zeiten sind jetzt langsam vorbei. Cache Fläche ist teuer und gerade mit mehr Kernen müssen ja weit größere Mengen an Daten irgendwie zur CPU geschafft werden.

An Deinem Beispiel erkennt man sehr schön (wie ich vorhin in diesem Thread schonmal geschrieben habe), dass wir langsam an einer Schallmauer angelangt sind, was den Standard- RAM und die Verarbeitungsgeschwindigkeit von OC CPUs anbelangt.
Eine 5,2GHz Coffee Lake CPU mit 2600er Speicher und mäßigen Timings ist rausgeschmissenes Geld...

Grüße
Zero
 
Zuletzt bearbeitet:
Habe jetzt meinen 2400er Ram n bisschen oc'ed. Immerhin machen nun alle 4 Module 3200 cl16-18-18-36 mit.

Jetzt sehen die Ergebnisse auch besser aus als vorher, wo die Schreibrate auf 35k lag im Bench usw..
Es muss am XMP liegen bzw. eine neue Bios Version ist von Nöten:



@144hz ohne Sync: Na wenn das kein Sinn macht, dann weiß ich auch nicht mehr.

144hz, hohe FPS, No Sync, geringster Inputlag = Meister Spaß. Für mich. Essentiell in Shootern und Sportspielen. Wieder. Für mich. ;)
Für andere eben nicht, Interpretationssache.

@Esenel:

Ein STOCK!!! 8400 ist schneller als ein Ryzen 1800x und das um gute 18% in den 1080p Game-Benchmarks.
Und du willst behaupten, dass dein Ryzen mit cl15 3466er Ram nun besser sei als ein 8700k 4.8ghz mit egal welchem Ram?
Dich kann ich nicht Ernst nehmen.
 
Oh Cara, was soll das eigentlich die letzte Zeit.

Du weißt ebenso wie alle anderen hier, dass CB mit extremen suboptimalen Bedingungen für Ryzen testet (Stichwort Ram). Ein 8400 ist auch schneller in einigen Benchmarks als dein 8700k. Und nun?

Du weißt ebenso das der 8400 durch seine 6 Threads ziemlich schnell altern wird, im Gegensatz zu 12 / 16 Threads.
 
Oh Alda,

es geht doch nicht ums altern. Den i5 würde ich nicht kaufen.

Aber 8400 eben um 18% vorm 1800x.
Und Esenel kommt hier an und meint sein Ryzen + 3400er Ram sei schneller als mein 8700k @ 4.8ghz.
Also, wer übertreibt denn nun? ;)
 
Na ich will doch hoffen das heutzutage keiner mehr auf die Balkenlänge reinfällt. Es gibt heute schon einige Engines die mit 8 Threads + skalieren. Das neueste:

http://www.pcgameshardware.de/Assassins-Creed-Origins-Spiel-61043/Specials/Benchmark-Test-1242105/2/

https://www.youtube.com/watch?time_continue=3&v=har9z0DoN94

https://www.youtube.com/watch?v=M6tyyhiL_Vo

Also wer heute nicht auf genug Kerne/Threads setzt darf halt in 2 Jahren nachkaufen. (und nein damit ist nicht der 8700k gemeint, bevor hier gleich einer Schnappatmung bekommt)
 
Zuletzt bearbeitet:
So nochmal XMP ist kacke lernt es halt dass ist für faule leute entwickelt worden. Also ich stelle meinen RAM immer noch selbst ein ist mir lieber CL Werte und Volt und Takt. Wo bitteschön ist da dass Problem einmal eingestellt und gut ist heute muss man die Werte nicht mal aufschreiben sondern einfach Speichern und beim Nächsten Bios update landen und gut ist.

Echt warum so viele auf XMP Wert legen verstehe ich nicht.
 
Weil es eben viele Leute gibt, die sich damit nicht auskennen oder einarbeiten/auskennen wollen. Sprich einbauen, Profil laden und fertig.

Die Hobby Schwerpunkte liegen halt verschieden, manche zocken nur, manche bauen zusammen und zocken etc.
 
Zurück
Oben