Test Intel Coffee Lake im Test: Core i7-8700K, i5-8400, i3-8350K und -8100 vs. Ryzen

rumpel01 schrieb:
Ich weiss gar nicht, wie man dazu kommt, hier so mit Extremen zu argumentieren.

So extrem war das gar nicht gemeint, wie es rübergekommen ist. Dass die Latenzen bei Skylake X schlechter sind, kann man jederzeit mit AIDA64 nachweisen. Spiele mögen niedrige Latenzen, deswegen laufen sie teilweise auf Skylake X schlechter.

rumpel01 schrieb:
Ein 8700k mit bis zu 4,7GHz Turbo (alle Kerne 4,3GHz) (ist im 720p-Rating ca. 20 Prozent schneller als ein ein 7800x (3,5GHz Grundtakt, 4GHz Turbo): https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/5/ Jetzt kann sich jeder ausrechnen, wie hoch der Taktunterschied ist

Wenn man den 7800X um 20 % übertaktet, legt er in Spielen aber nicht um 20 % an Performance zu. Der Zugewinn ist geringer, da das Mesh bremst. Das muss mit übertaktet werden, aber das lässt sich halt nicht so hoch takten. Der 8700K hat ja um die 4,8 GHz auch eine Wall, wo die Performance trotz OC nicht mehr steigt, weil der Cachetakt mit angehoben werden muss. Die schneller getaktete CPU kann sonst trotz ihres hohen Taktes nicht schneller rechnen, weil sie auf den langsameren Ringbus wartet, über den sie mit Daten versorgt wird. Ich habe mal ein Video von Hardware Unboxed gesehen, wo der 7800X, der bis ans Blut übertaktet wurde, oftmals langsamer als Ryzen war. Bei Skylake X merkt man deutlicher als je zuvor, dass diese Architektur aus dem Serverbereich kommt und auf ganz andere Anforderungen hin entwickelt wurde.

rumpel01 schrieb:
Ja, Skylake X mit acht Kernen ist für Spieler (heute!) in dieser Form weniger gut geeignet als Coffee mit sechs, unbestritten, aber "schlecht" ist glaube ich kein passendes Urteil.

Objektiv gesehen ist sie natürlich nicht schlecht, wir bewegen uns halt schon auf einem sehr hohen Niveau. Die Spieleperformance von Ryzen wird jedoch auch von vielen als schlecht bezeichnet. Dann darf ich das bei Skylake X auch tun.;)

rumpel01 schrieb:
Moment, Threadripper ist eine im positiven Sinne irre Plattform, aber erst dann, wenn man bereit ist ca. 900 Öcken für die CPU hinzublättern und Verwendung für richtig viele Kerne hat, aber spätestens dann ist klar, dass das für einen Spiele-PC total unsinnig ist. Die Anschaffungskosten für die Plattform sind aber noch höher als bei Skylake X, unter 300 Euro geht da kein Board über die Ladentheke.

Es kommt natürlich auf den Anwendungsfall an. Die Threadripper-Mainboards sind teuer, aber die CPUs so günstig, dass man trotzdem das bessere Performance/$-Verhältnis hat, wenn alle Kerne genutzt werden und die "zusammengeklebten" Dies nicht bremsen. Der 1950X ist derzeit schon für 870 € zu haben. Der legt sich im x264-Encoding mit Intels 16-Kerner an, der viel teurer ist. Aus Preisleistungssicht muss man sich hier einfach das AMD-System kaufen, wenn man sein System hauptsächlich für Videoencoding auslegt.
 
D'accord, mit fast allem. :D Jedenfalls wird doch deutlich, dass die "Gitter"-Architektur zwar verlangsamt, aber nicht so weit, dass die CPUs abgeschlagen wie nichts wären.

Objektiv gesehen ist sie natürlich nicht schlecht, wir bewegen uns halt schon auf einem sehr hohen Niveau. Die Spieleperformance von Ryzen wird jedoch auch von vielen als schlecht bezeichnet. Dann darf ich das bei Skylake X auch tun.

Das ist bei Ryzen schon Unsinn, dann muss man sich an sowas auch nicht beteiligen. Verzerrt nur die Wahrnehmung.

Der 1950X ist derzeit schon für 870 € zu haben. Der legt sich im x264-Encoding mit Intels 16-Kerner an, der viel teurer ist.

Genau, aber hier sind wir doch in einem Segment, das hier niemand angesprochen hat. An dem möglichen Sinn und Zweck eines 7820, gemessen an Coffee Lake, ändert das nichts, da vollständig andere Preiskategorie.
 
Zuletzt bearbeitet:
Setzt der kommende Consumer 8C von Intel eigentlich auf Mesh oder Ring?

Kann gut sein, dass der 8700K erstmal die schnellste CPU auf längere Sicht ist wenn es die letzte CPU mit Ringbus sein sollte und Intel nur noch auf Mesh setzt. Denke nicht dass die weiterhin 2 gleisig fahren werden.
 
Dai6oro schrieb:
Setzt der kommende Consumer 8C von Intel eigentlich auf Mesh oder Ring?

Kann gut sein, dass der 8700K erstmal die schnellste CPU auf längere Sicht ist wenn es die letzte CPU mit Ringbus sein sollte und Intel nur noch auf Mesh setzt. Denke nicht dass die weiterhin 2 gleisig fahren werden.

Ich würde sagen, das hängt davon ab, inwiefern die CPU mit Ringbus im Vergleich zu Mesh in der Herstellung kosten wird. Wenn Mesh günstiger sein sollte, werden die CPUs auch damit kommen.
 
Also wenn ich mir die Roadmap angucke, dann sieht es mit S1151 so aus, als würde der 8/16 auch nochmal auf den Ringbus setzen. Ist jetzt einfach mal eine Vermutung.
 

Anhänge

  • Roadmap-pcgh.png
    Roadmap-pcgh.png
    108,3 KB · Aufrufe: 476
Nicht zu vergessen, welchen Takt können 8 Kerne fahren bei welcher Leistungsaufnahme und welchen Temperaturen. Irgendwie ist da der 8700k das rundere Paket (und bald in meinen Händen)
 
So mal eine Übersicht:

FullHD (sku-Settings):

1700X Stock, RAM Stock (2133) @ CL15 (Ich hoffe da hat das Bios auch Stock übernommen :-D )

73 FPS
20171029_172748.jpg

OC:
96 FPS (~ +31%)
20171029_004545.jpg


Und in WQHD:
82 FPS
20171029_170051.jpg
 
Trotz der Begeisterung über die Kernnutzung bleibt der Tatsächliche Gewinn aber ziemlich auf der Strecke:

Ryzen OC (vom Post über mir)
20171029_004545.jpg

6700k @4,5GHz vom AC Origins Thread
20171029_0045452.jpg

Also eine "Kernrevolution" und relevante Leistungssprünge sehe ich überhaupt nicht -> 4%?

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Also eine "Kernrevolution" und relevante Leistungssprünge sehe ich überhaupt nicht -> 4%?

Das fällt schon fast unter Messtoleranz :-D

Ich würde gern mal den 8700k von StefVR da drin sehen :-)
(Mit funktionierendem RAM)
 
Das Ding ist, und das war bereits bei Wildlands der Fall: Ein 6700K hat dort Micro-Stuttering verursacht. Ryzen nicht. Und auch hier gibt es kein Micro-Stuttering. Ist das mit dem 6700K auch der Fall? FPS alleine sind halt nicht viel wert. Das ist immerhin die gleiche Engine wie sie schon bei Wildlands zum Einsatz kam.
 
Zuletzt bearbeitet:
Irgendwie kommen immer die Spiele mit Benchmark, welche ich nicht spiele =/, doof.

Ich kann nur sagen, dass ich jetzt meinen 6700K @ 4.9Ghz laufen lasse und das hat die Frameraten in Destiny 2 spürbar verbessert. Dennoch gibt es je nach Gebiet das oben aufgeführte "Micro-Stuttering". Obwohl man 170 FPS hat, fühlt es sich ruckelig an, wenn man durch die Gegend guckt.
 
Was für Settings nutzt ihr beim AC O Benchmark? Dann lasse ich morgen oder so laufen.

WQHD , Very High (nichts angepasst) habe ich 8540 frames score / avg 70 fps / CPU 6ms / GPU 14ms

Die Graka ist am Limit, die CPU pendelt zw. 40-70% Auslastung rum im Benchmark.
Hab aber auch keine Ti mehr, sondern eben die 1080 mit den Taktraten aus der Signatur.

Ingame habe ich damit auch zw. 65-100+ FPS..habe nur 30min am Anfang oder so gespielt.
 
Caramelito schrieb:
Was für Settings nutzt ihr beim AC O Benchmark? Dann lasse ich morgen oder so laufen.

WQHD , Very High (nichts angepasst) habe ich 8540 frames score / avg 70 fps / CPU 6ms / GPU 14ms

Die Graka ist am Limit, die CPU pendelt zw. 40-70% Auslastung rum im Benchmark.
Hab aber auch keine Ti mehr, sondern eben die 1080 mit den Taktraten aus der Signatur.

Ingame habe ich damit auch zw. 65-100+ FPS..habe nur 30min am Anfang oder so gespielt.

Damit:
SKu schrieb:
Das sind die gleichen Settings wie in WQHD. Extrem hoch als Preset, Tessellation und Schatten manuell auf hoch statt maximalem Setting gesetzt. Dazu Adaptives AA auf 60fps aktiviert (benötigt mehr VRAM).

Gestern gingen die Screenshots noch. Keine Ahnung, was da schief gelaufen ist. Da waren die Settings auch bei WQHD abgebildet.


Anhang anzeigen 649098Anhang anzeigen 649099

Ist für mich in WQHD nur benchbar, aber ich muss AA noch eine Stufe runterstellen :-0
55-100 fps je nach Gebiet/Szene.
Da lob ich mir in so einem Spiel dann doch wieder G-Sync :-P
 
Caramelito schrieb:
Was für Settings nutzt ihr beim AC O Benchmark? Dann lasse ich morgen oder so laufen.

WQHD , Very High (nichts angepasst) habe ich 8540 frames score / avg 70 fps / CPU 6ms / GPU 14ms

Die Graka ist am Limit, die CPU pendelt zw. 40-70% Auslastung rum im Benchmark.
Hab aber auch keine Ti mehr, sondern eben die 1080 mit den Taktraten aus der Signatur.

Ingame habe ich damit auch zw. 65-100+ FPS..habe nur 30min am Anfang oder so gespielt.

Da kann aber was nicht passen, wenn Esenel mit dem 1700X und einer 1080 höhere avg FPS erreicht. Der Anfang, also Siwa, ist auch noch relativ harmlos. Richtig extrem empfand ich es in Alexandria in der großen Bibliothek. Aber ich bin auch schon weiter, mittlerweile Medjaj Kleopatras höchstpersönlich und bringe Gerichtigkeit über das Land. :D
Ergänzung ()

t3chn0 schrieb:
Irgendwie kommen immer die Spiele mit Benchmark, welche ich nicht spiele =/, doof.

Gäbe es einen Key für Destiny um die 20€, würde ich es kaufen. Aber bei dem Preis, den Activison/Blizzard da aufruft, kann ich gerne darauf verzichten. Das ist es mir einfach nicht wert für einen Grinding-Shooter.

Wolfenstein 2 könnte man noch benchen. Aber das läuft wohl selbst auf einer Kartoffel flüssig.
Ergänzung ()

Ubisoft soll angeblich bereits Informationen sammeln, um in einem kommenden Patch die CPU-Last verringern zu wollen. Mal gucken was dann für Ergebnisse dabei herumkommen.
 
Zuletzt bearbeitet:
Und ich wuerde eine Benchmark only Version fuer nen 10er kaufen.... habe nur null Interesse am Spiel selbst, ist einfach nicht mein cup of tea.
 
@sku
Ich bench mal mit den Settings, vllt. schafft adaptives AA Abhilfe und steigert die FPS.

Ansonsten mit sehr hoch und wqhd häng ich permanent im GPU Limit und die FPS steigern sich wenn ich die Grafik (zB AA) runtersetze.

Ne Frage zur Grafik: Findet ihr die sehr schön? Iwie passt mir was nicht. Andere Spiele gefallen mir weit besser.
Das war aber auch bei GRW so, dass mir das Ganze nicht sooo gefallen hat ^^
 
Caramelito schrieb:
Ne Frage zur Grafik: Findet ihr die sehr schön? Iwie passt mir was nicht. Andere Spiele gefallen mir weit besser.
Das war aber auch bei GRW so, dass mir das Ganze nicht sooo gefallen hat ^^

Es geht so.
Witcher 3 ist viel schöner.
Und da kann ich alles auf max spielen mit besseren Bildraten.
 
Also für mich sieht es so aus, als ob der 1600x noch immer die beste CPU ist, wenn man mit einen 60Hz Monitor spielt. Erst wenn sehr hohe fps gefragt sind, weil zB ein 120Hz Monitor verwendet wird, macht für mich ein 8700 wirklich Sinn. Wenn kommende Spiele es endlich schaffen, mehr als acht treads vollständig auszulasten, dann ist der amd 1600(x) sowieso eine gute Wahl im P/L Verhältnis.
.
 
Zurück
Oben