Test Intel Coffee Lake im Test: Core i7-8700K, i5-8400, i3-8350K und -8100 vs. Ryzen

Wie gesagt, XMP raus und manuell rein. Bei mir hats Wunder bewirkt obwohl es dann dieselben Settings waren.
 
SKu schrieb:
Hier mal der integrierte Benchmark von Origins:

WQHD:

Anhang anzeigen 648818
Anhang anzeigen 648819
Anhang anzeigen 648820

FullHD:

Anhang anzeigen 648823

Welche Einstellungen verwendest du für den FullHD Test?
Und deine WQHD Anhänge kann man nicht aufrufen^^
 
Esenel schrieb:
Welche Einstellungen verwendest du für den FullHD Test?
Und deine WQHD Anhänge kann man nicht aufrufen^^

Das sind die gleichen Settings wie in WQHD. Extrem hoch als Preset, Tessellation und Schatten manuell auf hoch statt maximalem Setting gesetzt. Dazu Adaptives AA auf 60fps aktiviert (benötigt mehr VRAM).

Gestern gingen die Screenshots noch. Keine Ahnung, was da schief gelaufen ist. Da waren die Settings auch bei WQHD abgebildet.


ACOrigins_2017_10_29_00_35_02_541.jpgACOrigins_2017_10_29_00_35_15_834.jpg
 
Zuletzt bearbeitet:
SKu schrieb:
Das sind die gleichen Settings wie in WQHD. Extrem hoch als Preset, Tessellation und Schatten manuell auf hoch statt maximalem Setting gesetzt. Dazu Adaptives AA auf 60fps aktiviert (benötigt mehr VRAM).

Gestern gingen die Screenshots noch. Keine Ahnung, was da schief gelaufen ist. Da waren die Settings auch bei WQHD abgebildet.


Anhang anzeigen 649098Anhang anzeigen 649099

GPU Auslastung war zwischen 71-96%.
Das System kommt ordentlich ins schwitzen.
20171029_004545.jpg

Morgen kann ich mir dann mal deine CPU-Todesstadt ansehen.
 
Esenel schrieb:
Deine Timings sind viel zu hoch.
Lass dir hier vom Kollegen 1usmus helfen.

Die Timings sind händisch @1usmus eingestellt.

Sind 3000 MHz Corsair LPX Sticks, Dual Rank mit Micron Chips - mehr geht bei denen im Moment nicht. Für Samsung B-Die´s bin ich zu geizig, für die zwei Rigel hab ich letztes Jahr grad mal 77 € bezahlt, für die Kohle bin ich zufrieden mit denen.

@SKu

Könnte auch mit dem Infinity Fabric zusammenhängen. Der skaliert ja mit dem RAM-Takt und je höher der RAM-Takt desto niedriger fällt die Latenz aus.

Mit steigendem Takt muss man mit den Timings rauf und somit egalisiert sich die Gesamtlatenz.
Bei 3000MHz und CL 15-16-16-16-34 hab ich 78ns, also innerhalb der Messtoleranz würd ich sagen.

Mich wundert nur das bei den Intels, trotz geringer Speichergeschwindigkeit, die Gesamtlatenz immer deutlich besser ist.
Sieht man ja schön bei StefVR, Speichergeschwindigkeit etwas schlechter, Latenzzeit aber gute 40% besser.
War bei den Kaby Lakes genauso.
 
SKU, da muss ich dir widersprechen.

Sobald die GPU Load < 98% beträgt hat man ein CPU Limit, natürlich nicht wenn man mit einer 1080Ti 60Hz und Vsync on spielt.

Bei Destiny 2 kann ich auf 720p und Low spielen und die FPS droppen noch immer massiv unter 100. Die GPU geht dabei flöten. Absolut massiv wie mein Rechner in den Schlachten in die Knie geht.

HisN hat ja bereits bewiesen dass ein CPU Limit auch bei bereits 50% CPU Util auftritt.

Mich wundert es, das noch niemand darüber berichtet hat.
 
Zuletzt bearbeitet:
Esenel schrieb:
GPU Auslastung war zwischen 71-96%.
Das System kommt ordentlich ins schwitzen.
Anhang anzeigen 649100

Morgen kann ich mir dann mal deine CPU-Todesstadt ansehen.

Und wir sehen, da beide Ergebnisse identisch sind, dass der limitierende Faktor die CPU ist. Aber auch ein 8700K schafft es nicht die 1080 Ti in dem Bench voll auszulasten. Und in Alexandria sowieso nicht.
Ergänzung ()

t3chn0 schrieb:
SKU, da muss ich dir widersprechen.

Sobald die GPU Load < 98% beträgt hat man ein CPU Limit, natürlich nicht wenn man mit einer 1080Ti 60Hz und Vsync on spielt.

Bei Destiny 2 kann ich auf 720p und Low spielen und die FPS dropped noch immer massiv unter 100. Die GPU geht dabei flöten. Absolut massiv wie mein Rechner in den Schlachten in die Knie geht.

HisN hat ja bereits bewiesen dass ein CPU Limit auch bei bereits 50% CPU Util auftritt.

Mich wundert es, das noch niemand darüber berichtet hat.

Nö, so einfach ist das nicht. CPU-Limit existiert dann, wenn bei niedriger Auflösung die FPS nahezu identisch bleiben wie hier bei Origins. Die GPU wird entlastet, die CPU mehr belastet. Bei Evil Within 2 steigen die AVG FPS aber um über 100% an. Also, warum steigen die FPS so massiv an in dem Spiel bei 720p, wenn in 1440p die GPU nicht limitiert? Die CPU kann in dem Fall gar nicht der limitierende Faktor sein. Oder anders ausgedrückt: In 720p, dort wo die CPU limitiert und man im Endeffekt die FPS sieht, die die CPU liefern kann, fallen höher aus als die FPS in 1440p, obwohl die GPU nicht voll ausgelastet wird. Also muss die Engine ein Problem mit CPU/GPU-Utilization haben, wenn VSYNC nicht aktiv ist und auch das RAM nicht voll läuft. Es gibt ja keinen Grund, warum die GPU da nicht auf 99% laufen sollte. Tut sie aber nicht und die Foren sind voll davon - gerade mit NVIDIA GPUs. Entweder NVIDIA hat ihren Treiber versaut oder aber die Engine ist Murks.
 
Zuletzt bearbeitet:
Du sprichst also in deinem Beispiel davon, dass die CPU 150 FPS schaffen würde, die Bildrate aber nur 100 beträgt und die GPU dabei nur zu 70% benutzt wird, als Beispiel.

Bei Destiny 2 schafft die CPU nur 85 FPS in manchen Szenen, brutal. Spielt hier niemand D2 mit einem Ryzen?
 
t3chn0 schrieb:
Du sprichst also in deinem Beispiel davon, dass die CPU 150 FPS schaffen würde, die Bildrate aber nur 100 beträgt und die GPU dabei nur zu 70% benutzt wird, als Beispiel.

Bei Destiny 2 schafft die CPU nur 85 FPS in manchen Szenen, brutal. Spielt hier niemand D2 mit einem Ryzen?

Ja, davon spreche ich. Also kann die CPU ja in der Situation nicht der limitierende Faktor sein. Wenn sie es wäre, dann würde ich in der geringeren Auflösung und mit noch geringerer GPU-Auslastung nicht mehr FPS sehen.

Ne, Destiny 2 ist ja schon mit Release tot. Grinding-Shooter halten nicht lange durch.
 
t3chn0 schrieb:
SKU, da muss ich dir widersprechen.

Sobald die GPU Load < 98% beträgt hat man ein CPU Limit, natürlich nicht wenn man mit einer 1080Ti 60Hz und Vsync on spielt.

Bei Destiny 2 kann ich auf 720p und Low spielen und die FPS droppen noch immer massiv unter 100. Die GPU geht dabei flöten. Absolut massiv wie mein Rechner in den Schlachten in die Knie geht.

HisN hat ja bereits bewiesen dass ein CPU Limit auch bei bereits 50% CPU Util auftritt.

Mich wundert es, das noch niemand darüber berichtet hat.

Hi,
Habe auch eine Ti und laufe bei 100-120 fps (auch Schlachten)
Allerdings habe ich den 8700k, vermutlich bringt das den Unterschied ...?
Die CPU läuft aber nur auf ca 40% utilization.
(ultra, WQHD)
 
Das "magische" Limit, wenn die CPU nicht ausgelastet wird, aber auch die GPU nicht,
besteht entweder aus einem API Limit, oder einem Plattformlimit (zu hohe Latenz der CPU-Caches/ i/O im Allgemeinen (DMI,PCI), des RAMs oder der SSD/HDD).
Das ist auch der Grund, warum ein rechenleistungsstärkerer 1700X oder 1800X in Spielen trotzdem zumeist die niedrigeren Framezahlen liefert.
Die Latenzen tun ihm weh... (sowohl CCX als auch RAM). Wenn die wie beim Kaby- Lake auch bei um die 40NS/9NS lägen, dann hätte das Ding bei Spielen einen ganz anderen Zug...

Und da liegt auch das Verständnisproblem einiger hier. Auch zukünftige Software kann diese Latenz nicht verringern oder egalisieren. Die anderen Rechenwerke können zwar mehr Aufgaben im Bereich Physik, Positioning etc. übernehmen. In den endgültigen min/max/avg FPS wird er immer langsamer sein.
Er kann per Design die hohen Framezahlen nicht liefern.

Die Intel Architektur unterliegt dann, wenn die Kernlast soweit ansteigt, dass der Renderthread bzw. der Thread, der alle Informationen sammelt und zum vollständigen Frame zusammensetzt auch andere Aufgaben zwangsaufgebrummt bekommt und somit eingebremst wird. Der Ryzen kann dem Renderthread viel länger andere lästige Aufgaben vom Hals halten, indem er sie auf unausgelastete Kerne schiebt.

In diesen Szenarien liefert der Ryzen ein beständigeres Leistungsbild.
Meine Meinung ist ja auch, dass es bei künftigen Spielen gerne erlaubt ist, im Zuge einer besser simulierten Umwelt, Physiksimulation etc. mehr Rechenzeiten zu verbraten.

Insofern begrüße ich die Einführung mehr Rechenkernen.
Mehr Rechenkerne ist aber nicht gleichbedeutend mit mehr Rechenleistung in allen Lebenslagen.
Und so wird es immer dargestellt. Kern dazu und Ei drüber.
So funktioniert das aber nicht.

Grüße
Zero
 
Zuletzt bearbeitet:
@ZeroZerp

Klasse formuliert!
 
Ich stelle mir nun zunehmend die Frage, ob ich mir einen 8700K hole, oder einen 7820X.

Die Kosten beim X299 sind in etwa 120€ höher was meiner Meinung nach verschmerzbar ist. Die Boards kosten in etwa gleich viel, die CPU kostet 550€ zu 410€ , das Board 290€ (Z370) zu 270€ (X299).

Ich habe jetzt diverse Benchmarks gesehen, wo der 7820X schneller ist, als ein 8700K, beide Default. Ein 8700K lässt sich meißtens auf 4.8-5.0Ghz takten, ein 7820X auf 4.6-4.7Ghz.

Der 8700K hat eine minimal höhere IPC (nur 2-3 Punkte im Single Thread) bei gleichem Takt.

Ich habe 4x8GB DDR4-4000 , könnte den Quad Channel also optimal nutzen. Der 8700K verbraucht weniger Energie, hat 6C/12T, der 7820X 8C/16T.

Ich tendiere eher zum 7820X, ABER, laut der Roadmap kommt im Q2/2018 der Coffeelake-S mit 8C/16T. Bedenke ich da noch die Taktfreudigkeit vom 8700K und wende dass darauf an, dann ist die Z370 Plattform eine modernere Alternative.

Doch, was ist, wenn der Z370 diesen gar nicht mehr unterstützt ? Fragen über Fragen.

Hier haben ja auch viele geschrieben, dass Zen2 im Frühjahr kommt, laut Roadmap jedoch erst Q1/2 - 2019, was für mich auch Sinn macht.

Mich wundert es, dass so viele den 7820X gar nicht auf dem Schirm haben. Liegt das nur am Preis? Denn rein von der Leistung her ist die CPU schon wirklich schnell. Mit Allcore 4.5Ghz liefert sie sich auch in der Productivity ein Kopf an Kopf rennen mit einem TR 1920X @ 4Ghz Allcore.
 
Skylake X ist verschrieen, und letztlich für die allermeisten zu teuer. Der 7800 für 350,- ist wie ich meine tatsächlich sinnfrei (AMD ist da deutlichst interessanter, va mit dem 1600x oder eben dem 8-Kerner 1700x) , und wie viele sind schon bereit 540 Euro für eine CPU auszugeben? Außerdem darf man natürlich nicht eines der teuersten x370-Bretter mit einem "mittleren" x299 vergleichen, wenn man die Plattformkosten hochrechnet. Gute x370-Boards bekommt man für ca. 150,- Euro, die günstigsten x299 gehen in Richtung 200, die ersten "besseren" kosten ca. 230 bis 250 Euro. Und das ist ein massiver Preisunterschied. Mir geht es aber ähnlich. Wenn man in Kombination hohe Taktraten mit 8 Kernen kombinieren möchte, ist der 7820 tatsächlich eine Alternative. Muss man eben alles durchrechnen und schauen, ob das für einen selbst das Richtige ist.

Ich tendiere eher zum 7820X, ABER, laut der Roadmap kommt im Q2/2018 der Coffeelake-S mit 8C/16T. Bedenke ich da noch die Taktfreudigkeit vom 8700K und wende dass darauf an, dann ist die Z370 Plattform eine modernere Alternative.

Warten kann man immer. Näher scheint überdies Zen+. Man kauft einfach dann, wenn man etwas "braucht". Ist Dir jetzt alles zu langsam, dann kaufe jetzt. Warten hat sich noch nie gelohnt.
 
Zuletzt bearbeitet:
Soweit ich weiss ist in vielen anwendungen der 7820 langsamer vor allem wenn du pech hast und das mesh nicht hoch uebertakten kannst. 100% glaubwuerdige tests zu dem thema mesh oc habe ich aber noch nicht gesehen. Viele sagen halt durch mh oc die lagenznachteile mitigieren zu koennen. 8700k vs 7820x hat fast nur was mit dem cache und mesh vs ringbus zu tun. Und zumindest stock hat der 7820x besonders bei spielen und anwendungen die niedrige latenzen erfordern spuerbare nachteile, die auch nicht durch das quadchannel ram ausgeglichen werden.
 
Ja aber langsamer wenn die anwendung eben nicht skaliert aufgrund der mesh cahce struktur. Im prinzip ist der Vergleich aehnlich wie 8700k zu ryzen 8 core nur das hier die unterschiede kleiner sind bzw der 7820sich eher absetzen koennen wird. Wenn man den Preis aussen vor lesst ist die entscheidung sehr schwierig. Ich fand die leistungseinbuessen bei spielen in der gesamten x299 architektu4 aber sehr abschreckend bei den anfangstests, was bei mir dann auch zum 8700k kauf gefuehrt hat.
Das neue assasins creed waere mal ein guter verhleich zwischen 7820x vs 8700k
 
Auch interessant, die PCGH hat die Kernskalierung in Destiny 2 getestet.

Das Spiel skaliert sogar bis 8C/16T. Als Basis wurde ein R7 1700 @ 3Ghz verwendet.

Was mir besonders auffällt sind halt nicht nur die AVG-FPS sondern die Latenzen. Die sind auch bei 4C/8T deutlich schlechter und mit deutlich mehr Spikes versehen als bei 6/12, noch besser dann mit 8/16.

http://www.pcgameshardware.de/Desti...Destiny-2-PC-Technik-Test-Benchmarks-1241945/

Also ich habe mir gestern sehr viele Videos und Reviews angeguckt. Eigentlich liegen 8700K und 7820X immer sehr dicht beisammen. Manchmal ist der 8700K etwas schneller, wenn Spiele nur 4 Kerne benutzen, bei Spielen die über mehr Kerne skalieren z.B. Witcher 3, ist der 7820X auf einmal ein gutes Stück schneller.

Immerhin taktet der 7820X default auf SC: 4.5 Ghz und AC: 4.0 Ghz.

4.5Ghz AC macht eigentlich jeder mit. Ich denke mal 70% machen 4.6 Ghz, 40% 4.7Ghz und dann geht es halt rapide runter.
 
Naja, man kann es sich auch schwieriger machen als es ist. Der Umstieg auf Mesh bedeutet einen minimalen IPC-Leistungsrückgang im Vergleich zum Vorgänger (Broadwell-E). Der Grund dafür, dass Coffee Lake so schnell in Spielen ist, ist eigentlich simpel: die Architektur ist bis zum letzten ausgequetscht, um möglichste hohe Taktraten zu ermöglichen. Man muss sich doch nur mal ansehen, wie die Taktraten bei Skylake X ohne Übertaktung aussehen, und schon hat man es verstanden. Löst man dort die Bremse (und da ist prozentual sogar mehr drin als beim Overclocking-Wunder Coffee Lake, insbesondere beim niedrig taktenden 7800!), relativiert sich das auch wieder. Gerade für Übertakter ist mE Skylake X sogar spannender als die 200MHz-Babyschritte von Coffee, die man so geil findet, weil man dann bei oder knapp oberhalb 5GHz liegt. Alles Psychologie. ;)

Immerhin taktet der 7820X default auf SC: 4.5 Ghz und AC: 4.0 Ghz.

4.5Ghz AC macht eigentlich jeder mit.

This
 
Zuletzt bearbeitet:
Zurück
Oben