Test Intel Coffee Lake im Test: Core i7-8700K, i5-8400, i3-8350K und -8100 vs. Ryzen

Also ich muss sagen, krass was Destiny 2 für Anforderungen an die CPU stellt.

Vor allem bei "Öffentlichen Events" . Ich spiele auf "High" Texturen auf "Highest" und DOF+Motion Blur "OFF".

In den Öffentlichen Events geht es dann von 160-200 FPS runter auf 89 FPS und diese Drops fühlen sich schon extrem grausam an. Parallel dazu sinkt die GPU Last auf 62% oder tiefer.

Ich weiß nicht wie man hier die FPS deutlich steigern könnte. Keine Ahnung ob das Spiel mehr Kerne/Threads, Takt oder IPC benötigt. Aber ein 6700K @ 4.7 Ghz + 1080 Ti @ 2Ghz und 3866Mhz CL16 reichen bei weitem nicht aus um dauerhaft smoothe 120 FPS+ zu erreichen.
 
t3chn0 schrieb:
Also ich muss sagen, krass was Destiny 2 für Anforderungen an die CPU stellt.

Vor allem bei "Öffentlichen Events" . Ich spiele auf "High" Texturen auf "Highest" und DOF+Motion Blur "OFF".

In den Öffentlichen Events geht es dann von 160-200 FPS runter auf 89 FPS und diese Drops fühlen sich schon extrem grausam an. Parallel dazu sinkt die GPU Last auf 62% oder tiefer.

Ich weiß nicht wie man hier die FPS deutlich steigern könnte. Keine Ahnung ob das Spiel mehr Kerne/Threads, Takt oder IPC benötigt. Aber ein 6700K @ 4.7 Ghz + 1080 Ti @ 2Ghz und 3866Mhz CL16 reichen bei weitem nicht aus um dauerhaft smoothe 120 FPS+ zu erreichen.

Ist deine CPU Auslastung dann wirklich 100%? Bzw. steigt die Auslastung merklich wenn du in die Nähe solcher Events kommst?
Oder kann der Game Server einfach nicht mehr Input an deinen Rechner liefern?
 
Zuletzt bearbeitet:
So neuer Speicher ist da und laeuft xmp soweit stabil 3600 MHz 16 16 16 36. Sind 4 mal 8 gb module. Jetzt laeuftverstmal das Windows arbieitsspeicherdiagnosetool.

Aida64 Test ist ist schonmal erwartungsgemäß aber ich hoffe da geht noch was :
Anhang anzeigen 649058


dann noch ne Stunde realbench und wenn alles gut ist Dreh ich noch bissi am tot oder zieh die Latenz Schrauben
 
Du weisst aber schon wie man richtige Screenshots macht, oder? :D

Drucktaste -> in Paint einfügen (oder ALT + Drucktaste, dann wird nur das aktive Fenster aufgenommen). :)
 
Esenel schrieb:
Ist deine CPU Auslastung dann wirklich 100%? Bzw. steigt die Auslastung merklich wenn du in die Nähe solcher Events kommst?
Oder kann der Game Server einfach nicht mehr Input an deinen Rechner liefern?

Wenn deine GPU-Load < 98% beträgt, hängst du faktisch immer im CPU-Limit, da die GPU nicht mehr mit genug Daten versorgt werden kann.

Das Spiel ist wirklich ein CPU-Killer, hätte ich nicht gedacht. Bei WoW (welches ich nie gespielt habe) verhält es sich wohl bei "Raids" ähnlich, dass auch dort die Leistung massiv einbricht.
 
Da braucht aber GTA5 aber teilweise mehr Leistung auf der CPU, wenn es trotz runtergedrehter Sichtdistanz (CPU-Fresser) von um die 80 auf 45FPS dropt. Das nervt! Dann wären das beim 8700K geschätzt von 90-100FPS runter auf 50-55. Aber je nach Situation ist V-Sync an und dann sind die Drops auch "smoother". (OMG, Denglisch! :rolleyes: ) Und Hintergrundkrinte kann auf vom Spiel unbenutzten CPU-Bereichen berechnet werden.
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Wenn deine GPU-Load < 98% beträgt, hängst du faktisch immer im CPU-Limit, da die GPU nicht mehr mit genug Daten versorgt werden kann.

Nein, das ist nicht automatisch so. Kann man derzeit auch bei The Evil Within 2 sehen. Da wird nicht einmal der Mainthread richtig ausgelastet (Ryzen R7 50%) und die GPU wird trotzdem limitiert. Reduziert man nun die Auflösung und deaktiviert die exklusiven GPU-Features, steigt die Frame-Rate. Ergo, limitiert die CPU nicht in der höheren Auflösung. Ansonsten würden die Frames nicht in der geringeren Auflösung ansteigen. Das Problem ist die Engine bzw. die Utilization der CPU und GPU. Das funktioniert nicht richtig. Pauschal kann man nicht sagen, dass wenn die GPU-Auslastung < 98% beträgt, dass die CPU limitiert. Theoretisch haben wir auch noch andere Faktoren:

-VSYNC ist aktiv.
-Speicher läuft voll (VRAM/RAM)
-Speicherbandbreite der GPU limitiert

Aber in dem Fall ist es die Engine an sich. Und darauf hat man als User keinen Einfluss.
 
Bei GTA5 gab es Grafikkartenlimit schon teilweise bei ca. 94% Auslastung. Vielleicht ist da die Speicherbandbreite die Krücke gewesen. Diese 94% Auslastung gab es damals mit Gras auf sehr hoch/Ultra auf 780, 980 und 980TI.
 
Mal so ne Frage am Rande,
warum hab ich mit dem Ryzen bei 3333 RAM Takt einen höheren Lese- und Kopierdurchsatz als der Coffe Lake bei 3500 aber ne miesere Latenz? Was machen beide Architekturen anders, oder liegt´s an Aida?

cachemem 3333 1701.png
 
@t3cnho
Ja WoW bricht ein, weil es nur 2 Threads anspricht.
Dort brauchst nen guten Kaby oder CL.
Mein 4770k @ 4.5ghz hatte im Raid Drops auf 45-50fps.

@stefvr
Versuch mal das Zeug manuell einzustellen auch wenns dieselben Werte vom XMP sind.
Bei mir brachte das Leistung.. Da anscheinend Xmp verbugged ist.

@ AC Origins.
Ich hab da eher das Problem, dass meine Graka dicht macht.
Sehr hoch, 1440p, AA auf mittel, schatten auf hoch runter, Ambient 1x runter, charakter detaila 1x hoch.

An manchen Stellen habe ich 60-65fps only und die Graka ist @99%, CPU auf 40-50%. In der Wüste, wo nix abgeht dann mal 120fps samt GPu limit.
Was lustig ist, dass die CPU wärmer wird als in Cinebench und BF1 mp 64p obwohl sie meist bei ca 50% Auslastung liegt und ich wegen der Graka "low fps" habe.
 
Ich hatte vergessen umzustellen. Lief also kot den alten Werten. Leider laeuft bisher der neue Speicher nicht wie gehofft. Hatte sogar Windows freeze im normalen xmp. Habe jetzt die Volts leicht angehoben. Mein System laeuft langsam am Limit...
 
Warum machst du auch Vollbestückung bei so nem hohen Takt?

Es sagen zwar manche, das sei nicht mehr so eng zu sehen. Aber wenn man die CPU bei 5,2GHz hat und dann noch sowas, geht das wohl schon hart auf den Speicher-Controller.
 
Zuletzt bearbeitet:
cookie_dent schrieb:
Mal so ne Frage am Rande,
warum hab ich mit dem Ryzen bei 3333 RAM Takt einen höheren Lese- und Kopierdurchsatz als der Coffe Lake bei 3500 aber ne miesere Latenz? Was machen beide Architekturen anders, oder liegt´s an Aida?

Anhang anzeigen 649076

Deine Timings sind viel zu hoch.
Lass dir hier vom Kollegen 1usmus helfen.
Er hat nen RAM Timings Rechner für Ryzen geschrieben:
http://www.overclock.net/t/1624603/rog-crosshair-vi-overclocking-thread/29160

Aber ich glaube der RAM Controller bei Ryzen ist schlechter als bei Intel, oder?
Ich komme in die Region.
3466CL15@3950Mhz400HCI_AIDA_FAST.PNG

Die geringste Latenz habe ich bei 60 ns gesehen. (Nicht bei mir)
 
Ja wusste ich auch nicht. Bin auch mit meinem suboptimalen Ram unter 50 hab im Overclock.net einen 8700k mit 42er Latenz gesehen. Mein neues Ram ist tatsaechlich schlechter als das alte. Hatte sogar Windows haenger. Evtl liegts an den 2 vs 4 Modulen ka. Windows MemmTest hatte er bestanden, aber der Speicher geht zurueck. Vor allem bei dem Preis... Realbench ist fuer der bste Memory test. Aida64 und Super Pi gehen bei mir immer durch, aber Realbench steigt aus.
 
Zuletzt bearbeitet:
Verwende kein XMP. Stell die Werte manuell ein. Ein Versuch ist es Wert ;)

Was für Ram hattest du vorher?
 
cookie_dent schrieb:
Mal so ne Frage am Rande,
warum hab ich mit dem Ryzen bei 3333 RAM Takt einen höheren Lese- und Kopierdurchsatz als der Coffe Lake bei 3500 aber ne miesere Latenz? Was machen beide Architekturen anders, oder liegt´s an Aida?

Anhang anzeigen 649076

Könnte auch mit dem Infinity Fabric zusammenhängen. Der skaliert ja mit dem RAM-Takt und je höher der RAM-Takt desto niedriger fällt die Latenz aus.
 
Alter speicher ist 16 18 18 38 3466 zwei Module a 16GB RGB, die neuen sind vier 8 GB Module 16 16 16 16 36 3600 MHZ Trident Z schwarz. Beide Kits 1.35 Volts. Die neuen schaffen es teilweise nichtmal bis ins Windows im XMP Profil. Hab dann Schrittweise Volts zugefuehrt bis 1.38 ohne jeglichen Erfolg.

Die alten leuchten wenigstens lustig 80er Jahre Glow Style ;)

Dachte die high density 3466er mit krummen Timings waeren deutlich sclechter....
 
Zuletzt bearbeitet:
StefVR schrieb:
Alter speicher ist 16 18 18 38 3466 zwei Module a 16GB RGB, die neuen sind vier 8 GB Module 16 16 16 16 36 3600 MHZ Trident Z schwarz. Beide Kits 1.35 Volts. Die neuen schaffen es teilweise nichtmal bis ins Windows im XMP Profil. Hab dann Schrittweise Volts zugefuehrt bis 1.38 ohne jeglichen Erfolg.

Die alten leuchten wenigstens lustig 80er Jahre Glow Style ;)

Dachte die high density 3466er mit krummen Timings waeren deutlich sclechter....

Die 3466er sind keine Samsung B-Die.
Die 3600er schon:
https://www.hardwareluxx.de/communi...liste-alle-hersteller-25-10-17-a-1161530.html

Steck die 8er Sticks doch mal einzeln rein und lass HCI Memtest laufen, aber mit 2100 Mhz, nur um zu testen ob diese defekt sind?

8er sollten an sich einfacher zum übertakten sein.
 
Zurück
Oben