Test Intel Kaby Lake im Test: Elf Core i7, i5, i3, Pentium und Celeron im Vergleich

Ap2000 schrieb:
Gibts einen Grund, warum sie da die Bezeichnung etwas geändert haben?


Objektiv ist zumindest keiner erkennbar. Könnte sein, dass Intel damit eine neue CPU-generation vorgaukeln will, obwohl technisch gesehen Kaby Lake eigentlich kaum mehr als ein Skylake Refresh ist.

Aber i5-7600 K hört sich eben für den Außenstehenden irgendwie "neuer" (und somit "besser") an als z. B. i5-6750 K...:evillol:

Das wäre dann eine reine Marketing- und keine technisch hinterlegte Namenswahl.

LG N.
 
Hopsekäse schrieb:
@CB
Auffällig wie viel ihr CPUs testet zur Zeit...
Ich sage ihr habt schon ein oder mehrere Ryzen-Samples da und bencht die auch schon mit, die Ergenisse gibt es dann frisch eingebettet in diese aktuellen Tests.
Das ist wahrscheinlich, um nach Ablauf der Schweigepflicht schnell rauskommen zu können. Aber mit diesen fraglichen CPU Benchmarks? Hab irgendwie ein mulmiges Gefühl dabei.
 
anyone23 schrieb:
@Vanilla2001: Das ist eine Sache, die man sich auch nochmals näher anschauen sollte. Wobei der Test von Gamernexus hierbei nicht allzu praxisnah ist, da DDR4 bei 2133 Mhz anfängt und die Werte damit natürlich künstlich sind.

Ist doch aber perfekt um die Unterschiede zwischen den Generationen aufzuzeigen. Damit eliminiert man Vorteile die sich aus höherem Speichertakt ergeben. Alle Generationen können doch entspannt bei 4.0 oder 4.2GHz mit 2133MHz bzw. 2400MHz Ramtakt laufen. Der 7700K hat doch einen DDR4-2400MHz Speichercontroller, ohne Overclocking.

Wenn man möchte kann man dann ja noch das Maximum ausloten. Das ist ja dann nur rechnerisch 10% mehr !?
 
@Syfsyn

Die Tests von Digital Foundry sind hier nicht surreal oder so, natürlich kann der 2500k noch vieles über den Takt stemmen aber was bringt es dir wenn du z.B Tore wie Ronaldo machst und aber im Endeffekt in der Kreisliga spielst weil die restliche Mannschaft nicht so gut ist wie du es bist?

Genau hier ist das Problem, Sandybridge wird durch den Speicher und des alters limitiert. Deswegen ist ja der Test von Digital Foundry ein "max support settings Test" um zu Zeigen das die Plattform altert und irgendwann auch limitiert.

Das schlägt sich natürlich doppelt aus, wenn wie in diesem Test IPC+ höherer Speichertakt zusammen kommen.

Dabei muss man aber schon zugeben das ein Sandybridge mit 2133 (800 MHz über dem Normaltakt) schon echt eine Wucht sind, wohin gegen bei Kabylake in der Regel nach 600 MHz Schluss ist.
 
Jan schrieb:

Bitte darauf achten, dass eure Benchmarks nicht alle im GPU-Limit sind. Selbst in 720p liegen zwischen 2500k und 7700k nur 9% in Witcher3. Alleine der Takt ohne IPC Vorteil machen hier >20% aus. Dazu kommen noch 20% IPC. Klares GPU-Limit. Abgesehen von den AMD FX Krücken kann man ja hier mit dem Lineal praktisch eine gerade Linie ziehen => GPU-Limit.
 
Das ist also das Setup mit dem Ryzen getestet wird?! Nur 2 vom 6 Spielen sind eher CPU-lastig. Und dazu sind sie mehr Takt als Kernfordern.
Dann wird wohl das neue Dogma lauten
4 schnelle Kerne reichen, Die Ryzen Benchmarkleaks waren Fake und sollten nur hypen. CB hat es bewiesen, hier das Performancerating...
Aus persönlicher Sicht reicht mein i3-6100 auch dicke. Aber ich bin auch ein 'FHD@High-Offline-Singleplayer-fps_egal_hauptsache_flüssig und lagfrei-Gamer', und ich muss meinen Rechner nicht zwölfundrölfzig Dinge parallel abarbeiten lassen. Zudem habe ich nur eine RX470 und keine TitanXP-SLI im System... aber dafür sind doch eigentlich die Benchmarks da, um das maximal Machbare aufzuzeigen.

Ich hoffe doch, daß zum Ryzen-Test am Gaming-Parcour gearbeitet wird.
Die bisherigen, und zu erwartenden Clicks zum Thema CPU sollten doch motivieren, dem Ganzen ein wenig mehr als Üblich auf den Zahn zu fühlen.;)

edit: Mist, hatte noch keine Kommentare gelesen und gerade Ge3ckos Zitat (über mir) zurück verfolgt. Hab ich wohl zu früh gemeckert :D
 
Zuletzt bearbeitet:
Willi-Fi schrieb:
Ich weiss nicht so recht. Die Profi-Gamer greifen direkt zum 2011-3 Sockel und haben mehr FPS.

Falls du mit "Profi-Gamer" Streamer meinst: Die brauchen das Mehr an Kernen aber auch nur, weil sie viel Videobearbeitung machen und aufnehmen. Ansonsten reicht ein hochgezüchteter 4-Kerner für quasi alles.
Was heute allerdings immer weniger Gültigkeit hat ist die Aussage, dass die meisten Spiele mehr als 4 Kerne gar nicht nutzen können. Nur trägt ein Kern idR immer noch die Hauptlast und damit ist ein hochtaktender 7600K eben besser als ein 6- oder 8-Kerner. Würde man die auch hochtakten, wären sie sicher besser als die Vierkerner, aber für den normalen Gamer, der in FHD spielt und bestenfalls 'ne GTX 1070 betreibt, wären so viele Kerne nur zum Spielen unnötig.

Btw: Was mich immer wieder erstaunt ist, dass sich die X700K so viel besser verkaufen wie die X600K. Schließlich zahlt man da mehr als 100€ Aufpreis nur für HT und 2 MB mehr L3 Cache. Man sieht im P/L-Diagramm ja auch, dass der i5 K da viel besser da steht wie der i7 K - und wenn man sowieso übertaktet, dann wird der i5 vermutlich sogar noch besser da stehen. Und dennoch wird der i7 deutlich häufiger gekauft.

Die anderen Seiten reden von FPS Einbrücken bei der Kombo von Pentium mit Hyperthreading und AMD Grafikkarten.
Echt? Das ist schade, für 'nen günstigen Gaming-PC wäre der Pentium + RX 470 ja sonst 'ne gute Wahl.

Witcher 3 :Release Sommer 2015
Total War Atila: Release Februar 2015
Assassin’s Creed Unity: Release November 2014
Call of Duty: Advanced Warfare: Release November 2014
F1 2015: Juli 2015
GTA V: September 2013

Über den Test freut sich doch jeder, der schon gekauft hat. Aber wenn jemand heute Aufrüsten will, dann kann man sich nicht daran orientieren.
Das stimmt. CB sollte den Testpacour mal wieder erneuern. Aber dadurch, dass sie den jetzt 'ne ganze Weile so belassen haben, hat man immerhin ein großes Feld an CPUs in den Tabellen. Wenn sie den Testpacour überarbeiten, würden auf jeden Fall einige ältere CPUs rausfliegen. Ich jedenfalls finde es ganz nett, dass bspw. der FX 8350 noch vertreten ist.
 
Zuletzt bearbeitet:
Lustig wie miserabel die aktuellen AMD CPUs in den Benchmarks abschneiden. :)

Mal sehen, ob sich vielleicht mit Ryzen mal was ändert.
 
Hopsekäse schrieb:
@CB
Auffällig wie viel ihr CPUs testet zur Zeit, wo doch bald ein großer Vergleichstest anstehen sollte.
Ich sage ihr habt schon ein oder mehrere Ryzen-Samples da und bencht die auch schon mit, die Ergenisse gibt es dann frisch eingebettet in diese aktuellen Tests.

neofelis schrieb:
Das ist wahrscheinlich, um nach Ablauf der Schweigepflicht schnell rauskommen zu können. Aber mit diesen fraglichen CPU Benchmarks? Hab irgendwie ein mulmiges Gefühl dabei.

… und damit werden unter Garantie diese vollkommen an den Haaren herbeigezogenen … ehm … "Ergebnisse" sang- und klanglos und frohen Mutes in späteren Tests Verwendung finden. Ein Schelm, Wer Böses dabei denkt …


In diesem Sinne

Smartcom
 
bumbklaatt schrieb:
*Hier bitte "da kann ich meinen i5/i7 XXXX noch viele Jahre nutzen"-Post einfügen*

Da kann ich meinen Xeon noch viele Jahre nutzen

:p

Ich persönlich schau mir lieber Anwendungs Ergebnisse an und da sieht man halt wie es aussieht. Im Grunde erhält man bei Intel einfach mehr IPC was die Gesamtleistung natürlich hochzieht was sich wohl minimal bemerkbar macht. AMD ist so kacke wie eh und je bei Games weil IPC halt fürn Po, ist klar das Intel da mit doppelt so guter IPC mit AMD ganz locker den Boden wischt. Da brauche ich keine extra Game Tests.
Im Multi ziehen sie halt noch bedingt mit aber disqualifizieren sich halt durch den Stromverbrauch und die Hitze, und preislich siehts auch nicht top aus, kein Wunder das sie mit CPUs Verlust fahren. Den Schrott will eben keiner.
Im Grunde hängt es für sie von der IPC ab und wenn sies auf HAswell Niveau geschafft haben wäre das mal ein großer Sprung, Intel die Krone klauen werden sie aber eh nicht, dafür ist viel zu viel Vorsprung da.Die IPC mit einem Sprung verdoppeln, glaube ich einfach nicht. Wird eher Sandy mit 8 Kernen, d.h. so schnell wie der 8370 nur mit weniger Energiebedarf. Aber mal überraschen lassen was da kommt.
 
Ap2000 schrieb:
@duskstalker; Interessant.
Da würde mich doch eine Erklärungsversuch seitens Jan, Volker o.ä. interessieren, wie es zu dieser Diskrepanz kommen kann.

Ganz einfach. In duskstalkers Benchmark wird in einer großen Stadt gebencht.
Große Stadt = viele NPCs = hohe CPU last = i7 muss zwangsläufig besser abschneiden
CB Bencht aber am Land und kommt nur kurz bei einer Stadt vorbei. Irgendwo kann man sich das Video dazu ansehen.

Ich bin immer noch angefressen das ich mir keinen Intel Core i5-5675C gekauft habe. Der L4 Cache haut einfach super rein.
 
Die Leute reden immer von CPU-Limit - dabei haben wir in den meisten Fällen ein "Software-Limit". Denn diese kann mit den vielen Kernen nicht umgehen.
=> Die Performance die die GPU "abrufen" kann hängt im wesentlichen in den meisten Fällen an der Performances des Haupt-Threads und damit an der Leistung bestehend aus Takt * IPC (von einem bzw. maximal 2 Kernen).

Ein "CPU"-Limit liegt dann vor wenn ein Game eine CPU auf ALLEN Kernen und JEDERZEIT zu 100% auslastet und die game engine damit nicht mehr leisten kann als der Flaschenhals CPU liefern kann.

Ist also in einem Test mit z.B. einem Vier-Kerner die Gesamt-CPU Last bei 4x100% => DANN Liegt ein CPU-Limit vor.

Ist die CPU-hingegen nicht bei 4x100% sondern z.B. nur bei 2x100% + 2x50% Auslastung (also GESAMT-CPU LAst ~75%) liegt entweder ein GPU-Limit oder eben ein "Software"-Limit vor (z.B. die Engine kann eben nur 2 DirectX Threads laufen lassen (prä DX12 Ära)).

Selbst mein FX-6300 ist in den meisten "games" wo hier von CPU-Limit fantasiert wird bestenfalls zu 70% Ausgelastet....2x100% und ein paar prozentchen für Windows.

So...Damit relativieren sich hier natürlich die Benchmark Variationen ein wenig...die meisten Games im CB-Test sind klassische Softwarelimits. Da misst man im wesentlichen also nur die IPC*Takt Leistung der CPU's.
Das ist natürlich durchaus auch interessant - denn wegen der Mängel in der Softwareentwicklung ist genau DIESES unser schlimmstes Limit. Allerdings kann es dann eben häufig passieren dass ein 2C/4T Prozzi quasi genausoschnell wie ein 8C/16T Prozzi ist...nur zeigt CB-leider keine CPU-Last diagramme sondern nur Balken und so sieht man nicht dass die CPU-Last beim 2C/4T bei ~100% lag und beim 8C/16T eben nur bei ~25%, und der Rest der CPU schlief derweil.
 
bumbklaatt schrieb:
*Hier bitte "da kann ich meinen i5/i7 XXXX noch viele Jahre nutzen"-Post einfügen*

Da kann ich meinen i7 4790K noch viele Jahre nutzen.

Krass wie wenig mehr Leistung der Kaby Lake bietet.

Dankeschön für die Vorlage :-)
 
Könnte CB mal einen Test machen (bzw. die vorhandenen Testdaten in einem speziellen Artikel auswerten), wie stark die CPUs ihre TDP auslasten, bzw, überreizen?

Ich empfinde es schlicht als gefährlich und betrügerisch, eine CPU mit einer TDP von xx Watt zu bewerben, und nachher zieht der Prozessor das Doppelte oder mehr aus der Dose! Das ist NICHT Sinn einer TermalDesignPower, da damit per Definition die höchste Verlustleistung einer CPU angegeben wird, für die der Kühler spezifiziert sein muß.

Und sooo selten sind Vollast-Szenarien beim Kunden nicht! So benutzte ich meinen großen Rechner (mit FX 8320e) überwiegend, um aufgenommene Fernsehfilme in ein platzsparendes Format umzurechnen. Bei einem abendfüllenden Spielfilm rechnet die Kiste gern mal eine halbe bis Dreiviertel Stunde, während der die CPU bei rund 98 Prozent läuft. Würde die da statt der versprochenen 95 Watt 190 ziehen, wäre das fatal! (Tatsächlich zieht mein FX sogar deutlich wneiger, da undervolted). Aber nehme ich zB. einen der neuen 35W-T-Prozessoren von Intel, so liegt der Gedanke nahe, das Ding in ein ITX-Gehäuse zu packen, und daraus einen HTPC zu machen. Wenn dann aber unter Vollast 60-80 Watt verbraten werden und weggekühlt werden müssen, wirds brenzlig....
 
Zuletzt bearbeitet:
@Computerbase
Könnt ihr bitte erklären, wie ihr den Celeron simuliert habt? Da ihr ja keinen anderen Celeron im Test habt müsst ihr ja irgendwie L3 Cache deaktiviert haben. Ich wusste gar nicht das das geht.
 
duskstalker schrieb:
der stillstand findet eher bei computerbase als in der realität statt - die benchmarks sind nicht verwertbar.

Anhang anzeigen 607468

in weiser voraussicht habe ich das ding vom letzten intel test noch nicht gelöscht - hier kann man sich nochmal ansehen, wie 100% fps zwischen i3 und i7 liegen, der i7 142fps avg macht, der i3 75fps (FHD), während bei CB der i7 max 92 schafft, und der i3 6100 mit 88fps gleich dahinter, in 720p.

Und da liegt das Problem, die Tests hier - insbesondere der Gaming-Part - suggerieren eine mehr oder weniger Stagnation der Leistung... nur komisch, dass ich den Umstieg von Sandy auf Broadwell (5775c) seehr deutlich gemerkt habe - insb. in Spielen und da bei den min FPS bzw. den Framedrops.

Daher empfehle ich jedem, der eine CPU insb. zum Spielen sucht, sich die Benchmarks von Digital Foundry auf YT anzusehen - die halte ich für deutlich besser.

Von CB wird wie immer keine Stellungnahme zur berechtigten Kritik kommen... man kann nur hoffen, dass der angekündigte Test zur Gaming Performance deutlich besser wird und insb. dann auch im Vergleich der RyZen CPUs keine falschen Rückschlüsse gezogen werden.

Ich empfehle da auch immer 3dcenter - dort werden viele verfügbare Tests unterschiedlicher Quellen zusammengefasst.
 
LukS schrieb:
@duskstalker; Interessant.
Da würde mich doch eine Erklärungsversuch seitens Jan, Volker o.ä. interessieren, wie es zu dieser Diskrepanz kommen kann.
Ganz einfach. In duskstalkers Benchmark wird in einer großen Stadt gebencht.
Große Stadt = viele NPCs = hohe CPU last = i7 muss zwangsläufig besser abschneiden
CB Bencht aber am Land und kommt nur kurz bei einer Stadt vorbei. Irgendwo kann man sich das Video dazu ansehen.

Ich bin immer noch angefressen das ich mir keinen Intel Core i5-5675C gekauft habe. Der L4 Cache haut einfach super rein.
In der Benchmarksequenz kommt Gerald am Ende gerade mal an den Rand eines Dorfes. Für einen GPU Test auch vertretbar, aber als CPU vergleichs Test halt ungeeignet. Ich bin schon froh, dass dieses Mal nicht wieder extra im Test darauf hingewiesen wird, dass in "The Witcher 3 die CPU keine Rolle spielt".

Zumindest Volker steckt die Finger in die Ohren und sing lalala wenn man freundlich bleibt und wenn man etwas ausfallender wird reagiert er.... aber nur bezüglich des Tonfalls und ohne auf die eigentliche Thematik einzugehen.

Keine Ahnung ob es in der Redaktion dazu Diskussionen gibt, mitbekommen habe ich keine. Es ist zugegebenermaßen schwer dutzende CPUs neu zu testen(von denen viele vermutlich gar nicht mehr zur Verfügung stehen). Dann fällt die wichtige Vergleichbarkeit zu alten CPUs weg, die auch als Kaufberatung wichtig sind.

Man findet sicherlich Argumente für und gegen jede Testsequenz und verschiedenes Vorgehen bei den Tests, aber zumindest die Bewertung der Ergebnisse sollte angepasst werden. So denken sich doch so manche Spieler:"Ich hab einen alten quad-core aber Witcher 3 ruckelt manchmal fies....aber an der CPU kann es nicht liegen, CB hat gesagt auch ein Pentium dual core reicht aus...ich muss wohl eine GTX 1080 kaufen." Und dann haben sie noch mehr CPU Last weil die 1080 noch öfter Daten anfragt und es läuft zwar mit mehr avg fps aber gefühlt schlechter als vorher.


Edit: Immerhin gibt es ja den Verweis auf einen bald erscheinenden CPU Test zu neueren Spielen und da hoffe ich natürlich auf das beste :). Nur eine Rückmeldung wie"wir haben euch gehört und darüber nachgedacht" oder "Wir haben euch gehört und sind anderer Meinung weil..." hätte ich schon mal für angebracht gehalten.
 
Zuletzt bearbeitet:
Pentium G4560 ist echt ein überzeugender CPU von Intel :)
 
Zurück
Oben