Test Intel-Prozessoren im Test: Core i5-6500, 5675C und 4690 im Vergleich der Generationen

Ein seltsamer, wenig aussagender Test. Wenn, dann sollte man einen 6600 nehmen wenn man schon den 4690 heranzieht. In der Klasse sind eigentlich auch nur die K-Modelle richtig interessant.

Für mich ein schlechter Generationenvergleich.
 
Jan schrieb:
Nein, der i5-6600 darf maximal 65 Watt verbrauchen, der i5-6600K aber 91 Watt - also 26 Watt mehr. Damit taktet er "später herunter" und damit in der Regel mit mehr als nur 8 Prozent zusätzlichem Takt.
Veto! Was hat die TDP (die bei den K-CPUs eher beim übertakten zur Geltung kommt) mit den Taktraten der CPU zu tun?

Das heißt übersetzt: Eine normale CPU (ohne k) kann ihren von Intel vorgegebenen Turbo-Takt nicht lange halten? Die throttelt quasi? Höre ich zum ersten Mal. Hat wer ein eingängiges Beispiel?

Warum testen dann andere Seiten die i5-6600 und den i5 6600k als absolut identisch (und damit meine ich fast aufs komma genau?)

Edit:
Demnach müßte es bei Blender (CPU-Test) zwischen beiden o.g. Prozessoren einen signifikanten Unterschied im Verbrauch geben oder?
 
Zuletzt bearbeitet:
BlackhandTV schrieb:
Hast du dann vllt. ein Test der das Gegenteil beweist?

@sdwaroc:
Den test kenne ich. dort wird aber kein Dual oder Quad CPU System getestet.
Nein, aber anhand des verlinkten Tests kann man wunderbar die Skalierung mit mehr Kernen sehen, gegenüber dem quasi "Standard" mit 4c/4t oder 4k(m) und 8t. Warum sollen noch mehr Kerne in einem extra Sockel noch mehr bringen? Es ist sogar noch ungünstiger, falls Daten von dem in CPU A angebundenen RAM und den CPU B angebundenen RAM geladen werden muss. Durch NUMA wird das ganze zwar etwas abgefedert, aber es ist trotzdem noch nicht optimal.
 
Jan schrieb:
Der Core i5-6600K ist - mit identischer Leistung - ja als Referenz vertreten.

Natürlich, und gut und sinnvoll ist es auch! Aber es macht halt schon einen Unterschied ob man den 6600er ins Testzentrum packt, oder mit nem "K" garniert zusammen mit anderen CPU als Referenz daneben stellt. Aber schon okay, ihr habt euch wirklich nur am Preis orientiert, und hattet nicht die von mir vermuteten Hintergedanken. Btw; Das "Kompliment" war ernstgemeint und keine ironisierte Kritik. ;)

Jan schrieb:
Nur die wenigsten Kunden werden sich allerdings nach dem Vergleich der Taktraten bei Last auf zwei, drei und vier Kernen umsehen.

Was schade ist, denn der von Intel angegebene Basistakt suggeriert ja der 6500 würde im Schnitt einen höheren Takt aufweisen als sein Broadwell Pendant, dabei ist es in Wirklichkeit umgekehrt. Die Turbotaktraten sind doch eher ausschlaggebend.
 
Danke für den Super Test, sowas brauchen und lieben wir. Mein Fazit ...

Broadwell ist die neue Zocker Königs CPU.
 
asteriks_0 schrieb:
Veto! Was hat die TDP (die bei den K-CPUs eher beim übertakten zur Geltung kommt) mit den Taktraten der CPU zu tun?

Das heißt übersetzt: Eine normale CPU (ohne k) kann ihren von Intel vorgegebenen Turbo-Takt nicht lange halten? Die throttelt quasi? Höre ich zum ersten Mal. Hat wer ein eingängiges Beispiel?

Warum testen dann andere Seiten die i5-6600 und den i5 6600k als absolut identisch (und damit meine ich fast aufs komma genau?)

Genau das verwundert mich ja auch. Wie lange wird denn nun der Turbo gehalten?
Siehe den pcgh.de Test: http://www.pcgameshardware.de/Core-i5-6500-CPU-260934/Tests/Test-Benchmark-Skylake-1172704/
 
Oh man ... ich würde ja gerne aufrüsten, aber ich spiele zu 95% und da lohnen sich die ca. 600€ nicht wirklich für die geringe Mehrleistung. Da kann ich mir doch lieber eine bessere Grafikkarte holen und die neuen Schnittstellen brauche ich auch noch nicht wirklich. Allerdings reicht die Grafikkarte auch noch für FullHD. ;) Vielleicht wird es dann doch ein neuer Monitor? :D
 
Naja, die Prozessoren haben alle andere Taktraten.
Hier wäre ein normierter Takt schön gewesen. Oder der
Fakt, dass hier auch unterschiedlich große Caches verbaut
sind, macht die Vergleichbarkeit nur eingeschränkt möglich.

Dass der Skylake mit fast gleichem Takt unter Windows
im Idle mehr Watt braucht als der Broadwell mit der dicken
Iris Pro bezweifle ich ganz einfach. Vielleicht brauchts hier
ein BIOS oder Software-Update. Alle anderen Tests belegen
deutlich, dass der Skylake der Effizienteste ist, das gleiche
gilt für die Temperaturen. Warum soll das im Idle anders sein?

Dass weder der Stromverbrauch noch die Wärmeentwicklung
beim Fazit eine Rolle spielen, finde ich sehr schade. Genau
hier liegt nämlich der Vorteil von Skylake: Effizienz.
Euer Test liest sich so, als ob ihr den Vorjahres 3er BMW
mit dem heutigen Modell mit 10 PS weniger vergleicht und
es nicht als Vorteil wertet, dass er dafür zwar 10% weniger
Sprit verbraucht aber als Nachteil, dass er dafür nur noch
240 und nicht mehr 250 km/h maximal bringt. Warum lasst
ihr das unter den Tisch fallen bzw. wertet das nicht?

Außerdem hat die Skylake Platform den einen oder anderen
Vorteil* gegenüber Haswell und Broadwell, auch das wird nicht
benannt. Ich finde die Testmethodik willkürlich (200 bzw 400
Mhz weniger Takt beim Skylake) und das Fazit unvollständig
und unpräzise. Schade!

*Skylake Vorteile:

Optionales Upgrade auf Kaby Lake, 10 statt 6 Intel USB 3
Anschlüsse, m.2 mit 4 PCIE 3.0 Lanes statt 2x PCIe2, mehr
PCIe 3.0 insgesamt und der Fakt dass bei DDR4 größere
DIMMs möglich sind, d.h. mehr maximal möglicher Arbeitsspeicher
 
Iapetos schrieb:
Du übersiehst das TDP-Budget der K-CPU. Sie kann länger ihren Turbo halten, gerade in rechenintensiven Szenen. Deswegen ist eine graphische Auswertung abseits von Balken sehr wünschenswert. Was spricht dagegen, einen Benchmark mit zeitlichem Verlauf von FPS, CPU-Takt und CPU-Auslastung anzufertigen? Das würde den Erkenntnisgewinn enorm steigern.
Falls an der Erklärung ansatzweise wirklich etwas dran sein sollte, dann würde mich jetzt und hier ein Vergleich der angesprochenen Sachen interessieren. Wir sprechen hier aber von Spielebenchmarks und nicht von Benches die zu 100% die CPU auslasten oder?
Die Erklärung würde imho vielleicht noch Sinn machen wenn das Spiel die CPU über den gesamten Spielzeit zu 100% auf allen Kernen auslastet. Welche Spiele machen das?
 
ich frag einfach noch ein 3tes mal:

Performant der G4400 genauso wie der G3440 (der ja hier getestet wurde)?
 
asteriks_0 schrieb:
Veto! Was hat die TDP (die bei den K-CPUs eher beim übertakten zur Geltung kommt) mit den Taktraten der CPU zu tun?

Vorsicht, hier kommt gefährliches Halbwissen:

Mit dem Basistakt nichts. Mit dem Turbotakt grundsätzlich einiges. Die Turbofunktion der Intelprozessoren kann im Bedarfsfall zusätzliche Leistung liefern indem sie je nachdem wieviele Kerne beansprucht werden den Takt erhöht. Begrenzt wird diese "Bonusleistung" durch das "thermische Budget", sprich TDP. Ob die TDP erreicht ist wird durch Messung der Temperatur und Spannung überprüft. Bevor das "Budget" überschritten wird, sinkt der Takt.

6600 und 6500 haben zwar die gleiche TDP, aber bei der Herstellung von CPU gibt es Qualitätsschwankungen, Stichwort "Vcore". Ein "minderwertiges Exemplar" könnte(!) also eher das Budget ausreizen und runtertakten.

edit: Ob die "TDP" Angabe relevant wird, hängt davon ab wie großzügig der Hersteller bei der Angabe agiert. Wird z.B. eine lächerlich hohe TDP abgegeben, spielt sie garkeine Rolle. (Dadurch könnte ein Hersteller z.B. bei einem Nachfolger eine deutlich niedrigere TDP angeben und einen größeren Effizienzvorteil suggerieren obwohl eventuell in der Praxis kein bzw kaum Unterschied besteht)
 
Zuletzt bearbeitet:
Ich checks nicht, was bringt die CPU Vergleichstabelle 980 Ti/Fury X wenn man ein Spiel nimmt das klar bei 70 fps limitiert? Dann blicke ich auf die GTA 5 Benchmarks, da sind es auf einmal 26% zu meinem 3770K. Da lohnt sich doch ein Wechsel oder nicht?
 
Zuletzt bearbeitet:
Sturmwind80 schrieb:
...Da kann ich mir doch lieber eine bessere Grafikkarte holen und die neuen Schnittstellen brauche ich auch noch nicht wirklich. Allerdings reicht die Grafikkarte auch noch für FullHD. ;) Vielleicht wird es dann doch ein neuer Monitor? :D

Mit diesen Überlegungen solltest Du hier nicht alleine sein. Vielleicht sollte Intel anfangen, dedizierte GPU herzustellen. :freaky:
 
borizb schrieb:
Dass der Skylake mit fast gleichem Takt unter Windows
im Idle mehr Watt braucht als der Broadwell mit der dicken
Iris Pro bezweifle ich ganz einfach. Vielleicht brauchts hier
ein BIOS oder Software-Update. Alle anderen Tests belegen
deutlich, dass der Skylake der Effizienteste ist, das gleiche
gilt für die Temperaturen. Warum soll das im Idle anders sein?

Dass weder der Stromverbrauch noch die Wärmeentwicklung
beim Fazit eine Rolle spielen, finde ich sehr schade. Genau
hier liegt nämlich der Vorteil von Skylake: Effizienz.
Korrekt und deine Vermutung ist auch richtig.
Wenn aber CB alle Skylakes mit einem Board testet, dass eine Vollausstattung hat und dazu noch läppische 20! CPU-Phasen, dann wird das beim Skylake nichts mit dem Verbrauch, weil von den angegebenen 40 Watt im Idle ca. 20-25W zu Lasten des Highend-Boardes gehen.
Soviel zur Aussage des Testes hier.
 
Mracpad schrieb:
Vorsicht, hier kommt gefährliches Halbwissen:

Mit dem Basistakt nichts. Mit dem Turbotakt grundsätzlich einiges. Die Turbofunktion der Intelprozessoren kann im Bedarfsfall zusätzliche Leistung liefern indem sie je nachdem wieviele Kerne beansprucht werden den Takt erhöht. Begrenzt wird diese "Bonusleistung" durch das "thermische Budget", sprich TDP. Ob die TDP erreicht ist wird durch Messung der Temperatur und Spannung überprüft. Bevor das "Budget" überschritten wird, sinkt der Takt.

6600 und 6500 haben zwar die gleiche TDP, aber bei der Herstellung von CPU gibt es Qualitätsschwankungen, Stichwort "Vcore". Ein "minderwertiges Exemplar" könnte(!) also eher das Budget ausreizen und runtertakten.

edit: Ob die "TDP" Angabe relevant wird, hängt davon ab wie großzügig der Hersteller bei der Angabe agiert. Wird z.B. eine lächerlich hohe TDP abgegeben, spielt sie garkeine Rolle. (Dadurch könnte ein Hersteller z.B. bei einem Nachfolger eine deutlich niedrigere TDP angeben und einen größeren Effizienzvorteil suggerieren obwohl eventuell in der Praxis kein bzw kaum Unterschied besteht)

Hier aber noch einmal meine Frage: Wie lange wird der Takt denn nun gehalten (wenn alle Kerne auf "Turbo" laufen) ?
 
Admiral Thrawn schrieb:
Hier aber noch einmal meine Frage: Wie lange wird der Takt denn nun gehalten (wenn alle Kerne auf "Turbo" laufen) ?

Das wissen wir erst, wenn dazu entsprechende Tests stattfinden. Es wird wohl auch abhängig von der Kühlung des Prozessors sein.
 
Admiral Thrawn schrieb:
Hier aber noch einmal meine Frage: Wie lange wird der Takt denn nun gehalten (wenn alle Kerne auf "Turbo" laufen) ?

Das ist abhängig von der anliegenden Spannung und Temperatur. Im Optimalfall kann der Turbotakt dauerhaft gehalten werden.

edit: und vor allem hängt es daran, wie stark das Budget begrenzt ist. Zwischen

6600k 91W
und
6600 65W

liegt ja schon ein erheblicher Unterschied...
 
Zuletzt bearbeitet:
Netter Test , vorallem die Leistung des Broadwell überzeugt .

Ein paar mehr Spiele wären noch gut gewesen .
Schön das der 2600k kaum weniger Leistung hat wie die aktuelle Gen .
Klar am PC basteln ist immer schön , aber das Teil bleibt noch lange im PC und hat sich mal wirklich gelohnt :daumen:
 
Interessanter Test und er zeigt auch, auf was man heute so alles achten muss, besonders bezüglich Kombination CPU und GPU.

Während es bei The Witcher 3 nahezu belanglos ist welche CPU man hat, können bei Total War dort Abweichungen im zweistelligen Prozent Bereich sein.


ascallon schrieb:
So ganz nebenbei: schon aufgefallen, wieviel schneller die 380 ggü. der 960 inzwischen ist?
Du weißt aber schon, dass zwei Spiele getestet wurden, oder?

MARV-89 schrieb:
Ein paar mehr Spiele wären noch gut gewesen.
Natürlich wäre das gut gewesen, aber das sind immerhin 16 CPUs bei 4 GPUs also sind 64 Kombinationen.
​Und Volker will vielleicht auch mal ins Bett:evillol:
 
Zuletzt bearbeitet:
Zurück
Oben