Test Core i7-6950X und i7-6800K im Test: 10 Kerne, 20 Threads und neuer Turbo für 1.600 Euro

Wäre cool wenn jemand mal den Stromverbrauch bei Volllast und 10h Nutzung auf 10 Jahre, zwischen 2600k & 6700 (beide nicht übertaktet) ausrechnen könnte.
 
Wie groß soll der Unterschied denn sein das sich das Aufrüsten lohnen würde?

2600k 95 watt
6700k 91 watt
Sind ca 440KWh unterschied in 10Jahren

Mein 2600k braucht ca 110Watt bei 4500Mhz (+25mV)
 
Zuletzt bearbeitet:
Berserkervmax schrieb:
2600K @4500mhz reicht wohl noch die nächsten Jahre !
Die Leistungssteigerung für ein Multi-GPU-Szenario ist beträchtlich. Fragt sich lediglich, ob sich das tatsächlich auf die 40 PCi-E-Lanes zurück führen lässt, oder ob es dabei um die kombinierte Rohleistung der beiden Karten an sich geht. Das könnte dann bedeuten, dass eine einzelne Grafikkarte mit solcher Rohleistung in der Zukunft ausgebremst würde von einem alten i7 Sandy.

Ich schätze mal, es geht dabei tatsächlich nur um eine möglichst störfreie Synchronisation zweier Karten. Unspielbar werden Spiele mit einem i7 der letzten 5 Jahre wohl so schnell noch lange nicht werden. Mittlerweile kann man sich dennoch fast freuen, wenn diese Prognose nicht zutrifft.
 
Wenn du nur Spiele in Full HD anschaust reden wir von 15% !

Meine CPU macht 33% mehr Tankt...somit bleiben davon wohl keine 10% von über !

Glaub nur SSDs bringt deutlich mehr wie ne 1600€ CPU !

SLI is keine Option für mich!
 
Zuletzt bearbeitet:
Schade, da hätte ich mir bei dem Sprung auf 14nm deutlich mehr erhofft. Dass sich die Preisen bei den beiden 6 Kerner kaum ändern kann man ja noch verstehen, dennoch hätte ich gehofft dass man den 8 und 10 Kerner etwas niedriger ansetzt, z.B. 900 und 1300. Mal sehen bei welchen Preisen sie sich schlussendlich einpendeln.

Klar, wer von den 10 Kernen profitieren kann, bei dem führt kein Weg an dem 6950X vorbei.

Für mich wäre hier eine interessante Option, jetzt neues X99 Board kaufen, samt gebrauchtem 5820K, und dann vielleicht mal in 5 Jahren einen gebrauchten 8 oder 10 Kern zu schießen.
 
Warum wird der Intel Core i5-5675C als bester im Spiele (Full HD) Gesamtrating eigentlich ausgeblendet?

Mag man exoten nicht?
 
Hatte mir irgendwo mehr erhofft von dem 6950X und das der sich dann auch noch schlechter übertakten läßt als der Vorgänger stört mich schon sehr. Einfach einmal abwarten bis die Nerds (im anderen Forum) Ihre CPU bekommen und sicher auch quälen und was die so berichten.
 
Wer von den normalen Usern(keine Profis, die damit ihr Geld verdienen) braucht das Teil wirklich?!
Beim Spielen ist die GPU wichtiger als die CPU . Da reichen vier schnelle Kerne völlig aus , um auch die schnellste GPU zu füttern.
Für Leute mit Ego Problemen ist das natürlich das Teil .
 
Edward Newgate schrieb:
Wie erwartet ist die CPU für Gamer vollkommen uninteressant.
Und man sieht wieder mal sehr gut, dass Gamer die einen 2500k/2600k gekauft haben, immer noch sehr gut bedient sind. Traurig.

Zum Spielen defintiv. Mein i5-2500k hat auch mit GTAV und co keinerlei probleme. Werde aber wegen vermehrtem Multi-Core arbeiten demnächst einen i7-5820K anschaffen (Aufpreis zu Broadwell lohnt sich ja scheinbar kein Stück), da ich die 2 Kerne (bzw. 4 Threads) im Vergleich zum i7-6700K defintiv brauchen kann (Preis ja ungefähr identisch).

Schade Intel, hätte gehofft das Warten auf Broadwell-E würde sich lohnen!
 
So es ist passiert - Danke CaseKing, welche die neuen Broadwell-E CPU's schon verfügbar/auf Lager haben, bin ich nun um einen neuen i7-6900K :lovein ein paar Tagen reicher... und naja... auch um ein paar € ärmer... :freak:
 
Da meine Frage keine Beachtung fand und es mich interessiert, frage ich nochmal: wie kann man 1600€ für einen 246 mm² Die der aus nur 3,4 Mrd Transistoren besteht? Ich kann mir nicht vorstellen, dass eine 8 Mrd 600 mm² GPU günstiger ist. So ein Quadcore wie der 6700K ist vermutlich halb so groß, <120 mm² und kostet 350€...
 
Berserkervmax schrieb:
Wie groß soll der Unterschied denn sein das sich das Aufrüsten lohnen würde?

2600k 95 watt
6700k 91 watt
Sind ca 440KWh unterschied in 10Jahren

Mein 2600k braucht ca 110Watt bei 4500Mhz (+25mV)

unter 10 jähriger vollast? wer schafft sowas?
 
Sechs Jahre hat Intel gebraucht, um dem ersten 6-Kern-Prozessor Core i7-980X „Gulftown“ vom März 2010 den 8-Kern-Prozessor Intel Core i7-5960X (Haswell-E) folgen zu lassen.
Sind nach meiner Zeitrechnung 4,5 Jahre.

Und jetzt erscheint mit dem Core i7-6950X (Broadwell-E) nur ein Jahr später bereits die erste CPU für den Desktop mit zehn Kernen.
Und das sind auch fast 2 Jahre.

Zum Test: Warum wird der 6800K mit dem 5930K verglichen und als mehr Leistung für weniger Geld dargestellt? Das entscheidende Merkmal des 5930K sind doch die 40 PCIe-Lanes, die der 6800K nicht bietet. Mmn kann man diese CPUs nicht über die Leistung vergleichen.

Auf welche Werte konnten die CPUs denn schlussendlich auf allen Kernen stabil übertaktet werden, und welche Temps wurden erreicht? Oder hab ich das überlesen?
 
zeedy schrieb:
Da meine Frage keine Beachtung fand und es mich interessiert, frage ich nochmal: wie kann man 1600€ für einen 246 mm² Die der aus nur 3,4 Mrd Transistoren besteht? Ich kann mir nicht vorstellen, dass eine 8 Mrd 600 mm² GPU günstiger ist. So ein Quadcore wie der 6700K ist vermutlich halb so groß, <120 mm² und kostet 350€...

Ne CPU ist immerhin doch nen bißchen komplexer als so ne GPU. 10mal was hochkomplexes ist schwieriger als 2500mal was eher "simples".
Dabei noch bei ~4GHz CPU gegen ca 2GHz (1080er). Und dann noch der ganze Cache...

Für mich lohnt sich sowas schon wieder, 30-40% mehr Leistung bei gleichem Stromverbrauch, und das was ich treib lässt sich schön parallelisieren :)
Dazu noch 2 1080er da können die 16-32Bits Ints nur so durchrutschen ;)

In diesem Sinne:
Shut-up-and-take-my-money.jpg

Gruß
 
@ Computerbase

IDukeI schrieb:
Das Single-Core Problem ist aber kein Haswell-E oder Broadwell-E Problem, sondern ein Problem der vielen CPU-Kerne. Würde es einen Skylake 8-Kerner geben hätte der mitunter dasselbe Problem.

Das Single-Core Problem tritt auf wenn nur eine große Last auf einem Kern/Thread liegt, in Zusammenhang mit den Energiesparoptionen, welche zumindest unter Windows 7 die relative Gesamtlast betrachten und je nachdem die Kerne hochtakten. Hast du nun 8 Kerne bzw. 16 Threads und ein Thread brauch massiv Leistung sind es im Gesamten nur 6,25% Auslastung (100 / 16), da die CPU dank Energiesparmodus sich aber bei geringer Last runtertaktet, reichen die 6,25% Auslaustung nicht aus damit diese sich voll hochtaktet, darum läuft der Single Thread eben mit geringer Leistung bei 1000Mhz - 2000Mhz.
Der Effekt tritt auch darum verstärkt auf, da z.B. Haswell nicht nur den Single Thread auf die Kerne aufteilt, d.h. er läuft nicht fest auf einem Kern, sondern wandert von Kern zu Kern, wodurch Windows auch nicht direkt eine hohe Leistung erkennt, sondern weil die einzelnen Kerne unabhängig voneinander hochgetaktet werden können. Bei SandyBridge/ IvyBridge z.b. wurden unter Last alle Kerne hochtaktet, während bei Haswell die Kerne separat hochtakten können. Durch das wandern des Threads ist zumindest Windows 7 in seinem hochtakten, wieder auch durch die geringe Gesamtlast, recht langsam und taktet nicht schnell genug den jeweiligen Kern hoch.
Je höher man übertaktet desto schlimmer wird das Single-Core Problem, da er dann noch seltener automatisch hochtaktet.
Das kann sich auch auf die Performance von schnellen PCIe/M.2 SSDs auswirken, wenn hohe Leistung nur durch wenige Threads, also sequenziell, benötigt wird, und die CPU Kerne bei 1200Mhz rumdümpeln.
Unter Windows 7 kann man dem etwas entgegenwirken wenn man das Energiesparprofil "Höchstleistung" wählt. Da taktet die CPU etwas agressiver, oder die minimale CPU Leistung auf 100% setzt, dann taktet die CPU praktisch immer auf max. Takt, erhöht aber auch den Stromverbrauch gut.
Windows 10 soll da aber eigentlich besser mit umgehen können, und das Problem dort nicht mehr so auftreten, hab ich aber nochnicht getestet.

Wäre für mich nun kein Grund gewesen auf Skylake zu wechseln, wenn man einen 6...8...10 Kerner kauft wird man wohl auch Anwendungen haben die diese nutzen können und im Multicore Betrieb gibts das Problem ja weniger bis garnicht. Zumal man es auch Windowstechnisch umgehen kann.

Fast korrekt. Die steigende Coreanzahl ist zwar der Auslöser, aber es ist hautpsächlich ein Problem von Haswell-E und Broadwell-E und dem Enegiemanagment von Windows. Skylake, selbst mit deutlich mehr Cores hätte mit Speedshift bereits eine passende Lösung. Schade, dass erst User wieder Fehler einer Plattform finden müssen und die Presse versagt, wie eben auch bei der GTX970.

Das Problem ist auch lange bekannt und der Workaround ist recht simple. Anwendungen welche eine hohe Singlethread-Leistung benötigen müssen über den Taskmanager festgepinnt werden, sodass Windows die Anwendung nicht von einem Core zum nächsten Schubsen kann. Nichts anders macht diese Turbo Boost 3.0 Software von Intel. Damit das ganze aber nicht als Bug-Fix-Software von der Presse aufgenommen wird bekommt Broadwell-E zusätzlich ein paar MHz mehr auf einem Kern über den regulären Turbo hinaus.

Dies erklärt auch warum Broadwell-E sich im Idle nicht von Haswell-E absetzen kann. Die einzelnen Kerne werden bereits komplett abgeschaltet. Da kann man schlicht nicht mehr sparen. Die Übeltäter beim Mehrverbrauch sind der schnellere RAM und das Board selbst.

Computerbase schrieb:
Eine Überraschung hat Intel für Broadwell-E im Gepäck: Einen neuen Turbo-Modus, den noch nicht einmal die eigentlich neuere Skylake-Architektur bietet.
Die Trägheit der Cores aus dem Tiefschlaf bis hinauf in den Turbo ist schlicht zu groß. Skylake braucht diesen Software-Workaround garnicht, dafür gibt es schließlich SpeedShift. Die Integration von Speedshift in die Haswell-Architektur mit dem Broadwell-Shrink war einfach nicht möglich.
http://www.hardwareluxx.de/communit...ur-beim-haswell-e-1042104-6.html#post24297921

Eigentlich wäre es echt schön wenn Computerbase mal bei Intel auf die Kacke haut und mal ein Thema anspricht was die Presse im allgemeinen versäumt hat. Haswell-E braucht auch Turbo Boost 3.0 in Software. Gerne für Haswell-E auch ohne extra MHz, aber dafür eben auch ohne Probleme bei älterer Software. Wäre das Mindeste was Intel für Kunden machen kann die mehr Geld für eine CPU in die Hand nehmen als viele für einen ganzen Rechner.

Computerbase schrieb:
Und jetzt erscheint mit dem Core i7-6950X (Broadwell-E) nur ein Jahr später bereits die erste CPU für den Desktop mit zehn Kernen.
Haswell-E kam am 29.08.2014. Das sind für mich fast 2 Jahre. ;)
 
Zuletzt bearbeitet:
Ah ok, Skylake hat SpeedShift schon, da hab ich nicht mehr dran gedacht.
Wenn es also Haswell- oder Broadwell- "Consumer" 8-X Kerner gäbe hätten die dasselbe Problem :). Wobei ja die E quasi diese Lücke füllen.
Dann wird das Problem hardwareseitig erst mit Skylake-E gelöst sein.
 
Wann AMD diesen 10 Kerner wohl schlagen wird. Oh stimmt ja, die kommen ja nicht einmal an aktuelle 4 Kerner von Intel ran.
 
Zurück
Oben