News Intel-Prozessoren: Kaby Lake Refresh wird Core ix-8000 ab Ende 2017

Erstmal das, und zweitens bei prime 95 mit avx 😉, der geht nicht über 65 Watt bei 4,4 Ghz schon mehrmals ausgelesen bei Benchmarks 😃 auch prime
 
Zuletzt bearbeitet:
Die News ist schwach. Es wird gar nicht erwähnt, dass Kaby Lake-R auf 4 Kerne bei 15W setzt. Somit der Wegfall von KBL-H mit 18W kaum ein Verlust ist, denn bei dieser geringen TDP sollte sich eine Neuaflauge der U Chips mit 4 Kernen besser eignen.
 
meckswell schrieb:
Das is doch deprimierend, zu wissen, bevor das Neueste released wird, is es quasi bereits wieder veraltet, is aber einfach immer so.

Das ist doch heutzutage so gar nicht mehr zutreffend. Der i7-4790K ist rein der Zahl nach demnächst satte drei Generationen alt, aber er schlägt je nach Benchmark zumindest einen i-7 6700K und der i-7 7700K wird wohl nicht viel schneller, also ist Devils's Canyon auch anno 2017 immer noch eine Top-CPU und keineswegs "veraltet".
Ähnliches gilt bis zurück zum i-2500K. Gut, da kommen die Chipsätze langsam an gewisse Grenzen, da nur PCIe 2.0, aber wie man Benchmarks im Netz entnehmen kann, sind die Unterschiede zwischen 2.0 und 3.0 bei 16x Slots zu vernachlässigen.

Ich empfinde die Stabilität (auch von der Softwareseite, also die meist sehr geringen Anforderungen der Games an die CPU) als sehr angenehm. Mitte/Ende der 90er bis Anfang 2000er ging es Schlag auf Schlag und da gab es wirklich CPUs und Chipsätze, die waren nach einem Jahr völlig obsolet, so dass man CPU, Board + RAM neu kaufen "musste".
Heutzutage dauert es Jahre bis irgendetwas wirklich "veraltet" ist. Ist doch schön, so spart man Geld und kann dieses z.B. in fettere GPUs investieren, wo es wirklich noch auf jedes bisschen Leistung ankommt.
 
@ SKu

Wenn du meinen post gelesen hast habe ich genau das geschrieben : "der nicht übertaktete 6600k sorgt im test system bei maximaler cpu last dafür das dieses 100watt verbraucht" das dieses ist bezogen auf das test system, was bedeutet das bei maximaler cpu last mal wenigstens 60-70 watt auf die cpu abfallen wenn die graka im idle ist inkl festplatten etc. und das lediglich beim Standard takt und nicht wie Hejo sagt 65 watt bei 4,4ghz (siehe OC kapitel was das system dann zieht bei 4,6ghz)
 
Zuletzt bearbeitet:
Die 65W waren glaub ich für die Cpu bei 4,4 ghz alleine gemeint (und evt. nur von einem Programm anhand der Vcore geschätzt) und nicht der real gemessene Verbrauch des Gesamtsystems an der Steckdose.
Meine Kiste hatte ohne Graka im Idle etwas über 30W und bei Prime95@1,1Vcore@3,6ghz allcore ~90W an der Steckdose gemessen. Bei default ~1,2 Vcore waren es schon ~100W bei Prime95.

Edit:im Vergleich zu meinem Dualcore vorher (ein 45nm s775) ist die Leistung sehr gut und vor allem pro Watt. Der i5-6600 hat mehr Singlecore-Leistung als die beiden Cores meiner alten Cpu (@3,5ghz) zusammen, bei insgesamt ähnlichem Stromverbrauch ~3,5 fache Leistung und im Idle viel besser.
cinebench11.5-6600-b150-16gb.PNG
 
Zuletzt bearbeitet:
Wirklich erschreckend , dass mein altes "Ur I7 System" aus 2009 ( I7 920 @ 4Ghz ) nur von damals 6 auf jetzt 12GB Ram erweitert und durch eine SSD ergänzt werden musste, um den heutigen im Alltag bestenfalls durch Energieverbauch nachzustehen. Wenn sich nicht bald was tut habe ich einen 10 Jahre alten PC, den auszutauschen sich immernoch nicht lohnt...
Sowas hat es auch noch nicht gegeben, seit dem ich mich mit PCs beschäftige ...

Achja, USB 3 musste ich über eine gebrauchte Karte für ein paar Euro nachrüsten ^^
 
Bin ich eigentlich der Einzige, der eine 2GHz Quad-Core CPU mit 18W oder 25W begrüßt?
Das hört sich doch erstmal super an!
Auch wenn die Senkung des Verbrauchs bei den letzten CPU-Generation durch ein dynamischeres Takten geschönt wurde, so konnte der Verbrauch doch auch real gesenkt werden.
Bei meinem T440p mit i7 4702MQ und ohne Nvidia-Grafik, verbraucht das Notebook laut dem Lenovo Power Manager gut 50W unter Prime. Die CPU selber ist mit einem TDP-Wert von 37W spezifiziert.

Mal sehen wie das bei dem Quad-Core Kaby Lake aussehen wird.
 
TDP = Stromverbrauch oder Leistung die Abgeführt werden muß ? Wer kann dazu was schreiben von den Moderatoren ?
 
Wen INteressiert der Stromverbrauch?? ausser bei Notebooks ist klar ;) Meine Fresse ob 60 oder 120Watt das ist EINE BIRNE IN DER DECKENLAMPE MEHR.
 
Flatsteff schrieb:
Wirklich erschreckend , dass mein altes "Ur I7 System" aus 2009 ( I7 920 @ 4Ghz ) nur von damals 6 auf jetzt 12GB Ram erweitert und durch eine SSD ergänzt werden musste, um den heutigen im Alltag bestenfalls durch Energieverbauch nachzustehen. Wenn sich nicht bald was tut habe ich einen 10 Jahre alten PC, den auszutauschen sich immernoch nicht lohnt...
Sowas hat es auch noch nicht gegeben, seit dem ich mich mit PCs beschäftige ...

Achja, USB 3 musste ich über eine gebrauchte Karte für ein paar Euro nachrüsten ^^

Ich habe auch noch meinen Core i5 750 aus 2009:D. Die Leistung reicht eigentlich immer noch nur die Grafikkarte habe ich 2012 durch eine HD 7870 ersetzt damals und letztes Jahr gesellte sich eine SSD-Festplatte dazu.

USB 3.0 ist das einzige was ich noch nicht habe. Im Prinzip ist mein PC ein Oldtimer aber irgendwie immer noch auf den aktuellen Stand der Technik.

Nächstes Jahr wird das System aber in Rente gehen und nur noch als Ersatz dienen aber erst mal wird auf Zen und Vega gewartet und danach wird entschieden was ich nehme.

Hoffe mein neuer Rechner bleibt dann die nächsten 7 Jahre auch aktuell schont meinen Geldbeutel :D. Wenn ich mir die Multicoreunterstützung bei Games so anschaue dürfte dies locker hinhauen.
 
@Ragnar40k
Da stellt sich mir die Frage, wer heutzutage noch Birnen verwendet.
Aber mal ehrlich: Wir sind in Zeiten des Klima-Wandels und der Energie-Wende und du willst uns klar machen, dass 60 Watt statt 120 Watt keinen Unterschied machen?
Glaubst du, das sehen Server-Farmen, Firmen und IT-Center genauso? Sorry, aber das ist derbe naiv.
 
Ragnar40k schrieb:
Meine Fresse ob 60 oder 120Watt das ist EINE BIRNE IN DER DECKENLAMPE MEHR

Keine Ahnung was für Steinzeitbirnen du verwendest, aber in meinem Haushalt kann ich alle Lampen einschalten und Diese brauche zusammen gerade mal um die 100 Watt.
 
Also erstens geht es hier nicht um Firmen sondern Privat, da ich denke das wir hier alle Privat sind :) Bei Firmen ist klar ;) zweitens habe ich natürlich LEDs in meiner Wohnung, aber darum geht es nicht. 60W mehr sind einfach irrelevant, egal obs die Stromrechnung ist oder sonstwas. Und kommt mir nicht mit eurem ökoscheiss und selbst warscheinlich noch nen Diesel fahren......
 
Was soll die NEWS ende 2016 für CPU´s die ende 2017 kommen sollen? Dazu ein wechsel lohnt sich einfach nicht mehr ausser nm Cache TDP 25W, dafür sind die GHZ bei den Cores wieder nur niedrig gehalten kommt mir vor als mache Intel 1 Entwicklung vor und zu gleich 2 zurück ???
 
Flatsteff schrieb:
Wirklich erschreckend , dass mein altes "Ur I7 System" aus 2009 ( I7 920 @ 4Ghz ) nur von damals 6 auf jetzt 12GB Ram erweitert und durch eine SSD ergänzt werden musste, um den heutigen im Alltag bestenfalls durch Energieverbauch nachzustehen. Wenn sich nicht bald was tut habe ich einen 10 Jahre alten PC, den auszutauschen sich immernoch nicht lohnt...
Sowas hat es auch noch nicht gegeben, seit dem ich mich mit PCs beschäftige ...

Achja, USB 3 musste ich über eine gebrauchte Karte für ein paar Euro nachrüsten ^^

Sei doch froh über den guten Kauf. Andere meckern immer, dass sie aufrüsten müssen.^^
Ich werde meinen 2500k solange nutzen, bis er defekt ist.
 
SaschaHa schrieb:
@Ragnar40k
Da stellt sich mir die Frage, wer heutzutage noch Birnen verwendet.
Aber mal ehrlich: Wir sind in Zeiten des Klima-Wandels und der Energie-Wende und du willst uns klar machen, dass 60 Watt statt 120 Watt keinen Unterschied machen?
Glaubst du, das sehen Server-Farmen, Firmen und IT-Center genauso? Sorry, aber das ist derbe naiv.

Dazu kommt noch der exorbitante Strompreis in Deutschland! Aber wenn man sich den Fortschritt in Sachen Effiziens von Hardware im Allgemeinen ansieht, hat sich über die Jahre schon massiv was getan.
Aber wegen dem Energieverbrauch, kauft sich eben niemand neue Hardware. Wer aber argumentiert das, das länger nutzen von Hardware die Umwelt schont, ist leider auch auf dem Holzdampfer. Die Produkte werden trotzdem hergestellt...ob gebraucht oder nicht. Schon allein das Note7 Debakel zeigt doch, was an Ressourcen verschleudert werden. Nur um des Konsums Willen. Aber gut, dann müsste ich mir Gärtnern als Hobby suchen :confused_alt: Wie man es macht...Aber! Muss Intel, jedes Jahr was neues bringen? Nein, dafür ist der jährliche Fortschritt zu klein! Der gleiche Mist wird von fast jeder Branche durchgezogen...
 
Zuletzt bearbeitet:
rentex;19608977 Die Produkte werden trotzdem hergestellt...[/QUOTE schrieb:
Naja, wenn man so argumentiert....Kann man auch Vegetariern sagen, die kein Fleisch kaufen weil dadurch Tiere sterben: Warum kaufst du nicht das Fleisch, das Tier ist eh schon geschlachtet. ;)
Wenn der Absatz schrumpft, wird dann auch die Produktion reduziert.

Wegen ein paar Watt gleich ne Neuanschaffung durchzuführen ist aber wirklich schwachsinn. Vor allem, wenn gleich eine neue Plattform dafür notwendig ist. Wenn für CPU + MB + RAM (DDR3 auf DDR4) mal so 600€ weg sind, da kann man sich schon so einige Kilowattstunden für leisten. Und im Serversegment ist es noch schlimmer, auch wenn sie durch die hohe Anzahl von Systemen ne menge Strom sparen könnten, so ist die Investition ungleich höher, Serverhardware ist nicht gerade billig und da wird auch gleich das komplette System gewechselt und nicht nur CPU und Mainboard. Die Kostenrechnung geht da nie auf, bis sich so eine Investition amortisiert hat, ist man bei den CPUs auf den Markt längst 2-3 oder mehr Generationen bei der Energieeffizienz weiter. Bevor ein Wechsel aufgrund von Energieverbrauch passiert, ist wohl schon längst ein Wechsel durch wachsenden Leistungsbedarf geschehen...und effizienter sind die Systeme dann zusätzlich.

60W mehr im 24 Stunden Betrieb sind für Ottonormalverbraucher nicht mal 40 Cent pro Tag und wer hat schon solch Systeme 24 Stunden im Betrieb. Da amortisiert sich eine 600€ Anschaffung in knapp 4 Jahren im 24/7-Betrieb, grob überschlagen. Server brauchen da noch länger, deutlich höhere Anschaffungskosten plus geringere Kosten pro KWh.
 
Zuletzt bearbeitet:
duskstalker schrieb:
bulldozer war eine zu sehr in die zukunft gerichtete architektur. wäre die entwicklung weiter richtung multicore gegangen, stünde bulldozer um einiges besser da. zumal die problematik bei amd vorallem von intel ausgelöst wurde durch die oem sauerei, die sie abgezogen haben. natürlich orientiert sich der markt am marktführer. wäre amd mit den multicore bulldozern stärker am markt vertreten gewesen als intel, würde man heute wohl viel mehr multicore unterstützung finden. stattdessen ist man bei dem geblieben, was es gibt und was viel verkauft wird, und das ist intel mit wenig kernen und viel ipc/single core performance.

"Zu sehr in die Zukunft" 64bit vs Dualcore, sollte einigen ja bekannt vorkommen von damals...

Zum Thema MultiCore-Unterstützung: Das hat eigentlich nichts mit Intels Strategie zu tun. Aus Sicht eines Programmierers gibt es eigentlich nur Single-Core (einfach und oft ausreichend) oder "mehr als ein Kern" (damit meine ich rechenintensive Aufgaben, nicht etwas wie GUI-Darstellung o.Ä.). Da spielt es dann eine eher geringe Rolle, ob 2, 3 oder 12 Kerne.
Die eine Frage ist immer, kann ich eine Berechnung in mehrere parallel durchführbare Teile aufteilen, oder nicht. Und die Nächste ist, ob es sich lohnt. Denn wenn eine Aufgabe auf einem halbwegs aktuellen Prozessor sowieso nur 1% CPU-Auslastung für einen kurzen Moment bedeutet, hilft es für die Gesamtperformance wenig, das auf zwei Threads aufzuteilen, die dann 2x 0.5% Auslastung bewirken. Deshalb ist bei Spielen auch irgendwann das Ende der Multi-Core-Vorteile erreicht. Natürlich kann man da relativ einfach Dinge wie Audio, KI, Disk-I/O, Netzwerk-I/O, Physik in eigene Threads packen. Allerdings hilft dann ein 6-Kerner bei dem 5 Kerne minimal ausgelastet sind (jeder mit einem der o.g. Threads) und einer am Anschlag (Main-Thread) im Vergleich zu einem Zweikerner bei dem auch ein Kern am Anschlag ist und der Andere z.B. zu 30% ausgelastet mit den übrigen Threads, kaum. Einziger Nachteil, der aber hier kaum eine Rolle spielen sollte, sind die erhöhte Anzahl an Kontext-Wechseln beim Dualcore, um die 5 Threads quasiparallel auf einem Kern abzuarbeiten.
(von den Besonderheiten der AMD-Bulldozer-Module, die sich je nach Situation wie Singlecore und wie Dualcore verhalten können, möchte ich gar nicht anfangen)

tl;dr
Für CPUs mit hoher IPC/ hohem Takt muss ich als Programmierer nicht wirklich optimieren. Bei echter Multi-Core-Unterstützung habe ich mehr Aufwand (und mehr Fehlerpotential).
 
Zurück
Oben