Damit sollte klar sein, dass Skylake wohl mehr Übertaktungspotential bieten dürfte als mache es aufgrund der Taktraten des 6700K befürchtet hatten, denn wenn Kaby Lake jetzt nur wie Devil's Canyon ein Skylake Refresh mit eigenem Codenamen sein wird, dann muss Intel da auch genug Raum für Taktsteigerungen sehen, ohne mehr Takt wird es ja auch keine Mehrleistung geben.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Prozessoren: Intel bestätigt Kaby Lake für 2016, Cannonlake erst 2017
- Ersteller Volker
- Erstellt am
- Zur News: Prozessoren: Intel bestätigt Kaby Lake für 2016, Cannonlake erst 2017
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 975
luluthemonkey schrieb:Also wird es drei Prozessorfamilien geben, die auf der Skylake Architektur basieren. Skylake und Kaby Lake in 14nm und Cannonlake in 10 nm.
Wie groß schätzt ihr die Wahrscheinlichkeit ein, dass alle 3 auf LGA1151 basieren werden und man somit jetzt ein Board mit Skylake kaufen kann, um später einen Cannonlake aufzurüsten?
Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.338
Bin mal gespannt, was dann Kaby Lake bringen wird. INTELs Tick-Tock Maschine ist mittlerweile so arg am Stuckern, wie ein 20 Jahre alter Rasenmäher. Erst die Verzögerungen mit Broadwell, nun das Verschieben von Cannonlake. Der Duke kommt, keine Sorge, nur wann....das weiss niemand so recht...
LuckyMagnum
Lt. Commander
- Registriert
- März 2014
- Beiträge
- 1.776
Ich verstehe Intel da nicht. Hier sind so viele Leute, die sich auf ein WOW-Erlebniß freuen würden.
Klar ist es schön, Geld zu sparen und die bestehenden CPUs weiter laufen zu lassen.
Andererseits sind hier so viele Leute kaufwillig. (Inkl. mir) Hier leigt das Geld quasi auf der Straße! Intel braucht nur den Takt vom 6700k auf 4,5 ghz mit einem Turbo von 5 ghz raufschrauben oder sonst wie die Performance im Vergleich zum 4790k steigern. Warum wird das nicht gemacht? Oder kommt die große Überraschung beim Launch? Sieht bisher nicht danach aus.
Klar ist es schön, Geld zu sparen und die bestehenden CPUs weiter laufen zu lassen.
Andererseits sind hier so viele Leute kaufwillig. (Inkl. mir) Hier leigt das Geld quasi auf der Straße! Intel braucht nur den Takt vom 6700k auf 4,5 ghz mit einem Turbo von 5 ghz raufschrauben oder sonst wie die Performance im Vergleich zum 4790k steigern. Warum wird das nicht gemacht? Oder kommt die große Überraschung beim Launch? Sieht bisher nicht danach aus.
Wirtschaftliche Voraussicht.TungstenCarbide schrieb:Warum wird das nicht gemacht?
Klar können die jetzt auch im Mainstream schnellere Prozessoren bzw. welche mit mehr Kernen rausbringen. Aber was kommt danach? Intel kann auch nicht zaubern, steckt Milliarden in die Forschung und muss den Weg gehen, der strategisch am besten passt.
Wer Geld hat und unbedingt mehr als 4 Kerne braucht, soll halt zum i7-5820K (6 x 3,5 GHz für 400€) oder i7-5960X (8 x 3,5 GHz für 1000€) greifen.
h00bi
Fleet Admiral
- Registriert
- Aug. 2006
- Beiträge
- 21.431
Laut Intels CEO Brian M. Krzanich ist Moore's Law aus dem Jahr 1965 auch in seiner letzten Auslegung nicht mehr einzuhalten
Hätte AMD gescheite CPUs am Markt hätte der Herr Moore auch in Zukunft noch recht.
Intel zieht die Bremse an und krault sich.. naja ihr wisst schon. Weil sie es können.
Cl4whammer!
Lt. Commander
- Registriert
- Aug. 2008
- Beiträge
- 1.881
Das heißt also bis 2017 kriegen wir so gut wie nichts an neuer CPU Leistung...
Und es ist immernoch 2015!
Und es ist immernoch 2015!
oldmanhunting
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 9.457
Der PC Markt stagniert und Intel muß mehr Umsatz machen. Ich denke Intel ist mit seinem optimieren am Ende angekommen und alles was hinten an CPU's noch raus kommt ist kleiner und sparsamer aber nicht viel schneller.
Die logische Schlußfolgerung für uns Nerds ist auf Sockel 2011 zugehen und die iGPU losen und verlöteten mehr Kerne zu genießen. Leider hinkt Sockel 2011 hinterher weil zumindest ich würde einen Skylake-E kaufen, wenn es Ihn dann jetzt gäbe.
Glaube auch nicht, dass wir so bald 10nm sehen werden. Erst einmal muß 14nm das Geld rein bringen was dafür investiert wurde.
Die logische Schlußfolgerung für uns Nerds ist auf Sockel 2011 zugehen und die iGPU losen und verlöteten mehr Kerne zu genießen. Leider hinkt Sockel 2011 hinterher weil zumindest ich würde einen Skylake-E kaufen, wenn es Ihn dann jetzt gäbe.
Glaube auch nicht, dass wir so bald 10nm sehen werden. Erst einmal muß 14nm das Geld rein bringen was dafür investiert wurde.
VikingGe schrieb:AVX und co. bringen allerdings nur bei SIMD irgendwas. Setzt also voraus, dass jedes zu bearbeitende Datenelement mit demselben Code verarbeitet werden kann - geht bei Bildverarbeitung (meist) wunderbar, aber nen Compiler kann man so nicht bauen. Dafür sind viele Datenstrukturen nicht geeignet und meist sind da auch Cache- und Speicherlatenzen mitentscheidend, da muss also auch noch was passieren.
Ansonsten stimmts aber. Kleiner Microbenchmark, 4x4-Single Precision-Matrix-Vektor-Multiplikation auf kleinen Arrays (≤ ½ L1-Cache), ein Kern, taktbereinigt:
100% - K10 (SSE2-128)
126% - Steamroller (AVX-256, kein FMA)
137% - Steamroller (AVX-256, FMA4)
265% - Sandy Bridge (AVX-256, kein FMA)
???% - Haswell (AVX-256, FMA3) - würde mich mal wirklich interessieren, wie der abgehen würde. Faktor 3 halte ich aber für realistisch.
Ich denke, mittelfristig wird die Devise vor allem "add moar coars!!!einseins" sein, wofür AMD immer ausgelacht wurde - was man sich danach ausdenkt, v.a. mit welcher Befehlssatzarchitektur, und wie sich GPU-Computing entwickelt, wird man dann sehen.
Das problem ist AVX bzw. SIMD im allgemeinen nur mehr Performance bringt wenn man nicht durch die Bandbreite des Speichers bzw. den load store restriktionen limitiert ist. Dazu kommt noch eine "Besonderheit" ( oder nennen wir es Design feature ) der AVX vectorization von Intel die pro cycle 1 load aber nur 1/2 store ermöglicht. Daher ist in vielen Fällen nur ein Faktor von 2.66 möglich wie du beim Sandy angemerkt hast. Das resultiert darin das man für typische add oder mul operationen mit AVX einen cycle mehr benötigt jedoch natürlich 4 mal soviel erledigt. z.b. 3 cycle 4 fach parallel verglichen mit 2 cycle 4 mal nacheinander ist eben nur ein Faktor von 2.66 und das ist bei Haswell immernoch so. Wie manche schon erwähnt haben hört sich SIMD auf dem Papier erstmal gut an aber der Code muss eben auch entsprechende Strukturen aufweisen die das ganze ermöglichen. Dazu kommt noch das Intel oftmals den Takt dann senken muss damit das powertraget eingehalten werden kann. Trotzdem bin ich mal gespannt wie es nach 7nm überhaupt weitergeht mit der Si technologie.
Zuletzt bearbeitet:
V
VikingGe
Gast
Die konkrete Funktion wird dadurch aber nicht limitiert, dafür rechnet sie zu viel. Auf ein Load/Store-Paar kommen beim Sandy konkret 4 Shuffle-Operationen, 4 Multiplikationen und 3 Additionen, das sind also schonmal 4 Takte allein durch die Auslastung der Pipelines. Erst der L2-Cache bremst da leicht. Hier nebenbei mal Code zu der Funktion.Daher ist in vielen Fällen nur ein Faktor von 2.66 möglich wie du beim Sandy angemerkt hast.
Cache-Effizienz ist natürlich das Stichwort, wenn man mehrere Operationen auf denselben Daten ausführt. Aber nicht wirklich schwer, ggf. nur aufwändig. Und Stream-Verarbeitung sollte man vielleicht nicht in erster Linie für Trivialoperationen wie Additionen oder Multiply-Add verwenden, dann landet man natürlich in dem von dir angesprochenen Load-Store-Limit
Und du glaubst ernsthaft, dass AMD alle 2-2,5 Jahre mal so eben bedeutende Sprünge machen könnte?h00bi schrieb:Hätte AMD gescheite CPUs am Markt hätte der Herr Moore auch in Zukunft noch recht.
Intel zieht die Bremse an und krault sich.. naja ihr wisst schon. Weil sie es können.
Ich würde sogar eher sagen, dass Intel in den letzten 7-8 Jahren das Entwicklungstempo eher gesteigert als gedrosselt hat.
Bei den Xeons (DP) kann man das ganz gut erkennen.
2006 - Merom-Generation = 2/4-Core (letzteres nicht nativ)
2008 - Penryn-Generation = 4-Core (nicht nativ)
2010 - Nehalem = 4-Core (nativ), SSE4.x, IMC
2011 - Westmere = 6-Core (nativ), AES-NI
2012 - Sandy Bridge = 8-Core, AVX, integriertes PCIe, DDI
2013 - Ivy Bridge = 12-Core
2014 - Haswell = 18-Core, AVX2, PCIe3
Innerhalb weniger Jahre hat man nicht nur die Anzahl der Cores vervielfacht, sondern jedes Mal auch die Architektur und den Integrationsgrad erweitert. Lediglich die Taktfrequenz hat sich nicht großartig verändert, sondern hat sie irgendwo zwischen 2,5 und 3,5 GHz eingependelt - je nach Anwendungszweck.
Ausblick:
2015/2016 - Broadwell = 22-Core
2016/2017 - Skylake = 28-Core, AVX-512, vermutlich auch etwas in Richtung Omni-Path-Fabric, dazu mögliche FPGA-Integration
__
Dazu kommt noch die parallele Entwicklung des Xeon Phi, wo Ende des Jahres ein Neuankömmlich erwartet wird, der 72-Kerne mit jeweils zwei Vektor-Einheiten auf die Waage bringt, und 3 TFLOP/s General-Purpose-Leistung bietet, welcher zudem noch über Späße wie 16 GB "Near-Memory" On-Die (~ 400 GB/s) und bis zu 384 GB "Far-Memory" mit immerhin rund 90 GB/s sowie ein optionales Low-Latency-Interconnect mit ~ 100 GB/s beherbergt. Das ganze Ding dürfte trotz 14-nm-Technik so um die 600-700 mm² DIE-Fläche haben. Nenn mir doch mal einen anderen Fertigungsbetrieb, der etwas vergleichbares in dieser Größenordnung in 14-nm-FinFET gerade vom Band laufen lässt. Nicht für ungut, aber da sehen die 28-nm-bulk von GF oder TSMC gerade ziemlich blass gegen aus. Lediglich IBM kann da mit Power8 in 22 nm grad ganz ordentlich Contra geben, das ist das aber halt auch nicht mehr x86.
Ja, die Schlagzahl bei der Verkleinerung der Fertigungsgrößen mag vielleicht ein wenig zurückgegangen sein. Aber diese Problematik haben alle anderen auch.
Anfangs bei Intel nur in der erste 6 Kerner 1000USD Klasse zu haben, denn auch in der 500USD Klasse und nun gibt es auch in der 350UED Klasse (5820k) 6 Kerne und in der 1000USD Klasse gibt es nun 8 Kerne. Warum sollte das so nicht weitergehen und man bekommt irgendwann dann 10 oder 12 Kerne in den 500USD und 1000USD Klassen, 8 in der 350USD Klasse und dann 6 Kerne für den Maintram Sockel? Mit den Shrinks auf 14nm und 10nm gäbe es ja mehr als genug Platz auf den Dies.Ned Stark schrieb:Wirklich interessant wäre ein Termin für 8 Kerne + HT für deutlich weniger als 1000€
Auch Intel muss seinen Bestandskunden Motive für Upgrades liefern, nur ist das eben bei dem bereits erreichen Niveau nicht einfach. Steigerungen bei IPC unds Takt sind schwer, mehr als 4 Kerne werden von der typischerweise von Heimanwendern verwendeten SW kaum genutzt, für die anderen Kunden gibt es den grßen S. 2011(-3) und da bei den Xeons bis zu 18 Kerne pro CPU, mit jeder Generation mehr als bei den Vorgängern.h00bi schrieb:Intel zieht die Bremse an und krault sich.. naja ihr wisst schon. Weil sie es können.
Ja, zumindest was die Chipsätze angeht, die CPU sind schon in mancher Hinsichet eine halbe bis eine Generation voraus, aber das wissen und merken nur die wenigsten User und daher Pssst! Aber einen Skylake-E Anfang 2016 würde ich mir auch wünschen.oldmanhunting schrieb:Leider hinkt Sockel 2011 hinterher weil zumindest ich würde einen Skylake-E kaufen, wenn es Ihn dann jetzt gäbe.
- Registriert
- Aug. 2011
- Beiträge
- 12.991
Holt schrieb:Auch Intel muss seinen Bestandskunden Motive für Upgrades liefern, nur ist das eben bei dem bereits erreichen Niveau nicht einfach. Steigerungen bei IPC unds Takt sind schwer, mehr als 4 Kerne werden von der typischerweise von Heimanwendern verwendeten SW kaum genutzt, für die anderen Kunden gibt es den grßen S. 2011(-3) und da bei den Xeons bis zu 18 Kerne pro CPU, mit jeder Generation mehr als bei den Vorgängern.
Upgrade-Motive liegen derzeit weniger bei der CPU als an der Peripherie: USB-Schnittstellen, PCIe-Lanes, Anbindung von ext. Komponenten, ... usw. usf. Zuletzt dann noch die Energieeffizienz der heutigen CPUs (Haswell hat gerade aus diesem Grund integrierte Spannungswandler), allerdings wäre das (für mich) niemals ein Grund für ein Upgrade.
Zur Kernskalierung: mit 4-8 echten Kernen ist dann aber auch eine Sättigung erreicht, die auch in Zukunft Software nur schwer übertreffen kann. Solange man nicht mehrere Instanzen einer Software und/oder verschiedene Programme gleichzeitig ausführt, ist auch hier in diesem Bereich eine Sackgasse erreicht. Beides ist jedoch eher eine Domäne des Rechenzentrums-Betriebs.
Du betrachtest es nur aus Deiner Sicht, also für die Gamer auf der Mainstram Plattform S.115x. Gerade um die Skalierung über mehere Kerne zu verbessern hat Intel doch TSX gebracht, auch wenn da bei Haswell noch ein Bug die Nutzung verhindert, aber die meisten Enterprisenutzungen brauchen das auch gar nicht wirklich, da bei denen vielen Kerne mit Aufgaben ausgelastet werden, die eben voneinander unabhängig sind.
- Registriert
- Aug. 2011
- Beiträge
- 12.991
@Holt: Bisher habe ich die Zielgruppe von Computerbase als Consumer, und hier vor allem Gamer, verstanden und wahrgenommen. Dass sich hier nun die Enterprise- / Datacenter-Freaks austauschen wäre mir neu.
Und zu TSX: ja, das ist auch so ein Enterprise-Feature. Schön, dass SAP zeigen konnte, dass ihre HANA damit deutlich flotter arbeitet. Und welche Game-Engine würde davon nun bereits heute profitieren? Oder auch in Zukunft? Viel näher, marktreifer und relevanter sind da schon die Low-Level-Grafik-Schnittstellen, die sowohl das Multithreading von modernen CPUs deutlich besser nutzen als auch auf der Grafikkarte selbst die Ressourcen besser auslasten werden.
Und zu TSX: ja, das ist auch so ein Enterprise-Feature. Schön, dass SAP zeigen konnte, dass ihre HANA damit deutlich flotter arbeitet. Und welche Game-Engine würde davon nun bereits heute profitieren? Oder auch in Zukunft? Viel näher, marktreifer und relevanter sind da schon die Low-Level-Grafik-Schnittstellen, die sowohl das Multithreading von modernen CPUs deutlich besser nutzen als auch auf der Grafikkarte selbst die Ressourcen besser auslasten werden.
V
VikingGe
Gast
An TSX bezweifle ich auch, dass beim Consumer irgendetwas dadurch schneller wird gegenüber fine-grained locking oder lockfreien Strukturen und Algorithmen (wobei letztere häufig gar nicht mal so toll sind, wie sie sich anhören). Das mag Sinn ergeben, wenn Software von, keine Ahnung, 20 und mehr Threads gleichzeitig auf dieselbe Speicherstelle zugreift.
Ähnliche Themen
- Antworten
- 41
- Aufrufe
- 9.036
- Antworten
- 188
- Aufrufe
- 34.917
- Antworten
- 97
- Aufrufe
- 18.669