Krautmaster schrieb:
spannend, inbesondere der Idle Verbrauch. Da dürften selbst die starken Core Kerne mit den ARM SOCs konkurrieren können. Bin mal gespannt ob die Intelschen 14nm auch schnell den Weg ins Smartphone finden.
Smartphones dürfte da nicht alleine im Blickfeld stehen, da ARM ja auch versucht Intel in seinem lukrativsten Markt, bei den Servern, anzugreifen. Nicht zuletzt AMD setzt da ja mit seinen 64 Bit ARM Server CPU an, aber der Hauptvorteil der ARM im Servern ist eben auch die hohe Effizienz, also viel Leistung pro Watt und deshalb stellt Intel ja auch diese Punkte besonders heraus. Da sicher nicht wenige Rechenzentren zwar gerne weniger Strom verbrauchen würde, aber die Umstellung auf eine andere CPU Architektur scheuen, wird man dort gerne dagegen argumentieren, dass ja bald von Intel ähnlich effiziente Server- CPUs kommen werden. Deshalb gibt Intel da so offen Auskunft, wenn man schon verspätet ist und es noch nicht mit realen Produkten beweisen kann. Intel sieht ARM als Hauptkonkurrenten und den muss man angreifen indem man ihm dort das Wasser abgräbt, wo er besser ist. Intel kann das vor allem über die modernste Fertigung erreichen.
Krautmaster schrieb:
Wie stellst du dir denn eine IPC Zusatzleistung vor?
Steht doch da: Flaschenhälse in der Architektur beseitigen, große Sprünge sind ja kaum möglich, je effizienter man wird und bei jeder Generation 3 bis 5% sind am Ende über mehrere Generationen auch nicht so wenig. Dazu denn die Zusatzbefehle, die mehr Daten auf einmal verarbeiten auf die die gleiche Operation ausgeführt wird.
Krautmaster schrieb:
Das geht heute fast nur noch über mehr Kerne + Takt
Wie schon gesagt wurde, hat es mit dem Takt nichts zu tun und auch nicht mit der Anzahl der Kerne, das gilt pro Kern. Es ist praktisch sogar so, dass die IPC schlechter werden, je höher der Takt ist, weil die CPU mehr Takte warten muss um ihre Daten aus den langsameren Speichern (L2, L3, RAM) zu bekommen und auch, je mehr Kerne sie hat, weil es öfter Kollisionen bei diesen Zugriffen gibt, die die einzelnen Kerne zu noch mehr Wartezyklen verdammen. Dies zu minimieren, bringt daher praktisch auch mehr IPCs.
Krautmaster schrieb:
Rein über Architektur ist da nur noch wenig zu holen.
Bei Intel wohl kaum noch, außer man ändert war richtig Großes. AMDs Architektur hat da noch viel Potential, es soll ja angeblich Ende 2015 noch mal was kommen, aber warten wir es ab.
Krautmaster schrieb:
Wir reden hier von CPU, nicht von GPU die perfekt über die Breite skalieren.
Auch nicht wirklich, denn auch da sind die Speicherzugriffe das Problem, auch wenn GPUs schnelleren Speicher und breitere Interfaces dafür haben, aber linear skalieren die auch nicht, wenn auch weit besser als CPUs.
Das war ja auch AMDs Ansatz bei den APUs, die Taktraten stoßen irgendwann an einer Mauer wo man sie nicht mehr steigern kann und wenn, dann nur auf Kosten einer unverhältnismäßigen Steigerung der Leistungsaufnahme. Die Skalierung über die Kerne ist bei Server mit viele unabhängigen parallelen Aufgaben machbar, aber für einzelne Aufgabe selbst bei gutem Multithreading auch begrenzt, weil eben nicht alle gut parallel ablaufen kann, spätestens wenn die Ergebnisse eines Threads in einem anderen gebraucht werden, ist da Schluss. Daher will man eben durch die Integration der GPU in die CPU dieser möglichst viel parallele Aufgaben übertragen was sich sonst nicht lohnt, auch so kleine Aufgaben wo es sich sonst nicht lohnt, wenn man die Daten erst zu eine Graka und wieder zurück ins RAM schaufeln muss. Dazu fehlt nur die SW-Unterstützung und andererseits graben immer mehr Befehlserweiterung dem Ansatz auch das Wasser ab.
Volker schrieb:
Diese kleinen speziellen Details gibs dann zum IDF in 4 Wochen in San Francisco.
Vielleicht rückt Intel ja wieder etwas raus, z.B. wie es mit den maximalen Taktrate aussieht, die scheinen ja geringer als bei Haswell zu sein, wenn man die Desktop Spitzenmodelle weiter auf Haswell Basis belässt.
Volker schrieb:
Adieses häppchenweise ist einerseits Fluch (immer wieder das Thema rauskramen, PR für Hersteller)
Deswegen machen die Hersteller das ja auch
Hauro schrieb:
Das glaube ich kaum, soll doch schon
in Q2 2015 Skylake erscheinen. Die CPU macht dann schon wegen des Chipsatzes mehr Sinn. Volker, ihr könntet auch mal fragen, wann Intel denn gedankte 10Gbit Ethernet in die Chipsätze zu integrieren. Es gab ja mal Gerüchte, dass es mit Skylake der Fall sein würde und wenn die PCIe 3.0 Anbindung sich bewahrheitet, wäre die Bandbreite ja auch vorhanden.
Hauro schrieb:
Setzt vermutlich einen x97 Chipsatz vorraus.
Nein, X Chipsätze dürfte nur für den S.2011(-n) kommen, so wie der X99 der für den S. 2011-3 kommen wird. Z ist die Spitzen der Mainstream Chipsätze.
Herdware schrieb:
andererseits dauert es halt immer viele Jahre, bis solche Erweiterungen auch in der Standardsoftware Einzug halten.
Jein, Intel ist da mit seinen Compilern und Bibliotheken immer recht flott, auch ein klarer Vorteil gegenüber AMD, die das Thema immer sehr vernachlässigt haben. Aber je mehr SW heute nicht mehr wirklich in Maschinencode kompiliert wird, sondern wie .Net oder Java zur Laufzeit über Interpreter läuft, umso kleiner wird das Problem.
Herdware schrieb:
Hätte man vor 20 Jahren jemandem erzählt, dass ein paar Jahre später normale Desktop-CPUs TDPs von fast 200W erreichen
Fast 200? AMD hat Desktop CPUs mit einer TDP von 220W im Angebot
Herdware schrieb:
Mal eben die TDP des Top-Modelle zu verdoppeln, ist heutzutage jedenfalls einfach nicht mehr drin.
Dafür sind die Werte auch schon zu hoch und vor allem bekommt man die Leistung, die ja bei kleineren Strukturen auch immer konzentrierter an kleinen Stellen auftritt, auch gar nicht so leicht weg. Umso unverständlicher, dass Intel auf WLP setzt statt die Heatspreader weiterhin zu verlöten.
KaHaKa schrieb:
Es gibt neue AMD APUs? Was hab' ich verpasst?
einen solchen Test würde ich auf jeden Fall auch begrüßen!
Nichts besonders, die alten Regel, dass der CPU Teil Intel nicht das Wasser reichen kann aber die iGPU und vor allem die Treiberunterstützung dafür besser sind, gilt noch immer.
Krautmaster schrieb:
Letzteres, bezogen auf die ganze CPU, wird eben hauptsächlich durch mehr Kerne realisiert.
Bezogen auf die ganze CPU, aber meines Wissens bezieht man die immer auf einen Kern (Thread).
Die Ausführungen von Wahlze bzgl. Kosten und Zeitrahmen für die Einführung von 450mm Wafern halt ich für weitaus realistischer als die von CD. Ziel ist es ja am Ende die Kosten zu senken, indem man pro Bearbeitungsschritt mehr Chips herstellt, man macht es also nicht wirklich wegen der paar Chips am Rand. Die Tendenz geht halt in die 3. Dimension und dafür werden nun einmal noch mehr Schritt nötig, wird reden da von Hunderten, wenn nicht gar bei CPUs schon von Tausenden. Damit verschieben sich die Fertigungskosten pro Wafer von der reinen Grundfläche immer mehr zu den Bearbeitungsschritten und dies kann man nur kompensieren, wenn man die Wafer vergrößert und so Schritt dann mehr Chips fertigt.
Der springende Punkt ist aber, und das wird auch irgendwann die weitere Verkleinerung der Strukturen betreffen, ob man diese Investitionen noch stemmen und wieder innerhalb einer überschaubaren Zeit einspielen kann.
Bzgl. der Angaben zu den Fertigungsstrukturen gehe ich mit bensen einher, denn das ist ein sehr komplexes Thema und es gibt so viele verschiedene Abstände, da kann man kaum den einen oder anderen als Referenz definieren. Daher nennen die Hersteller meist die kleinste Breite die irgendwo realisiert wurde. Das ist bei NANDs ja nicht anders, da bedeutet Xnm ja auch nicht automatisch, dass eine Zelle Xnm x Xnm groß ist, meist sind es eher Xnm x Ynm oder noch mehr. Entscheidender ist aber am Ende immer welche Eigenschaften das Produkt hat, nicht wie es genau gefertigt ist.