News Intel „Broadwell“ geht fürs dritte Quartal die Zeit aus

Bin gespannt, wie es da weiter geht. Man dachte ja schon vor langer Zeit, dass es unter 20nm kaum noch was zu holen gibt. Jetzt ist man bis 4nm optimistisch.
Aber es bleibt dabei: irgendwann ist man mit dieser Silizium Technik am Ende. Dauert zwar noch ca. 20 Jahre, doch bis dahin brauchen wir was neues.
 
Oder aber, man konzentriert sich, wenn man an den physikalischen Grenzen von Silizium bzw. generell Halbleitern angekommen ist, um so mehr auf Architekturverbesserungen. Oder auch Detailverbesserungen in den Herstellungsprozessen (z.B. mehr 3D-Strukturen usw.). Das dürfte für lange Zeit der wesentlich einfachere und wirtschaftlichere Weg sein, im Vergleich zu komplett anderer Technik (Quantencomputer, Optronik usw.).
Ich schätze, dass man dadurch nochmal für viele weitere Jahre deutliche Fortschritte machen kann.
 
Hi zusammen,

ich hab verschiedentlich lesen können, daß zum Broadwell Releasetermin zunächst nur die Notebook/Ultrabook CPUS ausgeliefert werden und die Desktop CPUS erst einige Monate später erscheinen. Bezieht sich der jetzt verbreitete Releasetermin wieder nur auf die Notebook/Ultrabook CPUs? dann würde die Desktop CPU ja erst so mitte 2015 erscheinen oder?

Schöne Grüße: Mike
 
ogdullum schrieb:
Ich dümpel hier noch mit einem i5 750 rum. Hätte nie gedacht, dass ich mal über 4 Jahre mit einer CPU mitmache.

Auf der anderen Seite ist es aber auch toll, wenn man nicht alle Nase lang aufrüsten muß. Hab auch noch den gleichen Prozzi verbaut wie du und hab jetzt meine Graka mal wieder aufgerüstet. Reichte bis jetzt vollkommen aus und mein Rechner ist von Herbst 2009 rum, wo eben die i5 750 rausgekommen sind. Mich juckt es zwar auch mal wieder in den Fingern. Aber da warte ich lieber noch und hab dann wieder einen richtigen Sprung gemacht. Da kommt aber dann nicht nur für das BS ne SSD rein dann ;).
 
Hallo @ all,

einerseits braucht man heutzutage immer seltener mehr Power als eine Feld-Wald-Wiesen-i7-CPU ab Sandy. Andererseits ist der Chipsatz/MB unweigerlich mit der CPU verknüpft. Im Gegensatz zu den tollen 775er Zeiten, braucht man heutzutage alle Naselang eine neue CPU - nicht der CPU wegen, sondern der (für den Power-User) unverzichtbaren Neuerungen in der Peripherie (natives SATA-III, natives USB 3.0, mSATA, M.2, Thunderbold, und, und,).

Bevor jetzt jemand mit Zusatzchips auf den MBs, u.ä. Computer-Restmüll-Komponenten kommt, das ist NICHT das gleiche. Der Unterschied zwischen nativem USB 3.0 und irgendwelchen Renesas-Müll z.B. ist gewaltig. Ich habe keine Minute bereut das MB von P67 Extreme 4 auf Z77 Extreme 4 zu wechseln. Gäbe es ein MB mit Z87 und 1155er Sockel für meinen 2600k, würde ich keine Minute zögern und mir eines holen. Wenn mir die CPU-Leistung nicht reichen würde, könnte ich ja die CPU OCen, was bisher schlicht nicht nötig war. Diese läuft seit dem ersten Tag kühl und leise mit dem Boxed-Kühler.

Wenn aber der X99 kommt und dieser auch noch M.2 unterstützt, das wäre für mich ein Grund zu wechseln, um dann endlich die lästige 32GB RAM-Grenze zu durchbrechen. :cool_alt:
 
AMINDIA schrieb:
Was ist denn neu an den Haswell Refresh?
Was wurde jetzt da in noch kürzerer Zeit gebracht?
Wie viele Türen waren es bei dir, gegen die du gelaufen bist?

Du und die anderen die meinen Beitrag scheinbar nicht verstehe können/wollen habt euch wohl versammelt, und gemeinsam Klebstoff geschnüffelt ^^
Ich habe geschrieben das sie immer schneller neue CPU's veröffentlichen, und nicht neue Architekturen !!
Zuerst nachdenken, dann schreiben ihr Blitzmerker, wer keine Ahnung hat sollte sowieso schweigen.
 
BlackWidowmaker schrieb:
Im Gegensatz zu den tollen 775er Zeiten, braucht man heutzutage alle Naselang eine neue CPU - nicht der CPU wegen, sondern der (für den Power-User) unverzichtbaren Neuerungen in der Peripherie (natives SATA-III, natives USB 3.0, mSATA, M.2, Thunderbold, und, und,).

Das liegt aber auch daran, dass das eigentliche PC-Konzept irgendwie in Vergessenheit geraten ist. Eine wesentliche Stärke eines PCs lag ursprünglich mal in der Erweiterbarkeit. Der "natürliche" PC-Weg wäre also, sich zusätzliche SATA-III, USB3.0, Thunderbolt usw. einfach per Steckkarte nachzurüsten, wenn man es braucht.

Es ist aber mehr und mehr in Mode gekommen, statt Erweiterungskarten immer mehr auf das Mainboard zu löten oder in den Chipsatz oder gar direkt die CPU zu integrieren. Es gibt praktisch nur noch "rundumsorglos"-Mainboards, die versuchen einen mit allem zu versorgen, was man vielleicht irgendwann mal brauchen könnte (aber meist doch nie braucht). Aber zukünftige, neue Standards bleiben natürlich außen vor.

Und diesem "Alles onboard"-Trend folgend wird auch die Erweiterbarkeit immer geringer. Ok, PCIe-Steckplätze gibt es auf einem ATX-Board immer noch eine Menge, aber die PCIe-Lanes, die sie bedienen, sind zumindest bei den aktuellen Consumer-PCs ziemlich knapp bemessen. Die Hälfte geht schon allein für eine einzelne Grafikkarte drauf. Für die restlichen Steckplätze kommen dann oft noch irgendwelche Beschränkungen dazu, wie die PCIe-Lanes aufgeteilt werden können und wie nicht.
Bei den Low-End-Systemen sieht es noch finsterer aus und man kann froh sein, wenn man wenigstens zwei PCIe-Lanes zur freien Verfügung hat.

Bei Intel hält nur noch die teure Sockel-2011-Plattform die Fahne der flexiblen Erweiterbarbeit hoch. Bei AMD ist es die schon ziemlich angestaubte und jetzt quasi offiziell für tot erklärte AM3+-Plattform.
 
@Herdware: Du hast Recht, aber nur teilweise. Das Problem ist tatsächlich. daß eine alternative Lösung Prinzip bedingt nicht mit einer nativen Lösung mithalten kann. Bei den heutigen Frequenzen die über die Leiterbahnen jagen, spielt jeder mm eine entscheidende Rolle, bezüglich Datenübertragungsrate, Latenzen usw.

Daher sehe ich als ideale Lösung ein MB mit 3 Chips: CPU, GPU, RAM. Alles was heutzutage noch auf dem MB oder im Chipsatz ist, gehört mMn direkt in die CPU integriert. Die Stacking-Technologie bietet dazu die richtige Grundlage. Sprich Silizium-Lagen zu stapeln.
 
RangnaR schrieb:
So viele Shrinks wird es nicht mehr geben. Intel kratzt schon an der 10nm Marke, darunter wird es zapfenduster, nicht nur Lithographie-Technisch sondern auch zwecks der notwendigen Anzahl an Atomlagen. Wenn es noch eine Handvoll Shrinks werden, sind das viele. Das Ende ist absehbar, eine Silizium-Lage hat 0,543nm, macht noch 9 Shrinks im bekannten Raster dann hast due 1 Atomlage Silizium. Oder man verkleinert in Sergei Bubka Manier, 1 nm um 1 nm, dann sind es noch 14 Shrinks.

Die Shrinks haben in den letzten Jahren erheblichen Effizienz-Zuwachs ergeben. Nachdem ja immer mehr Performance/Watt gefragt ist und nicht mehr Performance um jeden Preis, haben sich die absoluten Zahlen für einen Kern klar nicht mehr deutlich erhöht. Oder liegen zum Teil drastisch unter den bekannten Werten.

Es zeigt sich auch, dass der Flaschenhals die Off-Die Komponenten sind und der Weg zum SoC nicht umkehrbar ist. Und da hat Intel das eine und das andere Problem. ARM war schon immer dort und AMD hat sowohl den Willen als auch die Komponenten dafür. Nicht umsonst besteht die Vorherrschaft von Intel aus den großen Caches, die sich Intel auf Grund des Fertigungsvorsprungs leisten kann.

Ironischer Weise, soweit ich weiss, bitte verbessert mich, nutzt man ja noch immer Belichtungsmethoden, die eigentlich im Grunde bei der Strukturgröße gar nicht mehr funktionieren. Das geht nur noch stochastisch mit mehreren Vorlagen und Belichtungen, die dann eventuell doch ein eigentlich unmögliches Ergebnis produzieren. Schon ein genialer Trick. Aber ob man tricksen kann, eine Atomlage zu halbieren?

Gut analysiert. Das unterschreibe ich so. :)
 
Zurück
Oben