Die spannende Frage wird sein, ob es wirklich in die von dir genannte Richtung geht, oder ob nicht doch vorher ein Materialwechsel weg von Silizium-Abstraktionen von statten geht.TenDance schrieb:Ich geh davon aus dass CPU/GPU-Designs früher oder später eine geschichtete Ausarbeitung bekommen wie bei HMC. IBM hatte schon Prototypen mit einer Art eingebauter heatpipe - was im Endeffekt ja das einzige Problem ist, die Abwärme rauszubekommen ohne dass hotspots verbleiben. Klar kann man dann anfangen kühlere Bereiche wie controller und cache zentral aufzubauen dass man zentral keine riesige Wärmequelle hat, aber zu weit nach oben gehen kann man sich nicht leisten, da dann das Verhältnis Volumen (=Transistoren=Wärme) zu Oberfläche sinkt. Ein moderner Chip ist im Vergleich ja unglaublich "schlecht" wenn es um dieses Verhältnis nach Raumökonomie geht. Für den Zweck der Wärmeabgabe allerdings ideal.
Das geht recht schnell. Im Neugeschäft gibt es kaum einen Grund, warum man nicht auf DDR4 gehen sollte. Hab gerademal geschaut: In einer 256 GB-Konfiguration (16x16 GB) macht der Unterschied zwischen DDR3 und DDR4 ca. 2.000 Euro Listenpreis aus. Bei durchaus üblichen 40-50% Rabatt bleiben dann noch 1.000 bis 1.200 Euro Unterschied übrig. Auf 5 Jahre abgeschrieben, sind das 17-20 Euro pro Monat. Lächerlich. Das fällt wirklich nicht ins Gewicht.shh schrieb:Wow, das sind schon Teile, aber bis sich DDR4 - und die CPUs - auf breiter Fläche durchsetzen, wird's bei den Preisen wohl noch ne Weile dauern.
Ist eigentlich gerade 'Tic' oder 'Toc'?
Klar zahlen die Early-Adopters ein wenig Einführungsprämie für DDR4-Speicher. So schlimm, wie manche das manchmal beschreiben, ist es dann aber wirklich nicht.