News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will...
 
Das Mooresche Gesetz lässt sich nach seiner Einschätzung bis maximal 2022 aufrechterhalten.
[...]
Dabei hält er es für wichtig, nicht nur zu ergründen, wann es vermutlich seine Gültigkeit einbüßt, sondern auch warum.
Bald geht die Welt unter, ich weiß noch nicht wann und warum, aber es wird geschehen!

Ansonsten: Immer mehr (oder in diesem Sinn, weniger) ist nicht möglich? Na so ne Überraschung. Danke Captain. Dass es teurer ist in 7nm zu fertigen als die Transistoren schnitzen zu lassen sollte doch auch klar sein.

Was versucht man uns hier mit zu teilen?
 
Nichts Neues also. Ich versteh nicht, warum die Leute sich so Gott verdammt nochmal schwer tun, der Wahrheit ins Auge zu blicken...

Ist genau das Gleiche wie mit Sockeln. Die werden auch auf kurze Sicht, die nächsten JAhre, also vor 2020, wegfallen. Das ist ein unausweichlicher Schritt, der kommen wird, die Frage ist nur noch wann genau, und da spielen eben ökonomische Überlegungen eine sehr große Rolle.

Die Firmen die das heute schon begreifen werden überleben, die die es nicht wahr haben wollen, werden eingehen.

florian. schrieb:
ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will...
Doch das hast du, weil das Ding dann >>1kW an Leistung zieht, wenn du entsprechend auch mehr Leistung als heute willst...

Ganz abgesehen davon handelst du dir ganz neue Probleme ein, weil es mehrere Takte dauert, bis ein Signal vom einen Ende des Chips zum anderen kommt. Viel Spaß bei der Cachecohärenz usw....
 
florian. schrieb:
ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will...

Aber ehrlich mal.

Früher hat man auch Riesen-Computer gebaut, und es ging nur um Leistung ... jetzt will man in die fest eingefahrenen Modelle das reinquetschen, was noch machbar ist.

Ich finde, in unseren ATX-Towern ist genügend Platz um auch exotischere Platinen zu wagen. Durch den zunehmenden Wegfall der Scheiben (CDs, DVDs, HDDs) wird auch wieder mehr Platz unter der Haube.
Man denke nur an die frühen Intel-CPU-Cartridges oder die Woodoo Grafikkarten.

Wenn man schon seine Mainboards so oft wechselt (da die CPU-Slots immer weiterentwickelt werden) dann kann das Argument der Standardisierung auch weglassen und gleich Platinen mit großen Sockeln (meinetwegen din A5 ;P ) für CPU oder gar eingebaute Kerne anbieten.

Belohnt würde die Industrie sicherlich durch die leicht höher möglichen Preise der Gesamtpakete, welche sicher ihren Mann finden, wenn die Leistungskurve wieder auf das Niveau von 2000 fällt( steigt ;) )
 
Moores law ist eigentlich nur ne Beobachtung meiner Meinung nach. Ich glaube nicht, dass die Chip Hersteller die transistorenzahl alle 18-24 Monate verdoppeln, weil ihnen das der Gute Moore per Gesetz vorgeschrieben hat.
Und mal sehen was ann als Technik kommt (optische transistoren, quantenrechner).
 
Es ist sowieso nichts ewig , irgendwann ist der Markt auch so gesättigt das viele Benutzer in ein paar Jahren mit dem Skylake so zufrieden sind das sie ihn über das Jahr 2020 behalten..
 
Die ökonomischen Gründe basieren nicht nur auf einem gesteigerten Kostenbedarf in der Entwicklung, sondern auch in einem verringerten Endnutzen:
.) Bisher konnte auch mit einer Halbierung der Fläche die Verlustleistung/Energiebedarf fast halbiert werden. Das ist heute nicht mehr gegeben.
.) Bis ca. 2006 konnte durch die verdoppelte Anzahl an Transistoren auch eine deutliche Leistungssteigerung erreicht werden. Dies ist heute auch nicht mehr der Fall. Eine Erhöhung der Kernanzahl bringt nur in sehr wenigen optimierten Anwendungen einen Performancevorteil. Bei den meisten Anwendungen im Alltag ist der Nutzen hier eher gering, da für den Großteil der Software der Aufwand für die Optimierung zu hoch ist. Auch wird der Performancegewinn durch Vergrößerung eines Kerns immer geringer. Während bei SSE2 noch deutliche Vorteile erreicht werden konnten, ist der Nutzen von AVX oder AVX2 nur mehr sehr gering und es wird auch fast nicht mehr darauf optimiert.
.) Zusätzlich war bisher mit einer Verkleinerung auch eine Erhöhung des Taktes möglich. Dies ist nun auch so gut wie nicht mehr gegeben.
.) Der Bedarf an mehr Leistung/Speicher wird immer geringer. Früher war der RAM immer sehr knapp und man hat nachgerüstet. Heute werden oft nur 8GB rein gesteckt, weil der Aufpreis so gering ist, aber in vielen Fällen reichen 4GB bzw. sogar 2GB (Office) locker aus.
.) Die CPU limitiert in den meisten Fällen viel weniger als früher. Heute ist die Festplatte die erste Bremse. Wird diese durch eine SSD getauscht, so ist es in erster Linie die Geschwindigkeit der Internetverbindung, wo zwar die Bandbreite immer mehr steigt, die Qualität jedoch immer mehr sinkt.
 
Intel könnte außer Silizium ja auch mal ein anderes Material verwenden. Germanium bspw.

MMn. werden wohl aber optische Chips die jetzigen beerben. Und ich denke 2020 ist dann noch lange nicht Schluss.
 
Cr4y schrieb:
Moores law ist eigentlich nur ne Beobachtung meiner Meinung nach. Ich glaube nicht, dass die Chip Hersteller die transistorenzahl alle 18-24 Monate verdoppeln, weil ihnen das der Gute Moore per Gesetz vorgeschrieben hat.

So ist das mit Gesetzmäßigkeiten doch immer, wie soll es auch sonst sein? Die Physik hält sich auch nicht an das Ohmsche Gesetz, nur weil Herr Ohm das so wollte.
 
Solang die Menschen Geld haben werden sie auch immer neue Technologien kaufen. Sieht man ja heute schon ganz gut mit den Smartphones, die alle 2 Jahre neugekauft werden.

Das Ende der Transistorenquetscherei ist ja nicht das Ende der Innovationen. Endanwender brauchen nicht immer mehr Leistung und Supercomputer füllen jetzt schon ganze Hallen. Ich bin schonmal drauf gespannt und freue mich, dass ich diesen Moment noch in meiner Lebenszeit miterleben darf. Sie werden schon irgendeinen Weg finden die Natur mal wieder auszutricksen :)
 
Könnte man nicht dann z.B bei 7nm bleiben und dann einfach die Chipfläche größer machen? Bin mir sicher, dass dann nicht Schluss ist, sonder es einfach länger dauern wird bis was neues kommt. Mal sehen, was uns in der Zukunft alles erwartet, auf jeden Fall war es noch nie so spannend wie jetzt!
 
Liegt die Cpu Geschwindigkeit echt nur daran wie klein die Struktur ist...
ich weis jetzt nicht wie klein der Intel Pentium 3 mit 1 Ghz darmals war.... glaub so bei 150nm oder so.. :D...
würde man den heute Nachbauen mit der gleichen Ghz zahl und der nm Struktur... aber mit den anderen fortschritten...
Neue matterialien, bessere Logik im aufbau der Cpu....und was weis ich noch....

Der müsste doch schneller sein als der vor 10 - 15 jahren.... oder ?

Die Sprünge würden vielleicht nicht mehr so rießig... aber dann nimmt man hald 16 Cpus... statt nur Dual oder Quad....
 
Vivster schrieb:
Solang die Menschen Geld haben werden sie auch immer neue Technologien kaufen. Sieht man ja heute schon ganz gut mit den Smartphones, die alle 2 Jahre neugekauft werden.


Ich hoffe dieser Konsumwahn eliminiert sich demnächst selber, ist ja schrecklich mit anzusehen was die Smartphoneabhängigkeit für Auswirkungen hat.
 
Man könnte 5nm oder das Jahr 2020 als das prophezeite Überschreiten von "Peak Silicon" bezeichnen.
 
Q . schrieb:
Intel könnte außer Silizium ja auch mal ein anderes Material verwenden. Germanium bspw.

Der einzige zwei Gründe warum man auf Silizium setzt ist dass es mega günstig ist und in ziemlich großen Mengen verfügbar ist, Germanium wäre abgesehen vom Rohpreis wahrscheinlich auch in der Reinigung verdammt teuer natürlich wäre das eine alternative aber zu welchem Preis ? ^^

DragonScience schrieb:
Die Sprünge würden vielleicht nicht mehr so rießig... aber dann nimmt man hald 16 Cpus... statt nur Dual oder Quad....

Das Problem ist dass man dass was die CPU bearbeitet nicht unendlich parallelisieren kann, sonst könnte früher oder später die GPU die arbeit der CPU übernehmen , momentan tun sich Programme mit 4 oder 8 Kernern schwer und erstere sind bereits über 6 Jahre auf dem Markt ^^
 
Zurück
Oben