News Intel blickt in die Zukunft: 15-nm-Fertigung

Mein Gott, was TV uns antut...

Wir reden hier von einer Fertigung von 15nm und schon sind wir bei Zeitmaschinen angekommen, von Zeit verlangsamen bis das dadurch einiges schneller würde... und andere sagen das Physik uns Grenzen setzt. Naja die Physik hat schon oft Grenzen gesetzt und setzt sie bei Silizium was aber nicht heisst, das andere Stoffe nicht mehr können. Und wenn wir so weiter machen und die Entwicklung besser wird finden wir auch bald was anderes auf anderen Planeten und wer sagt das damit nicht sowas möglich ist. Es wurde vor 20 Jahren gesagt das ein Transport von Materie nicht Möglich ist und die Physik uns das verbietet. Na und, gute Forscher haben es geschafft, ein Atom von a nach B zu bringen. Gut, der Computer war so groß das ein Raumschiff und ein Haus dafür nicht gereicht haben. Aber das war mit einer CPU von vor Jahren. Mit I7 oder Phenoms würde das ganze schon wieder etwas kleiner ausfallen und mit den neuen Speichermedien SSD usw würde das auch schon wieder schneller gehen und die Sache schrumpfen. Mein Gott, wer hätte vor 15 Jahren gedacht das 6GB Ram normal sind und Festplatten 2TB haben und 90 Euro kosten? Also hört mir auf mit die Physik setzt uns Grenzen. Sicher tut sie das aber mit neuen Stoffen gibt es wieder andere Grenzen. Hier wird immer wieder gesagt Warp geht nicht. Hab da einen Bericht im TV gesehen (nein, nicht PRO7 und Gali) und dort beschäftigen Wissenschaftler sich damit und haben gute Ansätze und bauen dafür gerade was. Das wird aber wohl erst in 10 Jahren fertig sein zum testen und forschen. Also bitte, mit eins hatte Toyota wohl Recht, nix ist unmöglich und die Physik hat schon oft Grenzen gesetzt aber wir haben immer eine Möglichkeit gefunden!

@Thema

Nun wenn wir uns mal angucken, wass NV und ATI gerade mit TSMC für Probleme hat was 40nm betrifft, dann könnt ihr euch vorstellen, was es mit 15 bedeutet? Wobei sich die Frage stellt, wenn Intel es ja meint zu schaffen, warum fertigt NV oder ATI nicht dort wo Intel fertigt oder tun die das auch bei TSMC? Intel scheint sich seinen neuen Proxis gegenüber sehr positiv zu äussern. Also scheinen die das besser zu machen als TSMC oder sie hoffen das die das Problem behoben bekommen und fangen dann erst an zu fertigen... Mhhh weiss da einer mehr als ich zu?
 
Zuletzt bearbeitet:
@xstram
Durch Beschleunigung/Gravitation. Z.B in dem du dich in ein Raumschiff setzt und deinen Computer die ganze Zeit umkreist. Natürlich mit hoher Geschwindigkeit und entsprechender Beschleunigung, um dich in der Bahn zu halten.
 
Mhh also würde das bedeuten, die können das besser als TSMC? Zumindestens lassen es die Gerüchte über die Proxis so aussehen. Warum lässt NV oder ATI nicht auch dort fertigen. OK jetzt könnte man sagen warum sollten die Intel Geld in den Rachen werfen? Weil umsonst würde intel das wohl nicth machen. Aber besser als keine Karten zu verkaufen oder??

Wenn Intel diesen Teil der Fertigung wirklich so gut schon kann, dann trau ich denen das zu
 
Mallar schrieb:
Was haben hier eigentlich hier immer alle mit 3D?! Ein Chip ist doch heute auch schon nicht 1D oder 2D ..... sondern eben in vielen Schichten. (hat hier zwar schon jemand andres angemerkt, scheint ja aber keinen zu interessieren...)

Soweit ich weiß, ist aber nur eine Schicht diejenige, in der die Berechnungen ablaufen. Ansonsten müsste man ja mehrere Wafer übereinanderlegen und tachnisch verbinden, weil es nicht möglich wäre, bei der Fertigung mehrere Schichten in einem Wafer zu erzeugen.

Somit ist es heute noch 2D. Wenn es in Zukunft dahinläuft, dass 3-dimensionale Wafer möglich sind, die dann zum Beispiel 100 berechnende Schichten übereinander ermöglichen, könnte man die Leistung bei der Performance pro Watt locker ver-fünf-fachen.

Das Problem wäre ja - auch wenn es möglich wäre - dass der Stromverbrauch sich auch vervielfachen würde. Das heisst, man müsste alles entsprechend heruntertakten, um den Stromverbrauch zu senken und somit mehr Effektivität zu erreichen. Dann gäbe es wieder das Problem mit der Skalierung.

Das optimale wäre also wirklich, wenn man 3-dimensionale Würfel-artige Chips erzeugen könnte, die aus einer 3-dimensionalen Schicht beständen. So wäre es eventuell möglich, ohne das Problem der Skalierung eine Vervielfachung der Maximalleistung sowie eine Teilung der Stromaufnahme zu erzielen. Ich weiß aber nicht, aber das so möglich wäre.
 
@Mister79
Auf anderen Planeten findet man die gleichen Stoffe wie auf der Erde. Und die, die auf der Erde so selten sind, dass sie kaum aufzufinden sind, (wie Plutonium), lassen sich, wenn nicht künstlich erzeugen, dann zumindest theoretisch berechnen.
Und Materietransporter gibt es schon länger, Toyota stellt auch welche her, mittlerweile sogar als hybrid.
Aber du meinst sicher keine Autos. Das besondere ist wahrscheinlich eher die Geschwindigkeit, und die lag wie hoch? Sicher nicht über Lichtgeschwindigkeit.
Mein Gott, wer hätte vor 15 Jahren gedacht das 6GB Ram normal sind und Festplatten 2TB haben und 90 Euro kosten?
Ich denke das Problem ist eher dass die Menschen sich damals nicht vorstellen konnten wie viel das eigentlich ist und was man damit anfängt. Bei den damaligen Anwendungen wäre es völlig unsinnig gewesen. Das Problem das wir heute haben, ist dass bei zunehmender Miniaturisierung Phänomene, die bei größere Strukturen unglaublich unwahrscheinlich sind, immer wahrscheinlicher werden, denn die Bedeutung eines einzelnen Teilchens wird immer größer. Dadurch werden statistische Ausreißer immer wahrscheinlicher, dazu gehört nicht nur das Tunneln als Leckstrom, sondern auch dadurch hervorgerufene falsche Schaltvorgänge. Diese Probleme lassen sich nicht beheben, man kann nur Computer konstruieren, denen so etwas nichts ausmacht oder die dies sogar nutzen. Das eigentlich Problem heute ist aber, dass kein Ansatz wie Quantencomputer fähig ist, in den nächsten Jahren unsere Siliziumrechner zu ersetzen.
Und zu dem Warp, man kann natürlich die Lichtgeschwindigkeit nicht überschreiten. Man kann aber Abkürzungen nehmen. Die Frage ist nur wie man das anstellt. Nur werden damit nicht die Grenzen der Physik überschritten, sondern allerhöchstens die Grenzen der Phantasie.
 
@ Mister79: wieso sollte Intel für fremde Hersteller fertigen? BMW würde doch auch keine Audis bauen, wenn Audi es selbst nicht auf die Reihe bekommt.

Zumal Intel auch nicht so ohne weiteres GPUs oder andere Chips in den eigenen Hallen fertigen könnte, da das andere Prozesse, Materialien usw. erfordert.

TSMC ist eine Foundry, die eben für Firmen ohne eigene Fertigungshallen Chips produziert. Intel fertigt seine CPUs in den eigenen Hallen, so wie es AMD bisher auch gemacht hat. Seit AMD die eigenen Werke ausgegliedert hat, werden die Prozessoren von GlobalFoundries gefertigt. Auch das ist eine Foundry - wie TSMC - die auch für andere Firmen Chips produziert.
 
Zuletzt bearbeitet:
Ich denke, wenn physikalisch die kleinstmögliche Fertigung erreicht ist, wird es damit weiter gehen, dass man versucht, den Widerstand durch neue Materiale oder neue Strukturen zu senken, um die Performance pro Watt zu verbessern und somit mehrere Schichten zu ermöglichen, ohne dass diese aufgrund von zu hohem Leistungsbedarf und zu hoher Temperaturen zerstört werde. Eine Halbierung des Leistungsbedarf erlaubt dann eine Verdopplung der Schichten und somit auch eine Verdopplung der Leistung. Durch diese 3d-Fertigung wird es dann möglich sein locker das 1000-fache an Leistung herrauszukitzeln, weil man locker 1000 Schichten übereinanderlegen kann, bis man überhaupt merkt, dass es nicht mehr 2d, sondern mittlerweile 3d ist.
 
Wie ist das wenn sie da Wasser reinsetzen möchten? Es ist mir klar das das keine 2ml sind aber trotzdem.

Wasser breitet sich aus und das sowohl bei Erhitzen als auch beim Gefrieren. Wenn der Raum zu 100% mit Wasser gefüllt wäre würde sich das nicht ausgehen, oder?

Extrem Übertakten mit Stickstoff oder Flussigem Helium wäre dann evtl. auch nicht möglich?

Es sei denn das ist keine Wasser sondern eine sonstige komplett reine Flüssigkeit.
 
Das Wasser wird nur beim Belichten während der Fertigung eingesetzt (siehe hier ab 0:57), damit man kleinere Strukturen erzeugen kann.

Im fertigen Chip ist natürlich kein Wasser :)
 

Anhänge

  • T118E_01_02_0001w.jpg
    T118E_01_02_0001w.jpg
    88,2 KB · Aufrufe: 505
Aber es gab doch mal ein Kühlkonzeppt, bei dem Wasser durch den Chip selbst geleitet wird, um so einen 3d-Chip zu ermöglichen. Natürlich gäbe es hier das Problem der Ausdehnung nicht, weil das Wasser hier ja nicht integriert ist, sondern nur dadurchläuft. Gute Idee, aber schwierige Umsetzung... ^^
 
FS_Julio schrieb:
intel fertigt die prozessoren glaub ich in eigenen fabriken

Nicht nur "glaub sie haben eigene Fabriken". Sie haben welche. Wenn ich mich nciht irre sidn sie der einzigste Hersteller der eigene Fabriken besitzt. Der Rest lässt fertigen.

Warum NV und ATI nicht bei Intel fertigen lassen? Ist doch klar. Ersterns brauch Intel selbst seine 32nm Kapazität und zweitens ist ne CPU was anderes als ne GPU.
 
Ist schon der Wahnsinn 15nm, binn schon geanz gespannt darauf was Sie dannach machen wollen.
 
@ Floletni: nicht wirklich, es gibt zig Firmen, die ihre Chips selbst fertigen. Beispiel Infineon oder Micronas. Kleinere Firmen kennt natürlich kaum jemand, alles was man hört ist Intel, AMD und Nvidia :)
 
Mal abgesehen davon, dass Bill Gates das mit den 640KB nie gesagt hat, finde ich es trotzdem witzig, dass es immer wieder zitiert wird. Witzig v.a. deshalb, weil genau die Leute, die ihm das Zitat in die Schuhe schieben selber jedes Jahr alles neue schlecht reden

"Wozu braucht man X MB RAM, Y MB RAM reichen.", "Wozu braucht man Festplatten mit X GB, Platten mit Y GB reichen doch", "Wozu brauch man X Kerne, Y Kerne reichen doch", "Wozu brauch man X GHz, Y GHz reichen doch", "Wozu brauch man Grafikkarte X, Grafikkarte Y reicht doch", "Wozu brauch man Video mit Auflösung X, Videos mit Auflösung Y sehen genau so gut aus... das gibt es kaum einen Unterschied...vorher waren der Schritt viel größer", "Wozu brauchen USB-Sticks X GB, Sticks mit Y GB reichen doch", ...

Die Zahlen ändern sich jedes Jahr, aber das Gemecker ist immer das gleiche, immer von den gleichen Leuten und vermutlich genau von den Leuten, die sich heute darüber amüsieren, dass Bill Gates mal irgendetwas von 640KB erzählt haben soll. Selbst wenn er das gesagt hätte(!), ist es lustig, dass man sich über Dinge lustig macht, aber selbst noch 20+ Jahre später genau den selben Blödsinn selbst verzapft.

Kurzum: Arbeitsspeicher, Kerne, GHz, Festplattenplatz usw. kann man nie genug haben. Die Möglichkeiten heutiger PCs sind noch dermaßen beschränkt, dass man nicht sonderlich weit denken muss, um sich auszumalen, dass man mehr braucht. Solange man Videos nicht in weniger als 1s umwandeln kann, das Booten länger als 0s dauert und solange in Spielen weniger als unendlich viele Polygone mit unendlich vielen Bildern pro Sekunde in allen erdenklichen Filtern in unendlicher Auflösung dargestellt werden können, brauchen wir MEHR.

Und daher hoffe ich, dass das mindestens so schnell weitergeht wie bisher, das Quantencomputer Fortschritte machen und dass man endlich die 3. Dimension nutzt und aufhört Chip nur in 2D zu bauen. Momentan reicht es noch, aber irgendwann ist die 3. Dimension die einzige wo man noch hin kann.
 
@Mr. Snoot

Stimmt die ganzen Speicherchiphersteller habe ich vergessen. Hab nur im Bereich CPU und GPU gedacht.
 
@alex22 ich habe mir den Blog über das beschleunigte Universum gelesen, einiges vielleicht nicht verstanden aber im großen und ganzen sagen die aus, dass die beschleunigte ausdehnung des universums zur absoluten entophie führt (das ende der welt wie man es sich nicht schlimmer vorstellen könnte). ausserdem wird zu grunde dieser theorie gelegt, dass sich nichts schneller als lichtgeschwindigkeit ausbreiten könnte. ich würde dieses quasi axiom aber mit vorsicht genießen. nach dem heutigen wissen über die physikgesetze ist das wohl so, aber vielleicht wissen wir noch etwas nicht, genau genommen wir wissen immer noch zuwenig. mir fällt hier spontan gravitation ein. wenn ich da nichts falsches sage, hat gravitation keine ausbreitungsgeschwindigkeit. sie ist quasi ausbreitungslos vorhanden. damit würde die im blog beschriebene theorie nicht korrekt, denn dann würden alle objekte des universums immer im gegenseitigen observationsbereich liegen.

das problem mit dem zeitblasenprozessor ist, dass man eigetnlich den universum um den processor herum beschleunigen müsste um die wirkung der leistungssteigerung zu erreichen. unser wissensstand heute hat keine lösung um das gegenteil davon zu erreichen. in diesem sinne ist quantenphysik viel weiter fortgeschritten. interessanter ansatz wären schwarze löcher. über diese ist auch nur wenig bekannt. man weiss nur, dass diese nicht nur den raum sondern auch die zeitdimension krümmen können, und sonst die physikgesetzte die wir kennen dort nicht gelten, bzw. andere gesetze gelten die uns nicht bekannt sind. aber ein schwarzlochprozessor... das geht dan vielen hier wahrscheinlich doch zuweit ;)

auch eine zeitreise in vergangenheit, was zurzeit unmöglich erscheint, würde ich nicht für so unwahrscheinlich halten. immerhin gibt es theorien, welche besagen, dass man den raum krümmen könnte um von A nach B sofort zu gelangen, dann braucht man keine überlichtgeschwindigkeit. vielleicht lässt sich die zeit ebenfalls krümmen um von zeitpunkt A zu beliebigen zeitpunkt B zu gelangen. dann müsste der zeitfluss nicht mehr verlagsamet oder beschleunigt werden. ein prozessor könnte den programmcode vorrechnen und die ergebnisse in die verganghenheit der anfrage schicken. somit wäre die berechnungszeit für den betrachter nicht mehr wahrnehmbar.

sorry für offtopic
 
Zuletzt bearbeitet:
Quantencomputer sind mittlerweile schon zu kaufen und funktionieren, sie sind einfach nur nicht für den Heimgebrauch gedacht.
Sie müssen mit flüssigem Helium gekühlt werden, haben nur eine paar Quantenzustände pro "Bit" und haben im Moment so 8-32 "Bit" in einem Prozessor und mehr geht nur, wenn viele zusammengschalten werden.

Im Moment sieht alles so aus, dass die CMOS-Technolgie so schön langsam an ihr Ende kommt, das Konzept dahinter ist langsam überholt und wird immer schlechter je kleiner die Fertigung wird.
Es gibt genug neue Konzepte, aber noch keines das sich als Nachfolger durchgesetzt hat.

Carbon-Nanontubes sind zwar nett, aber bis jetzt kann man sie nur wachsen, aber noch nicht defniert an einer Stelle und für einen Prozessor muss man im Sub-µm Bereich wissen wo es zu liegen kommt.
Von der genau Positionierung ist man heutzutage noch weit entfernt.

Es gibt genug Bauelmente die nur 0,2-5nm breite Strukturen haben, nur halten sich diese nicht mehr an die normalen Gesetze, wie z.B. Ohmsche Gesetz und sind damit für die heutige CMOS-Technologie nicht einsetzbar.
Bei einem Radius von 0,2nm von Silizium ist einfach zwischen 50-100 Atomlagen das Ende der CMOS-Technik gekommen, weil es keinen Unterschied mehr zwischen Sperren und Leiten gibt.

Andere Materialen sind keineswegs kleiner als Silizium, außer man verwendet Gase, aber die kann man kaum als Prozessor verwenden.

Es gibt genug Lösungen die kommen werden und die nicht mehr so abhängig sind von der Strukturbreite, diese wird aber bald nicht weiter schrumpfen, wahrscheinlich sogar teilweise wieder größer werden.

Platz für neue Entwicklungen ist genug da, aber mal schauen ob in das in 10Jahren noch jemanden interessiert.
 
Zuletzt bearbeitet:
Wenn man Gase in ein geschlossenes Behältnis "sperrt", könnten sie dann nicht doch zu gebrauchen sein? Die Atome dürften sich halt nicht (unkontrolliert) bewegen.
 
Ich möchte mich FredKune anschließen solang die Spiele und Anwendung nicht perfekt laufen, sprich (fast) sofort geladen sind und perfekt naturgleich (vorallem Spiele)laufen kann man den Computer weiter verbessern.
Und sonst gibt es hier ja sehr abeteuerliche Ansätze für neue Computer, was ich auch interresant finde. ich finde auch den Quantencomputer mit seiner (wirklich) sofort übertragung von daten auch sehr interressant. Aber das forschen daran würde ich zumindest den Quantenphysikern und sonstigen Menschen überlassen die sich damit auskennen.(vielleicht gehör ich eines Tages auch dazu).
MfG

@ XStram meinst du du als CPU (oder Recheneinheit)?
Dann müstes du die gase aber auf den absoluten nullpunkt runter kühlen also 0°K( ist glaub ich meines wissens nach sogar noch ein paar zehntel Grad tiefer), sodass sich die Atome nicht mehr bewegen. Allerdings hättest du dann ein paar Problem.Die meisten bei zimmertemperatur gasförmigen Stoffe wären dann mitlerweile Flüssigkeiten oder Feststoffe(CO² sublimiert ab -78,5°C, Sauerstoff ab −218,79°C fest und so weiter). Es gibt kaum Stoffe die bei 0°K flüssig wären. Das zeite Problem ist das der Behälter dann nicht bewegt werden dürfte. Was unmöglich ist(außer du willst ihn zu Hause fertigen) man beachte auch das die bei der Post mit den Paketen auch nicht immer wie mit dem guten Porzellan um gehen. Dann kommen wir auch schon zum dritten größten Problem, man kann nach dem dritten Hauptsatz der Thermodynamik gar nicht erreichen.
Also wäre ein bischen schwierig.
 
Zuletzt bearbeitet:
Zurück
Oben