News Intel zeigt lauffähige 32-nm-Systeme

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.716
Im Rahmen einer Pressekonferenz hat Intel am Mittwoch auch in Deutschland die ersten lauffähigen 32-nm-Prozessoren gezeigt. Dabei kam sowohl die Desktop-Version Clarkdale als auch deren mobiler Ableger Arrandale zum Zuge.

Zur News: Intel zeigt lauffähige 32-nm-Systeme
 
ich finde es erstaunlich wie schnell das voranschreitet.
und ich bin mal sehr gespannt wie gut die integrierte grafikeinheit ist.
wird wohl nicht so der bringer sein, aber solange sie videounterstützung bietet, ist es für alle interessant, die einen media/Office-Pc haben wollen da es platz und stromsparend sein wird
 
Nanu wo sind die Jahreszahlen beim TickTock-Modell geblieben. Schafft man das straffe Programm doch nicht? :evillol:
 
Pico, nur ist das soweit ich weiss nicht mehr (so einfach) möglich, da da eine natürlich Grenze ist, nach der die Elektronen nicht mehr auf den Bahnen gehalten werden und ungesteuert springen.
Steinigt mich nicht wenn ich es nicht korrekt dargestellt habe...
 
Ab 11nm herscht Elektromigration von daher müssen se sich was einfallen lassen ;)
Aber schön zu sehen wie flott es anscheinend geht ;)

Nur immer wieder Schade finde ich das aus 45 nm und weiter kein Energienutzen gezogen wird, bzw nicht 100%.

Wieso nichtmal einen CPU entwickeln in 32nm mit ner TDP von 45 oder tiefer der auch Leistungstark ist, reicht ja 2*1,8 Ghz, für 24/7 oder Office.
 
Also ein Siliziumatom hat ungefähr einen Radius von 1,4 Angström. Das macht einen Si-Atomdurchmesser von ca. 0,28 nm.
Wie breit nun ein "sicherer" Leitungsabschnitt sein muss, hängt von Fertigungsgenauigkeit (reproduzierbar) und Fehlertoleranz der Konstruktion ab.


grüße
 
Nein, weniger wie eine Atomlage geht nicht. Die dürfte so etwas unter einem Nanometer sein.
 
Intigriete Grafikkarte im Prozessor finde ich generell gut, denn so könnte man z.B. sein Tri SLI System im Windows abschalten lassen. Selbst wenn man nur eine Geforce hat.
 
Kleiner Fehler im ersten Satz:

"Allendale" war der Codename der Core2 Duos der E4000er-Reihe. Später wird der Codename der mobilen 32 nm-Chips anscheinend richtig wiedergegeben ;-)
 
Wenn eine gewisse Strukturgröße unterschritten ist, dann liegt es nicht mehr an der mangelnden Vertigungstechnologie, sondern die Physik - in diesem Fall die Quantenmechanik - setzen der Verkleinerung eine prinzipielle Grenze. Diese dürfte so im Bereich von 10 nm liegen. Stichwort : Tunneleffekt.

Für noch kleinere Strukturen werden dann Bauelemente benötigt, die mit den derzeitigen nur wenig gemein haben und die genau die dann auftretenden Quanteneffekte nutzen. Da diese Technologien noch weit von der Marktreife entfernt sind, wird dann vermutlich erst einmal die Strukturgröße gleich bleiben und mit Hilfskonzepten z.B 3d-Packaging, extremes Multicore-Design u.ä. die Leistung weiter gesteigert.
 
Intel: bessere CPU, schlechte GPU
AMD: schlechtere CPU, bessere GPU
Da viele leistungshungrige Anwendungen weg von der CPU und hin zur GPU gehen, würde ich aber sagen, das AMD die besseren Karten für ihre FUSION-Konzept hat. Wobei bisher bis auf Ankündigungen ja noch keine Testmuster aufgetaucht sind, oder irre ich?
 
ab 32nm wird es eh nur noch sehr langsam gehen... der größte Schritt war von 45 auf 32nm... ab dann wird nur noch marginal kleiner bis die quasi an einem Endzustand sind

freut mich dass es so schnell geht :)

die Grafikhersteller / deren Auftragsfertiger dümpeln ja noch in 10 Schritten rum. Von 65 auf 55 nm:(
 
Zuletzt bearbeitet:
Diese natürliche Barriere ist aber auch kein allzu großes Problem. Durch innovative Architekturen ist bestimmt noch sehr viel an Potential da.

Bisher war die Verkleinerung eben ein sehr bequemes Mittel um die Chips immer komplexer werden zu lassen, ohne großartige Probleme zu bekommen.

Zur Not bauen wir eben mehrere Lagen übereinander, das ist theoretisch sogar machbar.
 
Respekt für Intels zügigen Entwicklungsfortschritt. Erste lauffähige 32nm-Chips zeigen schon einmal eindrucksvoll, dass man wohl im Zeitplan ist für die Markteinführung noch in diesem Jahr. Damit ist man ja auch noch gut in dem eigenen "Tick-Tock-Modell"-Fahrplan. So bleibt Intel auch weiterhin locker der Technologie- und Innovationsführer.

Spannend finde ich vor allem, dass wohl zunächst das Mainstream- und mobile Segment von der 32nm-Einführung profitieren wird und nicht wie gewohnt zunächst der Highend-Markt. Das ist ein sehr feiner Zug von Intel, da man dann der breiten Masse gleich von Anfang an die vollen Möglichkeiten der fortschrittlichen Entwicklung zur Verfügung stellt.
Durch die Integration der Grafik-Einheit hat man damit auch die Möglichkeit einer Gesamtplattform von Intel zu beziehen, die in Sachen Effizienz dann deutlich den Weg aufzeigt, wohin es wohl auch bei Amd mit Fusion gehen soll, wenn das doch noch irgendwann kommen sollte.

Alles in Allem eine beeindruckende Entwicklung, weiter so!
 
Ich frag mich wie weit intel eigentlich mit dem kabellosen strom ist^^
32nm is schon geil ; mal hoffen sie nutzen die auch aus!;)
 
Ich warte mal bis die auch beweisen können was heute so großartiges versprochen wird.
Die bauen einen Atom für endlos lange Laufzeiten bei kleiner Performace, wenn man aber ein AMD System mit kleinem X2 und 780G nimmt, dann verbraucht man gleich viel.
Was das angeht sollten die also mal zusehen, dass die auch konsequent bleiben.

Und das Tick-Tock Modell ist ja schön und gut, aber obs denn noch ein Tock ist wenn man im Dezember anfängt ein paar Prozis zu bauen ist was anderes.
Denn verfügbar werden die dann erst später und damit ist ein Tick immer etwas über ein Jahr und nicht mehr im Zeitplan.

Naja... sollen sie machen was sie wollen.
Momentan brauchen wir sowieso nicht mehr Performance.
(Mit brauchen meine ich auch wirklich brauchen, was damit tun kann man immer. Und mit wir meine ich denn Durchschnitts-User oder von mir aus auch Gamer)

Grüße vom:
Jokener
 
Tranceport schrieb:
Da viele leistungshungrige Anwendungen weg von der CPU und hin zur GPU gehen, würde ich aber sagen, das AMD die besseren Karten für ihre FUSION-Konzept hat. Wobei bisher bis auf Ankündigungen ja noch keine Testmuster aufgetaucht sind, oder irre ich?

Ich habe von ati noch keine wirklichen GGPU anwendungen gesehen,die einzigen die bis jetzt was brauchbares in der richtung auf die beine gestellt haben ist nvidia mit ihrer cuda schnittstelle.
 
Zurück
Oben