Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Im Rahmen einer Pressekonferenz hat Intel am Mittwoch auch in Deutschland die ersten lauffähigen 32-nm-Prozessoren gezeigt. Dabei kam sowohl die Desktop-Version Clarkdale als auch deren mobiler Ableger Arrandale zum Zuge.
ich finde es erstaunlich wie schnell das voranschreitet.
und ich bin mal sehr gespannt wie gut die integrierte grafikeinheit ist.
wird wohl nicht so der bringer sein, aber solange sie videounterstützung bietet, ist es für alle interessant, die einen media/Office-Pc haben wollen da es platz und stromsparend sein wird
Pico, nur ist das soweit ich weiss nicht mehr (so einfach) möglich, da da eine natürlich Grenze ist, nach der die Elektronen nicht mehr auf den Bahnen gehalten werden und ungesteuert springen.
Steinigt mich nicht wenn ich es nicht korrekt dargestellt habe...
Also ein Siliziumatom hat ungefähr einen Radius von 1,4 Angström. Das macht einen Si-Atomdurchmesser von ca. 0,28 nm.
Wie breit nun ein "sicherer" Leitungsabschnitt sein muss, hängt von Fertigungsgenauigkeit (reproduzierbar) und Fehlertoleranz der Konstruktion ab.
Intigriete Grafikkarte im Prozessor finde ich generell gut, denn so könnte man z.B. sein Tri SLI System im Windows abschalten lassen. Selbst wenn man nur eine Geforce hat.
Wenn eine gewisse Strukturgröße unterschritten ist, dann liegt es nicht mehr an der mangelnden Vertigungstechnologie, sondern die Physik - in diesem Fall die Quantenmechanik - setzen der Verkleinerung eine prinzipielle Grenze. Diese dürfte so im Bereich von 10 nm liegen. Stichwort : Tunneleffekt.
Für noch kleinere Strukturen werden dann Bauelemente benötigt, die mit den derzeitigen nur wenig gemein haben und die genau die dann auftretenden Quanteneffekte nutzen. Da diese Technologien noch weit von der Marktreife entfernt sind, wird dann vermutlich erst einmal die Strukturgröße gleich bleiben und mit Hilfskonzepten z.B 3d-Packaging, extremes Multicore-Design u.ä. die Leistung weiter gesteigert.
Intel: bessere CPU, schlechte GPU
AMD: schlechtere CPU, bessere GPU
Da viele leistungshungrige Anwendungen weg von der CPU und hin zur GPU gehen, würde ich aber sagen, das AMD die besseren Karten für ihre FUSION-Konzept hat. Wobei bisher bis auf Ankündigungen ja noch keine Testmuster aufgetaucht sind, oder irre ich?
ab 32nm wird es eh nur noch sehr langsam gehen... der größte Schritt war von 45 auf 32nm... ab dann wird nur noch marginal kleiner bis die quasi an einem Endzustand sind
freut mich dass es so schnell geht
die Grafikhersteller / deren Auftragsfertiger dümpeln ja noch in 10 Schritten rum. Von 65 auf 55 nm
Respekt für Intels zügigen Entwicklungsfortschritt. Erste lauffähige 32nm-Chips zeigen schon einmal eindrucksvoll, dass man wohl im Zeitplan ist für die Markteinführung noch in diesem Jahr. Damit ist man ja auch noch gut in dem eigenen "Tick-Tock-Modell"-Fahrplan. So bleibt Intel auch weiterhin locker der Technologie- und Innovationsführer.
Spannend finde ich vor allem, dass wohl zunächst das Mainstream- und mobile Segment von der 32nm-Einführung profitieren wird und nicht wie gewohnt zunächst der Highend-Markt. Das ist ein sehr feiner Zug von Intel, da man dann der breiten Masse gleich von Anfang an die vollen Möglichkeiten der fortschrittlichen Entwicklung zur Verfügung stellt.
Durch die Integration der Grafik-Einheit hat man damit auch die Möglichkeit einer Gesamtplattform von Intel zu beziehen, die in Sachen Effizienz dann deutlich den Weg aufzeigt, wohin es wohl auch bei Amd mit Fusion gehen soll, wenn das doch noch irgendwann kommen sollte.
Alles in Allem eine beeindruckende Entwicklung, weiter so!
Ich warte mal bis die auch beweisen können was heute so großartiges versprochen wird.
Die bauen einen Atom für endlos lange Laufzeiten bei kleiner Performace, wenn man aber ein AMD System mit kleinem X2 und 780G nimmt, dann verbraucht man gleich viel.
Was das angeht sollten die also mal zusehen, dass die auch konsequent bleiben.
Und das Tick-Tock Modell ist ja schön und gut, aber obs denn noch ein Tock ist wenn man im Dezember anfängt ein paar Prozis zu bauen ist was anderes.
Denn verfügbar werden die dann erst später und damit ist ein Tick immer etwas über ein Jahr und nicht mehr im Zeitplan.
Naja... sollen sie machen was sie wollen.
Momentan brauchen wir sowieso nicht mehr Performance.
(Mit brauchen meine ich auch wirklich brauchen, was damit tun kann man immer. Und mit wir meine ich denn Durchschnitts-User oder von mir aus auch Gamer)
Da viele leistungshungrige Anwendungen weg von der CPU und hin zur GPU gehen, würde ich aber sagen, das AMD die besseren Karten für ihre FUSION-Konzept hat. Wobei bisher bis auf Ankündigungen ja noch keine Testmuster aufgetaucht sind, oder irre ich?
Ich habe von ati noch keine wirklichen GGPU anwendungen gesehen,die einzigen die bis jetzt was brauchbares in der richtung auf die beine gestellt haben ist nvidia mit ihrer cuda schnittstelle.