News TSMC: „Moore's Law“ hält noch 6 bis 8 Jahre

Iapetos schrieb:
@Redaktion:
<klugscheiß>Es heißt "mooresches Gesetz" oder "Gesetz von Moore", jedenfalls ohne Apostroph. Das Apostroph ist ein Auslassungszeichen, hier wird allerdings nichts ausgelassen. Bitte heizt die grassierende Apostrophitis nicht noch zusätzlich an.</klugscheiß>

Es heisst DER Apostroph.
 
Es heißt mooresches Gesetz und wenn die es nicht einhalten setzen wir Brüssel darauf an!
 
@ NoD.sunrise

Genauso wie deine Vermutung ist es völliger Quatsch, Forschungsgeschwindigkeiten zu prognostizieren, die sich dann zufälligerweise 50 Jahre lang bewahrheiten.

Die Halbleiterfirmen halten sich an dieses "Gesetz", da es einen angenehmen Kompromiss aus Fortschritt und Kosten darstellt und darüber hinaus eine Roadmap vorgibt. Denkt denn wirklich jemand, die Strukturgrößen sind willkürlich gewählt oder von der Natur vorgegeben? Das passt vielmehr einfach wunderbar. Z.B. ist 40nm/sqrt2~28nm, was der nächste Schritt bei TMSC sein soll. 30nm klingt aber doch eigentlich viel schöner. (Jetzt frag bitte keiner, warum Wurzel 2...)
 
Das ist die falsche herangehensweise, natürlich erscheint es aus heutiger Sicht äußerst schwer oder unmöglich. Wenn man sich so von der Angst treiben lässt dann wagt man gar nichts und lässt es sein weil es so schwer erscheint. Erstmal 20nm Strukturgröße in den Griff kriegen dann über alles weitere nachdenken. Jetzt spekulationen anzustellen das es in 6-8 Jahren schwer wird ist nicht nur sinnlos sondern schädlich. Ich habe selbst zwei Chipfabriken und wir gehen die Probleme mit aller ruhe und präzision an und arbeiten Schritt für Schritt.
 
@heiterheiter

20nm... 22nm sind es bei Intel in der zweiten Hälfte diesen Jahres. 16nm sollen es 2013 sein. Und Spekulationen bezüglich physikalischer und ökonomischer Grenzen finde ich nicht gefährlich sondern notwendig. Man kann sich nicht erst Gedanken über Alternativen machen, wenn man vor dem Problem steht... das wäre verschenkte Zeit.
 
Also einige hier haben IMO ne sehr beschränkte Zukunftsvorstellung wenn gesagt wird, mehr Leistung braucht man für nen Heimanwender nicht oder es ist nicht mehr Wirtschaftlich.

Denkt doch einfach mal weiter. Weg von eurem popeligen Windows desktop.

In Zukunft könnte man KIs, Spracherkennung und Videoerkennung in Computer einbauen.
Vielleicht werden wir irgend wann nicht mehr mit nem Desktop arbeiten, sondern mit nem ganz anderen Ansatz. Augmented reality, holographie usw.
Das alles würde irrsinnig Leistung benötigen.

Was ist mit 3D Spielen und 100%ig Fotorealistischer Grafik und Physik? Davon sind wir euch heute noch meilenweit entfernt. Besonders bei Physik sind wir ganz am Anfang und das braucht extremst viel Leistung.

Irgendwann will man diese Rechenleistung auch in Tablets, Handys oder im Körper implantierte Chips einbringen. Der Tabelt möchte vielleicht irgendwann in seine Dockingstation und verwandelt dann die mit OLEDs tapezierte Wand in nen riesigen virtuellen Arbeitsbereich. Vielleicht noch mit brillenloser 3D darstellung?

Wie wärs mit nem Künstlichen Bein mit integrierten Kameras, die z.B. ne TreppenStufe erkennen und so frühzeitig reagieren können?

Was ist mit dem allem, was wir uns heute noch nicht vorstellen können
Wie sagte Bill Gates mal? Mehr als ein paar KB RAM würden Heimanwender nicht brauchen...


Man muss ja nurmal den Vergleich zwischen nem Handy von 1990 und einem von 2010 wagen. Wer hätte damals gedacht, dass es jemals sowas geben würde?
Und heute , so engstirnig wie wir sind behaupten wir, wir wissen, was die nächsten 10 Jahre passiert, weil wir sind schlauer, als die vor 10 oder 20 Jahren und können jetzt beurteilen, dass wir ans Ende kommen. (<- Schwachsinn)

Ich bin sicher, in 10 Jahren werden wir genauso über die heutige Technik schmunzeln, wie wir jetzt über die von 2000.


Um das ganze mal auf die Spitze zu treiben, denkt mal ernsthaft drüber nach, was mit der Welt in 100, 200 oder 1000 (oder X ) Jahren passieren könnte. Glaubt ihr, die würden sich dann mit der Rechenleistung von heute zufrieden geben?
Genau das ist der Grund, warum ich Aussagen, wie "Ende ist erreicht" oder "Mehr braucht man nicht" nicht verstehe. Seit Millionen Jahren versucht der Mensch neue Sachen zu erfinden, und das wird die nächste Million auch so weiter gehen.
 
Zuletzt bearbeitet von einem Moderator:
Vor etwa 8 Jahren habe ich von einem Freund gehört, dass ca. 2019 die kleinst-machbare Fertigungstechnik erreicht sein soll. Danach sollte es physikalisch nicht mehr machbar sein, noch kleinere Strukturbreiten zu erzeugen. Offenbar wird es noch ein wenig länger dauern, aber an dem Zeitpunkt scheint wohl der Wendepunkt zu sein, an dem die Weiterentwicklungsgeschwindigkeit stark eingeschränkt sein wird.


PS:
Die ursprüngliche Aussage hinter Moore's Law aus dem Jahre 1965 besagte, das sich die Komplexität integrierter Schaltkreise in einem fest definierten Zeitrahmen verdoppelt.
Wer findet den Fehler? ;)
 
Um das ganze mal auf die Spitze zu treiben, denkt mal ernsthaft drüber nach, was mit der Welt in 100, 200 oder 1000 (oder X ) Jahren passieren könnte. Glaubt ihr, die würden sich dann mit der Rechenleistung von heute zufrieden geben? Genau das ist der Grund, warum ich Aussagen, wie "Ende ist erreicht" oder "Mehr braucht man nicht" nicht verstehe. Seit Millionen Jahren versucht der Mensch neue Sachen zu erfinden, und das wird die nächste Million auch so weiter gehen.

Die werden schon froh darüber sein, wenn sie was zu Essen und zu Trinken haben, wie die meisten Menschen auf diesem Planeten - denn der technische Fortschritt hat der Menschheit bisher gar nichts genützt. So etwas steckt auch manchmal hinter "Mehr braucht man nicht".
Energieeffizienz ist ein gutes Ziel - möglichst viel Rechenleistung für photorealistische Spiele ist Luxus... und den möchte man gerne haben, aber den braucht man nicht. Das sollte man nicht miteinander verwechseln. (Mal ganz davon abgesehen, dass damit auch der Produktionsaufwand von Spielen steigt.)

Die Sache mit dem künstlichen Bein finde ich dagegen schon interessanter.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Seit Millionen Jahren versucht der Mensch neue Sachen zu erfinden, und das wird die nächste Million auch so weiter gehen.

Es gibt also seit Millionen von Jahren Menschen auf der Erde ? Das kannst du nicht beweisen !
 
Auf jedenfall geht es auf Silizium-Basis nicht so weiter. Ab einer bestimmten nm Fertigung ist Ende im Schacht, aus der jetzigen Physiksicht.
Ergänzung ()

Auch wenn Laggy.NET meint das würde alles schon iwie klappen, sagt die Physik was anderes. Und ich bezweifel sehr, dass in 8 J. ein vollkommen neues Gerät erfunden wird, welches noch kleiner herstellen kann als in nanometer(nm).
Wer weiß vllt wurde es ja schon erfunden und wird uns, dem Volk, wie immer vorerst vorenthalten, um so viel Profit, wie möglich aus der jetzigen Technologie zu schlagen :)
 
Zuletzt bearbeitet:
@calluna: Ich weiß auch nicht, wie das kommt, dass so viele hier im Forum eine technische Weiterentwicklung immer für UNBEDINGT NOTWENDIG halten... Ich denke auch, dass die Technik eher einen Luxus darstellt und keineswegs eine Notwendigkeit. Aber das scheinen einige hier wohl nicht ganz einsehen zu wollen... Natürlich freut man sich darüber, aber warum sollte man unbedingt mehr brauchen? Ich bin mit dem Hier-und-jetzt auch ganz zufrieden :)

Man kann es auch so formulieren: Niemand braucht einen Porsche, aber es ist schön, einen zu haben! ;)
 
So wie das ewige Wirtschaftswachstum irgendwann an grenzen stoßen muss, kann auch das Shrinking der Schaltkreis-Strukturen nicht ewig weitergehen. Aber bei zweiterem leuchtets zumindest des meisten ein.
 
Für eine Fortführung von Moore's Law sind jedoch größere Innovationen nötig.
->APU bzw. das Potenzial der GPU entfesseln, da wird der gute alte Sir Moore dann komplett umrundet.
feature_image01.jpg

http://www.intelsinsides.com/page/com_20.html
 
Wir haben erst vor kurzem in der Vorlesung darüber geredet. Das Hauptproblem mit der aktuellen Technik ist der Stromverbrauch pro cm³. Mehr als 140 W/cm³ lässt sich nicht kühlen (Kochplatten haben ca. 6 W/cm³). Anfang der 90er gabs das Problem schonmal und wurde durch den Umstieg von Bipolar auf CMOS gelöst. Mal sehen was die Zukunft bringt.

Wenn der Fortschritt bei der Hardware aufhört, fangen die Softwareleute hoffentlich endlich mal an Ihre Software zu optimieren. Ich habe vor ca. 11 Jahren meine erste DVD auf einem Pentium II mit 350Mhz flüssig ansehen können. Mit heutiger Abspielsoftware sehe ich auf dem alten Rechner (er tut noch :)) nur ne Diashow. So ähnlich siehts leistungstechnisch auch bei anderer Software aus.

Ich finde die Leistung der aktuellen Hardware mehr als ausreichend, nur der Stromverbrauch und Haltbarkeit könnten besser sein. Letzteres wollen die Hersteller ja offensichtlich nicht ;).
 
OT:

@Dr.Phenom:

Nein, die Menschen gibt es erst seit 6000 Jahren :D

[klugscheiß_mode]
Nein Spaß, die Gattung "homo" (lat. Mensch) gibt es aber schon seid über 1 Mio. Jahren, ja sogar über 2 Mio. Jahren:
http://de.wikipedia.org/wiki/Homo
http://de.wikipedia.org/wiki/Homo_antecessor
http://de.wikipedia.org/wiki/Homo_erectus
http://de.wikipedia.org/wiki/Homo_ergaster
http://de.wikipedia.org/wiki/Homo_habilis
http://de.wikipedia.org/wiki/Homo_rudolfensis


Die Art "Homo sapiens" (lat. weiser/einsichtsvoller/verständiger Mensch) aber erst seit etwas mehr als 200.000 Jahren.

Also ist eine genauere Definition, ob Art oder Gattung gemeint ist nötig.

Da allerdings andere Arten der Gattung auch "geforscht" bzw. erfunden haben kann man davon ausgehen, dass die Gattung gemeint war.
[/klugscheiß_mode]
 
Zuletzt bearbeitet:
SB94 schrieb:
OT:

@Dr.Phenom:

Nein, die Menschen gibt es erst seit 6000 Jahren auf der Erde :D

Kreationismus liegt mir fern :D

Trotzdem ist die Behauptung, das es eine Lösung gibt nur weil es bisher immer eine gab und dann noch in Verbindung mit haltlosen Zeitrahmen nicht grade sinnfällig.
Wir wären nicht die erste Kultur bzw das erste Ökosystem auf diesem Planeten das mehr oder weniger spurlos verschwindet ...
 
Sebbl2k schrieb:
von mir aus braeuchten wir keine einzige innovation mehr ausser vlt in richtung medizin..

Husch! Husch! Zurück in die Höhle mit dir. Du kannst doch nicht ernsthaft behaupten, dass wir keine Innovationen mehr brauchen, wenn du gar nicht weißt, was noch kommen kann. Und Innovationen haben nun mal ansich, dass man sie nicht voraussagen kann.
Der von mir sehr geschätzte Arthur C. Clarke sagte einmal: "Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden."

Dr.Phenom schrieb:
Es gibt also seit Millionen von Jahren Menschen auf der Erde ? Das kannst du nicht beweisen !

Schade, SB94 war leider schneller. Ich wollte dich auch zurück in die Kirche schicken. Die Gattung homo, deren Eigenschaft es z.B. ist Werkzeuge zu bauen (und zu erfinden), gibt es schon seit 2,5 Mio. Jahren. Mal ganz davon abgesehen, dass es auch andere Menschenaffen gibt, die praktische Entdeckungen an andere Artgenossen weitergeben.
 
Korkinator schrieb:
Genauso wie deine Vermutung ist es völliger Quatsch, Forschungsgeschwindigkeiten zu prognostizieren, die sich dann zufälligerweise 50 Jahre lang bewahrheiten.

Die Halbleiterfirmen halten sich an dieses "Gesetz", da es einen angenehmen Kompromiss aus Fortschritt und Kosten darstellt und darüber hinaus eine Roadmap vorgibt.

Sorry aber das sieht sehr danach aus dass du nicht die geringste Ahnung hast von was du da überhaupt redest. Hast du irgendeinen Beleg, irgendeine haltbare Quelle für deine Behauptung?

Moore hat diese Prognose nicht willkürlich getroffen, er hat schlicht und einfach die Geschwindigkeit beobachtet in der es voran geht und ist letztlich zu dem Schluss gekommen dass dies auch zukünftig so weitergehen wird. Einige Jahre nach seiner ersten Prognose hat er den Zeitraum für die verdopplung (wieder aufgrund der Erfahrung der letzten Jahre) dann enger gefasst.

Hätte er nicht recht behalten würde heute natürlich keiner darüber diskutieren.

Deine Behauptung lässt sich doch aber allein am Bsp AMD schon widerlegen - AMD hat seit Jahren (seit dem Core2) große Probleme noch mit Intel schritt zu halten und kann sich nur über niedrigpreise am Markt halten. Denkst du wirklich die würden weiter extra langsam entwickeln damit die Arbeiter mehr Zeit zum Däumchendrehen haben wenn sie mal eben locker nen Gang zulegen und auf Intel aufschließen könnten?
Ich frage mich wie man derart naiv sein kann...

calluna schrieb:
Die werden schon froh darüber sein, wenn sie was zu Essen und zu Trinken haben, wie die meisten Menschen auf diesem Planeten - denn der technische Fortschritt hat der Menschheit bisher gar nichts genützt. So etwas steckt auch manchmal hinter "Mehr braucht man nicht".
Energieeffizienz ist ein gutes Ziel - möglichst viel Rechenleistung für photorealistische Spiele ist Luxus... und den möchte man gerne haben, aber den braucht man nicht.

Der Mensch als Spezies wäre wohl kaum so erfolgreich gewesen wenn er mit dem zufrieden gewesen wäre was er hatte. Man sollte nicht den Fehler machen und den Fortschritt dafür verantwortlich machen dass es große Wohlstandsgefälle gibt. Das war zu Zeiten irgendwelcher Könige und Sklaven noch weit schlimmer.

Klar könnte man sagen uns geht es doch gut genug wozu immer weiter forschen - aber ich sehe es irgendwo als Aufgabe der Menschheit so viel wissen wie möglich anzuhäufen und irgendwann den Geheimnissen unseres Universums und des Lebens auf den Grund zu gehen. Das bringt einem Armen mann kein brot auf den Tisch (zumindest nicht unmittelbar) aber was wäre die Menschheit ohne irgendwelche Ideale?
 
Zuletzt bearbeitet:
Also in einer Info-Vorlesung vor nem Jahr hatte mein Prof noch groß getönt, dass wir zur Zeit sogar noch vor dem Zeitplan von Moore's Law sind. Sprich, dass wir eigentlich noch ein Jahr Puffer haben vorneweg.
Bin dann auch mal gespannt wann dann das vorläufige Ende eintrifft, bzw. wann Moore's Law gebrochen wird.
 
Zurück
Oben