News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

can320 schrieb:
Damit kann man aber angeblich keine Informationen/Daten übertragen.....

Schau dir das Video mal bis zum Ende an. Die Information wird nicht auf "physikalischem Wege" (also kontinuierlich von A nach B) übertragen, aber eine Übertragung (Morse-Code) wäre prinzipiell möglich (auch mit Überlichtgeschwindigkeit).
Aber keine Ahnung, wie diese Verschränkung funktionieren soll, kann sie mir beim besten Willen nicht vorstellen... :D
 
florian. schrieb:
ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will...

Unsinniger Kommentar. Wenn man die Fläche vergrößert, um Moore's Law aufrecht zu erhalten, dann ist man schon ein paar Jahre nach DIN A4 bei der Größe eines Zimmers, dann der Größe eines Hauses, usw...

Außerdem können Chips aus mehreren Gründen nicht praktikabel in solchen Größen gefertigt werden! Wafer-Ausbeute und Signalausbreitung wurden hier ja schon erwähnt.
Man sollte sich mal vor Augen halten, dass während eines Takts bei einem mit 4 GHz getakteten Prozessor das Licht nur ca. 7,5 cm zurücklegt.


pgene schrieb:
Sorry, aber du hast es dann einfach nicht verstanden. ;)
Die Daten werden nicht übertragen, sie werden teleportiert, Zeitfaktor null.
Quantenphysik ist verrückt und unvorstellbar in vielen Punkten, schau dir gerne beispielsweise auch mal Spaltversuche an, aber es ist real und bewiesen.

Nö, du hast es nicht verstanden.
Was der Herr im Video erzählt klingt ja ganz nett, aber wenn es wirklich stimmt, muss es erst mal praktikabel gemacht werden.
 
Zuletzt bearbeitet:
Das ist eigentlich recht einfach. Du musst nur einen Quantenzustand zweier Photonen in Übereinstimmung bringen, wenn ich es richtig im Kopf habe. Das wars dann auch schon. Du musst also aus einem Quantensystem von zwei unahbängigen Einzelobjekten, ein Quantensystem von zwei korrelierten Objekten machen, die dann eben nicht mehr als Unabhängig anzusehen sind. Deswegen hilft Verschränkung auch nichts. Du übermittelst keine Daten, der Wert des Systems ist apriori zum Zeitpunkt der Verschrenkung zwischen den beiden Partnern festgelegt, man weiß nur noch nicht wie, und mit der Messung wird das System eben aufgebrochen.

Bei der Quantenteleportation läuft es so ziemlich aufs gleiche hinaus. Man braucht halt erstmal ein verschränktes System, und selbiges kann sich halt nicht mit mehr als der Lichtgeschwindigkeit bewegen :rolleyes:

pgene schrieb:
Sorry, aber du hast es dann einfach nicht verstanden. ;)
Die Daten werden nicht übertragen, sie werden teleportiert, Zeitfaktor null.
Quantenphysik ist verrückt und unvorstellbar in vielen Punkten, schau dir gerne beispielsweise auch mal Spaltversuche an, aber es ist real und bewiesen.
....
Du kannst damit die Datenübertragung aber nicht schneller als mit Lichtgeschwindigkeit machen... Es geht EINFACH NICHT!

Der einzige von der theoretischen Physik als gangbar angesehene Weg Informationen zwischen A und B mit "mehr" als der Lichtgeschwindigkeit im Vakuum zu übertragen ist, den Raum zwischen A und B so stark zu krümmen, das er eben massiv kürzer ist, und man somit auch mit Unterlichtgeschwindigkeit eben Informationen übertragen kann, als dies im ungekrümmten Raum mit Lichtgeschwindigkeit möglich wäre. Und ja ich weiß wovon ich rede....
 
Im privaten Bereich für uns ist Moore's Law doch bereits Geschichte.
Seit Sandy Bridge gibt's nur noch 5-10% von alle 18 Monate.
 
@aylano

Ich habe das Wort Schluss nicht umsonst in Anführungsstrichen gesetzt.

Es wird mit aller Kraft daran gearbeitet, weiterhin einen gleichmäßigen Rhythmus zu halten etwas neues zu bringen, damit der Rubel rollt. Es wird schon lange an neuen Möglichkeiten und (Fetigungs)Techniken gearbeitet, um rechtzeitig aus dem Schlamassel herrauszukommen.

Aber sowas brauche ich dir ja nicht erzählen.
 
Zuletzt bearbeitet:
florian. schrieb:
ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will...

Ich stell mir vor, wie du in 20 Jahren einen Laptop mit dir rumträgst, dessen Komponenten 1000 mal so groß sind wie heutzutage...

Edit: woops, und so wiederholt man das, was schon andere vor einem geschrieben haben, wenn man sich nicht alle Kommentare durchliest.
 
Dein Laptop dient dann nur noch als Display und die Daten werden woanders berechnet. Cloud? (bei den Chinesen?).
 
Ich stell mir vor, wie du in 10 Jahren einen Laptop mit dir rumträgst, dessen Komponenten 1000 mal so groß sind wie heutzutage...

Du trägst keinen Laptop dann rum, sondern einen Client, der sich mittels 6G (10Gbit wireless) in das entsprechende Cloud-System anmeldet und dort die Rechenleistung nutzt. Dafür brauchst du vorort nur minimale Leistung ala 45nm Chips. Im Prinzip sehr einfach vorstellbar.
 
Es wird auch an völlig neuartigen Technologien jenseits klassischer elektrischer Transistoren (Quantencomputer, Optische Computer, Schwingungsbasierte Computer) geforscht und die Entwicklung könnte zukünftig vielleicht sogar noch schneller voran gehen als bisher.
 
P4ge schrieb:
Du trägst keinen Laptop dann rum, sondern einen Client, der sich mittels 6G (10Gbit wireless) in das entsprechende Cloud-System anmeldet und dort die Rechenleistung nutzt. Dafür brauchst du vorort nur minimale Leistung ala 45nm Chips. Im Prinzip sehr einfach vorstellbar.

Das wird nicht funktionieren. Ab 5gb - 10gb wird doch Funk gedrosselt. In paar Jahren gilt das vermutlich auch für die Festnetze. Damit aus der Traum vom Cloud Compuing, das ist nicht Kompatibel mit dem Rosa Rießen und schaft nur abhängigkeiten die keine auf dauer Finanzieren kann und/oder möchte. ;)
 
Überflüssiges Zitat aus vorhergehendem Beitrag entfernt!

!Achtung offtopc!! Die Drosselung soll nur deswegen kommen, weil einige wenig übermäßig viel vom system nutzen.
Wenn das System aber soweit ausgebaut ist, das es 10Gbit gibt und der Markt klar auf Cloudnutzung ausgerichtet ist, wird das auch so genutzt.

Außerdem war das eine der vielen Möglichkeiten wie die Nutzung aussehen kann.

Kleiner Hinweis dazu, wir haben früher auch immer gedacht, dass unsere PC ständig laufen müssten und wir immer mehr HDD´s verbauen werden. Und wie sieht die Realität heute aus? Wir nutzen ein NAS und lassen die Ergebnisse auf TV, PC und Tablet streamen.

Das "streamen" der Rechenleistung ist da nur der nächste logische Schritt.
 
Zuletzt bearbeitet von einem Moderator:
Ich glaube an Kohlenstoff - sämtliche Bioelektronik vom Regenwurm- bis zum Pottwalhirn läuft ja auch damit. ;)
 
Tapion3388 schrieb:
Schau dir das Video mal bis zum Ende an. Die Information wird nicht auf "physikalischem Wege" (also kontinuierlich von A nach B) übertragen, aber eine Übertragung (Morse-Code) wäre prinzipiell möglich (auch mit Überlichtgeschwindigkeit).
Aber keine Ahnung, wie diese Verschränkung funktionieren soll, kann sie mir beim besten Willen nicht vorstellen... :D
Punkt 1: Theoretische Physik und sich alles vorstellen ist eine ganz böse Kombination. Ich bin da spätestens bei starren Körpern und Kreiseltheorie rausgeflogen. Anfangsproblem ordentlich mathematisch umsetzen und dann die Mathematik arbeiten lassen heißt die Devise :D

Punkt 2: Mit Überlichtgeschwindigkeit geht nicht. Alles, was bisher in diesem Bereich erdacht oder beobachtet wurde, war entweder ein Paradoxon das aufgelöst wurde, oder Messfehler (siehe Neutrinos mit v>c).

Wie oben schon gesagt, mit massiver Raumkrümmung kann man sich Überlichtgeschwindigkeit zurechtbiegen, aber sobald man mal anfängt, die Bezugssysteme richtig zu betrachten und sich zu überlegen, wo man die Geschwindigkeit jetzt messen muss, wars das wieder. Ähnlich wie beim Myon Eigenzeitproblem.

Wenn du in einem Intervall T ein Signal über die Strecke d>c*T übertragen willst, hast du einen relativistischen Abstand d²<0 und damit eine raumartige Trennung. Das bedeutet, dass sich die Ereignisse des Sendens und des Empfangens nicht beeinflussen können. Genauso wie ein Schlitten in eine Loch fallen kann, obwohl die Kufenenden noch auf dem Boden sind (Panzerparadoxon).

Das wären nur die Widersprüche der spez. Relativität, Allgemeine muss ich noch hören, da gibts dann sich noch ein paar Konflikte.
 
@Skysnake: bei dir hört sich das ziemlich einfach an wie man einen Quantencomputer realisieren könnte. Aber allein die Vorstellung den Spin eines Elektrons zu bestimmen jnd dann auch noch festzuhalten ist schon krass. Und das noch in großem Maßstab... Das ist einfach ein Gedankenkonzept nicht mehr. Bis das alles auch nur annähernd möglich ist gibts noch viel Entwicklung im Pc-Bereich.
 
mal abwarten, vielleicht eine neue Chance für IBM,
ach mein e7500 ist noch @ 45nm gefertigt.
 
2020 soll schluß sein...na und,wird eh Zeit um andere Technologien zu entwickeln..dann müssense zur Leistungssteigerung was tun und mehr investieren.
da man schon....wenn auch nur vereinzelt an Kristallen forscht,wäre es wohl garnicht so abwegig das vielleicht auszubauen.Mehr investition,mehr Forscher und vielleicht kämen dann bessere resultate.So das 2020 ,wenn das potenzial der Transistoren ausgeschöpft ist....eine weiterführende technologie zur verfügung ist.

Wie und ob sowas funktioniert....fragt mich nicht sowas...bevor es transistoren gab,hat auch keiner dran geglaubt...also wer weiß was kommt.......irgendein genetisches Genie wird schon was einfallen.:alien_alt:
Ergänzung ()

promashup schrieb:
Phenom 2 auch 45nm
voll der Dinosaurier

macht doch nix,aber er funktioniert:cool_alt:
 
Wenn man bischen Quantenmechanik usw gehört hat, ist das von der Theorie her auch alles ziemlich einfach :D

Die reale Umsetzung in Maschinen/Apparaturen ist was GANZ! anderes. Daher wird es auch trotz aller Fortschritte im Bereich der Quantencomputer auch in den nächsten 20 Jahren sicherlich keine @home geben, wenn überhaupt jemals.

Wie gesagt, son flüssigen Stickstofftank hat keiner @home ;)

Wenn es mal Quantencomputer geben wird, dann in Großrechenzentren, die für Kühlung und auch für die Isolation gegen Vibrationen, elektromagnetischer Strahlung usw usw Unsummen ausgeben werden...
 
etking schrieb:
Es wird auch an völlig neuartigen Technologien jenseits klassischer elektrischer Transistoren (Quantencomputer, Optische Computer, Schwingungsbasierte Computer) geforscht und die Entwicklung könnte zukünftig vielleicht sogar noch schneller voran gehen als bisher.

genau das denke ich auch...es sollte mehr dran geforscht werden.:cool_alt:
 
DaBzzz schrieb:
Aber man rückt ja momentan bei Highend-Anwendungen wie CPUs eh wieder davon ab, weil SiO2 zwar gut, aber nicht exzellent ist. Und bei den paar Atömchen Isolator-Schichtdicke, die man heute noch machen kann, ist Hafniumoxid (z.B.) halt haushoch überlegen, wenngleich sackteuer. Aber bevor man gar nicht weiter schrumpfen kann, nimmt man das halt in Kauf...

Exakt die Wand, gegen die Intel mit Pescott und dem 90nm Prozeß gefahren ist. Es hat zu einem Umschwung der ganzen CPU-Entwicklung geführt.

Wer weiß also wohin die Entwicklung führen wird?
Ich tippe auf evolutionäre Entwicklungsverfahren. Dem CAD-System wird nicht mehr eine Schaltung vorgegeben, sondern nur noch welche Funktionalität das Ergebnis sein soll und der Weg dorthin wird in einem simulierten Evolutionsprozeß durchlaufen. Als Ergebnis bleibt eine Schaltung übrig, die die wenigsten Transistoren benötigt.
Bei bisherigen Versuchen sind da schon verblüffende Lösungen herausgekommen, die sich so niemals jemand hätte einfallen lassen und deren Funktionieren zum Teil noch gar nicht verstanden ist.
Im Maschinenbau wird evolutionäre Entwicklung schon länger eingesetzt, z.B. zur Gewichtseinsparung.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben