News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

Autokiller677 schrieb:

Die Entfernung zwischen den Quanten ist immer 0, egal wie weit sie in unserer Realität voneinander entfernt sind. Es ist ja auch keine Informationsübertragung, das Partnerteilchen wird einfach sofort umgepolt, eher Teleportation.

Wenn man das irgendwann nutzen kann wirds lustig.^^
 
Zuletzt bearbeitet von einem Moderator:
....

Alter Verwalter...

Nein, da wird NICHTS "umgepolt"...

Wie oft soll ich es denn noch sagen... Das System ist schon in sich festgelegt, die beiden Partner agieren also gemeinsam, aber ohne direkte Wechselwirkung. Wenn du was misst, misst du einfach den Zustand in dem das Ding eh schon ist. Du weißt du apriori eben nicht, was du misst. Die Partner unterliegen einfach einer Kohärenz.

Seh es wie zwei Pendel, die du zusammen anstößt, und dann wegträgst. Die "wissen" nichts voneinander, sind aber dennoch im Gleichtakt. Wenn du jetzt bei dem einen nachschaust, wie es schwingt, weißt du auch wie das andere SChwingt.

Nichts anders ist Verschränkung...
 
Skysnake schrieb:
Also weitestgehend stimme ich deinen Beiträgen hier zu. Aber die Aussage "Wenn du was misst, misst du einfach den Zustand in dem das Ding eh schon ist." ist in meinen Augen gefährlich, wobei wir hier fast bei der Interpretation der QM angekommen sind. Nehmen wir die Kopenhagener Deutung, so würde man eher an einem Bespiel formulieren: Hat man ein System zweier verschränkter Photonen, und beziehen wir uns auf deren Polarisation, dann ist bis zu der Messung der Zustand beider Photonen unbestimmt und erst wenn wir messen, erhalten wir ein Ergebnis für das eine Photon, was dann das Ergebnis für das andere Photon komplementär vorgibt. In unserer QM Vorlesung gab es 6 Axiome und das 5. lautete: Unmittelbar nach einer Messung der Observablen A, die den Eigenwert a_n ergeben hat, befindet sich das System im dazugehörigen Eigenzustand Psi_n. Und genau das würde ich hier auch übertragen.

Aber letztlich ändert es nichts an dem Kern der Aussage, dass wir keine Informationen mit Lichtgeschwindigkeit übertragen, da wir vor der Messung ja nur eine Aussage über die Wahrscheinlichkeitsverteilung treffen können und uns nicht beim Messen aussuchen dürfen, ob das eine Photon nun linkszirkulär polarisiert ist und das andere damit umgekehrt.
 
Zuletzt bearbeitet von einem Moderator:
e-Laurin schrieb:
Ich meinte, dass man das noch mehr auswälzt und auf die Spitze treibt...
...Ähnlich wie bei einer GPU, die im Prinzip aus tausenden parallel ansprechbaren Multiply-Add-Funktionseinheiten besteht, will ich statt einer ALU tausende Int-Add-, Int-Multiply-, etc. -Funktionseinheiten sehen.

Natürlich nur so weit, wie es Sinn ergibt.
Das Problem dabei ist dass der x86-Befehlssatz von Grund auf nicht auf hohe Parallisierbarkeit hin entwickelt wurde. In jedem Programmcode gibt es Abhängigkeiten. Diese Abhängigkeiten begrenzen die Parallelisierbarkeit.
Was nutzt es wenn man viele ALUs bei einer CPU hat aber diese nicht schnell genug mit Befehlen füttern kann? Dann sind die vielen ALUs nicht ausgelastet.
Die pro Thread-IPC bei x86 Code ist begrenzt. Deshalb versucht Intel es seit der zweiten Pentium-Generation (MMX!) mit Befehlssatzerweiterungen um die CPUs für spezielle Aufgaben (v.a. Multimedia-Daten) schneller zu machen.

Beim eigentlichen x86 Code ist praktisch kaum noch eine Erhöhung der "pro Thread IPC" möglich. Code-Abhängigkeiten! Weshalb Intel die Recheneinheiten mittels SMT (namentlich Hyperthreading) noch besser auslastet.

Intel fokusiert die Entwicklung deshalb auf solche Dinge wie AVX u. Befehlssatzerweiterungen für spezielle Aufgaben (z.B. AES, SHA Beschleunigung), da die CPUs immer mehr multimediale Daten verarbeiten u. Sicherheit ein großes Thema ist.

Es gibt da mehrere Grenzen:

* Strukturverkleinerungen müssen sich ökonomisch für den Hersteller rechnen. Was nutzt es wenn die Technologie um kleinere Strukturen herzustellen überproportional kostspielig ist u. der Nutzen relativ gering im Vergleich dazu?
* Grenzen der Parallelisierbarkeit des Programmcodes
Komplexer aufgebaute Chips die kaum schneller laufen. Aufgrund Amdahls Gesetz skaliert Programmcode nicht linear mit der Anzahl der CPU-Kerne
* Taktfrequenz
Bei höheren Taktfrequenzen steigen Stromfluß und Abwärme bei den Chips.

Was bleibt? Umstieg auf neuere Materialien die höhere Taktfrequenzen erlauben halte ich für eine Option. Die CMOS-Technologie dürfte tatsächlich in 7 bis 8 Jahren technisch ausgereizt sein.
Wobei 5 nm tatsächlich nur noch 20 Atomlagen entsprechen. 4 Atomlagen Silizium entsprechen etwa 1 nm im Kristallgitter.

Ab 10 nm Strukturen müssen die Hersteller auf EVU Lithografie umstellen, aber das ist eine sehr große technische Herausforderung – Massenfertigung von Chips mit EVU Lithografie.

Intel treibt einen exorbitanten(!) Aufwand um Chips mit 14 nm Strukturen mit derzeit üblichen Belichtungsmaschinen hinzubekommen.
 
Zuletzt bearbeitet:
Eliteübermensch schrieb:
Und steht da jetzt was anderes, als ich gesagt habe? Nein also was willst du damit sagen

hydrox schrieb:
Also weitestgehend stimme ich deinen Beiträgen hier zu. Aber die Aussage "Wenn du was misst, misst du einfach den Zustand in dem das Ding eh schon ist."
Du weist wie es zu verstehen ist. Man fixiert den Zustand, und bei bielen Messungen zeigt sich halt die Wahrscheinlichkeitsdichte, mit der jeder Einzelstund vorkommen kann. Klar hat man vor dem Messprozess eine Unbestimmtheit, aber das rafft hier doch keiner fast keiner...

ist in meinen Augen gefährlich, wobei wir hier fast bei der Interpretation der QM angekommen sind. Nehmen wir die Kopenhagener Deutung, so würde man eher an einem Bespiel formulieren: Hat man ein System zweier verschränkter Photonen, und beziehen wir uns auf deren Polarisation, dann ist bis zu der Messung der Zustand beider Photonen unbestimmt und erst wenn wir messen, erhalten wir ein Ergebnis für das eine Photon, was dann das Ergebnis für das andere Photon komplementär vorgibt. In unserer QM Vorlesung gab es 6 Axiome und das 5. lautete: Unmittelbar nach einer Messung der Observablen A, die den Eigenwert a_n ergeben hat, befindet sich das System im dazugehörigen Eigenzustand Psi_n. Und genau das würde ich hier auch übertragen.
Der Knackpunkt ist doch bei Verschränkung, das man eben keine zwei unabhängigen Wellenfunktionen hat, sondern Wellenfunktionen, die aneinander gekoppelt sind, also korrelieren. Deswegen kann ich ja auch sagen, was mit B ist, wenn ich A messe. Ich weiß aber vor dem Messvorgang eben nicht, was ich bei A messen werde, weil durch die Messung eben noch nicht fixiert, aber die Korrelation usw begreifen die Leute ja einfach nicht.

Aber letztlich ändert es nichts an dem Kern der Aussage, dass wir keine Informationen mit Lichtgeschwindigkeit übertragen, da wir vor der Messung ja nur eine Aussage über die Wahrscheinlichkeitsverteilung treffen können und uns nicht beim Messen aussuchen dürfen, ob das eine Photon nun linkszirkulär polarisiert ist und das andere damit umgekehrt.
Genau das sag ich ja schon seit zich Beiträgen... Wobei man über die Wahrscheinlichkeitsverteilung ja nichtmal was bei ner Einzelmessung aussagen kann, sondern nur aufgrundlage der QM-Rechnung, oder halt vieler Messungen ;)
 
Ich hab nicht alle Kommentare gelesen, aber zu der Idee etwas anderes als Silizium zu nehmen: quasi unmöglich. Das größte Problem wäre momentan tatsächlich vernünftige Einkristalle herzustellen. Hatte ja auch jemand schon beschrieben, à la Czochralski geht das dann nicht so einfach. Fakt ist bislang: Es gibt kein Material auf der Welt und, ohne mich allzuweit aus dem Fenster zu lehnen, im Universum, dass so perfekt ist wie ein Wafer aus Silizium. Problem bei anderen Stoffen wie Germanium ist, dass man es nicht ohne "Defekte" (Versetzungen) herstellen kann. Und jede Versetzung killt nen Transistor. Und selbst wenn man das Problem gelöst hätte, bleibt noch die mangelnde Reinheit (Punktdefekte). Bei Verbindungshalbleiter wie GaAs ist etwas ganz simples noch viel schwieriger: Man muss die dann 1:1 "abwiegen"! Hört sich simpel an, aber so genau wie es nötig wäre, ist es wohl technisch nur äußerst schwierig möglich.

Ein Ansatz um Moores Law möglicherweise länger aufrecht zu halten wären dreidimensional aufgebaute Chips (und ich meine nicht "3D Transistoren" von Intel). Es gibt ein paar Ansätze, die für einfach Schalten auch schon realisiert wurden https://www.computerbase.de/2013-04/spezifikationen-fuer-hybrid-memory-cube-fertiggestellt/
Der Trick ist hierbei, dass man durch kürzere Signalwege nicht nur höhere Taktraten möglich mach könnte, sondern auch durch kleinere Widerstände die Verlustleistung reduzieren kann. Schwierig ist aber dabei trotzdem die Kühlung, da es ja dann auch im Inneren eines Chips nicht zu warm werden darf.
Sehr interessant und nah an der aktuellen Forschung ist immer die ITRS (International Technology Roadmap for Semiconducters). Einfach mal nach 3D Integration/Packaging/TSV oder ähnlichem suchen.
 
AMINDIA schrieb:
Das sind aber keine guten Nachrichten für Intel. Der Gewinn fällt seit 2 Quartalen, zuletzt ist dieser ja um 29% gefallen. Die Kosten für einer immer kleinere Fertigung werden immer höher, bei gleichzeitigem Rückgang der PC Verkäufe. Der Smartphone und Tablet Markt wird bei weitem nicht die Einnahmen auffangen können, selbst wenn Intel in diesem Markt mehr Anteile erlangen könnte. Wahrscheinlich wird der nächst kleinere Fertigungsschritt 10nm sich weiter nach hinten verschieben und somit auch der Vorsprung den Intel in diesem Bereich hat eingebremst.
Genau das ist das Problem.
Einerseits wird die Fertigung teurer und andererseits geht der Bedarf an zusätzlicher Leistung zusätzlich zurück, was man bei Ultrabook schon seit 2 Jahren sieht und in der PC-Flaute schon seit 1 Jahr. Und bei Tablets & Smartphones deutet sich langsam auch ein Zenit an, was man weniger an den Stückzahlen sieht, sondern mehr in den niedrigen Preisen der Konkurrenz bzw aufstreben der Billig-Konkurrenz a la MediaTEK.

Eigentlich betrifft die Topic-Prognose ja eh eher nur Intel, wo ja ein Intel-Mitarbeiter die Prognose erstellte.
Denn bei den Foundries (TSMC & Globalfoundries) sind die Umstiege sowieso schon sanfter, was man z.B. an den enormen Wafer-Preisen zu sehen sind. AMD hat sich genauso schon auf diese Produktions-Situation umgestellt, wo man teils nicht unbedingt als erster die neue Fertigung nutzen muss (siehe PS4 & X-Box-One @ 28nm-Globalfoundries.) Aber genau das siehen die CPU-Only-Denker als Schwäche von AMD, wobei ein Früher Umstieg wegen der CPU-Sättigung im Massenmarkt nicht so nötig ist, weil eine ausgereifte Fertigung nicht nur weiter im Takt (Performance) & Yield (Kosten) gesteigert werden kann, sondern auch billigere Wafer (Kosten) bedeutet.

Wobei Intel ja momentan selber den Weg der Foundries geht, aber auch hier müssen sie Besteller gefunden werden, die die hohen Wafer-Kosten wirtschaftlich verwerten können.

Dazu darf man neben der Performance-Sätigung im Massen-PC-Markt nicht vergessen, dass mit der SoC-Produktion im Massen-Markt die ganze Southbridge-Produktion in alten abbezahlten Fabriken & Fertigung zu nichte macht, während z.B. AMD mit der SoC-Produktion (z.B. Kabini mit 110mm² statt 150mm²) vorallem billiger Produzieren kann.

Neben dem Problem der kleineren Fertigungen darf man den 450mm und EUV-Wechseln nicht vergessen, der kaum in der selben Fertigung stattfinden kann.
Also, ich glaube die 2020 sind da noch sehr opimistisch, weil der CPU-Bedarf IMO einfach überschätzt wird und es schon früher zu Intervall-Verlängerungen kommt, wie wir es bei TSMC & Globalfoundries jetzt sehen.
 
SMO! schrieb:

Ich weiß nicht was ich dort nicht verstanden haben soll, übrigens hat die Universität Zürich genau dies schon gemacht, zwar nur über (ich glaube) 143KM und 10kb/s, aber immerhin. ;)
Die Distanz wäre bei einem Rechner ja nicht das Problem

Skysnake schrieb:
Du kannst damit die Datenübertragung aber nicht schneller als mit Lichtgeschwindigkeit machen... Es geht EINFACH NICHT!

Nach der Definition ist das richtig, wir übertragen jedoch jedoch keine Daten, in dem Model beamen wir sie.

Das liegt daran das die Teilchen für sich keinen räumlichen Abstand haben, für uns jedoch schon. So gesehen hast du genau das erreicht was du da gerade als Möglichkeit angibst, zwischen der Quatenverschränkung ist schlicht und ergreifend kein Raum vorhanden, egal wie weit die Teilchen für unser Verständnis voneinander entfernt sind.
Sprich wir verstoßen auch nicht gegen die Relativitätstheorie und das Limit der Lichtgeschwindigkeit.

P.S.: Man sollte in einem Forum vielleicht nicht mit Quantenphysik anfangen, das war definitiv mein letzter Beitrag zum Thema und es wird mir einfach egal sein was so mancher hier von sich gibt.
 
Zuletzt bearbeitet:
Die Performance-Sätigung geht aber auch zum Teil auf billige Konsolen Ports zurück, da viele Spiele (Raubkopien sei dank) in erster Linie für die vergleichsweise veralteten Konsolen entwickelt werden und dann auf PC portiert werden.
Hoffentlich beschleunigt die nächste Konsolengeneration die CPU Entwicklung.


@ pgene
Man kann auch keine Daten beamen. Du brauchst es uns nicht weiter erklären....
Such für uns doch bitte eine glaubhafte Quelle, die besagt, dass man mit Quantenverschränkung Daten mit Überlichtgeschwindigkeit "übertragen, "beamen", "tunneln" kann. (Oder wie du es auch immer nennen willst)

edit: selbst gefunden:
http://www.spiegel.de/wissenschaft/technik/quantenverschraenkung-forscher-teleportieren-licht-ueber-143-kilometer-a-854278.html
Nur sind sich die User im Forum nicht einig ob es tatsächlich verzögerungsfrei passiert und wie man das ganze interpretieren kann...
 
Zuletzt bearbeitet von einem Moderator:
Es geht doch nicht um ein ausgereiftes Verfahren zur Informationsübertragung, das behauptet doch niemand! Es geht um die theoretische Möglichkeit, die im Video erwähnte Form von "Morse-Code" zu erzeugen, der nicht übertragen wird sondern in diesem Teilchen selbst enthalten ist. Dieses Teilchen wird dann zwar dem Anschein nach "getrennt", enthält aber immer noch dieselbe Information, die sich nur ändert, wenn sich das Teilchen an sich ändert. Die beiden getrennten Teile sind aber nie unabhängig, da sie defacto immer noch eine Einheit bilden (den erwähnten Abstand 0 zu sich selbst haben) und die Lichtgeschwindigkeit an keiner Stelle überschreiten.

Wäre es so einfach, jede in diese Richtung zielende Überlegung zu entkräften, warum sollte der Professor das dann nicht tun? Hat er nicht, er hat nur die falsche Vorstellung von "schneller als die Lichtgeschwindigkeit" widerlegt. Schaut euch das Video ruhig nochmal an. ;)

Das hier ist leicht verständlich und dürfte erklären, in welche Richtung ich wollte (auch wenn ich mit Sicherheit Fehler in der Terminologie gemacht habe): http://m.spiegel.de/wissenschaft/te...ctedFrom=www&referrrer=https://www.google.de/

Könnte auch die Quelle zu pgenes Aussage sein.

//zu spät.
 
Zuletzt bearbeitet:
@ pgene
Ok ich könnte mich jetzt total vertun aber:

Mal von einer anderen Seite betrachtet, wenn man Daten unendlich schnell übertragen könnte, gäbe es für die Datenübertragung keine Zeit (da die [vergangene] Zeit = 0 ist), was dies bedeutet leuchtet dir hoffentlich ein. Es bedeutet einfach das du quasi eine Singularität (Zeitmäßig) hast, da du nicht an die Daten kommst wenn du bei einer vergangenen Zeit != 0 messen würdest.

Eine praktische Anwendung der Verschränkung ist das man "nur" Daten sicher über einen klassischen Kanal weitergeben kann, da man die Informationen mit der Messung der Verschränkten Photonen verrechnet (ich stell mir das XOR operation vor, kann mich aber auch irren da ja viel Statistik im Spiel ist). Für die kommunikation (per max. Lichtgeschwindigkeit) benötigst du *trotzdem* den klassischen Kanal, da werden keine Informationen per überlichtgeschwindigkeit gebeamt, man nutzt nur die Grundlegendsten Prinzipien der Natur aus.

Disclaimer:
Ich habe nicht Physik studiert und ich studiere auch nicht Physik, weiterhin habe ich noch keine QM Gleichungen per Hand gelöst aber ich habe mir mal die Formeln und Vorgehensweisen die man in QM anwendet in einem Buch angelesen.
 
...

Wenn du misst, und nichts anders ist eine irgendwie geartete Manipulation der Quantezustände, bei denen du einen bestimmen wert erreichen willst, zerstörst du aber die Verschränkung...

Du kannst keine Information durch Verschränkung übertragen. Es geht einfach nicht, und da kannst du noch so viel drauf rumreiten wie du willst. ES GEHT NICHT!
 
Das heißt, die Physiker, die das behaupten, sind alles Aufschneider ohne Ahnung von ihrem Fachgebiet, nachdem du das ja so schnell erkannt hast? Denn deinen Skysnake`schen Axiomen zufolge hätten die Forscher ihre angebliche Übertragung niemals überprüfen können, da das "Auslesen" der Informationen ja zur Zerstörung der Verschränkung führt? Dann schreib ihnen doch, dass sie geschwindelt haben:
Ein Team um den Wiener Physikprofessor Anton Zeilinger hat den Quantenzustand eines Photons von der Kanareninsel La Palma zum benachbarten Teneriffa teleportiert
 
Och Leut, das funktioniert einfach nicht. Ihr könnt zwar den Zustand instantan übertragen, aber ihr braucht eine Referenz dazu. So, wie wenn ihr eure Datenleitung auf "0V" oder "5V" schaltet, aber mit der Info erst was anfangen könnt, wenn ihr das zugehörige Massepotential kennt. Denn erst dann ist klar, ob beide das gleiche aussagen (nennen wirs "0"), oder verschieden sind ("1"). Und genau diese Info kriegt ihr nur über herkömmlichen Transport, also mit maximal Lichtgeschwindigkeit.

Oder anders betrachtet: Beim Verschränken ist alles dufte, aber ihr kriegt das Teil nicht mit Überlichtgeschwindigkeit an einen anderen Ort, um dann dort die Information instantan zu empfangen. Damit ist die gesamte erreichbare Geschwindigkeit auch wieder kleiner c. Ätsch.

Und nun wär ein bisschen OnTopic wieder nett.
 
Boah...

Das Problem ist, das Sie A gesagt, wird, Leute die sich mit QM null auskennen aber B verstehen, und sich C zusammen spinnen...

Quantenteleportation hat nichts, aber auch rein gar nichts mit Informationsübertragung mit mehr als Lichtgeschwindigkeit zu tun...

Lesen bitte, einfach lesen und akzeptieren: http://de.wikipedia.org/wiki/Quantenteleportation

Um es zu verstehen, braucht man nämlich bischen mehr QM.

Also nochmal, weder mit Verschränkung noch mit Quantenteleportation kann man Informationen mit mehr als Lichtgeschwindigkeit übertragen. Und damit ist die Diskussion für mich auch beendet. Glaubt was ihr wollt, zuhören wollt ihr ja eh nicht.
 
xStram schrieb:
Das heißt, die Physiker, die das behaupten, sind alles Aufschneider ohne Ahnung von ihrem Fachgebiet, nachdem du das ja so schnell erkannt hast? Denn deinen Skysnake`schen Axiomen zufolge hätten die Forscher ihre angebliche Übertragung niemals überprüfen können, da das "Auslesen" der Informationen ja zur Zerstörung der Verschränkung führt? Dann schreib ihnen doch, dass sie geschwindelt haben:
Beobachtung von Quantenzuständen verändert den Zustand immer - deshalb kann man bei Quantenkryptographie ja auch feststellen, wenn jemand das abhört. Und beim Doppelspaltexperiment geht das Photon auch nur dann durch beide Spalte, wenn keiner hinguckt.

Bei so sensiblen Sachen wie Quantenzuständen ist die Beobachtung (was ja auch eine Interaktion mit dem Objekt ist) schon Einfluss genug um den Zustand zu ändern. Es kann gut sein, dass da die Verschränkung futsch geht (wie gesagt muss ich da noch ein paar Semester warten).
 
can320 schrieb:
Die Performance-Sätigung geht aber auch zum Teil auf billige Konsolen Ports zurück, da viele Spiele (Raubkopien sei dank) in erster Linie für die vergleichsweise veralteten Konsolen entwickelt werden und dann auf PC portiert werden.
Hoffentlich beschleunigt die nächste Konsolengeneration die CPU Entwicklung.
Gerade der Desktop-Game-Markt ist ja nicht gesättigt.

Aber beim Massen-CPU-Markt wirkt sich die CPU-Stagnation auch auf die Massen-Grafikkarten aus, weil durch den non-Core-Wachstum eben vorallem die iGPUs in den letzten Jahren massiv wachsen konnte, sodass die Massen-Grafikkarten mehr oder weniger irrelevant werden, auch wenn man sie den Leuten noch gut andrehen kann.

Hier ist die Massen-GPU-Stagnation daran schon zu erkennen, dass die Low-End & Mainstream von Heute nicht mehr wie früher 60mm² und 100mm² sind, sondern so 100 bzw. so 200mm², damit sie sich wenigstens am Anfang von den iGPUs absetzen können. Aber genau da kämpft man am Anfang mit Yield & Kosten-Problemen und verzögert eben die Massen-dGPU-Einführung.

Also, das was wir hier dann sehen, wird bei Intel & AMD & TSMC & GF in Zukunft immer stärker zu sehen sein.
So ein abrupter Schnitt, wie es hier in Topic-News erläutert wird, kann ich es mir nicht vorstellen, sondern ein kontenuierlicher deren Ansätze man schon heute bei den Foundries sehen kann.
 
@Skysnake
Ärger dich nicht, für die meisten Menschen ist Quantenmechanik nur schwer zu verstehen. Ich schaue da auch gerne mal wie ein Toastbrot und denke, ich bin eine Kirschtorte. ^^



@Verschränkte Teilchen
Ich glaube, dass es hier ein Verständnisproblem gibt.

Nehmen wir mal eine einfache Wippe. Ein Ende ist oben ("positiv geladen"), das andere Ende ist unten ("negativ geladen"). Jetzt kommen wir und schauen uns ein Ende an. Mangels Technik* können wir das nur, in dem wir einen riesen großen Stein drauf fallen lassen und schauen, wie er reagiert. Das bedeutet, wir wissen nur durch den Stein, ob das Ende der Wippe oben ist oder unten.

Und wir wissen dadurch auch, wie das andere Ende der Wippe aussieht. Das muss nämlich genau entgegengesetzt sein (durch die Verschränkung).
An diesem Punkt erscheint es uns, als hätten wir eine Information übertragen. Wenn die Wippe an unserer Seite unten ist, dass muss das andere Ende (das meinetwegen 100 LY entfernt ist) oben sein. Diese "Information" haben wir mit Überlichtgeschwindigkeit erfahren (100 LY wurden ja sofort "überwunden").

Aber das bedeutet jetzt nicht, dass wir an einem Ende die Wippe einfach hochdrücken und die andere Seite geht zeitgleich runter. Das geht nicht. Hier würde sich die Veränderung nur mit Lichtgeschwindigkeit ausbreiten.


* Der Vergleich ist gar nicht mal so schlecht. Um eine Eigenschaft bei so kleinen "Dingern" herauszufinden, müssen Wissenschaftler sie mit ziemlich viel Energie bombardieren. Da ist so viel Energie im Spiel, dass man die Dinger zwangsweise verändert. Daher kommt die Aussage, dass das bloße Beobachten schon eine Veränderung bewirkt.
 
aylano schrieb:
Genau das ist das Problem.
Einerseits wird die Fertigung teurer und andererseits geht der Bedarf an zusätzlicher Leistung zusätzlich zurück...
Genau so ist es.
Die Wunderarchitektur erscheint eher utopisch und der große Vorteil bei Intel ist eben die sehr gute Fertigung inkl. Vorreiter in immer kleineren Strukturen. Dazu braucht aber Intel Stückzahlen, die ja schon in den letzten beiden Quartalen zurück gegangen sind. Dazu kommen jetzt noch die immer höheren Kosten der Fertigung in kleineren Strukturen. Wie ich ja schon schrieb, eine für mich sehr sehr schlechte News für Intel. Eigentlich müsste der Intel Aktienkurs durch solche Meldungen fallen, weil eine schlechte Prognose ausgesprochen wird. Zwar wird die nächste Architektur wieder Verbesserungen bringen, allerdings gehe ich nicht davon aus, dass die Leistung mehr als +10% betragen wird. Gut die maximale Stromaufnahme wird wieder sinken, aber für die Masse der Desktop User, deren Kisten eh nur so dahin ideln auch unbedeutend. Der Spiele PC Markt wird auch nicht größer, insofern werden dort auch nicht mehr Einnahmen generiert.
Ich denke, dass Intel weitere Gewinneinbußen haben wird und somit immer weiter an Vorsprung verlieren wird.
 
Zurück
Oben