News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

Das hast du auf jeden Fall gut erklärt. Mein Problem liegt eher darin, sich vorzustellen, dass diese verschränkten Teilchen nach außen "ein Teilchen" mit neutralem Spin bilden, egal wie groß die eigentliche Distanz zwischen ihnen ist. Geht man davon aus, dass es nur ein Teilchen ist, ist die Sache logisch: Ein Teilchen kann zu sich selbst keinen Abstand haben. Aber bildlich vorstellbar ist es für mich nicht, ich frage mich da eher: Welche Kräfte bewirken die Änderung im "zweiten" Teil des Paares (und das bei beliebigen Distanzen)?
Aber das wird glaube ich zu offtopic, die Physik überlasse ich liebend gern den Physikern :D
 
naja sobald ich meinen rechner nicht mehr bei mir habe, sondern für rechenleistung zahlen soll,
steig ich aus der moderne Aus.

Du zahlst bereits jetzt für die Rechenleistung - in Form und als Teil Deines Rechners. Im Best Case kaufst Du "Rechenleistung für Cyrsis17@UHD" für 8 Euro pro Jahr. Im Worst Case kaufst Du "Rechenleistung für 30 min. Crysis 17 jedoch maximal 8 Stunden im Jahr, danach zurückfallend auf 640*480" für 8 Euro (von T-Com).

Ich würde die Entscheidung von den Konditionen abhängig machen :-)

Naja coldy das wäre sehr abstrus. Schau dir doch mal die Gegenwart an: Spotify, PS Plus, VoD ala Maxdome. Alles Dienste, bei denen du am Ende keinen physischen Mehrwert hast. Man kauft den Client + 2 jahre Leistung X und kann später per prepaid entsprechend nachkaufen.
 
> Welche Kräfte bewirken die Änderung im "zweiten" Teil des Paares (und das bei beliebigen Distanzen)?
Aufpassen! Da ist keine beliebige Distanz dazwischen. Sie ist 0!
Ja, es ist bekloppt! Ich kann's auch nicht anders sagen. Bildlich vorstellen funktioniert in der Quantenwelt nicht. Im Mikrokosmos funktionieren die Dinge ganz anders, als wir es im Makrokosmos wahrnehmen. Vieles von dem Kram lässt sich nur mathematisch beschreiben, weil Worte nicht ausreichen.

Edit:
Ein anderes Beispiel, wie absurd einem der Mikrokosmos eigentlich erscheint:
Es gibt das Gesetz, dass Massen sich gegenseitig anziehen. Soweit ist das den meisten Menschen heute klar. In der Praxis kann das so aussehen: http://what-if.xkcd.com/8/
Wenn alle Menschen gleichzeitig springen, dann bewegt sich die Erde um vielleicht um die Breite eines Atoms! "Ja, klar," sagen die meisten dann. Aber man überlege sich das mal, das ist eigentlich von unserer Makrokosmoswelt aus gesehenen total bekloppt!
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Als extremes Beispiel so was wie das: Eine Funktionseinheit (FE) für in den Speicher schreiben, eine FE um den Speicher zu lesen, eine FE um einen Wert im Speicher um 1 zu erhöhren usw. Und alle diese FEs sind parallel ansprechbar.

Das macht man seit Uhrzeiten schon so, schau mal hier: link

Port 2,3 und 4 tun das was du beschrieben hast, gleichzeitig/parallel. Dies ist möglich indem man einen/mehrere (im fall von macrofusion (TM)) x86 Befehle in mehrere zum Teil unabhängige microops (Mikrobefehle die nur einwas tun) zerlegt und parallel ausführt.

(Ja, die intel Architektur Dokumente bilden ungemein)
 
Quonux schrieb:
Zu viel Terminator geguckt?

Ich stimme dir zu, was für eine Diskussion... :rolleyes: Könntest dich auch mal über Supraleiter informieren, Quantencomputer scheinen, meiner Ansicht nach, weniger weit zu sein.

Tapion3388 schrieb:
Fraglich, ob es überhaupt Stoffe mit den Eigenschaften eines Supraleiters bei Raumtemperatur gibt, momentan halte ich das für unwahrscheinlich, aber lasse mich gerne überraschen... ;)
Und dann stellt sich noch die Frage, ob man diese überhaupt in einem Halbleiter verwenden kann - das liegt vermutlich sehr sehr weit in der Zukunft.

Naja, es gibt zurzeit Materialien die bei Gefrierfachtemperaturen Supraleiter Eigenschaften annehmen. Bis wir bei Zimmertemperatur sind, kann es natürlich noch lange dauern (oder nie passieren), ich sehe darin trotzdem eine der besten Chancen. Immerhin wäre das Abwärmeproblem damit ebenfalls gelöst. Kleiner gebaut und gleichzeitig viel höher getaktet könnten so enorm Leistungsfähige Chips entstehen.
 
Moor's law sagt nur auß das sich die Transistorenanzahl alle 12-24 Monate verdoppelt nicht mehr. Mit mehr Transistoren kann eventuell mehr Leistung erziehlt werden muss aber nicht. Quantencomputing usw wird Moor's law nicht beinflussen da es mit gleicher "Transistoranzahl" mehr Leistung generieren kann.
 
Mit der aktuellen Technologie ist das Ende der Fahnenstange wohl irgendwann erreicht, aber das ist immer so. Irgendwann hat man in der Luftfahrt aber auch aufgehört Jagdflugzeuge mit Propellern, welche schon am Rande ihrer Möglichkeiten arbeiteten (Geschwindigkeit fast ausgereizt), immer weiter zu verbessern und sich stattdessen auf Düsentriebwerke konzentriert. Irgendwann hat man auch die Dampfmaschinen auf Schiffen durch Turbinen ersetzt usw.

Zukünftige CPUs werden vielleicht nicht mehr "gebaut", sondern man lässt sie wachsen. Kohlenstoffnanoröhrchen sind ein möglicher Kandidat (Durchmesser 1 bis 50 nm, 0,4 nm auch möglich (Quelle: Wikipedia.de).
 
-.-

Das ist simple Mechanik des Masseschwerpunktes... :rolleyes:

Ansonsten bzgl Verschränkung:
Leute lasst es, wenn ihr keine grundlegenden Kenntnisse in Quantenmechanik habt. So macht das einfach gar keinen Sinn drüber zu reden, weil ihr Dinge zusammenwerft, die nichts miteinander zu tun haben...

Bei Verschränkung sind die Partner korreliert, man kennt nur noch nicht die Verteilung. Misst man eines, und löst damit die Unbestimmtheit des Quantenzustands auf, weiß man auch wie das andere ist, nämlich genau umgekehrt. Man kann vor der Messung aber nicht sagen, was man messen wird, weil beides gleich wahrscheinlich ist. Das ist wie Schrödingers Katze.

Aber wie gesagt, um das wirklich zu verstehen brauchts schon ein paar Grundlagen in Quantenmechanik, ohne die gehts halt nicht...

ice-breaker schrieb:
Du kannst das Aktoren-Konzept genauso in C/C++ bauen, das ist kein Hindernis. Die Leute fürchten sich eben nur davor etwas neues zu lernen. Dabei machen Aktoren Threading viel einfacher.
Richtig, es ist quick&dirty....

Dem Programmierer wird das Denken abgenommen, aber der weiß eben am Besten, wo wie was genau läuft. Er muss es "nur" umsetzten.

Bei sehr sehr sehr komplexen Aufgaben mit sehr sehr sehr irregulärem Programmablauf seh ich es ein, dass das wirklich eine Vereinfachung ist, weil man erst mal überhaupt das Problem an sich lösen will. Das ist aber nur ein verschwindend geringer Anteil der Probleme auf die das zutrifft, und dann eigentlich auch nur im wissenschaftlichen Umfeld.

Wenn der Algorithmus aber bekannt und verstanden ist, dann kann ein guter Programmierer den auch implementieren. Das Problem ist nur, es gibt viel zu wenige wirklich gute Programmierer, und das liegt eben auch mit daran, dass zu viele den Erlang, Java und what ever was noch für Flöhe glauben, dass das ja genau so schnell sei, wie handoptimierter Code...

Jaja, nur um nen Faktor 2 langsamer oder so :rolleyes:

Die Diskussion hatte ich auch mal über python, das ja sooo schnell sei und überhaupt. JA supi, um nen Faktor 4 langsamer als der nur minimal optimierte C Code :stacheln:

Aber man bekommt ja Threading aktuell noch "irgendwie hin", von nem Octacore können vllt. 5 Kerne genutzt werden, hey, besser als nichts.
Und mehr als 10 Kerne?
Absolut kein Problem. Wenn man das Problem an sich verstanden hat, und ne vernünftige Implementierung gewählt hat, dann macht es keinen Unterschied mehr ob da jetzt 10, 100 oder 1 Millionen Prozesse/Threads laufen.

Ich hab auch schon für >64 Prozesse Sachen auf CPUs programmiert, und das ist wie gesagt absolut kein Ding.

Von SingleThread auf 2 ist nen Problem, und dann nochmal von 2 auf 3/4, aber aller danach ist eigentlich nur noch skalieren, die Probleme an sich hat man gelöst

Ach das hat ja fast keiner, ist ne Workstation dafür gibts dann spezielle Software. Die eventuell selbst die gleichen Probleme hat.
SMP Systeme programmieren ist einfach wie noch was. Interessant wird es, wenn man distibuted Memory Systeme hat, bei denen man mit Messagepassing arbeiten muss.

Quonux schrieb:
Weiterhin denke ich das Graphen basierte computer nur mit Planrem Graphen (nicht die Nanotubes) realisierbar sein könnten.
Graphen ist IMMER! 2D. Es ist sogar das einzig bekannte echte 2D Material....

Nanotubes sind immer 3D


Zum Thema Parallelisierung von Software:
Ich denke das man mit dem Paralelisierungsgedanken von Funktionalen Sprachen auch weit kommt, siehe Clojure oder ggf. Haskell, man kann teoretisch Compiler/Interpreter für die Sprachen bauen die die Arbeit auf X Kerne aufteilen.
Klar, aber Compiler sind eigentlich nie so gut wie der Programmierer, denn der Weis apriori was von was abhängt, und was nicht. Er schreibt ja die Software. Compileroptimierungen versuchen immer nur noch etwas raus zu kitzeln, und sind da auch besser als jeder Mensch, man muss ihnen aber die richtige Grundlage bieten, ansonstne läuft da auch nicht viel.

Der Meinung schließe ich mich nicht an, klar, wenn man etwas per Hand optimiert kann es schneller sein, doch es benötigt enorm viel Zeit
Ja, das ist durchaus ein Problem, wobei gute Programmierer, die ein Verständnis von Hardware haben, schon viele Sachen einfach von Anfang an bedenken und richtig machen. Im kommerziellen Bereich aber durchaus ein Problem, wobei man auch sagen muss, wenn Performance eine Rolle spielt, dann macht man sich den Aufwand auch, weil irgendwie muss man ja die Performance erreichen, und wenn man es einmal richtig macht, dann kann man den Code auch noch in zich Jahren verwenden.

Das ist ein sehr sehr sehr großes Problem. Wirklich gute multithread Programmierer sind selten. Da sind die Universitäten aber teilweise auch mit schud, weil den Leuts der Floh in den Kopf gesetzt wird, das man ohne Kenntnis der Hardware performanten Code schreiben könnte, und das ist einfach bullshit.

und die gefundene Lösung ist fest für eine Architektur verdrahtet, wenn man es in 5...10 Jahren irgendwo einsetzen möchte stößt es wieder an grenzen an die man früher nicht gedacht hatte.
Das ist unsinn, bzw schlichtweg falsch. Schau dir Fortran an, weißt du warum das noch immer so beliebt ist? GAnz einfach, die Bibliotheken sind unglaublich mächtig! Zwar alt, aber unglaublich mächtig, da ist soooo extrem viel Hirnschmalz und Manpower reingeflossen in die Optimierungen, das es kaum vorstellbar ist.

Und die Leute haben sich halt etwas dabei gedacht, die Haben halt z.B. für Caches nicht statische Werte verwendet, sondern die Bibs dynamisch gemacht, also selbstoptimierend. Die Algorithmen testen selbst aus, wie groß wohl der Cache ist, und verändern dementsprechend die Parameter. Das ist sehr viel Aufwand, um es einmal zu implementieren, aber wenn man es einmal gemacht hat, kann man fast nahezu jedwede Hardware dem Ding vorsetzen, und die Software skaliert.

Das selbe kann man übrigens über Assembler vs C++/Java/Whatever sagen, klar ist eine Handeschriebene Lösung schneller doch es ist nicht mehr portabel, benötigt mehr Zeit, ist fest verdrahtet usw.
Eben nicht, wenn man es "richtig" macht. Dann ist es halt noch mehr Aufwand, und du brauchst noch fähigere Leute, aber das ist halt nen Grundproblem in der IT. Da wird was hingeschludert, damits halt funktioniert, und später dann lieber tausendfach nochmal dran rumgeschraubt, statt es gleich richtig zu machen... Faulheit FTW.

Wenn der Compiler automatisch die Parallelisierung vornimmt bleibt der Code portabel/lässt sich für andere Architekturen neu kompilieren.
Wie gesagt, wenn die Programmierer mitdenken, dann gilt das für den handoptimierten Code auch.

Headcool schrieb:
Ich kenne niemanden der heute noch klassisch Threading betreibt.
Heutzutage ist vor allem Daten-Parallelismus via OpenCL, OpenMP, Cilk Plus oder TBB gefragt. Und das skaliert auch von einem auf mehrere Tausend Kerne.
OpenMP ganz sicher NICHT! OpenMP ist nur für SMP Maschinen geeignet, bzw halt für ccNUMA Systeme. Ansonsten kannste das knicken, eventuell noch distributed shared Memory mit gemeinsamen Adressraum, aber das ist zwingend, und das skaliert einfach nicht.

Wenn man wirklich skalierend programmieren will, nutzt man MPI für die Kommunikation über Nodegrenzen, und immerhalb eines Nodes PThreads bzw OpenMP.

Außerdem vergisst du, dass es mehrere Ebenen von Parallelismus gibt. Eine die man sich mit Erlang & Co. versperrt ist SIMD.
Der x264-Codec hat einen Vergleich zwischen C-Code und AVX2-optimierten Code gemacht. Jener Code der optimiert wurde ist im Durschnitt 15x schneller als der C-Code ohne Optimierungen. Und im Jahre 2015 mit AVX512 wird sich eine weitere Verdoppelung ergeben.
Von solchen "Details" fangen wir lieber gar nicht erst an...
Ergänzung ()

hallo7 schrieb:
Naja, es gibt zurzeit Materialien die bei Gefrierfachtemperaturen Supraleiter Eigenschaften annehmen. Bis wir bei Zimmertemperatur sind, kann es natürlich noch lange dauern (oder nie passieren), ich sehe darin trotzdem eine der besten Chancen. Immerhin wäre das Abwärmeproblem damit ebenfalls gelöst. Kleiner gebaut und gleichzeitig viel höher getaktet könnten so enorm Leistungsfähige Chips entstehen.
~-140°C sind bei dir also "Gefrierfachtemperaturen"? Naja, wenn du meinst.... Zumindest sind das die neusten Daten die mir bekannt sind, und es würde mich wundern, wenn es eine komplett neue Klasse an hochtemperatur Supraleitern geben würde, die komplett an mir vorbei gegangen ist.

~-140°C ist btw ganz gut, weil man dann nicht mehr mit flüssigem Helium usw arbeiten muss, was die Kosten und den Aufwand EXTREM senkt. Schlichter flüssiger Stickstoff reicht da dann völlig aus.
 
Skysnake schrieb:


Ehrlich gesagt ist meine Quelle eine BBC Doku, was natürlich keine gute Quelle ist. Andererseits, wieso sollte ein Physiker die Wahrheit verdrehen? Leider kann ich dir sonst nichts anbieten.

Youtube Bei 54:59 sagt ers

Sonst hab ich auch nur deine Temperaturangaben finden können, was meine Aussage natürlich wertlos machen würde. Naja, mal schauen was die Zukunft bringt.
 
Zuletzt bearbeitet von einem Moderator:
Skysnake schrieb:
OpenMP ganz sicher NICHT! OpenMP ist nur für SMP Maschinen geeignet, bzw halt für ccNUMA Systeme. Ansonsten kannste das knicken, eventuell noch distributed shared Memory mit gemeinsamen Adressraum, aber das ist zwingend, und das skaliert einfach nicht.

Wenn man wirklich skalierend programmieren will, nutzt man MPI für die Kommunikation über Nodegrenzen, und immerhalb eines Nodes PThreads bzw OpenMP.

Ich rede ja auch nur von SMP.
Natürlich kann man auch über Gerätegrenzen hinweg skalieren. Im Normalfall ist das aber eher nicht nötig.
Wenn man ein entspechendes System hat dann macht man das sowieso.

Im klassisches SMP-Bereich schaut das aber anderst aus. Dort sitzt zwar jeder zweite vor einem Quadcore mit SIMD und Co., aber der typische Java Programmierer denkt sich dann halt, dass die JVM seinen Code auf magische Weise perfekt optimiert, während in Wirklichkeit im Hintergrund nur viel Scheiße abläuft.

Und wenn dann eine neue CPU-Architektur auf den Markt kommt beschweren sich wieder alle: "Der ist ja keine 10% besser".
 
schreiber2 schrieb:
In Zukunft zahlen wir nicht für Prozessoren, sondern für Rechenleistung und lassen sie uns über das Internet liefern. Das wird wieder ein Reibach werden für die Industrie.

Dann verrate mir bitte noch, wer den Ausbau der dafür nötigen Netzstruktur inkl. Gigabit-Transferraten bezahlen, geschweige denn realisieren soll.
 
@Skysnake: Also Schrödingers Katze sagt mir so grob schon was, aber wo ist da die Verbindung zur Quantenverschränkung? Hier sollte es doch keine Probleme geben, man misst genau das, was man messen möchte, also entweder z.B. Spin +0,5 oder -0,5. Genau das will ich erreichen.

Per definitionem kann man damit natürlich keine Informationen übertragen, erhält aber den selben Effekt, da man auf die bereits vorhandene Information an zwei unterschiedlichen Stellen zugreifen kann bzw. die Information an zwei unterschiedlichen Stellen manipulieren kann und diese sofort auch an der anderen Stelle verfügbar (=abrufbar) ist. Man könnte sich so - in der Theorie - die Zeit sparen, die heute benötigt wird, um eine Information zu übermitteln, wobei spätestens die Lichtgeschwindigkeit der limitierende Faktor ist, da lediglich die inhärente Information verändert/"gelesen" wird.

Natürlich gibt es da noch endlos viele Probleme, z.B. wie ich die verschränkten Teilchen örtlich trennen kann oder wie man den Zustand ausliest etc. Aber er ist in meinen Augen schon ein sinnvoller Ansatz für die Forschung, da voraussichtlich keine andere Technologie bis 2020 verfügbar sein wird und man somit relativ frei forschen sollte.

Zum Vorstellen könnte der folgende Vergleich helfen: eine Türklinke. Drücke ich eine Seite nach unten (ändere den Spin), geht sofort die andere Seite auch nach unten. Ein Beobachter auf der anderen Seite der Tür hat die Information "Klinke gedrückt" unverzüglich erhalten. Ab jetzt limitieren nur noch seine Messinstrumente (Auge, Gehirn etc.). Ich muss nicht erst eine Botschaft durchs Schlüssellloch pfriemeln (also irgendwelche weiteren Informationen übertragen).

Bei den Teilchen käme noch dazu, dass die Information auf "Empfängerseite" zwar dieselbe ist (ja sein muss, da es ja nur eine Information gibt), aber in "spiegelverkehrter" Art vorliegt. Meine Türklinke, die ich drücke, bewegt sich auf der anderen Seite also nach oben.

Und jetzt steinigt mich dafür, dass ich versicht habe, etwas so komplexes mit was so simplen zu vergleichen. Aber egal, wenn ihr aus dem Zimmer geht, werdet ihr trotzdem an meinen Vergleich denken ;)

@e-Laurin: :D Nette Website, amüsant zu lesen.

Aber mal ernsthaft, Du scheinst Dich ein wenig mit der Thematik auszukennen. Hast du evtl. ein paar interessante Buchempfehlungen für mich, um sich etwas mehr mit der Thematik zu beschäftigen? Es sollte schon halbwegs verständlich sein, darf den Verstand aber ruhig fordern. Also irgendetwas zwischen Hawkings "Eine kurze Geschichte der Zeit" und CF v Weizsäckers "Zum Weltbild der Physik". Habe beide gelesen, wobei ich Ersteres sehr interessant und ohne nur mit Schulwissen gut verständlich und nachvollziehbar finde, zumindest >90%. Beim anderen habe ich mir deutlich schwerer getan, da habe ich eher nur die Hälfte verstanden, fand manche Gedanken aber interessant. Nur gemerkt habe ich mir leider viel zu wenig davon und würde gerne mal wieder was anderes, aktuelleres aus diesem Themengebiet (Weltall, Zeit, Quanten, Relativität etc.) lesen.
 
xStram schrieb:
@Skysnake: Also Schrödingers Katze sagt mir so grob schon was, aber wo ist da die Verbindung zur Quantenverschränkung? Hier sollte es doch keine Probleme geben, man misst genau das, was man messen möchte, also entweder z.B. Spin +0,5 oder -0,5. Genau das will ich erreichen.
Und da fängts schon wieder an... Ich sag doch, lasst es doch bitte sein, wenn ihr keine tiefergehenden Grundkenntnisse in Quantenmechanik habt. Das ist wirklich das absolute Minimum, um wirklich die Sachen zu verstehen, und vor allem, was Sie bedeuten, und welche Konsequenzen sich daraus ergeben.

Du misst eben nicht "genau" das was du messen willst, sodern du misst nur IRGEND! etwas, und weist eben vorher, dass du ne 50/50 Chance hast, spin up, oder eben spin down zu messen, du weist aber NICHT! was du misst, eben GENAU! wie bei Schrödingers Katze. So lange du nicht nachschaust weist du nicht, ob die Katze tot ist oder lebt. Nur weil du nicht nachschaust heist das aber nicht, dass die Katze noch bereits tot ist/noch lebt....

Jetzt verstanden?

Per definitionem kann man damit natürlich keine Informationen übertragen, erhält aber den selben Effekt, da man auf die bereits vorhandene Information an zwei unterschiedlichen Stellen zugreifen kann bzw. die Information an zwei unterschiedlichen Stellen manipulieren kann und diese sofort auch an der anderen Stelle verfügbar (=abrufbar) ist.
Nein kannst du nicht, du kannst nur über Abweichungen in der Statistik ermitteln, das jemand anderes schon gemessen hat, und damit das Quantensystem eventuell eben eine andere Wahrscheinlichkeitsverteilung hat. Das wars.

Du kannst den Wert den du misst NICHT! beeinflussen, das System ist vorher schon praktisch fixiert, du weist eben nur noch nicht, wie, sobald du aber nachschaust, hast du keine verschränkten Quantenzustände mehr...

Man könnte sich so - in der Theorie - die Zeit sparen, die heute benötigt wird, um eine Information zu übermitteln, wobei spätestens die Lichtgeschwindigkeit der limitierende Faktor ist, da lediglich die inhärente Information verändert/"gelesen" wird.
Nein kannst du nicht, weil du eben das System nicht kennst, und wenn du das System beeinflussen willst, dann musst du wieder über klassische Verbindungswege gehen, und hängst damit wieder an der Lichtgeschwindigkeit im Vakuum....

Natürlich gibt es da noch endlos viele Probleme, z.B. wie ich die verschränkten Teilchen örtlich trennen kann oder wie man den Zustand ausliest etc. Aber er ist in meinen Augen schon ein sinnvoller Ansatz für die Forschung, da voraussichtlich keine andere Technologie bis 2020 verfügbar sein wird und man somit relativ frei forschen sollte.

Zum Vorstellen könnte der folgende Vergleich helfen: eine Türklinke. Drücke ich eine Seite nach unten (ändere den Spin), geht sofort die andere Seite auch nach unten. Ein Beobachter auf der anderen Seite der Tür hat die Information "Klinke gedrückt" unverzüglich erhalten. Ab jetzt limitieren nur noch seine Messinstrumente (Auge, Gehirn etc.). Ich muss nicht erst eine Botschaft durchs Schlüssellloch pfriemeln (also irgendwelche weiteren Informationen übertragen).

Bei den Teilchen käme noch dazu, dass die Information auf "Empfängerseite" zwar dieselbe ist (ja sein muss, da es ja nur eine Information gibt), aber in "spiegelverkehrter" Art vorliegt. Meine Türklinke, die ich drücke, bewegt sich auf der anderen Seite also nach oben.

Und jetzt steinigt mich dafür, dass ich versicht habe, etwas so komplexes mit was so simplen zu vergleichen. Aber egal, wenn ihr aus dem Zimmer geht, werdet ihr trotzdem an meinen Vergleich denken ;)
Nein, das kann man alles so nicht sehen. Die Vergleiche hinken, und du hast den Kern nicht erfasst.

Du kannst keine Information mit überlichtgeschwindigkeit übertragen, und zwischen den verschränkten Quantensystemen erfolgt auch keine Kopplung.

Du kennst das System einfach nur nicht, bis du nachmisst....
 
Das sind aber keine guten Nachrichten für Intel. Der Gewinn fällt seit 2 Quartalen, zuletzt ist dieser ja um 29% gefallen. Die Kosten für einer immer kleinere Fertigung werden immer höher, bei gleichzeitigem Rückgang der PC Verkäufe. Der Smartphone und Tablet Markt wird bei weitem nicht die Einnahmen auffangen können, selbst wenn Intel in diesem Markt mehr Anteile erlangen könnte. Wahrscheinlich wird der nächst kleinere Fertigungsschritt 10nm sich weiter nach hinten verschieben und somit auch der Vorsprung den Intel in diesem Bereich hat eingebremst.
 
Quonux schrieb:
Das macht man seit Uhrzeiten schon so, schau mal hier: link

Port 2,3 und 4 tun das was du beschrieben hast, gleichzeitig/parallel. Dies ist möglich indem man einen/mehrere (im fall von macrofusion (TM)) x86 Befehle in mehrere zum Teil unabhängige microops (Mikrobefehle die nur einwas tun) zerlegt und parallel ausführt.
Ich meinte, dass man das noch mehr auswälzt und auf die Spitze treibt (soweit das Sinn ergibt).
ZB die ALU ist ein Verbund vieler arithmetischer Einheiten, die je nach Firma und Architektur soundso viele Berechnungen gleichzeitig anstellen kann. Aber jeweils immer nur eine! Bei 8 parallelen Additionen zB liegen die Multiplikationseinheiten brach.

Genau das will ich zerpflückt sehen. Ähnlich wie bei einer GPU, die im Prinzip aus tausenden parallel ansprechbaren Multiply-Add-Funktionseinheiten besteht, will ich statt einer ALU tausende Int-Add-, Int-Multiply-, etc. -Funktionseinheiten sehen.

Natürlich nur so weit, wie es Sinn ergibt.

xStram schrieb:
Aber mal ernsthaft, Du scheinst Dich ein wenig mit der Thematik auszukennen. Hast du evtl. ein paar interessante Buchempfehlungen für mich, um sich etwas mehr mit der Thematik zu beschäftigen?
Leider nein. Ich bin auch nur Laie und hab mein Wissen von Wikipedia, YouTube und Harald Lesch (er schaut hier beim Thema Quanten so herrlich verzweifelt ^^) zusammengekratzt.
 
Und genau da liegt das Problem. Quantenmechanik kann man nicht "mal eben so" verstehen. Um QM wirklich zu verstehen muss man die verschiedenen Bilder und die entsprechenden Varianten der Schrödingergleichung verstehen. Die Unschärferelation ist auch unglaublich wichtig, wirklich verstehen kann man die aber auch wieder erst mit dem Ehrenfest-Theorem. Das kann man aber schön herleiten, und sollte man auch machen. Und da kommen wir zu einem weiteren Punkt. Es ist schön und gut, wenn man das alles kennt, aber wenn man es nicht mal selbst mit Stift und Papier nachgerechnet hat und die Beweise nachvollzogen hat, bzw sich selbst Gedanken dazu gemacht hat, wie man die Sachen beweist.

Und selbst wenn man das alles gemacht hat, "muss" man mal noch die Standardprobleme mal wirklich von Hand durchgerechnet haben, um die Unterschiede wirklich in ihren Zusammenhängen zu verstehen...

So un wenn wir DAS jetzt alles haben, dann reicht das zwar für einfache Sachen, aber sobald was mit Ladungen dazu kommt, brauchen wir die Quantenelektrodynamik... Und um die zu verstehen brauchen wir dann erstmal als Grundlage die Elektrodynamik in Lorentzkovarianter Formulierung....

Ich hoffe ihr seht, dass das ziemlich umfangreich einfach ist, und viel eigeninitiative erfordert, ansonsten macht es einfach keinen Sinn, darüber zu reden, weil es einfach komplett weg ist von unserer normalen täglichen Erfahrung. Daher wird man auch IMMER! verdammt schnell unglaublichen Mist anfangen zu erzählen, wenn man nicht genau weiß, worüber man redet.
 
xStram schrieb:
Per definitionem kann man damit natürlich keine Informationen übertragen, erhält aber den selben Effekt, da man auf die bereits vorhandene Information an zwei unterschiedlichen Stellen zugreifen kann bzw. die Information an zwei unterschiedlichen Stellen manipulieren kann und diese sofort auch an der anderen Stelle verfügbar (=abrufbar) ist. Man könnte sich so - in der Theorie - die Zeit sparen, die heute benötigt wird, um eine Information zu übermitteln, wobei spätestens die Lichtgeschwindigkeit der limitierende Faktor ist, da lediglich die inhärente Information verändert/"gelesen" wird.
Den Punkt mit der Veränderung / Übertragung finde ich interessant. Ich bin leider im Studium noch nicht soweit, aber wie genau sollen die Informationen da den verschränkten Partner erreichen? Soweit ich das bisher immer "aufgeschnappt" habe (bis zur QM dauerts bei mir leider noch 2 Semester), wäre selbst so eine Übertragung durch die Lichtgeschwindigkeit limitiert.
Genauso würde ich auch bei der Türklinke argumentieren - wenn ich meine Seite mit ggü. c relevanten Geschwindigkeiten bewege, würde ich in einer Abwandlung des Panzerparadoxons sagen, dass sich hier halt die übertragende Mittelachse verwindet und auf der Gegenseite nichts passiert, bis die Information durch die Tür übertragen wurde. Und dann würde sich die Klinke auf der Gegenseite "verbiegen", weil die Information der Bewegung da ja auch von der Mitte zur Spitze laufen muss und sich die Mitte dann zuerst bewegt während die Spitze noch gar nicht weiß, dass sie sich bewegen muss und an Ort und Stelle verweilt.

Kurzum, ich sehe keine gute Erklärung, wie zwischen den verschränkten Quanten diese Information mit v>c ausgetauscht werden sollte.
 
Das alles am eigenen PC berechnet wird, ist ein Modell von gestern.
Glaub ich nicht, weil die I-Leitungen komplett verstopft sein werden, wie ein Stau auf der Autobahn. Sieht man deutlich wenn man die T-Com fragt bezüglich unbegrenzter Bandbreite in ihren Verträgen, in den USA noch schlimmer, die haben einen noch größeren Stau zu erwarten. Ergo wird die eigne Leistung zu hause wichtiger denn je.

Dazu kommen noch Datensicherheit und Datenschutz, letzteres ist quasi gar nicht(NSA) vorhanden in der Cloud und bei ersterem hab ich erst kürzlich was lustiges in der PCGH gelesen, passend zu meiner Signatur:

Origin Cloud: Mass Effect Saves in der Cloud abgelegt, jetzt verschwunden. Einfach weg, er muss vorn vorne beginnen.
:lol:
 
Zuletzt bearbeitet:
Zumal zentralisierte Rechenleistung ja auch bezahlt werden müsste - das Gegenkonzept, die Dezentralisierung mit BOINC und ähnlichem, ist ja auch immernoch genauso State of the Art wie ein Tesla-Rechencluster. Dazu kommt, dass Echtzeitanwendungen grundsätzlich lokale Rechenzeit benötigen, da mit zusätzlicher Netzwerkverzögerung das Lag zu lang wird. Und mal ganz zu schweigen von der Verfügbarkeit. In Deutschland liegen die Internetkabel entlang der S- und U-Bahnen - in Berlin ist schon ich glaube zwei mal für viele Bezirke das Internet über einen Tag lahmgelegt worden, weil jemand ein Kabel, das nunmal zugänglich ist, angezündet hat.

Wenn das GigaFlOp in einem Zentralrechner genauso viel Strom verbraucht, wie in einem lokalen Rechner, entsteht durch ortsferne Berechnung nur zusätzlicher Aufwand und Stromverbrauch, der auch wieder irgendwie bezahlt werden muss, billiger wirds damit dann nicht. Zentrales Rechnen macht nur Sinn, wenn man die Rechenzeit temporär, im Stundentakt mietet; sozusagen "Prozessor-Sharing".
 
Zurück
Oben