Ich glaube ich muss auch einmal meinen Senf dazu geben:
In der Art wie einige Vorposter hier Zahlen an die potentielle Leistung von Quantencomputer hängen ist irrsinnig. Es gibt bestimmte Probleme für die man auf konventionellen Computern Algorithmen kennt, die dafür z.B. mit Ordnung O(n!) oder O(2^n) skalieren, bei denen also der Aufwand sehr schnell sehr gross wird, wenn die Zahl der Elemente n gross wird. Auf Quantencomputern sind für einige dieser Probleme Algorithmen bekannt die dann statt mit O(p(n)) skalieren wobei p eine polynomiale Funktion ist. Oder Grovers Algorithmus den man zur Suche in Datenbanken verwenden kann skaliert mit O(sqrt(n)) statt mit O(n). Wenn man sich nun eine Datenbank mit 1 mrd Einträge Vorstellt, dann erkennt man warum das ein grosser Vorteil ist, sieht aber auch ein warum Aussagen wie (100000 mal schneller) keinen Sinn ergeben. Übrigens teilt man Probleme gern in Komplexitätsklassen ein wie P oder NP oder P-Space etc. um sie ihrer Komplexität nach zu unterscheiden, jedoch ist nicht abschliessend bewiesen, dass diese Klassen überhaupt unterschiedlich sind. Es gibt zwar indizien dafür aber sollte sich das Gegenteil beweisen lassen dann verfällt potentiell der Vorteil von Quantencomputern und wir haben lediglich nicht die richtigen klassischen Algorithmen gefunden.
Übrigens kann ein universeller Quantencomputer auch klassische Probleme lösen, denn er ist ebenso Turing Complete wie Bernstein und Vazirani in einer ihrer frühen arbeiten zeigen konnten.
Dafür sind Quantencomputer aber ggf. mit wahnsinnigem Aufwand verbunden, undzwar nicht nur in der physikalischen Umsetzung. Z.B. kann man Qubits nicht einfach kopieren (siehe no-cloning-theorem). Das heißt in vielen Problemen, dass man ganz häufig den gleichen Zustand parallel dazu erzeugen muss statt einfach nur ein Qubit zu verändern.
Physikalisch sind Quantencomputer absurd schwierig zu bauen und dafür gibt es je nach Realisierung (Cavity QED, On Chip Ionenfallen, Supraleiterstreifen etc) eine ganze Reihe von anderen Problemen. In den meisten Experimenten muss man super tiefe Temperaturen erzeugen um Dekohärenz zu vermeiden, wenn man als Qubits einzelne Ionen nutzt, dann braucht man in der Regel ein sehr kompliziertes Lasersetup und ist froh wenn man in einem optischen Gitter mehr als 5 davon einfangen kann, in optischen Ansätzen hat man das Problem, dass Photonen nicht vernünftig sondern nur über sekundäre Prozesse miteinander wechselwirken und ganz allgemein sind wir von einem large scale Quantencomputer mit millionen von qubits meilenweit entfernt.
Ich empfehle dazu das Buch von Nielsen & Chuang - hab es parallel zur Vorlesung Quanteninformationsverarbeizung gelesen und es ist das de fakto Standardwerk auf dem Gebiet.
Richtig spannend wird das Gebiet, sobald man es schafft on chip mit sehr hoher Reproduzierbarkeit auf sehr kleiner Größe (nm skala) Qubitsysteme realisieren und auf kurzen Zeitskalen (ns skala) kontrollieren kann um zwischen den Qubits alle Operationen durchführen zu können, die es für eine universelle quantum turing machine braucht und zusätzlich irgendwie die Kohärenz hoch hält. Davon ist man (noch) weit entfernt.
Moglicherweise können andere Ansätze die an verschiedenen Stellen bei klassischen Computern Verbesserungen versprechrn aber trotzdem unseren immer wachsenden Hunger nach Compute Power stillen. Z.B. Antiferromagnetische Spintronik zum Bau von sehr schnellen MRAM Zellen. Oder neue Halbleitermaterialien zum Bau wesentlich schneller schaltenden Transistoren. Oder Optical Interconnects zwischen verschiedenen Bauteilen, die mit Nano-Laserdioden getrieben werden, für mehr Bandbreite.
Finde es, um zu der News noch etwas zu sagen, in jedem Falle eine sportliche Ansage so weit zu skalieren. Besonders EUV ist ja seit Jahren ein Sorgenkind in der Halbleiterfertigung aber wenn weiter so Geld gegen das Problem geschmissen wird, dann kann man wohl auch mit Resultaten rechnen. Ich freue mich jedenfalls darüber.