News Google Willow: Quantenchip verkürzt Be­rech­nung von 10 Qua­dril­li­on­en Jahren auf 5 Minuten

Da gehen sie hin, die sicheren Kennwörter.
 
  • Gefällt mir
Reaktionen: nargorn, papamidnight, dister1 und 18 andere
Calid schrieb:
das klingt für mich sehr nach marketing-BS. aber massiv!
Synthetische Benchmarks legen Maximallast an, und messen wie flott es geht. Und dass es kein Standardbenchmark für deinen x64 zuhause ist, ist doch irgendwo klar, oder nicht? Was wäre denn die Alternative, dass die da Cinebench laufen lassen? :lol:
 
  • Gefällt mir
Reaktionen: dister1, Outsource0326, steff0rn und 8 andere
Ayo34 schrieb:
Ich glaube aber, dass die Technologien sich alle gegenseitig unterstützen werden. Quantencomputer? Dadurch eher Kernfusion? Mehr günstige Energie für KI... Dadurch ein Boost in der Wissenschaft... usw.

Das ist glaube ich der Weg, wo es hingehen wird.

Wofür nutzen wir denn aktuell Supercomputer? Genau, für Wettermodelle, aber auch in der Medizin & zum lernen von KI-Modellen.
Wenn durch die Quantenchips hier ein enormer Sprung an Rechenleistung zu ähnlichem Energieeinsatz machbar ist, würde das auch weitere Forschungen vorantreiben.

Ist am Ende aber auch wie beim Atom; sicherlich lässt sich diese Rechenleistung auf für negative Dinge einsetzen...
 
  • Gefällt mir
Reaktionen: 9t3ndo, sioh, FR3DI und 2 andere
Calid schrieb:
Fragt sich keiner, was das eigentlich genau war, dass da berechnet wurde? und wie bitte kann es ein standard-benchmark sein, wenn die berechnung 10 Quadrillionen jahren dauern würde?

Wie verifiziert man da überhaupt das Ergebnis des Quantencomputers? :confused_alt:
 
  • Gefällt mir
Reaktionen: Orcon, Viper816, Weyoun und 8 andere
Calid schrieb:
Fragt sich keiner, was das eigentlich genau war, dass da berechnet wurde? und wie bitte kann es ein standard-benchmark sein, wenn die berechnung 10 Quadrillionen jahren dauern würde?

das klingt für mich sehr nach marketing-BS. aber massiv!
Krass. @Calid hat mit einem Kommentar in einem belanglosen Forum die gesamte Informatik widerlegt. Die Wissenschaft steht Kopf.
 
  • Gefällt mir
Reaktionen: Outsource0326, steff0rn, Maxemilian und 16 andere
Rexaris schrieb:
Auf welcher Temperatur muss man diesen Chip betreiben?
Knapp über dem absoluten Nullpunkt, je näher desto besser.
Bei "höheren" Temperaturen werden nämlich die Qubits instabil
 
  • Gefällt mir
Reaktionen: Outsource0326
Die erste Version von Willows Vorgänger, der Sycamore-Chip (zu Deutsch: Maulbeerfeige) mit 53 Qubits, war der erste, der laut den Google-Forschern eine Aufgabe gelöst hat, die die Rechenkapazität von klassischen Supercomputern übersteigt. Diese Fähigkeit nannten sie "quantum supremacy", auf Deutsch Quantenüberlegenheit. Der Chip solle eine Aufgabe in 200 Sekunden gelöst haben, für die ein Supercomputer 10.000 Jahre gebraucht hätte. Die Nachricht erhielt große mediale Aufmerksamkeit, doch bereits wenige Tage später zeigte der Konkurrent IBM, dass ein Supercomputer diese Aufgabe mit den richtigen Methoden in nur 2,5 Tagen lösen könne. Damit wäre der Quantencomputer zwar noch immer schneller, der Quantencomputer ist jedoch nicht essenziell, um das Problem zu lösen.
https://www.heise.de/news/Google-stellt-neuen-Quantenprozessor-Willow-vor-10192828.html


Da war doch mal was mit Google und etwas optimitischen Angaben zu ihren Chips.
 
  • Gefällt mir
Reaktionen: Benj, -Stealth-, or2k und 17 andere
neue Möglichkeiten bergen immer neue Risiken. Ob das "nur" so glanzvoll sein wird oder wir auch "Angst" haben müssen wird sich zeigen. Sehe da große Sicherheitsprobleme auf uns zukommen. nun ja we will see
 
Rexaris schrieb:
Was sind das für Supraleiter? Auf welcher Temperatur muss man diesen Chip betreiben?
Vermutlich nahe des absoluten Temperatur-Nullpunktes ~0°K, erreicht durch Kühlung mit flüssigem Helium. Bei einem "Hoch"temperatursupraleiter würde es "schon" flüssiger Stickstoff für ca. ~75°K tun. Quasi ausgeschlossen, dass wir sowas in den nächsten Jahrzehnten unter unseren Schreibtischen oder in unseren Smartphones oder gar Taschenrechnern haben werden, zumal nur einige sehr spezielle Algorithmen bzw. Arbeitslasten davon überhaupt profitieren würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benj, Outsource0326, 9t3ndo und 2 andere
mRcL schrieb:
Wofür nutzen wir denn aktuell Supercomputer?
Waffenentwicklung unter anderem.

Da werden wohl die dicksten Verschlüsselungen fallen und die NSA und Konsorten lesen alles im Klartext mit.

Und für den PC braucht man dann eine dicke Stickstoffleitung zur CPU.
 
  • Gefällt mir
Reaktionen: Outsource0326 und sikarr
Locutus2002 schrieb:
zumal nur einige sehr spezielle Algorithmen bzw. Arbeitslasten davon überhaupt profitieren würden.
Ich habe dazu leider nur gefährliches Halbwissen:
Es gibt ja sowas wie Quantenkryptographie. Das wäre in mobilen Geräten schon wünschenswert.

Soweit ich weiß sind die klassischen Kryptographie-Verfahren für Quantencomputer sehr anfällig, da die Sicherheit eben genau auf diesen 10 Quadrillionen Jahren besteht.

Wenn nun jede Verschlüsselung von mobilen Geräten in jedem etwas besser ausgestattetem Labor geknackt werden kann, dann wird das eine sehr spannende Zeit.

Ich hoffe ich habe mit meinen Befürchtungen unrecht.
 
Das Ergebnis des Bechmarks ist immer 42.
 
  • Gefällt mir
Reaktionen: Marflowah, Romanow363, Topi41 und 20 andere
Was technisch machbar ist, wird von irgendjemanden gemacht werden. Ganz unabhängig von Motivation, Zielen, Gründen, Zwecken... etc. Da brauchen wir uns wohl nichts vorzumachen.
 
Bright0001 schrieb:
Und dass es kein Standardbenchmark für deinen x64 zuhause ist, ist doch irgendwo klar, oder nicht?
davon habe ich auch nicht geredet, herr schlauberger.
Ergänzung ()

milliardo schrieb:
Wie verifiziert man da überhaupt das Ergebnis des Quantencomputers? :confused_alt:
wahrscheinlich, indem man das ergebnis schon vorher weiß. was wiederum darauf hindeutet, dass es eine komplett sinnlose berechnung ist. reiner marketing-gag.
 
Quantencomputer sind beeindruckend, aber auch nach wie vor wenig greifbar. Die Inhalte des Artikels wirken (wie oft bei Quanten-Nachrichten) sehr plakativ. Klar gibt es immer gewisse Anwendungsfälle, wo eine bestimmte Vorgehensweise einen Durchschnitts-Standard massiv schlägt. Das ist heute schon so.

Was bedeutet das für uns Menschen? Vermutlich verbesserte Simulationsmöglichkeiten bei Wetter, Krieg und solchen Dingen? Brute-Forcing bestimmter Anwendungsfälle vermutlich auch. Es bleibt sehr wenig greifbar und das merkt man auch immer in den Kommentaren auf allen möglichen Seiten. Thematisch ist das wie bei alternativen Energiequellen. Das läuft seit Ewigkeiten und immer mal wieder liest man einen Happen dazu, aber so nach richtigem Durchbruch klingt es nie.
 
  • Gefällt mir
Reaktionen: ldos, shaggy86 und dohderbert
Zurück
Oben