Ihr wisst aber schon, dass das die Berechnung immer komplexer wird, da immer mehr Daten hinzukommen.
Angenommen, 1 Jahr nach der Aufzeichnung gibt es Wetterlogs von 365 Tagen, dann sind es 1 Jahr später schon 730 Wetterlogs.
Diese Wetterlogs beinhalten jedoch mehr, denn sie sind in Stunden und diese wieder in Minuten unterteilt.
Angenommen, es würde nur die Temperatur, die Windrichtung und die Windstärke aufgezeichnet werden, würde das ganze schon alleine für eine Minute so aussehen:
Uhrzeit;Temperatur;vereinfachte Windrichtung;vereinfachte Windgeschwindigkeit
13:01;21°;W;5
Nach 5 Minuten dann so:
13:01;21°;W;5
13:02;21°;W;5
13:03;21°;W;5
13:04;21°;W;4
13:05;20°;W;4
Angenommen, man würde eine Stunde diese 5 Angaben dokumentieren, wäre man bei 60 Angaben, nach 24 Stunden schon bei 1440 Angaben, nach einer Woche bei 10080 Angaben, nach einem Monat bei ca. (je nach Monat) 282240 Angaben und schließlich nach einem Jahr bei 3'679'200 Angaben.
Wenn man nun überlegt, dass weitaus mehr und auch deutlich genauere Angaben gespeichert werden, kommt man dabei schon auf eine außerordentliche Zahl - alleine für ein Jahr und einen Ort.
Wenn man nun noch die Angaben von allen Orten zusammenrechnet kommt man wieder zu einer deutlich größeren Zahl.
...
Dieser Computer muss nun alle diese Milliarden Einträge, die natürlich viel umfangreicher sind, als mein Beispiel, auslesen, verarbeiten und daraus auch noch eine Wettervorhersage konstruieren.
Dass man dafür mehr als 300 CPUs benötigt, sollte selbstverständlich sein.