Nebula123 schrieb:Was ist das eigentlich für ein Wurmfortsatz, den einige CPUs zu haben scheinen?
OmniPath
Trambahner schrieb:Datenbanken, die auf solchen Maschinen in Datacenters laufen, dürften im oberen 3stelligen GB bzw. TB-Bereich liegen.
Einzelne Refresh-Transaktion in Datawarehouses können gewaltige Datenmengen auslösen. Da kannste die paar MB Cache knicken. Da reicht ein lockerer großer INSERT INTO .... SELECT FROM..... und Du bewegst Gigabytes.
Bedenken muss man auch, dass neben den eigentlichen Daten und z.B. deren Transformierungen/Aggregierungen durch Berechnungen auch Transaktionslogs und Undo-Informationen generiert und geschrieben werden müssen. Dazu dann oft auch die Updates/Rebuilds der entsprechenden Indizes. Das muss dementsprechend alles durch den Speicher.
Dir ist aber schon bekannt das DB Systeme die Transaktionen immer in kleineren Operationen zerlegen. Alleine schon zur Optimierung. Da wird die eine große Operation auf alle Datensätze zur gleichen Zeit durchgeführt. Somit muss mit Nichten der gesamte zu bearbeiteten Daten in den Cache.
http://sungsoo.github.io/2015/01/23/layers-of-query-processing.html
Zuletzt bearbeitet: