DFFVB schrieb:
klar geht das, klar ist halt auch ne Effizienzfrage: Wenn ich 3 Mio URLS auf X Mio User ausrolle
Naja. Das hast Du aber bei Updates auch. Und da sprechen wir von ganz anderen Datenmengen als so ne lumpige URL-Liste (die sich zudem gut komprimieren lässt).
DFFVB schrieb:
(wie schnell wird das aktualisiert?)
Das ließe sich über Delta-Updates lösen, wo dann halt nur die Änderungen übertragen werden. Und spätestens dann spielt die Datenmenge (im Vergleich was sonst so üblicherweise anfällt) gar keine Rolle mehr.
Außerdem verbessert es auch die Responsive-time. Denn wenn ich wegen jeder URL erst mal nen Server kontaktieren muss, krieg ich da natürlich Latenzen rein.
DFFVB schrieb:
Bis heute kann keiner sagen, wie gefährlich Spectre tatsächlich ist...
Das war schon relativ früh klar, das es für Privatanwender eher nicht so relevant ist. SPECTRE wird ja dann relevant, wenn Schadcode auf der Maschine ausgeführt wird. Wenn es aber schon soweit gekommen ist, dann ist das Kind ja eh schon in Brunnen gefallen.
Deshalb war es immer ne Geschichte die vor allem für Serverbetreiber interessant ist. Wo halt Kunde A eine Cloudinstanz hat und Kunde B auf der gleichen Maschine auch eine Cloud-Instanz und jetzt will Kunde A von Kunde B Daten abgreifen.
Ein Szenario bei Privatanwendern was so in eine vergleichbare Richtung geht sind Browser. Auch da wird ja quasi fremder Code auf meiner Maschine ausgeführt und der soll natürlich nicht mein Word-Dokument auslesen können. Aber das wurde ja relativ früh schon durch Updates unterbunden.
Auch hier wieder war nicht der Lösungsansatz irgendwie zu gucken, ob da was schädlich sein könnte (mit der Gefahr das man was übersieht) sondern einfach die Anwendung abzudichten, so das das prinzipiell nicht mehr geht.