News CrowdStrike: Update legt PCs & Server weltweit lahm, Workarounds helfen

Ich bin schon auf die offizielle RCA gespannt. Wie granular der Vorgang erklärt wird.

Andere Anbieter werden hoffentlich daraus lernen.

Take one for the Team...
 
PegasusHunter schrieb:
Warum gibt es keine Reservesysteme, die sich nach dem 10. Reboot selbst starten ?
Mit der gleichen ranzigen Software drauf?

Wer es ernst meint hat seine System mit Linux oder BSD am laufen und setzt so etwas nicht ein. Dafür aber Fachpersonal!
Ergänzung ()

t3chn0 schrieb:
Andere Anbieter werden hoffentlich daraus lernen.
Nö. Wer als erster am Markt ist und Kundenverträge hat, gewinnt.
 
  • Gefällt mir
Reaktionen: PegasusHunter
PegasusHunter schrieb:
Jo , abgesicherter Modus und Treiber löschen ?
Das hier zb, je nach Bude werden die Leute selber schon eine Lösung zur automatisierung gefunden haben. Niemand wird 2000+ Server per Hand fixen
PegasusHunter schrieb:
für Unternehmen auch hochwertige Sicherheitssoftware oder sind das alles nur Frickelbuden?
Ja alle warten darauf das du die neue Lösung endlich auf den Markt wirfst. Crowdstrike ist komplett scheiße deshalb nutzt es ja quasi jeder...
PegasusHunter schrieb:
Warum gibt es keine Reservesysteme, die sich nach dem 10. Reboot selbst starten ?
Wer sagt das es die nicht gibt ? Nur nicht überall und für jedes setup weil es ggf einfach zu teuer ist.
PegasusHunter schrieb:
Ist alles wirklich so kompliziert?
Ja
PegasusHunter schrieb:
Über weiterführende Links und Informationen zum nachlesen:schluck:
https://google.de
 
  • Gefällt mir
Reaktionen: Ja_Ge, B3rry und TomH22
ayngush schrieb:
Man verlässt sich viel zu sehr auf zu einseitige Testmethoden (insbesondere automatisierte Unit Tests), manuelle Testszenarien sind zu zu teuer - und eventuell auch zu langsam für ein modernes Sicherheitsprogramm?
Eine große, automatisierte Testsuite wiegt einem schnell in falscher Sicherheit, weil man eben glaubt man hat eine gute Testcoverage. Wie gut die wirklich ist, muss man regelmässig prüfen. Ich habe auch schon oft gesehen, dass fehlerhafter Code nicht erkannt wird, weil der Test die Ergebnisse nur lückenhaft prüft.
ayngush schrieb:
Welche Lösung es für diese Problem gibt kann ich auch noch nicht ableiten.
Am Ende des Tages wird man sich wohl einfach damit abfinden müssen, das es 100% Sicherheit niemals geben wird, und man mit sowas wie heute rechnen muss. So wie wir auch mit Naturkastatrophen leben.

Ein großes Risiko sind Monokulturen, die sich durch die Konzentration auf wenige große Anbieter ergeben. Das gilt übrigens auch im Open Source Bereich, auch dort setzt sich oft im Laufe der Zeit genau ein Produkt als dominanter Marktführer durch. Man denke nur an z.B. OpenSSL.
 
  • Gefällt mir
Reaktionen: Miuwa, areiland, ropf und 4 andere
TomH22 schrieb:
Das hat nichts unbedingt mit "Denken einnebeln" zu tun, sondern auch damit, das IT Abteilungen unter enormen Druck stehen. Sie sollen auf der einen Seite das Unternehmen vor allen Cyber-Gefahren sicher schützen, aber andererseits dar es nicht zu viel kosten. Und selbst wenn man genug Geld hat, wachsen kompetente Security Spezialisten nicht auf Bäumen. Also bleibt einem nichts anderes übrig, als zu einer managed-EDR Lösung wie CrowdStrike zu greifen.
Du hast mich an dieser Stelle scheinbar falsch verstanden und es hat sehr viel mit "Denken einnebeln" zu tun.

Es ist völlig richtig Fachwissen von außen dazu zu kaufen, so funktioniert es seit vielen Jahren beim Virenschutz, Spamabwehr, Angriffserkennung oder der Suche nach Sicherheitslücken. Nur sollte man dabei nicht seine eigenen Pflichten vernachlässigen, nur weil man Teilaufgaben extern vergibt.

Um meinem Beispiel zu folgen, natürlich kann man Daten in der Cloud speichern, wenn man sie dann aber nicht sichert, "weil sie ja in der Cloud" sind, hat man in erster Linie selbst versagt. Das gilt natürlich für die im Artikel erwähnte Sicherheitslösung ebenfalls. Nur weil mir jemand der sich damit auskennt, bei der Abwehr von Angriffen aus dem Netz hilft, darf es nichts an den eigenen Konzepten zur Sicherherstellung der Verfügbarkeit ändern.

Genau das ist aber geschehen, es hätte statt einem fehlerhaften Client auch ein Verschlüsselungstrojaner sein können oder eine andere Angriffsform. Statt sich hier abzusichern und ein plausibler Desaster Recovery Konzept vorzulegen, haben sich manche scheinbar drauf verlassen, ein Tool nimmt ihnen alle Sorgen ab und ein solches bräuchten sie nicht mehr.

Richtig an dieser Stelle ist, nur ein plausibles Stufenkonzept ist bei kritischen Architekturen anwendbar. Die Software hat versagt, ist jetzt nicht zu ändern, wie können wir schnell den Betrieb wieder herstellen, was ist die Fallback Lösung, oder gibt es etwa keine?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: trb85 und CadillacFan77
Rickmer schrieb:
Einfach mal das Problem auf Windows schieben weil CrowdStrike scheiße gebaut hat ist schon etwas dreist.
Alleine die Tatsache, dass ein Betriebssystem so aufgebaut ist, dass ein ungewollter Fehler in einer Software es zerstören kann, zeigt doch, wie bescheuert das System konzipiert ist.
 
  • Gefällt mir
Reaktionen: Nowareeng, blackiwid und ropf
Cool Master schrieb:
Einfach nur eine Frage des Kapitals
Klar, es kann sich natürlich jede Firma 100 Menschen einstellen, die alle Konstellationen auf dutzenden Systemen prüfen und warten. Dafür, dass sowas einmal in 10 Jahren passiert. Aber diese Leute wachsen auch nicht auf Bäumen. Du tust gerade so, als könnte jede Firma das einfach nur mit Geld machen, aber nicht jede Firma hat dieses Geld noch gibt es genug Leute die das dann übernehmen.

Du machst es dir da viel zu einfach bzw. ist das einfach nicht umsetzbar.
 
  • Gefällt mir
Reaktionen: Miuwa und M-X
  • Gefällt mir
Reaktionen: Nowareeng
flaphoschi schrieb:
die Updates manuell kontrollieren. Manuell!
Auch hier, wie stellst du dir das in dem Umfang vor? Wenn da zig Programme laufen und zig Updates kommen, wie viele Konstellationen willst du da manuell testen? Jedes Update, jede Software könnte anders auf das Update einer dritten Software reagieren.
 
Rickmer schrieb:
???

Einfach mal das Problem auf Windows schieben weil CrowdStrike scheiße gebaut hat ist schon etwas dreist.
Aber Windows ist doch immer böse und Linux der Heiland!?!?
 
  • Gefällt mir
Reaktionen: Ja_Ge und Rickmer
hgftbdgbg.jpg


Ich hätte das gerne als T-Shirt 😂
 
  • Gefällt mir
Reaktionen: Slim.Shady, bad_sign und xexex
TomH22 schrieb:
Ein großes Risiko sind Monokulturen, die sich durch die Konzentration auf wenige große Anbieter ergeben.
Das ist ein viel wichtigerer Punkt. Wenn es nicht nur eine sondern 5 oder 10 dieser Firmen gäbe, die sich das aufteilen, wäre der Impact auch deutlich kleiner. Das ist viel realisitischer, als dass plötzlich jede Firma 100 Mitarbeiter für manuelle Update Tests abstellt.
 
flaphoschi schrieb:
Mit der gleichen ranzigen Software drauf?

Wer es ernst meint hat seine System mit Linux oder BSD am laufen und setzt so etwas nicht ein. Dafür aber Fachpersonal!
Ergänzung ()


Nö. Wer als erster am Markt ist und Kundenverträge hat, gewinnt.
Ich meinte das im Bezug auf das Patch Deployment.
 
Das ist genau der Grund warum ich keine Schutzprogramme einsetze und auch keine Updates automatisch einspielen lasse.

Fritte: Update aus❗
Windows: Updates aus ❗
Programme: Updates aus ❗
Handy, TV, AVR: Updates aus❗

Wenn dann manuell einspielen, aber vorher nach Problemen googlen. Einmal im Jahr reicht mir die Prozedur.

Q.e.d.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ropf
mojitomay schrieb:
Wäre mit Linux nicht passiert...
GGF. ja weil auf unterschiedliche Distros,
mit unterschiedlicher Softwarekonfiguration,
unterschiedlichen Updateintervallen,
und unterschiedliche Softwareversionen gesetzt wird.
 
  • Gefällt mir
Reaktionen: ropf, Kuristina und LamaTux
habla2k schrieb:
plötzlich jede Firma 100 Mitarbeiter für manuelle Update Tests abstellt.
Keine Firma braucht da 100 Mitarbeiter für, da reichen ein paar Anwender die jegliche Updates mit einem Tag Vorlauf bekommen und melden wenn etwas nicht stimmt.

Für größere Rollout definiert man halt Gruppen, die dann länger das neue Produkt testen dürfen, so läuft es zumindest in jedem größeren und halbwegs vernünftig geführten Unternehmen.

Man kann es natürlich auch "übertreiben" und parallel mehrere Landschaften pflegen, für den "Luxus" muss man dann tatsächlich ein paar Mitarbeiter mehr haben. Wäre im vorliegenden Fall aber gar nicht notwendig gewesen und es hätte nur eine kleinen Teil der Nutzer betroffen.
 
Zuletzt bearbeitet:
SaschaHa schrieb:
Alleine die Tatsache, dass ein Betriebssystem so aufgebaut ist, dass ein ungewollter Fehler in einer Software es zerstören kann, zeigt doch, wie bescheuert das System konzipiert ist.
Das System wird nicht zerstört, es stürzt beim Booten ab. Das passiert bei Linux auch, wenn Du einen fehlerhaften Kerneltreiber hast.
Beide Systeme haben auch Mechanismen trotzdem zu booten, bei Windows der abgesicherte Modus, bei Linux die Möglichkeit einen anderen Kernel zu booten, oder in der Kernel Commandline andere Parameter zu setzen.
 
  • Gefällt mir
Reaktionen: areiland, species_0001, Fluppi und 6 andere
Zurück
Oben