News CrowdStrike: Update legt PCs & Server weltweit lahm, Workarounds helfen

  • Gefällt mir
Reaktionen: Zhan, konkretor, Gravlens und eine weitere Person
Cool Master schrieb:
Ach komm, du willst mir erzählen, dass ich das mit einem 10 Personen Betrieb hinbekomme aber ein Multi Milliarden Unternehmen nicht? Ging ja bei Microsoft Jahrzehnte gut und seit Win 10 gibt es kein Q&A mehr. Seltsam, dass die Qualität von Windows mit 10 und 11 deutlich abgenommen hat im Vergleich zu XP, Vista und 7....
Und der 10 Mann Betrieb ist vergleichbar aufgestellt bzw. hat vergleichbare Anforderungen an die IT wie die hier genannten Firmen mit Probleme nach dem Vorfall?

Die Aussage, man kann theoretisch alles testen, mag zwar im Grunde richtig sein, aber es ist in aller Regel eine Wirtschaftlichkeitsfrage. In einem Wettbewerb, wo der Kunde auch aufs Geld schaut, wird sich das negativ für den ergeben, der eben dort zu hohe Kosten verursacht. Das ist im Grunde wie mit Versicherungen, du brauchst sie dann, wenn es ernst wird, ansonsten im Regelfall kostet es nur ohne direkten Nutzen.
Es gibt schlicht in der B2B Beziehung keinen Indikator, der Sicherheit bemisst. Unmöglich zu beziffern. Da kannst du testen was du willst, Niemand wird dir im Vorfeld darlegen, dass demnächst ein Problem kommt und du etwas lieber testen solltest.
Cool Master schrieb:
Dann muss man die Leute halt selber ausbilden! Machen wir auch. Die Leute bedanken sich auch durch Loyalität. In den letzen 13 Jahren hatten wir eine Kündigung. Also ja, Geld ist die Grundlage man muss es halt ins Unternehmen investieren und nicht in den 4. Porsche oder 2. Yacht des CEOs.
Möglich sicher, aber es kommt am Ende auch hier aufs Geld an. Mitbewerber auf Günstigkurs können auf Sicherheitsaspekte Verzichten und damit perse günstiger ins Rennen gehen. Du brauchst also zwangsweise ein Geschäftsmodell, wo du so viel Marge hast, damit du dir das leisten kannst.

Und btw. Thema Ausbildung, auch hier ist es bei weitem nicht so einfach. IT Erfahrungen ist zwar reeelativ kurz, was vor 10 Jahren mal aktuell und state of the art war, muss heute nicht mehr notwendig sein, aber ein wichtiger Punkt ist auch dabei kritisch, Leute MÜSSEN zwangsweise Fehler machen dürfen um an diesen Fehlern auch wachsen zu können.
Wenn ihr jetzt also keine Fehler macht, wie bspw. sowas, was hier kritisiert wird, oder wenn die ITler nie selbst bemerken, was man testen sollte und was nix bringt, wird aus dem auch nach X Jahren kein guter ITler, der entsprechend belastbar ist und auch in Situationen die er nicht kennt, handlungsfähig bleibt. Dann funktionieren die Leute dann, wenn es keine Probleme gibt, aber wehe wenn...
Cool Master schrieb:
Nö, es ist so einfach! Wie ich schon sagte wo ein Wille ist, ist auch ein Weg.
Wenn man das Geld ausklammert, ist alles möglich.

Wir sagt man so schön, es gibt in der IT kein unmöglich, es gibt nur zu teuer 😉

Mit Testen hätte man hier btw. gar nix abwenden gekommt, bei uns hat es einen Kunden getroffen, dessen Systeme früh zwischen 0600 und 0800 selbstständig gebootet bzw. abgeschmiert sind. In einem potentiellen Test am Vortag gab es das Problem noch gar nicht.
 
  • Gefällt mir
Reaktionen: chaopanda, n3cro und Tiimati
Danke für diesen wunderschönen arbeitestag...
 
  • Gefällt mir
Reaktionen: konkretor, conspectumortis, Teckler und eine weitere Person
Mal eine Frage an die Admins, die CrowdStrike bei sich betreuen.

Könnt ihr da Updates aller Art der Agents, etc. gruppieren und in eigene Zeitfenster stecken?

Ich betreue bei uns u. a. Sophos Central … habe das in dem Fall noch nicht gefunden, aber da werde ich wohl mal genauer schauen ggf. mit einem Kollegen, vier Augen sehen mehr als zwei ^^
 
never patch on fridays!
 
  • Gefällt mir
Reaktionen: Recharging, Slvr, areiland und 2 andere
Zum Glück laufen meine betreuten Systeme alle auf Linux. 🥹
 
  • Gefällt mir
Reaktionen: Kuristina und 1776
Da haben wir letzte Woche im Büro noch festgestellt, dass Crowdstrike bisher mit sehr wenigen Problemen in unserer Umgebung läuft (seit einem 3/4 Jahr) verglichen mit früheren Sicherheitsprodukten in ihrer Anfangszeit. Das haben die jetzt in einem Tag aufgeholt. Glücklicherweise kann man auf der Serverebene durch komplette Virtualisierung relativ schnell etwas fixen oder restoren.... abgesehen von verstreuten Windows-Fatclients an diversen Standorten weltweit, die das Wochenende und die kommende Woche noch zu bearbeiten sind, wäre das Thema zur Mittagspause geklärt gewesen (wenn auch nassgeschwitzt, weil nur Urlaubsbesetzung).
 
  • Gefällt mir
Reaktionen: MGFirewater
Frag mich warum die Aktie nicht auf 0 geht. Denen werden sicher Milliarden an Schadenersatzforderungen ins Haus flattern.
 
DerToerke schrieb:
Zum Glück laufen meine betreuten Systeme alle auf Linux. 🥹
Die gibts auch für Linux und haben auch da schon Systeme platt gemacht. Wir haben zu 95% Windows Server und keine Probleme - da kein Crowdstrike.
Ergänzung ()

SirSilent schrieb:
Frag mich warum die Aktie nicht auf 0 geht. Denen werden sicher Milliarden an Schadenersatzforderungen ins Haus flattern.
Haben die US-Börsen schon auf?
 
Zuletzt bearbeitet:
Hey, kurze Frage diesbezüglich (ich habe jetzt die vorherigen 26 Seiten hier nicht durchgelesen):

Gibt es hier einen Thread (wie eine Art Ticker), welcher sich ausschließlich mit der Problemlösung beschäftigt?

Also ein Thread, in dem nicht über die Panne an sich und wie schlimm es ist etc. diskutiert wird, sondern sich ausschließlich mit der Lösung beschäftigt wird?
 
Wozu? Die Lösung ist Trivial für das Problem (siehe Update 3) und das kaputte Update wird nicht mehr ausgerollt.
 
  • Gefällt mir
Reaktionen: konkretor
Es ist eben nicht trivial, es gibt Fälle, wo beispielsweise die "Datei" oder der Ordner "CrowdStrike" nicht existiert. Ist ein Admin-Login zwingend Pflicht, um den Ordner zu sehen? Selbst mit "Systemdateien anzeigen" ist der Ordner nicht zu sehen.
Ergänzung ()

PS: Es geht in diesem Fall um ein System in virtueller Umgebung (wo entsprechend dieser Ordner NICHT existiert).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: madmax2010
rongador schrieb:
Hey, kurze Frage diesbezüglich (ich habe jetzt die vorherigen 26 Seiten hier nicht durchgelesen):

Gibt es hier einen Thread (wie eine Art Ticker), welcher sich ausschließlich mit der Problemlösung beschäftigt?

Also ein Thread, in dem nicht über die Panne an sich und wie schlimm es ist etc. diskutiert wird, sondern sich ausschließlich mit der Lösung beschäftigt wird?
Der Hersteller hat die Lösung auf seiner Webseite veröffentlicht, vorher gab es schon ein paar Workarounds auf Reddit / X etc. Aber im Endeffekt immer das selbe. Und der Workaround ist auch direkt in den News von Anfang enthalten.
 
Musk is not happy… 😉

„Der Chef des E-Autobauers Tesla und des Raumfahrtunternehmens SpaceX gab bekannt, nicht mehr auf den IT-Dienstleister Crowdstrike zu setzen: Wir haben Crowdstrike gerade aus allen unseren Systemen entfernt, schrieb er auf X.“
 
  • Gefällt mir
Reaktionen: DEADBEEF, konkretor und 1776
Falc410 schrieb:
Und der Workaround ist auch direkt in den News von Anfang enthalten
Ja... der Workaround mit dem CrowdStrike Ordner. Lies mal meine Nachricht genau durch. Die Lösung hilft aber nur denen in nicht-virtueller Umgebung.
 
knoxxi schrieb:
Ich bin Mal gespannt ob die Firma dieses Fiasko übersteht....

Sie wird.
Zumal sie recht flott eine Verantwortung uebernommen hat.
Allerdings sollte sich Microsoft dazu auch aeussern muessen.
Das Updatre was da ausgerollt wurde, war auch ein Treiber. Und der musste erst bei MS durch.
Nach Deren ok, wurde das Update dann ausgerollt.

Anyway.
Schoen zu sehen wie sich die Welt ueber die letzten 15 Jahre mit dem OS so abhaengig gemacht hat. 😁
Gerade viele Flughaefen der Welt waren mal "Linuxbasiert".
 
  • Gefällt mir
Reaktionen: knoxxi, CyborgBeta und cansys
Zurück
Oben