News CrowdStrike: Update legt PCs & Server weltweit lahm, Workarounds helfen

Soviel auch zum Thema Admins in den Firmen die Updates freigeben. Da wird wohl alles einfach ungestestet bestätigt.
 
Schön, wie hier wieder viele die Sau durchs Dorf treiben. Da geht mal was schief und alles schreien "Hängt Sie auf!". Bissel traurig oder?
 
flappes schrieb:
Da wird wohl alles einfach ungestestet bestätigt.
AV-Definitionsupdates stehen aus Gründen der Sicherheit hoffentlich auch bei deinen Systemen auf "Auto" - falls du das überhaupt einstellen kannst.

Edit: Besser wäre es natürlich ganz auf den Kram zu verzichten aber im Professionellen Umfeld, wo es Haftungsfragen zu beantworten gibt, kommt man um so einen Kram (AV-Software / -Maßnahmen) leider nicht herum.
 
  • Gefällt mir
Reaktionen: Zocker1996 und M-X
Firefly2023 schrieb:
Schön, wie hier wieder viele die Sau durchs Dorf treiben. Da geht mal was schief und alles schreien "Hängt Sie auf!". Bissel traurig oder?
Soll man denn einfach mit den Schulter zucken und es auf sich beruhen lassen?

Dann passiert das in Zukunft noch viel öfter.
 
  • Gefällt mir
Reaktionen: ThirdLife
Kleine 20 Mann Firma hier mit Mac/Linux only. Wir verfolgen hier gespannt die Situation seit heute morgen.
 
  • Gefällt mir
Reaktionen: Donnerkind, Brian.Griffin, ropf und 6 andere
Ne. Aber mal den Ball flach halten. Ich finde es immer wieder schade, dass man gleich Köpfe fordert, obwohl es in 99,9% der Fälle alles funktioniert hat. Ich finde sowas schäbig.
 
Offizielles Crowdstrike-Statement vom CEO.

Im Grunde genommen sagen die: "Ist kein Sicherheitsvorfall... wir haben nur gerade ein paar Millionen Systeme lahmgelegt." 🤡

https://x.com/George_Kurtz/status/1814235001745027317

1721384618910.png
 
  • Gefällt mir
Reaktionen: Brian.Griffin, DireWolf, Qyxes und 2 andere
Cool Master schrieb:
100% bei dir. Ich habe es lange nicht verstanden aber mittlerweile, wenn es keine Security-Updates sind, bin ich auch Fan von 1-2 Tage warten, was ich aber schon immer war. Das Problem ist halt viele sehen "Ohhh Update", MUSS installiert werden,
Damaliges Gespräch mit ehemaligem Chef, er zu mir:
"Sie als ITler müssen doch ein immenses Interesse daran haben, jeden Softwarepatch und jedes BIOS-Update mitzunehmen!" ... Mit ihm (Baujahr 60) darüber zu diskutieren, war vollkommen sinnlos.
 
  • Gefällt mir
Reaktionen: Qyxes, Ja_Ge und Kaulin
20240719-114638-wintermute-id6259011.jpg
 
  • Gefällt mir
Reaktionen: Slim.Shady, Zeitzeuge, Romanow363 und 23 andere
... die Retourkutsche für jene, die hier immer schreien "du musst gefälligst updaten! aktuell sein! sonst ist das unverantwortlich! gefährdung der allgemeinen sicherheit! du ewig-gestriger!"

... joa, man siehts
 
  • Gefällt mir
Reaktionen: Zeitzeuge, trb85, Taron und 2 andere
Firefly2023 schrieb:
Ne. Aber mal den Ball flach halten. Ich finde es immer wieder schade, dass man gleich Köpfe fordert, obwohl es in 99,9% der Fälle alles funktiniert hat. Ich finde sowas schäbig.
Das ist leider oft so. Die Leute die ohnehin alles besser wissen, melden sich ja auch immer erst hinterher.

Wie auch immer, als selbst betroffener Arbeitnehmer sehe ich die Sache sehr entspannt. Mehr Freizeit, mehr Softeis.
 
  • Gefällt mir
Reaktionen: Kalsarikännit und Firefly2023
M-X schrieb:
Wow da kommt wieder der Armchair admin und zeigt das er wenig bis keine Ahnung von modernen deployment Methoden und security software hat. Klar hat CS es hier vergeiget aber für den kunden ist das quasi nicht vermeidbar gewesen.
Die Frage ist viel grundlegender: Wie in 1000 Jahren kann eine verantwortungsvolle Administration, die ihren Job und das Betriebswohl auch nur peripher ernst nimmt, auf ein entkoppeltes Produkt ohne Eigeneinfluss setzen?

Mit Ethos hat das nichts mehr zu tun, aber Bequemlichkeit hat diesen schließlich auch längst abgelöst.
 
  • Gefällt mir
Reaktionen: Spike S. und DJMadMax
Ich sehe das Problem in der grundsätzlichen (und vielleicht unvermeidbaren?) Veränderung der IT in großen Unternehmen.
Früher hatten wir kleinen Admins in den Außenstellen meines "Unternehmens" (nenne ich jetzt mal so) regelmäßig Changes um Updates einzuspielen.
Das war unsere Aufgabe.
Die Changes waren klar definiert, mussten im Zeitraum von bis erledigt werden.
Wir warteten immer etwas um von Erfahrungen anderer profitieren zu können.
Im Laufe der Zeit wurde immer mehr zentralisiert (auch durch die Verfügbarkeit schnellerer Netze).
Von früher 8 Servern vor Ort bis zu keinen einzigen mehr heute.
Vieles läuft mittlerweile über die Cloud wie jetzt aktuell bei diesem Problem.
Das macht es für die IT in großen Firmen einfacher, aber man gibt damit auch die Verantwortung aus der Hand.
Aber man hat ja für alles Verträge....
 
  • Gefällt mir
Reaktionen: cruse
Bei uns sind auch massenweise Systeme ausgestiegen, aber mittlerweile läuft wieder alles. 👍

Ich bin gespannt auf die Folgen und welche Änderungen das in diesem Zusammenhang bringt. Für die Schwere des Fehlers sind wir wohl alle glimpflich davongekommen, da der Workaround schnell kommuniziert wurde und einfach umzusetzen war.

DJMadMax schrieb:
wenn man in der News sogar liest, dass OPs abgesagt werden... weil irgend eine medizinisch vollkommen irrelevante (aber eben für die Infrastruktur mancher Unternehnen notwendige) Software aussteigt...
Und Du weisst WOHER, dass da keine medizinisch relevante Infrastruktur ausgestiegen ist?!? 😖

Cool Master schrieb:
Das Problem ist halt viele sehen "Ohhh Update", MUSS installiert werden,
Hier hatte man gar keine Wahl, das wurde zwangsweise im Hintergrund installiert, wie ein Patternupdate beim Virenscanner.

DJMadMax schrieb:
wenn ein infrastrukturell derart kritisches Unternehmen sich so einseitig und ohne funktionierende Redundanz von einer einzigen Lösung abhängig macht, dann gilt die Kritik vollkommen zurecht JEDEM dieser Unternehmen.
Ok, aus Deinen bisherigen Antwworten entnehme ich, dass Du nicht in einer IT arbeitest, welche mit dem Problem konfrontiert wurde? Ich bin seit heute Früh am fixen und jetzt fertig, also nicht der hier schon treffend beschriebene "Armchair Admin". Redundanz half hier gar nichts, auch unsere redundanten Systeme wurden gleichzeitig mit dem Update "beglückt". Denkst Du wirklich der BER läuft ohne Notfallsysteme und Redundanzen? Das hat denen auch nichts geholfen...
Ergänzung ()

Arboster schrieb:
Früher hatten wir kleinen Admins in den Außenstellen meines "Unternehmens" (nenne ich jetzt mal so) regelmäßig Changes um Updates einzuspielen.
Hat mit diesem Problem nichts zu tun, das war wie gesagt ähnlich einem Patternupdate und auch diese haben wir früher nicht erst nach mehreren Tagen Test per Hand eingespielt.


PS: Noch als Ergänzung, der Fehler war nicht auf allen Systemen, 80% der Server sind bei uns weitergelaufen. Könnte also erklären warum es bei den internen Tests vom Hersteller nicht aufgefallen ist. Warum nur spezifische Systeme betroffen waren werden die jetzt schon herausfinden.
 
  • Gefällt mir
Reaktionen: Brian.Griffin, Sirhaubinger, Miuwa und 3 andere
habla2k schrieb:
Und was hätte das in diesem Fall genutzt? Updates kommen von den verschiedensten Programmen und selten gleichzeitig, da brauchst du ja dann für jedes Update ein System um zu schauen, ob dabei Probleme auftreten.

Ja und wo ist da das Problem außer von Kapital welches man nutzen muss? Wie gesagt wenn man will kann man auf alles testen, aber das passiert ja seit Jahren nicht mehr und immer mehr Software ist Bananen-Software die beim Kunde reift. Hat man ja schon seit Jahren auch bei Windows wo der Kunde Tester spielt.

habla2k schrieb:
Und auch die können Probleme bereiten.

Klar, deswegen testen, testen und noch mal testen bevor man auf "deploy" drückt. Vor allem wenn es eine Cloud-Lösung ist wo zig tausende oder hundert tausende Unternehmen dran sind.

DJMadMax schrieb:
"Sie als ITler müssen doch ein immenses Interesse daran haben, jeden Softwarepatch und jedes BIOS-Update mitzunehmen!" ... Mit ihm (Baujahr 60) darüber zu diskutieren, war vollkommen sinnlos.

Ja da bin ich froh immer mit Leuten zu tun gehabt zu haben die eher auch sagen 1-2 Tage warten und nur auf 1-2 Systemen erproben bevor alles ausgerollt wird. Hatten wir z.B. auch schon auf unserem VM-Server durch BIOS Update war der in nem Boot loop und hat sich einfach neu gestartet. Altes BIOS drauf alles wieder ok :D
 
  • Gefällt mir
Reaktionen: DJMadMax
Petoschka schrieb:
Das ist leider oft so. Die Leute die ohnehin alles besser wissen, melden sich ja auch immer erst hinterher.
Sehe ich auch.
Meist auch die, die betroffen sind und es nicht zugeben wollen. (an die eigene Nase fassen und so) ;)

By the way: Bei aller Aufregung, sollten wir aber nicht vergessen, dass Al Bundy 1966 4 Touchdowns in einem Spiel gemacht hat und den Polk High School Panthers damit zur Stadtmeisterschaft verholfen hat!
 
  • Gefällt mir
Reaktionen: Slim.Shady, Fililander, Sirhaubinger und 5 andere
flappes schrieb:
Soviel auch zum Thema Admins in den Firmen die Updates freigeben. Da wird wohl alles einfach ungestestet bestätigt.
Les bitte den Artikel. Da hat kein Admin in einer Firma was freigegeben... Wird hier eigentlich wirklich nur noch auf die Überschrift reagiert und das wars ?
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Miuwa, Petoschka und 2 andere
Wurde das schon gepostet?

IT.jpg
 
  • Gefällt mir
Reaktionen: Romanow363, cruse, LamaTux und eine weitere Person
Wenn man halt Geld sparen will und die IT-Abteilungen reduziert, wenn man irgendwelche Hochschulabgänger als Migrations-Experten nimmt, um die 10 oder 20€ einzusparen, passiert sowas halt. Die ganzen Firmen weltweit lagern die Verantwortung für funktionierende Systeme an einige wenige Betreiber aus. Damit erhöht sich aber das Ausfallrisiko der die Gefahr gehackt zu werden.

Wenn alles InHouse läuft und man wirkliches Fachpersonal/-management nimmt, passiert sowas nicht.
 
  • Gefällt mir
Reaktionen: Zeitzeuge, Fernando Vidal, Cool Master und eine weitere Person
Zurück
Oben