Andy schrieb:
dem Security Copilot um einen KI-Assistenten ergänzt werden, der Daten über Bedrohungslagen auswerten und Maßnahmen empfehlen kann.
Daten über Bedrohungen auswerten. Das zeigt sehr schön, was so verkehrt läuft in der Computer-Security.
Wenn das Dach von meinem Haus ein Loch hat, dann repariere ich das damit es dicht ist.
Ich würde aber nicht auf die Idee kommen den Wetterbericht zu beobachten (oder durch eine KI beobachten zu lassen) und irgendwelche Gegenmaßnahmen einzuleiten, wenn ne Regenfront im Anmarsch ist und anschließend irgendwelche "Logfiles" auszuwerten um zu gucken, wo denn das Wasser überall reingelaufen ist.
Bright0001 schrieb:
Wenn man der Sache nicht blind vertraut, ist es wirklich wie ein nicht-toxisches, persönliches Stack Overflow.
Mit dem Vertrauen ist das halt so ne Frage. Wenn ich beurteilen kann, ob eine Antwort korrekt ist dann brauche ich - ob der Fähigkeiten die dazu gehören - erst gar nicht danach fragen.
Die Leute kopieren ja nicht von StackOverflow, weil sie genau wissen was sie tun, sondern weil sie es nicht wissen.
Vor allem hat das ja auch eine selbstverstärkende Mechanik. Je öfter ich solche Tools nutze, je weniger hab ich Übung darin es selbst zu machen. Ich verliere über die Zeit an Know-How und bin dann irgendwann gar nicht mehr in der Lage Dinge zu beurteilen. Das ist wie mit dem Kopfrechnen. Das kann heute auch keiner mehr. Und deshalb wird es vielfach gar nicht mehr bemerkt, wenn der Rechner völlig falsche Sachen ausgibt.
Klar hat man immer sowas wie eine Weiterentwicklung, wo dann ehemals vorhandenes Wissen auch obsolet wird. Und es kann ja auch an vielen Stellen ne sinnvolle Unterstützung sein. Man muss sich aber bewusst sein, das man sich da in eine Abhängigkeit begibt und sich auch klar machen, was es bedeutet wenn da mal was schief geht und ob man wirklich bereit ist dieses Risiko zu tragen.