News Sorge vor Datenlecks: Google warnt Mitarbeiter vor Bard, ChatGPT und Co

Vernünftig.

Ich finde es eher bedenklich, wie viele Unternehmen derartige Warnungen noch nicht herausgegeben haben.

Die Software verwurstet alle Daten, die sie erhalten kann, persönliche Daten oder Betriebsgeheimnisse eingeschlossen. Ich kann es kaum erwarten, bis die ersten richtig heftigen Leaks in form von "Wir haben Chat GPT gefragt an welchen Geheimprojekten Unternehmen XYZ arbeitet und hier sind die Top 10 der Ergebnisse" Artikeln kommen.
 
  • Gefällt mir
Reaktionen: Arc Angeling, -Stealth-, Sascha631 und 11 andere
Ich finde es dazu erschreckend, dass Entwickler, die eigentlich halbwegs auf dem Schirm haben sollten, wie die "KI" funktioniert, einfach Interna da reinkloppen...
 
  • Gefällt mir
Reaktionen: Recharging, Kuristina und Termy
@IntoTheRed : Es gibt verschiedene Feldversuche wie viele Mitarbeiter auf simpelste Phising und Vren-Mails reinfallen. Die Quote ist selbst bei "IT-Entwicklern" erschreckend hoch.
 
  • Gefällt mir
Reaktionen: redjack1000, -Stealth-, DirtyHarryOne und 3 andere
Jup, erst letzte Woche wieder hier in der Firma selbst erlebt.
Dabei waren die noch nicht mal auf dem Level, das ChatGPT schon beherrscht, aber passendes Layout und beinahe fehlerfreies Deutsch hat bei vielen gereicht, mal zuerst zu klicken bevor etwa die URL angezeigt wird.

Schon recht makaber, dass Google anscheinend selbst nicht mehr weiß/garantieren kann, wie der hauseigene Bard mit sensiblen Daten umgehen kann.
 
  • Gefällt mir
Reaktionen: CableGuy82
Passt perfekt zur Mercedes News lol
 
  • Gefällt mir
Reaktionen: bad_sign, Ouzo, Matthew1992 und eine weitere Person
Ich find es schon bedenklich dass Behördenintern, klickt man sich zu Chatgpt und gibt etwas ein, andere Nutzer der gleichen IP-Adresse lesen können was gesucht wurde. Ich beobachte das bei uns im Haus und kann gut mitlesen was andere da gerade suchen.

Man könnte die weiteren Mitleser wunderbar verunsichern wenn man fragt "Wie werde ich den Personalrat los" oder Ähnliches xD
 
  • Gefällt mir
Reaktionen: Atypikus, CableGuy82, rosenholz und 2 andere
"Trauen" werde ich LLMs sowieso nur, wenn sie bei mir lokal laufen ;)
 
  • Gefällt mir
Reaktionen: metoer
Damien White schrieb:
Ich finde es eher bedenklich, wie viele Unternehmen derartige Warnungen noch nicht herausgegeben haben.
Das Problem ist, dass in vielen Firmen heute auch die IT ausgelagert wurde zu Dienstleistern und die, die dass machen müssten - also solche Warnungen rausgeben - oft keine Ahnung von der Materie haben oder sich nicht damit befassen und das oft selbst entsprechend cool finden.

Ich hatte mit meinem Chef jetzt auch einen kleinen "Streit", als ich vor der Nutzung von ChatGPT erst mal gewarnt habe. Er findet das alles toll und wie weit das doch alles ist. Mein Chef ist Sozialwissenschaftler und auch die anderen Kolleg*innen in der Runde sind überwiegend Geisteswissenschaftler*innen. Die Personen lesen auch entsprechend eher die "normalen" Medien nd da wurde es abgefeiert.
IntoTheRed schrieb:
Ich finde es dazu erschreckend, dass Entwickler, die eigentlich halbwegs auf dem Schirm haben sollten, wie die "KI" funktioniert, einfach Interna da reinkloppen...
Weil viele von diesen damit auch nicht rechnen und es eher mit Google und Co gleich setzen. Aber ja es ist erschreckend, auch wie IT-Kollegen bei mir ChatGPT und Co bereits voll für die Arbeit nutzen und wirklich auch Sachen preis geben, die so nichts im Netz zu suchen haben.
ScorpAeon schrieb:
Ich find es schon bedenklich dass Behördenintern, klickt man sich zu Chatgpt und gibt etwas ein, andere Nutzer der gleichen IP-Adresse lesen können was gesucht wurde. Ich beobachte das bei uns im Haus und kann gut mitlesen was andere da gerade suchen.
Japp, ist erstaunlich, als ich mal einem Kollegen aus dem anderen Bezirk seine ChatGPT-anfagen schicken konnte 5 minuten nach dem er sie gestellt hatte, weil wir beide zu dem Zeitpunkt die selbe IP hatten für ChatGPT.

Das man damit mal spielt und Co, um zu sehen, was möglich ist: Ja, aber darüber hinaus, sollte man vorsichtig sein. Hab dem entsprechend heute auch von meiner Seite aus eine Warnung an meine Kolleg*innen verschickt mit dem Hinweis, dass ungewolltes Preisgeben von Internant auch ein Diszplinarverfahren nach sich ziehen kann, was im schlimmsten Fall auch Kündigung bedeutet. Ich hab meine Schuldigkeit getan und bin fein raus.
 
  • Gefällt mir
Reaktionen: CableGuy82, ScorpAeon, machs111 und eine weitere Person
Recharging schrieb:
Schon recht makaber, dass Google anscheinend selbst nicht mehr weiß/garantieren kann, wie der hauseigene Bard mit sensiblen Daten umgehen kann.

Ich denke Du hast den Artikel missverstanden? Steht doch explizit da:

Das Kernproblem für Unternehmen ist: Eingaben verwenden die Chatbots in der Regel, um das KI-Modell weiter zu trainieren. Werden also sensible Daten eingegeben, landen diese im Datensatz

Es wird einfach jede Eingabe genutzt, um die KI damit weiter zu trainieren. Dabei kann nicht unterschieden werden, ob das jetzt passende Trainingsdaten sind oder vertrauliche Geschäftsinterna. Was eingegeben wurde, landet im Datensatz der KI und kann daher auch irgendwie wieder ausgelesen werden. Wie soll Google das unterscheiden?
 
  • Gefällt mir
Reaktionen: CableGuy82
Wenn ein Cloud-Service kostenfrei ist, dann ist man selber das Produkt. Hier eben um das Modell zu trainieren. Das sollte jedem klar sein.

Das ist aber kein unlösbares Problem von LLM, immer mehr Dienste werden es ermöglichen eigene Datensätze via API anzuschleßen und auf diesem Compliance und Datenschutzkonform auch angepasste Modelle laufen zu lassen.

Bei uns im Unternehmen werden auch derzeit Guidelines und die rechtlichen Leitplanken definiert, innerhalb derer die Fachabteilungen GenAI in ihre Prozesse integrieren bzw. experimentieren können.

Der Datenabfluss bei Cloud-Services ist aber ein generelles Problem. Wenn ich nur daran denke, wieviel Business Insights in Miro Board kopiert werden und dann ohne Passwortschutz geteilt werden, etc. ...
Die heutige Schatten-IT ist halt immer nur 1-2 Klicks entfernt ;)
 
  • Gefällt mir
Reaktionen: CableGuy82
x.treme schrieb:
Die heutige Schatten-IT ist halt immer nur 1-2 Klicks entfernt ;)
Das ist leider mit das größte Problem, egal ob in Firmen oder Behörden. Wie schnell sich da Cloud-Anwendungen einschleichen geht auf keine Kuhhaut mehr.

Trello, Canva und Co werden von einigen Kolleg*innen regelrecht täglich für ihre Arbeit genutzt und ich werd immer gefragt, warum ich mich bei manchen Sachen da so "sperre" und keine Pro-Accounts registiere. Dass ich aber als Behörde gewisse Vorgaben vom Landes- und Bundesdatenschutz habe, auch die Betriebsräte/Beschäftigtenvertrettung und Co einbeziehen muss sowie ggf. die Politiker, wird gerne vergessen.

Vor allem lege ich persönlich wert auf Datensparsamkeit und für Trello, Canva und Co hab ich sogar entsprechende "Profisoftware", die auch nicht günstig ist un oft sogar genauso gut bis besser. Leider ist die Software aber nicht so "fancy".

Aber auch da bin ich zum Glück fein raus jetzt, nach dem ich meinem Chef gegenüber sagte, dass ich für bestimmte Sachen eben nicht den Kopf hinhalte. Ich warne und stelle klar, ab dem Zeitpunkt liegt dann die Verantwortung bei den Mittarbeiter*innen und wenn da Intenra raus gehen, sind diese schuld und können nicht mehr sagen, dass ich sie nicht gewarnt hätte.
 
  • Gefällt mir
Reaktionen: redjack1000, CableGuy82 und machs111
@DevPandi
Jetzt würde ich nur zu gerne wissen, in welche Behörde du arbeitest :D
Aber eigentlich auch egal... es läuft ja fast überall gleich ab. Ich finds ja schon immer sportlich wenn ich sehe wie sowohl ind privaten als auf öffentlichen einrichtungen mit dem Netzwerk an sich umgegangen wird.
 
Und Mercedes baut es in die Karren.

Mein Althut ist am glühen, aber ich lasse eh die Finger von sowas
 
  • Gefällt mir
Reaktionen: metoer
IntoTheRed schrieb:
Ich finde es dazu erschreckend, dass Entwickler, die eigentlich halbwegs auf dem Schirm haben sollten, wie die "KI" funktioniert, einfach Interna da reinkloppen...

Axxid schrieb:
@IntoTheRed : Es gibt verschiedene Feldversuche wie viele Mitarbeiter auf simpelste Phising und Vren-Mails reinfallen. Die Quote ist selbst bei "IT-Entwicklern" erschreckend hoch.
Sind halt auch alles nur Menschen 🤷‍♂️
 
  • Gefällt mir
Reaktionen: DirtyHarryOne, Zockmock und Cool Master
Damien White schrieb:
Ich finde es eher bedenklich, wie viele Unternehmen derartige Warnungen noch nicht herausgegeben haben.

Ich glaube das liegt daran, dass die Manager meinen das wäre selbstverständlich. Aber die Layer 8 schlägt immer wieder zu...

Axxid schrieb:
Die Quote ist selbst bei "IT-Entwicklern" erschreckend hoch.

Nur weil man "IT-Entwickler ist", bedeutet das nichts. Awareness fängt beim Azubi an und geht bis zum CEO. Dazu kommt jeder kann Opfer werden.
 
  • Gefällt mir
Reaktionen: Xiaolong und Zockmock
M@tze schrieb:
Ich denke Du hast den Artikel missverstanden? Steht doch explizit da:



Es wird einfach jede Eingabe genutzt, um die KI damit weiter zu trainieren. Dabei kann nicht unterschieden werden, ob das jetzt passende Trainingsdaten sind oder vertrauliche Geschäftsinterna. Was eingegeben wurde, landet im Datensatz der KI und kann daher auch irgendwie wieder ausgelesen werden. Wie soll Google das unterscheiden?
Tja, eben ... schon solch simple Unterscheidungen sind per se anscheinend nicht vorgesehen. Mach' mal, dann wissen wir nachher was rauskommt. Daher ja meine Anmerkung, dass Google selbst keinen Riegel vorschieben kann, weil das "Ding" einfach alles aufsaugt. 😉
 
  • Gefällt mir
Reaktionen: M@tze
Zurück
Oben