News ChatGPT und Privatsphäre: Deutsche Datenschützer starten Verfahren gegen OpenAI

Bonanca schrieb:
"Mein Lieber", das sind zwei komplett unterschiedliche Paar Schuhe.

Beide stehen im selben Regal, welche ziehst du an, oder traust dich doch mal mit Sneakern vor dem Club am Türrsteher abzublitzen?

Bonanca schrieb:
Es ging dir aber nicht darum, was ChatGPT ha

FALSCH! ChatGPT HAT nur weil man Private und privatisierte Eingabe im Kopf offenbar mittlerweile nicht mehr trennen kann.

Natürlich lernt die KI durch deine Eingabe, warum sonst denkst du denn kostet das keine bezahlte Rechenzeit auf deiner Seite? Argument?

KI wird perspektivisch 90% der Verwaltung ablösen und niemand zahlt für Nachrücker, außer den Strom und die Nutzkosten.


Schönen Abend dir, denn MEIN mein lieber war nicht Sarkasmus oder Ironie.
Ergänzung ()

Bonanca schrieb:
Nur weil das System mit einem irgendwo verfügbaren Daten "Max Mustermann ist am 01.01.1990 in Berlin um 3:43 Uhr geboren worden" TRAINIERT wurde heißt das nicht, dass diese Daten auch iwelchen Nutzern ausgegeben werden.

Sagst du aber Max Mustermann ist am 12.12 geboren und ChatGPT fragt nach, mit BELEGEN, du bleibst dabei, ICH BIN ES, Max Mustermann: Overdrive.

kA obs Okay ist, aber öffentlich verfügbare Intel ist nicht immer gleich wahr, sollte man mittlerweile auch durch Wikipedia und Menschen gelernt haben, AI ist da logischerweise keinen Deut besser:


Die Frage bleibt: Was tippt "mankind" morgen ein und fördert das?

Für mich, da ich selbst das Video nicht glauben wollte, habe ich essentielle Fragen gestellt warum die USA bis dato kein Deutsches Krankenversicherungssystem etablieren wollen - ich sag' dir was: Die Antworten willst du hier nicht sehen.
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Nein, aber du könntest die Frage nach einer Liste deutscher Computerformsmitglieder, die jemanden sexuell Belästigt haben stellen und dann erscheint dein Name als einer derjenigen auf der Liste. So geschehen mit einem Juraprofessor, als ein anderer Anwalt genau diese Frage im Rahmen einer Forschungsstudie gestellt hat.
Dafür hätte ich gern mal eine Quelle (nicht dass ich Dir nicht glaube, würd die Story nur gern mal selber nachlesen). Vermutlich, weil ChatGPT sich was zusammenphantasiert, wie so oft.

UNDERESTIMATED schrieb:
[...]
Berichtigt man, egal von wo, ChatGPT, oder gibt "geistiges Eigentum" durch Eingaben weiter/preis, werden diese Eingaben auch anderen ausgespielt. Das ist doch hier Thema, oder habe ich da was falsch mitbekommen?
[...]
So funktioniert der Chatbot nicht. Das wäre sehr risikoreich, dann könnten wenige Nerds das Ding in kurzer Zeit komplett übernehmen durch ihre Eingaben.

Eine solche "KI" wird einmal antrainiert - quasi wie ein neuronales Netzwerk mit Milliarden Schaltern - und danach nutzt es diese optimierten einprogramierten Schalterstellungen, um seine Anfragen zu beantworten. Dazu errät es jedes Wort nacheinander neu. Durch das vorherige Training kommt dann was sinnvolles dabei raus, auch mit Inhalten aus dem Training. Da ein neuronales Netzwerk nicht weiß, wie es zu seiner Antwort kam, kann es auch nicht unterscheiden, ob die Info korrekt oder falsch erraten wurde. Genau wie unser Gehirn. Wir nutzen zusätzlich bewertete Vertrauensquellen: Was unsere Eltern uns als Kind erzählen glauben wir sofort. Bei Fremden nicht. So ist das dann später mit Ärzten, Lehrern usw. Eine KI bewertet aber seine Quellen nicht, außer es programmiert jemand ein. Wir sagen dann: "Die Impfung gegen Covid-19 ist sicher", weil Wissenschaftler das sagen. Aber wer schaut sich als Individuum schon deren Nachweise genauer an? Es wird als vertrauenswürdiger bewertet, weil der Virologe letzten bei Lanz im TV saß und sehr überzeugend wirkte. Wenn wir das dann nachplappern wissen wir evtl. gar nicht, ob wir dabei evtl. nicht eine Lüge weiterverbreiten (wie ein Chatbot). *Das mit der Impfung war jetzt nur ein blödes Beispiel

Die Leute die hier mitreden wollen sollten bitte vorher ChatGPT auch ausprobiert haben. Man sieht sehr gut an einigen Antworten, dass da nur Vorstellungen existieren, die in der Realität so nicht da sind. Wie bei vielen Politikern wohl auch.

Bei der Nutzung von ChatGPT wird das System nicht neu trainiert - der Bot ist in einem neuen Chat genauso dumm wie vorher, egal wie oft Du ihn korrigierst. Evtl. werden Muster von Frage-Antwort-Spielen der Benutzer aufgezeichnet und für ein zukünftiges Training mit verwendet (laut OpenAI wird das offiziell nicht gemacht).

Dass ChatGPT kostenlos ist, sehe ich aber eher in der Werbung: Google und Co sind ganz schön ins Schwitzen gekommen und jeder kennt nun den vorher nicht so bekannten Player "OpenAI".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
katzenhai2 schrieb:
Wir sagen dann: "Die Impfung gegen Covid-19 ist sicher", weil Wissenschaftler das sagen. Aber wer schaut sich als Individuum schon deren Nachweise genauer an? Es wird als vetrauenswürdiger bewertet, weil der Virologe letzten bei Lanz im TV saß und sehr überzeugend wirkte. Wenn wir das dann nachplappern wissen wir evtl. gar nicht, ob wir dabei evtl. nicht eine Lüge weiterverbreiten (wie ein Chatbot). *Das mit der Impfung war jetzt nur ein blödes Beispiel
Nein, das war ein perfektes Beispiel. herzlichen Dank hierfür :D
 
  • Gefällt mir
Reaktionen: SirSinclair und MalWiederIch
Auf der Arbeit (Versicherung) verschwenden wir unfassbar viel Zeit mit DSGVO. Das sind geschätzt 30-50% Mehrkosten pro Projekt. Von den hundertausenden Kunden gibt es vielleicht 20 pro Jahr die ihre Daten gelöscht haben wollen, den Rest juckt es nicht.

Genauso wie die Radspur in der Stadt, wo 2 Radler pro Stunde durchfahren und dafür tausende Autos stecken bleiben. Sinnlose Bürokratie die das Land absägen.

Dieser ganze DSGVO Mist wurde nur erfunden um sich die Taschen mit Bußgeldern voll zu machen.
 
  • Gefällt mir
Reaktionen: Anon-525334
katzenhai2 schrieb:
Ich gebe auch sonst nirgends meine Handynummer an. Aber da ich dort keine "äußerst private Fragen" stelle (nur sowas wie z.B. "nenne mir die personenbezogenen Daten deutscher Datenschützer"), darf man dieses Risiko mit einem Prepaidvertrag mal eingehen. 😉
Welchen Sinn soll die „Prepaidvertrag“ hier haben?
Und was hast du dagegen, dass OpenAI keine persönlichen Daten verwenden darf und sich wie alle Unternehmen, die in Deutschland arbeiten, an den Datenschutz halten müssen?
Ergänzung ()

UNDERESTIMATED schrieb:
warum die USA bis dato kein Deutsches Krankenversicherungssystem etablieren wollen - ich sag' dir was: Die Antworten willst du hier nicht sehen.
Weil der Mindestlohn dort gerade mal die Hälfte beträgt und bei den Abzügen für Krankenkassenbeiträge viele Millionen hungern müssten?
Dann lieber nicht durchgängig hungern und im (teuren) Notfall sterben.
Finanziell doch selbstverständlich ganz andere Verhältnisse als in Deutschland.
 
Zuletzt bearbeitet:
Vielleicht nochmal zur Erklärung, wie ChatGPT eigentlich funktioniert:

LLM (Large Language Models) arbeiten völlig anders als Suchmaschinen oder wissensbasierte Systeme. LLM durchsuchen keine Webseiten oder sammeln Informationen. LLM werden mit Texten gefüttert und lernen zu erraten, welche Worte zusammenpassen. Es sind Wort- und Satzgeneratoren die auf Eingaben mit Sätzen reagieren. Da LLM jedoch nicht nur die komplette Wikipedia, sondern auch Millionen anderer Bücher und Aufsätze und Webseiten bearbeitet hat - jedoch nicht die Inhalte oder das Wissen, sondern nur die Wort-Kombinationswarscheinlichkeiten und Wort-Verbindungscluster - kommen mittlerweile sehr gute plausible Sätze raus, die Sprachverständnis simulieren. Oft stimmt auch was produziert wird, jedoch kann auch totaler Unsinn rauskommen oder beliebig "halluziniert" werden, weil es pausibel klingt und die Worte zusammen eine hohe Wahrscheinlichkeit haben.

LLM und was sie können werden falsch verstanden und auch falsch eingesetzt. Um Wissen zu prüfen oder zu sammeln sind sie extrem ungeeignet, da LLM nicht mit Wissen oder Inhalten arbeiten und auch keine Worte oder Inhalte verstehen.

Und in diesem Kontext sind solche Verbote völliger schmarrn, weil die Diskussion an der Technologie völlig vorbeigeht.
 
  • Gefällt mir
Reaktionen: Boa-P, masterw, guzzisti und eine weitere Person
UNDERESTIMATED schrieb:
Natürlich lernt die KI durch deine Eingabe, warum sonst denkst du denn kostet das keine bezahlte Rechenzeit auf deiner Seite? Argument?
Das Argument ist dass ich mich auf das beziehe was du gesagt hast von dem du iwie immer weiter abdriften zu scheinst

Also, nochmal ganz konkret:
UNDERESTIMATED schrieb:
Berichtigt man, egal von wo, ChatGPT, oder gibt "geistiges Eigentum" durch Eingaben weiter/preis, werden diese Eingaben auch anderen ausgespielt.
Bitte zeig mir einen konkreten Beispielfall, in dem ChatGPT dir personenbezogene Daten von einem nicht-Promi mitteilt.
 
@katzenhai2

Falsche Verdächtigung: ChatGPT beschuldigt Professor der sexuellen Belästigung - Golem.de

ChatGPT beschuldigt Professor fälschlicherweise der sexuellen Belästigung - Innovationen - derStandard.de › Web

PC & Internet - Falsche Verdächtigung: ChatGPT beschuldigt Professor der sexuellen Belästigung | Digital Eliteboard - Das große Technik Forum (digital-eliteboard.com)

ChatGPT erfindet einen Sex-Skandal – und macht einen echten Professor zum Täter | STERN.de

und ein anderer mit einem Bürgermeister

Falsche Anschuldigungen durch ChatGPT: Reicht australischer Bürgermeister Klage ein? | Euronews

Was ist personenbezogener als der eigene Name in Verbindung mit Beruf und/oder Wohnort? Ist das Kaff nicht allzu groß, findet man mit Leichtigkeit die Person, die man sucht, nur anhand dieser drei Merkmale.

LLM fehlt eine Gewichtung in den Wahrscheinlichkeiten der Wörter die es kombiniert. Sexuelle Belästigung als Kombination, hat die gleiche Gewichtung wie sexuelle Anziehung, das eine ist strafbar, das andere im besten Fall ein Kompliment. Mehr ist LLM ja nicht, Stochastik mit Wörtern und damit auch keinerlei (künstliche) Intelligenz. Es wird Intelligenz simuliert und wenn dabei Müll, oder Fantasie rauskommt, kann man es auch ganz sein lassen. Dann ist es keine Hilfe, sondern wie an den von mir verlinkten Quellen eine echte Gefahr für Unbescholtene.
 
Zuletzt bearbeitet:
ihr jammert zum teil zu recht wegen dem datzenschutz, juckt aber faeser ned in sachen datenschutz beim chat, den sie mwn überwachen will, liest man dazu was von euch?
 
@frankyboy1967
Ich glaub, die Leute wollen eher dem Thema aus dem Weg gehen weil sie keine Verwarnung wollen.

Kann man sowieso nicht überwachen und je mehr überwacht wird, desto besser werden die Chatprogramme:

https://retroshare.cc/

Muss man halt mal sowas nutzen anstelle Tools von denen, die denken man könne alles im Netz zusammenklauen und als ihre eigene Datenbank mit Chatbot Interface an die Idioten zu verkaufen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SirSinclair und frankyboy1967
Dr. MaRV schrieb:
Ist das Kaff nicht allzu groß, findet man mit Leichtigkeit die Person, die man sucht, nur anhand dieser drei Merkmale.
Nunja, einen Juraprofessor dessen Wikipedia Seite mehrere Absätze umfasst und einen Bürgermeister findet man wohl auch so...
Also es ist ja nicht so als wären das grundsätzlich erstmal Informationen die nicht ohnehin schon frei verfügbar wären in diesen 2 Fällen.

Dr. MaRV schrieb:
Mehr ist LLM ja nicht, Stochastik mit Wörtern und damit auch keinerlei (künstliche) Intelligenz.
Und aus genau diesem Grund sollte es mMn nicht Aufgabe des LLMs sein müssen darauf zu achten, keinen Bullshit zu produzieren, sondern die Nutzer sollten prüfen, ob das Model Bullshit produziert hat.
Es ist halt ein Werkzeug, und sensibler als viele andere Software-Werkzeuge die der breiten Masse zur Verfügung stehen.

Mit andern Worten:
Wenn ich das Model dazu "zwinge" mir eine Liste von mindestens fünf Juraprofessoren, die sexuelle Belästigung begangen haben, zu geben, dann darf ich mich nicht wundern, wenn das Tool mir im Rahmen seiner größten Wahrscheinlichkeit eine Liste von fünf Juraprofessoren ausspuckt.
In meinen Augen ein klassischer Fall von Garbage In -> Garbage Out.
Den Skandal sehe ich eher in der häufig vorkommenden Unreflektiertheit bei der Nutzung dieses Werkzeugs.
 
leipziger1979 schrieb:
Bei den Kommentaren kann einem schon teilweise wieder schlecht werden.
Ich würde allen, die sich devot und unterwürfig allen US Unternehmen unterordnen, empfehlen am besten in die USA auszuwandern.
Scheint ja das Paradies auf Erden zu sein

Warum sollte man auswandern?
Das Land auf dem ich Lebe gehört mir.
Der Staat und alle die meinen jemand anderem was vorzuschreiben können ja gerne "auswandern"
 
  • Gefällt mir
Reaktionen: frankyboy1967
Spinnt man das Ganze mal weiter. Wie ist es denn so mit der Ethik? Wie angreifbar ist so eine KI im eigentlichen Sinne? Und wie schnell wäre es möglich, diese zu Missbrauchen? Ich setze das jetzt bewusst in einen Spoiler, weil es nicht unbedingt für jeden etwas ist. Es ist ein fiktives Video und es beschäftigt sich mit dem Nutzen einer KI in Drohnen. Das Problem ist, dass die daran wirklich forschen. Und wie wir ja leider in China sehen, wird dort alles mit dem Gesicht erledigt. Auch der Zugang zum Spielplatz :(

 
Dr. MaRV schrieb:
@katzenhai2

Falsche Verdächtigung: ChatGPT beschuldigt Professor der sexuellen Belästigung - Golem.de

ChatGPT beschuldigt Professor fälschlicherweise der sexuellen Belästigung - Innovationen - derStandard.de › Web

PC & Internet - Falsche Verdächtigung: ChatGPT beschuldigt Professor der sexuellen Belästigung | Digital Eliteboard - Das große Technik Forum (digital-eliteboard.com)

ChatGPT erfindet einen Sex-Skandal – und macht einen echten Professor zum Täter | STERN.de

und ein anderer mit einem Bürgermeister

Falsche Anschuldigungen durch ChatGPT: Reicht australischer Bürgermeister Klage ein? | Euronews

Was ist personenbezogener als der eigene Name in Verbindung mit Beruf und/oder Wohnort? Ist das Kaff nicht allzu groß, findet man mit Leichtigkeit die Person, die man sucht, nur anhand dieser drei Merkmale.

LLM fehlt eine Gewichtung in den Wahrscheinlichkeiten der Wörter die es kombiniert. Sexuelle Belästigung als Kombination, hat die gleiche Gewichtung wie sexuelle Anziehung, das eine ist strafbar, das andere im besten Fall ein Kompliment. Mehr ist LLM ja nicht, Stochastik mit Wörtern und damit auch keinerlei (künstliche) Intelligenz. Es wird Intelligenz simuliert und wenn dabei Müll, oder Fantasie rauskommt, kann man es auch ganz sein lassen. Dann ist es keine Hilfe, sondern wie an den von mir verlinkten Quellen eine echte Gefahr für Unbescholtene.
Danke, aber irgendwie ist das Verblödungsjournalismus. Die Medien sollten darüber aufklären WAS ChatGPT wirklich ist - und nicht so tun als sei es eine Künstliche Intelligenz. Davon kommt dann sowas, dass Leute glauben was das Teil ausspuckt. Grundsätzlich geht es doch darum, dass man gar nichts glauben darf, was als Antwort da rauskommt. Man kann es auf andere kreative Art verwenden, aber eben nicht zur Recherche. Das war aber von Anfang an klar. Wieso sich darüber nun aufgeregt verstehe ich nicht. Doch nur, weil die Medien selber Lügen verbreiten, in dem sie es als Recherchetool darstellen oder behaupten es sei intelligent.

Klar, wenn berühmte Persönlichkeiten (Juraprofessor, Bürgermeister) angefragt werden, kann da auch was vermischt werden. Es ist ein Unterhaltungsbot, keine Fakten-Recherchemaschine. Und die Politiker grätschen genauso rein in diese öffentliche Verblödung, weil mal wieder ihr Name oder der Name der Partei in den Medien fallen soll.

Ich erwarte wenigstens von den Poltikern, dass die sagen: "Stop Leute, das was da behauptet wird stimmt nicht. ChatGPT funktioniert ganz anders". 😶

Falls wer mal ganz viel Langeweile hat, kann er sich diesen Artikel durchlesen. Da wird dann haarklein erklärt, was ChatGPT eigentlich macht (englisch):
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
 
Zuletzt bearbeitet:
Finde ich gut, unterstützens- und nachahmenswert. Egal was die Lemminge sagen. ;)
 
  • Gefällt mir
Reaktionen: Smartin
Ray Donovan schrieb:
Es ist gut und wichtig, da KIs einen großen Schaden anrichten und sehr gefährlich werden können. Persönliche Daten haben in so einer KI einfach nichts zu suchen - egal wie viel Filter und Beschränkungen man einbaut. Alle die der Meinung sind, dass man nichts zu verbergen habe - denkt nochmal darüber nach. Das ist nicht das, worum es geht.

Der gläserne Bürger. Viel fehlt nicht mehr.
Man faselt was von Terrorismus, KiPo, jetzt auch das Klima (haha) und schon bekommt man alles durch, weil alle Schafe es durchwinken. Hintergrund? Egal bzw. zu kompliziert. Einfach durchwinken.

Dennoch interessant, dass man eine KI traniniert und die Daten gar nicht mehr veröffentlicht... Nicht gut.

Man sollte sich aber auch mal mit Nancy Faeser befassen. Die ist ganz scharf auf Chatkontrollen/Gespräche abhören - sofern man kein Flüchtling ist :D


Was hat eine KI und personenbezogene Daten mit einem VPN zutun in diesem Zusammenhang?

Nancy Faeser kann ich auch nicht mehr sehen. Waffengesetz wird auch immer dümmer... Dank solcher Leute.
Und dann noch Chatkontrolle, wo ist da der Datenschutz? Ja ja, steht die allgemeine Sicherheit drüber 🤦‍♂️.

So wie ich die Nachricht verstehe, geht es den datanschützern darum, das Personenbezogene Daten nicht im Training der LLMs landen. Mehr sehe ich nicht. Finde ich erstmal richtig 🤷.
Das allerschlimmste was LLMs machen ist Desinformation. Quasi Wikipedia next lvl + hyperelegante Tolls die kaum mehr zu identifizieren sind...
Bei Wikipedia kann man die Quellen noch einsehen.
 
Skudrinka schrieb:
Alles Neue macht Angst, besonders wenn Internet noch Neuland ist.
Stur verbieten ist wohl leichter als sich mit der Thematik auseinander zu setzen und konstruktiv darüber nach zudenken, wie man neue Technologien sinnvoll einsetzen kann.
Aber nun ja, nichts anders erwarte ich von Deutschland in solchen Angelegenheiten.


Und mit was lernen sie ihre KI an?
Mit dem Brockhaus, Band 18?
Dumme Sprüche klopfen ist hier auch leichter, anstatt sich mit dem Thema auseinanderzusetzen, nicht wahr?
Du hast nicht einmal verstanden, worum es überhaupt geht.
 
  • Gefällt mir
Reaktionen: Smartin, Yar und SirSinclair
Made my day :-D
1682271444592.png
 
Zurück
Oben