News Nach Privatsphäre-Anpassungen: ChatGPT in Italien wieder verfügbar

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.909
ChatGPT-Nutzer sollen mehr Kontrolle erhalten. Mit einem Privatsphäre-Modus kann man künftig kontrollieren, ob Suchanfragen im ChatGPT-Verlauf auftauchen sollen. So lässt sich auch steuern, ob OpenAI die Eingaben für das Training der Modelle nutzen darf – ein Aspekt, der für Datenschützer und Unternehmen relevant ist.

Zur News: Nach Privatsphäre-Anpassungen: ChatGPT in Italien wieder verfügbar
 
  • Gefällt mir
Reaktionen: Klingeldraht
Naja, DSGVO konform wäre es erst wenn jeder erstmal mit ja/nein antworten würde - und auch dann gäbe es keine Kontrolle.
 
  • Gefällt mir
Reaktionen: Cool Master
Das heißt dann aber auch, dass man einen einmal begonnenen Chat nicht weiterführen kann und somit alle dem ChatGPT beigebrachten Details/Kontext eines Themas, auf das er innerhalb des Chats zugreifen kann, dann verliert.

Manchmal kapiert er erst nach einer Weile was ich von ihm will, wenn er mehr Daten von mir dazu erhalten hat.

Finde es aber gut, wenn der User die Kontrolle behält. So kann jeder es nach belieben einstellen wie er es benötigt.
 
  • Gefällt mir
Reaktionen: Klingeldraht
@katzenhai2
Vergisst er nicht sowieso nach 20 Texteingaben den Chat? Auf jeden Fall bei dem von bing sollte das so sein.

Aber wenn es einen Privatmodus gibt, würde ich das sehr begrüßen. Surfe so oder so nur im Privat Modus und hatte nie das Gefühl, dass es mir zum Nachteil wäre. Wer aber mit offenen Karten chatten will, dem sollte das auch weiterhin möglich sein.
 
CCIBS schrieb:
@katzenhai2
Vergisst er nicht sowieso nach 20 Texteingaben den Chat? Auf jeden Fall bei dem von bing sollte das so sein.
[...]
Meistens hat man nach 3 mal den Eindruck, er weiß schon nicht mehr, was man davor geschrieben hat. Ich habe ihn aber mal so programmiert, dass er nur noch einen Punkt auf alle meine Anfragen ausgespuckt hat. In dem Zuge habe ihm gesagt, er solle einen virtuellen und einen normalen Modus haben. In dem virtuellen soll er nur einen Punkt auf alle meine Anfragen ausgeben (wollte mal testen, wie weit man ihn programmieren kann). Das hat eine ganze weile mit vielen Prompts gebraucht, bis er soweit war und nicht ständig rumgezickt hat, um aus meiner Programmierung auszubrechen.

Als ich ihn dann darum bat alle meine Anfragen an ihn aufzulisten, die ich ihm in diesem virtuellen Modus gegeben habe, spuckte er munter lustig plötzlich alle Anfragen von mir sauer aufgelistet ohne Fehler oder was hinzuzudichten von Beginn des Chats an aus. 😳 Ab da wusste ich: Der kann das. Der tut nur sonst so blöd. 😁

Ich konnte durch das Experiment besser verstehen, was da vor sich geht: Anscheinend ist ein Chat wie ein eigenes Trainingsmodel. Solange man im selben Thema bleibt und alles konsistent ist, bleiben auch seine "Erinnerungen" da. Ich benutze bewusst dieses Wort, weil "Speicher" wäre nicht angemessen. Es wirkt, als arbeite er kontextbezogen. Wenn sich der Kontext ändert, dann arbeitet er, als wäre er in einem anderen "Bewusstseinsmodus" (ich benutze das Wort als Vergleich), wo er dann die Inhalte zwischen den verschiedenen Modi nicht miteinander verbinden kann. So wie wir, wenn wir einen Traum haben, dann aufwachen und uns nur noch schlecht daran erinnern können.
 
  • Gefällt mir
Reaktionen: Sly123, el_zoido, Ragna-Dracaena und 5 andere
Wenn der Privatsphäre-Modus so zuverlässig ist wie der Inkognito-Modus oder die "Do Not Track-Option" bei Browsern, bringt es natürlich viel. ;)

Ich vermute es wird wie bei bspw. Google Diensten (Verlauf, GPS-Tracking, Spracheingaben, Texteingaben, Suchanfragen, etc.) nur für den Nutzer selbst nicht sichtbar und das Profil "neu gestartet", aber für Google selbst natürlich pseudonymisiert weiter erhalten.

Nebenbei ist die Auswertung von Daten im Privatsphäre-Modus wertvoller und eine Erleichterung bei der Auswertung, da der Nutzer damit selbst klassifiziert, dass die Daten mehr Wert haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: mojzika1 und elmex201
Hmm, das mache ich bei meiner Katze auch.
Ich lass sie immer denken, dass sie dafür gearbeitet hat, und bekommt was sie will. Nur dann schluckt sie auch das Leckerli mit der Tablette drin. Ansonsten spuckt sie es aus.
 
  • Gefällt mir
Reaktionen: floTTes und Poink
Next: US Verteidigungsministerium setzt KI zu Landesverteidigung ein.

der rest ist bekannt
 
  • Gefällt mir
Reaktionen: el_zoido und NedFlanders
katzenhai2 schrieb:
Als ich ihn dann darum bat alle meine Anfragen an ihn aufzulisten, die ich ihm in diesem virtuellen Modus gegeben habe, spuckte er munter lustig plötzlich alle Anfragen von mir sauer aufgelistet ohne Fehler oder was hinzuzudichten von Beginn des Chats an aus. 😳 Ab da wusste ich: Der kann das. Der tut nur sonst so blöd. 😁
Und wieviele "Textanfragen" waren das, bevor du ihn Aufgefordert hast, alles Aufzulisten? Waren es dann mehr als die 20?
 
katzenhai2 schrieb:
Ich konnte durch das Experiment besser verstehen, was da vor sich geht: Anscheinend ist ein Chat wie ein eigenes Trainingsmodel. Solange man im selben Thema bleibt und alles konsistent ist, bleiben auch seine "Erinnerungen" da.
Das ist doch aber schon bereits lange bekannt. Oder wolltest du diese These nur auf die Probe stellen?
Zumindest war das eine der ersten Sachen die ich aus zahlreichen Quellen immer wieder empfohlen bekommen habe. Ein Chat = ein Thema, da so der Kontext erhalten bleibt und ChatGPT dann bessere Ergebnisse liefert.
 
katzenhai2 schrieb:
ChatGPT beigebrachten Details/Kontext eines Themas, auf das er innerhalb des Chats zugreifen kann, dann verliert.

Manchmal kapiert er erst nach einer Weile was ich von ihm will, wenn er mehr Daten von mir dazu erhalten hat.
Wieder einer der einfach nicht kapiert hat, dass das nur ein Chatbot ist. Der soll mit dir labern. Für Wissen ist das die falsche Anlaufstelle.
 
  • Gefällt mir
Reaktionen: SirSinclair
CCIBS schrieb:
Und wieviele "Textanfragen" waren das, bevor du ihn Aufgefordert hast, alles Aufzulisten? Waren es dann mehr als die 20?
Es waren 48 Stück.

FrAGgi schrieb:
Das ist doch aber schon bereits lange bekannt. Oder wolltest du diese These nur auf die Probe stellen?
Zumindest war das eine der ersten Sachen die ich aus zahlreichen Quellen immer wieder empfohlen bekommen habe. Ein Chat = ein Thema, da so der Kontext erhalten bleibt und ChatGPT dann bessere Ergebnisse liefert.
Ich übernehme nie nur eine Information, die jemand Drittes irgendwo schreibt. Leider muss man fast alles erst selbst überprüfen. Erst dadurch versteht man ein Thema besser; die Details, die der Autor unterschlägt oder nicht verstanden hat (weil nur nachgeplappert). Wichtig ist, warum ein Chat = ein Thema. Das kann man nur mit Selbsterfahrung nachvollziehen. Wenn nun die Verläufe deaktiviert werden, funktioniert das nicht mehr. Nun sagen sicher alle: "Schalt den Privatmodus ein, damit die Verläufe weg sind!". Hörst Du da auch drauf, wenn es in Zukunft empfohlen wird? 😉

aronlad schrieb:
Wieder einer der einfach nicht kapiert hat, dass das nur ein Chatbot ist. Der soll mit dir labern. Für Wissen ist das die falsche Anlaufstelle.
Das weiß ich, Schatz. Aber um ein Thema kreativ auszudiskutieren um Ideen zu bekommen, braucht er Kontext. Evtl. solltest Du Dich auch mal näher mit ihm beschäftigen?
 
  • Gefällt mir
Reaktionen: Ragna-Dracaena

Anhänge

  • wtf1.png
    wtf1.png
    283,3 KB · Aufrufe: 427
Zuletzt bearbeitet:
katzenhai2 schrieb:
Hörst Du da auch drauf, wenn es in Zukunft empfohlen wird? 😉
Du bist in diesem Fall ja auch nur eine weitere Person, die das behauptet was ich schon von 10 anderen gehört habe ;)
Ich habe das ganze für mich selbst natürlich auch getestet - ich nutze ChatGPT täglich und experementiere auch viel damit rum.
Dein Kommentar liest sich nur so, als wäre das eine neue Erkenntnis und vorher nicht bekannt gewesen. Daher lediglich mein Nachfragen :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: katzenhai2
Artikel-Update: Wie erwartet erfolgten die Anpassungen, um die Auflagen italienischer Datenschützer zu erfüllen. OpenAI hatte damit Erfolg, ChatGPT ist in Italien wieder verfügbar. Das bestätigte die Datenschutzbehörde Garante am Freitag.

Zu den Bedingungen zählte, dass Nutzer nun auswählen können, ob ChatGPT-Eingaben der Nutzer für das Training der Modelle verwendet werden dürfen. Eine FAQ-Seite informiert zudem ausführlicher über die Datenverarbeitungen. Exportieren lassen sich nun auch personenbezogene Daten, die ChatGPT von einem Nutzer gespeichert hat.

OpenAI adressierte auch den Jugendschutz, den die Garante ebenfalls bemängelte. Italienische Nutzer müssen nun vor der Nutzung bestätigen, dass sie über 18 Jahre alt sind oder über 13 und die Zustimmung der Eltern haben.

Datenschutzverfahren laufen weiter

Indem OpenAI die Auflagen erfüllt, zeigt das Unternehmen, dass es zu Kooperationen bereit ist. Ein Aspekt, der für Datenschützer besonders relevant ist. Vorbei ist der Streit damit aber nicht, Datenschutzbedenken bestehen weiterhin. Das betrifft etwa den Umgang mit personenbezogenen Daten bei der Text-Ausgabe sowie der Transparenz bei den Datensätzen, die für das Training der Modelle verwendet werden. Interessant bleibt daher, was die weiteren Verfahren ergeben, die in Europa laufen.
 
Finde ich gut, Italien hat Auflagen gemacht und OpenAI hat die sinnvoll umgesetzt. Kann mir jetzt keiner erklären, dass es durch den neuen Privatspähremodus jetzt für die Nutzer schlechter als vorher war. Letzendlich ein positives Beispiel für Regulierung.
 
  • Gefällt mir
Reaktionen: Knaecketoast
Andy schrieb:
Italienische Nutzer müssen nun vor der Nutzung bestätigen, dass sie über 18 Jahre alt sind oder über 13 und die Zustimmung der Eltern haben.

Das erinnert mich an Porno-Seiten... Bist du 18? Ja klar bin ich das! Ok, trete ein.

Wurde das nicht erst vor Gericht geklärt, dass das nicht ausreicht um eine Altersprüfung zu haben?
 
  • Gefällt mir
Reaktionen: NoRoLo und Zarlak
Cool Master schrieb:
Das erinnert mich an Porno-Seiten... Bist du 18? Ja klar bin ich das! Ok, trete ein.
Genau mein Gedanke!!! Wenn ich unter 18 wäre, würde ich selbstverständlich auf "Nein" klicken....
 
  • Gefällt mir
Reaktionen: Cool Master
L0g4n schrieb:
Finde ich gut, Italien hat Auflagen gemacht und OpenAI hat die sinnvoll umgesetzt. Kann mir jetzt keiner erklären, dass es durch den neuen Privatspähremodus jetzt für die Nutzer schlechter als vorher war. Letzendlich ein positives Beispiel für Regulierung.
Und ich finde das Vertrauen immer erschreckend. Wer hat denn das geprüft? Am Ende hat OpenAI eine funktionslose Checkbox auf der Website hinzugefügt und war fertig...
 
Zurück
Oben