Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKI-Chatbot: Italiens Datenschützer bremsen ChatGPT aus
Italiens Datenschützer starten ein Verfahren gegen den KI-Chatbot ChatGPT. Der Dienst des amerikanischen Entwicklers OpenAI verstoße sowohl gegen den Datenschutz als auch den Jugendschutz. Daher beschränkt Italiens Datenschutzbehörde die Verwendung personenbezogener Daten von italienischen Nutzern.
Da gab es schon weitaus schlimmere Datenlecks und es wurde nichts verboten..
Und die Keule "Generell besteht das Risiko der Verbreitung von Falschinformationen und Propaganda." ist langsam abgenutzt. Das ist kein Risiko sondern Realität, denn ChatGPT ist erwiesenermassen Links ausgerichtet..
Ja, es gibt viel zu Bedenken! Ich finde, wir sollten auch folgendes bedenken: "Generell besteht das Risiko des Endes der Verbreitung von Falschinformationen und Propaganda." (kein Zitat).
Man stelle sich eine multimodale KI vor, die quasi instant Bild, Video, Audio, Text erfasst und einen Faktencheck unterzieht. Sehr gerne mit Quellen zum weiter recherschieren. Wenn sowas nur möglich wäre... träum
Imo werden da zwei völlig unabhängige Dinge verwurstet; Ein Datenleck von Rechnungsdaten ist im Grundsatz etwas ganz anderes, als das Abgrasen und Sammeln von Daten im Internet.
Für die massenhafte Erhebung und Speicherung personenbezogener Daten, mit denen die KI „trainiert“ werden soll, fehle jegliche Rechtsgrundlage, so die Behörde.
Wie werden die Daten denn "erhoben"? Per ungeschütztem Link im Internet?
Da könnte man entgegnen, dass die Daten schon jetzt freiwillig irgendwo gespeichert und frei verfügbar sind. Da man Modelle grundsätzlich nicht nach Individuen sondern nach Mustern trainiert, ist es schwer zu behaupten, dass die Verarbeitung selbiger in irgendeiner Form personenbezogen ist. Schwierig, vor allem, wenn die Server im Ausland stehen.
Das Ding ist halt.. Man kann ja Rueckschluesse darauf ziehen wie viel des Generierten outputs in einem Kontext Halluziniert. Selbst bei den Black Box LLMs wie sie bei Anthropic / OpenAI betrieben werden.
Bspw.: https://arxiv.org/pdf/2303.08896.pdf
Abgesehen davon würde ich jederzeit Argumentieren, dass schlechter Datenschutz auf allen Seiten auch zu schlechteren Datensets führt.
Wenn man sich bei Datensammeln vorher gedanken macht wessen Daten wie und warum gesammelt werden, entstehen auch leichter kontrollier- und bereinigbare Datensets. Da haette ich so beim scharf schalten der DSGVO nicht mit gerechnet, aber es war wohl schlicht naiv davon auszugehen, dass unternehmen deren Kerngeschäftsfeld das Sammeln von Daten ist, dies auch von sich aus so tun, dass sie davon am meisten profitieren.
Die katze ist aus dem Sack. Bei allen Limitierungen, die wir bei Transformermodellen und den Derzeitigen Trainingsdaten sehen müssen wir nun damit leben. In verschiedenen Bereichen werden diese Modelle unsere Leben verändern. mal mehr und mal weniger. Verbote sind hier der falsche Weg.
Der Hackerparapgraph hat die deutsche IT Security Scene leider sehr eingeschränkt und jetzt gibt es so gut wie keine gescheite Ausbildung in dem Bereich in DE. Man mag ja hoffen, dass daraus gelernt wurde. Mit bedrohungen uzugehen indem man Limitiert, wer sich damit beschaeftigen darf, ist nie der richtige weg. Erst recht, wenn man keinerlei Kontrolle über diese hat. Staatsgrenzen sind in der Branche nicht relevant.
Ergänzung ()
Cool Master schrieb:
ch sehe ChatGPT und co. hier deutlich besser was Datenschutz angeht.
wuerde zwischen Daten sammelnund verkaufen und dem training auf Daten von zweifelhafter Sauberkeit differenzieren
Beides ist auf seine eigene Art kacke.
Bright0001 schrieb:
Wie werden die Daten denn "erhoben"? Per ungeschütztem Link im Internet?
Aus Sicht der rechten, ja
Links sieht das ganze anders herum. Passt
Cherrypicking um einen beliebigen Narrativ zu untermauern kann jeder und ist dem Diskurs an der STelle nicht zutraeglich
Hinzu kommen die Mängel beim Jugendschutz. Es fehle eine Funktion, um das Alter der Nutzer zu überprüfen. Vom Chatbot könnten Minderjährige somit aus Sicht des Jugendschutzes für sie „ungeeignete Antworten“ erhalten. Die Teilnahmebedingungen vom Entwickler OpenAI würden die Nutzung zwar auf Personen ab 13 Jahren einschränken, doch fehlt eine Maßnahme zur Einhaltung dieser Regel.
Erinnert an die Warnungen als Züge oder das Automobil neu waren und Einige einfach nicht kapieren wollten welche Vorteile diese bringen.
KI hat so viele Vorteile und werden übrigens viele überbezahlten Jobs obsolet machen, vielleicht auch deshalb diese Furcht. Am Ende wird es sich nicht aufhalten lassen.
Genauso wenig wie man Autos, Züge oder das Internet aufhalten konnte.
Klar, du weißt wer Chat-GPT unterstützt, in welchen Land es heimisch ist?^^
###
Also einerseits ist es korrekt was man da macht, andererseits, es ist meiner Meinung nach unaufhaltbar.
Der Produktivitätsgewinn ist so urgewaltig und es wird so viele Jobs kosten, die Regierungen können nur hilflos herum fuchteln.
Wichtig ist das eine KI mit möglichst vielen korrekten Daten gefüttert wird.
Datenschutz interessiert da gar keinen.
Viel problematischer ist eben, was "korrekte" Daten sind.
In den Naturwissenschaften ist das noch relativ gut beherrschbar.
erhielten zeitweise Einblick in Daten von anderen Konten. Die Informationen umfassten Angaben wie den Vor- und Nachnamen, die Rechnungsadresse sowie die letzten 4 Ziffern der Kreditkartennummer.
Ich möchte dass das WWW weiterhin ohne weiteres wie gewohnt besucht werden kann, ohne das ich mich irgendwann nahezu überall "Ausweisen" muss, nur weil andere an der Erziehung Schutzbefohlener scheitern.
Mir tun alle Abschlussarbeit-Schreiber gerade etwas Leid, deren Thema ein "basic" ML oder AI Thema ist.
bartio schrieb:
KI hat so viele Vorteile und werden übrigens viele überbezahlten Jobs obsolet machen, vielleicht auch deshalb diese Furcht. Am Ende wird es sich nicht aufhalten lassen.
Die Schlaubis haben eh nie geschummelt, die Doofies meistens abgeschrieben und die ITler ihr Englisch an anderen Stellen gelernt. Noch sehe ich keine Veränderung.
Draco Nobilis schrieb:
Wichtig ist das eine KI mit möglichst vielen korrekten Daten gefüttert wird. [...]
Viel problematischer ist eben, was "korrekte" Daten sind.
Auch. Selbst objektiv korrekte Daten können zu ungewollten und "ungewollten" Ergebnissen führen, weshalb die Bias kein Beigeschmack, sondern Geschmacksrichtung sein wird. Mit einem potenziellem Markführer/quasi-Monopol am Horizont ein unangenehmes "Geschmäckle".
FR3DI schrieb:
Ich möchte dass das WWW weiterhin ohne weiteres wie gewohnt besucht werden kann, ohne das ich mich irgendwann nahezu überall "Ausweisen" muss, nur weil andere an der Erziehung Schutzbefohlener scheitern.
Es ist ja weniger ein Scheitern der Erziehungsberechtigten, und mehr das gepredigte Axiom, dass alle Kinder bis mindestens 16 von allem Negativen abgeschottet werden müssen. Wie 13-jährige unter einander auf dem Schulhof reden ist da kein Faktor, obwohl er durchaus einer sein sollte.
Imo erzieht man Jugendlichen Gefluche und ähnliches eher ab als an, weil (er)finden wird es sich immer.
Im Kern aber 100% bei dir, Terroristen und Kinder als Argumente für Klarnamenpflicht im Internet wird nicht alt und nervt einfach nur.
Die Büchse der Pandora ist geöffnet. Da bekommt man jetzt keinen Deckel mehr drauf. Wir werden uns eher damit befassen müssen, was dass für uns als Gesellschaft bedeutet. AI ist gekommen um zu bleiben.