News Interne Vorwürfe: Keine Wasserzeichen für ChatGPT, damit Nutzer nicht auffliegen

Ich nutze ChatGPT oder auch Bildgeneratoren, wenn ich sie denn nutze, selten als letzten Schritt in der Bearbeitungskette. D.h. das Ergebnis der KI wird von mir meistens weiter bearbeitet.

Damit mache ich doch mögliche Wasserzeichen kaputt (oder zumindest schwer zu identifizieren), auch wenn das Gerüst bzw. der Kern doch KI-Generiert ist.
 
  • Gefällt mir
Reaktionen: FrAGgi und stevefrogs
catch 22 schrieb:
und in spätestens 10 Jahren am rumheulen, dass die ganzen neuen neuen Mitarbeiter frisch von der Uni nix drauf haben, nachdem die sich mit ChatGPT Hausarbeiten durchgemogelt haben... das wird genau mein Humor!
;)
Das werden Sie, solange sich diese Studenten und vor allem auch die Universitäten nicht mit KI beschäftigten.

Ich mache gerade parallel meinen MBA an einer sehr anerkannten Universität im Ausland und bin froh, dass dort die Arbeit mit KI unterstützt und sogar gefordert wird. Wer sich darauf nicht vorbereitet wird in Zukunft noch größere Probleme haben, als nach der Uni "nix drauf zu haben".
 
  • Gefällt mir
Reaktionen: FrAGgi, cosmo45, wek666 und 9 andere
Umso relevanter werden mündliche Tests in Schulen / Universitäten werden.

Zum Wasserzeichen: Das ist - zumindest beim Text - relativ quatsch, da die Ausgabe von ChatGPT / LLMs einfach z.B. wieder in Deepl Write eingefügt werden kann, um Wörter oder ganze Sätze (gezielt) zu ändern. Das kann dann kein "Wasserzeichen-Check-Tool" statistisch zuverlässig mehr erkennen.

Außerdem können LLMs auch auf die eigene Daten / Texte trainiert werden, um der "KI" den eigenen Schreibstil etc. beizubringen. Alles andere wäre eine schlechte "KI" bzw. eine, die eben nicht den persönlichen Kontext kennt. Gute "KI" schreibt, wo du nicht erkennst, dass es "KI" ist ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tastaturberuf, stevefrogs, Fliz und eine weitere Person
Wasserzeichen für sowas ist der falsche Weg.
Eigentlich müssten Kameras ein Wasserzeichen setzen und jede Manipulation des Bildes müsste das Wasserzeichen ungültig machen. -> Kein gültiges Wasserzeichen = nicht vertrauenswürdig
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hellyeah, JensG, 7H0M45 und 2 andere
Bl4cke4gle schrieb:
Es bleibt dabei, wenn es funktioniert, so what?
Es geht letztlich um mangelhafte Sprachkompetenz.
Wichtig dabei zu wissen ist, dass Leute mit mangelhafter Sprachkompetenz mehr Schwierigkeiten haben, Texte (komplizierte wie auch einfache) inhaltlich zu erfassen und weiter zu verarbeiten. Im günstigsten Fall reicht es, wenn die Leute die Texte mehrfach und langsam lesen, unter umständen vermehrt Notizen erstellen müssen und diese im späteren Verlauf öfters benötigen. Im ungünstigsten Fall, ist der selbst mehrfach gelesene Text ein Buch mit sieben Siegeln.
Sprachkompetenz kann zum Teil mit einfachen Leseübungen gesteigert werden, am effektivsten ist es aber, indem selbstständig sachspezifische Texte verfasst werden (sry @Rexaris , das fehlte hier). Im übrigen steigert man so auch die Fähigkeiten zur freien Rede.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81, cosmo45, Nine-tailed Fox und 5 andere
Und dann gibts eine KI die KI-Wasserzeichen entfernt?

Was für ein Schwachsinn.
 
  • Gefällt mir
Reaktionen: dideldei
Meiner Meinung nach können auch die Wasserzeichen gefälscht werden und gaukeln eine pseudo-Sicherheit vor.

Ich bin zwar auch für eine Kennzeichnung, aber diese wirklich effizient und sicher zu implementieren dürfte extrem schwer werden.
 
  • Gefällt mir
Reaktionen: racer3, Nine-tailed Fox und stevefrogs
Wäre doch mal ein schöner Hebel das Ding endlich entweder kenntlich zu machen oder ganz zu verbieten ;) man Stelle sich vor :D
 
NiicLas schrieb:
dass dort die Arbeit mit KI unterstützt und sogar gefordert wird
Ist auch das einzig sinnvolle imho - wenn das was ich von den Studenten fordere auch ein LLM liefern kann dann fordere ich ja Kompetenzen ein welche zukünftig wertlos sind.
 
  • Gefällt mir
Reaktionen: Haffke, NiicLas und Rexaris
Warum ist es verwerflich, einen generierten Text zu verwenden?
Es geht ausschließlich darum, ob man den Text vertritt und nicht wer oder was ihn formuliert hat.

Ob ich selbst oder eine KI meine Meinung, dass Katzen besser als Hunde sind, in Textform ausdrückt, spielt keine Rolle.

"Ich finde, Katzen sind besser als Hunde." - Ich
"Meiner Meinung nach sind Katzen die besseren Haustiere im Vergleich zu Hunden" (ChatGPT) - trotzdem Ich
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Nine-tailed Fox, brthr_nemiel und rosenholz
ChatGPT Texte kann man aktuell wohl auch schon gut erkennen, die Wortwahl ist immer stark ähnlich.
Sagt zumindest der Kollege aus dem Marketing, der sich regelmäßig Texte zusammenfassen und Reden erstellen lässt.
 
AI-Nadja schrieb:
Warum ist es verwerflich, einen generierten Text zu verwenden?

Weil Schweiß, Tränen und Mühe den Wert unserer Arbeit und unserer selbst bestimmen. /s
 
  • Gefällt mir
Reaktionen: cosmo45, BetA und Der Kabelbinder
catch 22 schrieb:
und in spätestens 10 Jahren am rumheulen, dass die ganzen neuen neuen Mitarbeiter frisch von der Uni nix drauf haben, nachdem die sich mit ChatGPT Hausarbeiten durchgemogelt haben... das wird genau mein Humor!
;)
Joa, sowas ist bestimmt nicht schon gesagt worden, als Computer und Internet massentauglich wurden …
 
  • Gefällt mir
Reaktionen: medsommer, cosmo45 und Bl4cke4gle
catch 22 schrieb:
Es geht letztlich um mangelhafte Sprachkompetenz.
Ah, ok, das ist jetzt aber doch etwas präziser ausgedrückt als:
catch 22 schrieb:
;)

(Ich gehe aber davon aus, dass die ganzen Leute, die deinen Beitrag geliket haben, das so nicht verstanden haben)

Würde ich aber zustimmen. Sollte diese Kompetenz zukünftig (noch) von Nöten sein, dann sollte man sie erlernen. Das werden die Betroffenen, die es nicht können, aber auch schnell merken, dass ihnen was fehlt ;)
 
Wenn der KI-Text den Leser zufriedenstellt ist alles okay.

Bei Bilder und Videos gibt es sowieso Merkmale und Wasserzeichen. Beim Drucker schon seit Jahrzehnten Standard. Es gibt ja viele Felder in denen man studieren kann. Weiß jetzt nicht warum der studierte Maschinenbauer dann nix können soll. In 95% der Fälle reicht ein simples Gespräch und man weiß wo man ist bei den Studenten. Ich verwende oft die KI. Die Halle schweißen wir dann natürlich nicht mit KI zusammen.

Spätestens wenn der Student dann am Arbeitsplatz nix kann wirds nix werden. Es ist also sowieso im Eigeninteresse.
 
@Eternal
Wer es sich leicht macht, kopiert sie zu 99%.

Ich verwende KI Texte nahezu täglich, weil man damit lange Formulierungen auf das Wesentliche kürzen oder den Stil in einem Bruchteil der Zeit ändern kann.
Anschließend optimiere ich die Texte für den letzten Feinschliff.

Nach der Zeit lernt man die richtigen Prompts zu benutzen, sodass die "eigenen" Texte ähnlich klingen, aber trotzdem von den Standard-KI-Formulierungen abweichen.

@rosenholz
Beispiel:
Ob eine öffentliche Entschuldigung eines Unternehmens von einer KI in 10 Sekunden erstellt und in einer Minute vom CEO minimal abgeändert wurde oder sie 10 Menschen in einer Besprechung 2 Stunden lang erstellt haben und der CEO sie abgenickt hat, spielt keine Rolle.

Am Ende hat der CEO alleine die Mitteilung zu verantworten und keinen interessiert es, wer die Wörter gewählt und angeordnet hat.

Ein Wasserzeichen würde also gar nichts ändern.
 
  • Gefällt mir
Reaktionen: Eternal, brthr_nemiel, Haffke und 2 andere
Zukünftig wird die Kompetenz, eine KI richtig zu bedienen zu können, immer wichtiger werden. Als Arbeitgeber wäre es mir grundsätzlich egal, wer einen Text verfasst, solange das Ergebnis stimmt. Und wenn dadurch Zeit eingespart werden kann, umso besser. Letztlich braucht es kluge Menschen um die Ergebnisse zu verstehen, sie richtig zu interpretieren und daraus Handlungen abzuleiten.

Am Ende muss ich aber die Person (egal, ob jetzt Schüler, Student oder Mitarbeiter) und seine Leistung bewerten können. Schon deshalb macht es sinn, dass KI generierte Texte (und ggf. deren Entstehung) gekennzeichnet sind.

Ob KI für die Menschliche Entwicklung hilfreich ist, wage ich aber zu bezweifeln. Wenn bestimmte Kompetenzen nicht mehr gelernt werden, weil immer mehr Aufgaben von einer KI erledigt werden können, kann das nicht gut ausgehen.

Habe leider am Wochenende wieder erlebt, dass mich ein junger Mensch nach dem Weg zum Bahnhof gefragt hat. Dieser war nur 400m entfernt. Das Handy hatte er zwar in der Hand, wusste aber nicht einmal dass er sich den Weg bei Google Maps anzeigen lassen kann und die App ihn dann zum ziel führt.

Fliz schrieb:
Es gibt doch nur eine Textausgabe.. Die kopiere ich raus, eventuell noch über Notepad oder Notepad++ dazwischen.
Es wird ein Katz- und Mausspiel werden. So wie man Arbeiten auf Plagiate prüft, werden auch Tools kommen die prüfen können, ob ein Text mithilfe einer KI erstellt wurde. Da die KIs lernen und nichts vergessen, werden sie sehr sicher sagen können ob sie einen betreffenden Text entworfen haben. Die Wahrscheinlich, dass ein Schüler/Student zufällig exakt den gleichen Wortlaut geschrieben hat dürfte stark gegen Null tendieren.
 
  • Gefällt mir
Reaktionen: cosmo45
Das sind alles nur Nebengefechte zum eigentlichen Grundproblem, dass das Gebiet der Texterstellung jetzt automatisiert ist. Eine Zeitlang hat man auch noch handgemachtes Geschirr gekennzeichnet, um es unterscheiden zu können.
Ich schätze, sowas wie die Forderung nach Wasserzeichen sind jetzt das moderne Äquivalent eines Maschinenstürmers des 19. Jahrhunderts.
 
Zurück
Oben