News Interne Vorwürfe: Keine Wasserzeichen für ChatGPT, damit Nutzer nicht auffliegen

Seltsam sonst sind Firmen doch immer ganz begierig drauf ihre Logos überall draufzupappen, "made with chatgpt" ist also kein Gütesiegel das man gerne zeigt, nichtmal als unsichtbares Wasserzeichen.

Ich finde es lustig das irgendwie jeder das Zeug zu verwenden scheint aber keiner will es zeigen. Andererseits verstehe ich es auch, irgendwann fragt sich die Chefin dann schon warum man 5 Leute angestellt hat die einen Teil ihrer Arbeit von LLMs erledigen lassen, da werden früher oder später Personalanpassungen folgen.

Das ist eben jetzt die Automatisierung im Büro. Ich arbeite in der Industrieproduktion wir haben das Thema schon eine Weile durch.
 
Crystal3684 schrieb:
als Computer massentauglich wurden …
"Als Computer massentauglich wurden" haben sie einem aber nicht das Denken oder die kreativen Prozesse abgenommen, sondern lediglich die Arbeitsprozesse selber modernisiert, beschleunigt und vereinfacht.
 
  • Gefällt mir
Reaktionen: Reinhard62, DNS81, mKstan und 6 andere
Ein weiteres Problem sehe ich aber auch umgekehrt: Da das Wasserzeichen grundsätzlich unsichtbar sein muss, besteht bei einem Checktool die Gefahr für falsch-positive Ergebnisse. Also wenn jemand einen Text von Hand schreibt, aber dieser trotzdem als generiert markiert wird.

Könnte bei größeren Arbeiten zu Problemen führen.
 
  • Gefällt mir
Reaktionen: 7H0M45
BFF schrieb:
Immer noch kann.
Meine Frau (Lehrerin) kennt da ihre Pappenheimer plus deren Quellen auswendig. 😎
Ich bin mir auch sicher, dass uns die Lehrer damals zu 99% korrekt an der Handschrift (wenn man es so nennen könnte) und an der Ausdrucksweise identifizieren konnten.
Zugegeben, dazu muss aber auch eine kennenlernphase stattgefunden haben, ohne Betrug/AI :)
Ergänzung ()

rosenholz schrieb:
Weil Schweiß, Tränen und Mühe den Wert unserer Arbeit und unserer selbst bestimmen. /s
Es geht doch nicht um Selbstbestimmung, es soll Wissen in der Birne ankommen.
Erstell mal ein Referat selbst (also Zeit reinstecken) oder schreibe es ab in 10 Minuten.
Trag es vor und lass dich 1 Woche später nochmals befragen. Dazwischen liegen welten, an dem was hängen blieb.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DNS81, cosmo45, sedot und 5 andere
Bright0001 schrieb:
[...] Also wenn jemand einen Text von Hand schreibt, aber dieser trotzdem als generiert markiert wird.
Einer hat's ein paar Kommentare weiter oben schon gesagt: mündlicher Test. Außerhalb von Schulen und Universitäten interessiert es doch niemanden, ob ein Text per Hand geschrieben, getippt oder automatisch generiert ist, weil nur das Ergebnis wichtig ist.

Spätestens zum Ende dieses Jahrzehnts halte ich es für unmöglich, dass man noch herausfinden kann, ob ein Text noch menschlichen Ursprungs ist, d.h. wenn wir dann immer noch Anstalten haben, die schriftliche Bachelorarbeiten, Hausaufgaben etc. verlangen, dann wird das ein Alptraum - mit Wasserzeichen oder ohne.
 
Bl4cke4gle schrieb:
(Ich gehe aber davon aus, dass die ganzen Leute, die deinen Beitrag geliket haben, das so nicht verstanden haben)
Doch, denn genau so war er auch zu verstehen^^
 
  • Gefällt mir
Reaktionen: stevefrogs
@rosenholz
Man kann das auch so sehen:
« (L)e texte est un tissu de citations issues des mille foyers de la culture (Roland Barthes, La mort de l’auteur) ». In etwa: Der Text ist ein Gewebe von Zitaten hervorgegangen aus tausend Herdstellen der Kultur. Toller Aufsatz, 1967/1968.

:)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cubisticanus und rosenholz
Das gelte etwa für Schüler und Studenten, die ChatGPT für Hausarbeiten verwenden.
Und Spielepublisher-Apologies :D
 
Odium schrieb:
Journalisten? Wissenschaftler? Juristen?
Es gibt viele Stellen, an denen der Einsatz generierter Texte problematisch sein kann, Hausaufgaben sind Borderline irrelevant.
 
catch 22 schrieb:
und in spätestens 10 Jahren am rumheulen, dass die ganzen neuen neuen Mitarbeiter frisch von der Uni nix drauf haben, nachdem die sich mit ChatGPT Hausarbeiten durchgemogelt haben... das wird genau mein Humor!
;)
haben 99,9x% auch so nicht ;) .
Jeden Absolventen musst du erstmal 1-3 Jahre auf die Weide stellen damit er groß wird.
 
Bright0001 schrieb:
Journalisten? Wissenschaftler? Juristen?
Es gibt viele Stellen, an denen der Einsatz generierter Texte problematisch sein kann, Hausaufgaben sind Borderline irrelevant.
Genau so ist es, gerade diese nicht existierenden Autoren bei einigen Nachrichtenseiten unter deren Namen KI Texte veröffentlicht werden halte ich für sehr fragwürdig.
 
Eternal schrieb:
ChatGPT Texte kann man aktuell wohl auch schon gut erkennen, die Wortwahl ist immer stark ähnlich.
Richtig genutzt, kann man das ändern. "Schreibe einen Hochzeitsgruß" und "Schreibe einen Hochzeitsgruß im Stil und mit der Wortwahl Donald Trumps" wird sehr unterschiedliche Ergebnisse erzielen.
 
  • Gefällt mir
Reaktionen: Eternal
bad_sign schrieb:
Doch, denn genau so war er auch zu verstehen^^
Ok, krass, dann habe ich da wohl defizite. Ich war der Meinung, dass er einfach nur sagen wollte "KI=keiner kann mehr auch nur irgendwas, macht ja alles die KI".
Aber ja, jetzt nach nochmaligem Lesen wird's wohl so sein, dass sich in 10 Jahren die alten Leute mal wieder über die junge Generation beschweren, weil die angeblich "nichts mehr können". Also wie immer in der Weltgeschichte. :)
 
Fliz schrieb:
Mich würde mal die Technik interessieren.. Es gibt doch nur eine Textausgabe.. Die kopiere ich raus, eventuell noch über Notepad oder Notepad++ dazwischen.
Da hat Genius.com (Songtexte) mal was Interessantes gemacht:
Um weitere Verstöße festzustellen, hat Genius die eigenen Songtexte mit einem Wasserzeichen versehen. Dafür hat das Unternehmen für jeden Song Apostrophe in gerader und gekrümmter Variante in jeweils derselben Reihenfolge gesetzt, sodass sich daraus in Morsezeichen übersetzt die Wörter „Red handed“ ergeben, zu Deutsch: auf frischer Tat ertappt. Mit dieser Methode habe Genius mehr als einhundert Verstöße gegen die eigenen Nutzungsbedingungen feststellen können.
 
  • Gefällt mir
Reaktionen: medsommer
So ein Glück, da kann jetzt weiter gemogelt und getäuscht werden.
Im Prinzip finde ich es gut, wenn manches Zweitrangige durch KI erledigt wird.
Aber Eigenarbeit und dadurch erzielte Erfolgserlebnisse werden nicht auf diese Art ermöglicht.
Eine Möglichkeit, KI-erstellte Medien zweifelsfrei zu erkennen, wäre sehr gut!
 
Bl4cke4gle schrieb:
Wenn sie mit genau der Methode ihre Arbeitspakete korrekt, effizient, effektiv und vor allem qualitativ ausreichend abarbeiten, so what?

Das Problem ist, dass ChatGPT & co. zumindest derzeit einen ausgeblideten Akademiker nicht immer ersetzen koennen. Daher muessen wir Akademiker ausbilden. Jetzt koennen wir den Studis aber nicht gleich Aufgaben geben, an denen ChatGPT scheitert, weil daran scheitern die Studis am Anfang auch. Und wenn sie diese Aufgaben von ChatGPT machen lassen, wird sich das auch nicht aendern.

Woher sollen also die ausgebildeten Akademiker der Zukunft kommen? Man kann natuerlich darauf setzen, dass sich die AI so weiterentwickelt, dass wir in Zukunft keine Akademiker mehr brauchen, aber ob das so funktionieren wird? Wie waren die Vorhersagen, wann das selbstfahrende Auto fertig sein wird?
 
  • Gefällt mir
Reaktionen: Thorakon
Die Krux bei GPT-generierten Texten ist und bleibt, dass sie auf Grundlage syntaktischer Wahrscheinlichkeit gebildet werden und ein semantisches Verständnis der Materie daher weitgehend unberührt lassen. Daher sind sie nicht nur völlig erwartbar, sondern liefern in der Regel auch keinen nennenswerten Erkenntniswert.

Dass Studierende trotzdem damit durchkommen (selbst in Masterstudiengängen), offenbart imo, dass unser Bildungssystem immer noch viel zu stark auf der Reproduktion sehr einfach recherchier- und beschreibbaren gesicherten Wissens beruht. Ist dementsprechend auch kein Zufall, dass seit dem Release von GPT-3 die Rufe nach alternativen Prüfungsformen immer lauter werden, die sich viel stärker auf den individuellen Lernweg konzentrieren und insbesondere analytische und kreative Kompetenzen zur Problemlösung betonen. Oder der faule Kompromiss: Einfach mehr Klausuren bzw. mündliche Prüfungen.

Ich befürchte, dass die Automatisierung der Schriftlichkeit auf kurz oder lang ernsten Schaden anrichten wird, wenn wir keine neuen Formate finden, in denen die klassischen Skills gleichermaßen gefordert und gefördert werden. Wer eigenständig eine Hausarbeit verfasst, muss sich nicht nur intensiv mit dem Fachwissen auseinandersetzen. Er muss vor allem lernen, sich in wissenschaftlichen Disziplinen und deren Publikationen zu orientieren, Quellen richtig einzuordnen, eigene Thesen zu formulieren und abzugrenzen und letztlich aus der Auseinandersetzung mit der Literatur selbst eine kritische Fragestellung zu entwickeln, die vor allem einem wissenschaftlichen Anspruch gerecht wird. So etwas kann man auch lernen, wenn man durch ein Assistenzsystem unterstützt wird. Die Früchte hängen hier im Moment allerdings deutlich niedriger. Und dabei sind die vorgeschlagenen Lösungswege meist weder sonderlich originell (ergo kaum Informations- bzw. Innovationswert), noch geben sie sinnvolle didaktische Impulse, kritische Kompetenzen zu fordern. Dafür braucht es erst mal angepasste Modelle und ein gezieltes Prompting, das nicht den als komfortabel erscheinenden Weg einer allgemeinen "Suchmaschine" geht. Das wäre am Ende ansobsten genau so stumpf wie der durchschnittliche Lernerfolg einer Klausurvorbereitung.

Kurzum: Es baucht neue Konzepte und eine schnelle Anpassung der Bildungsanrichtungen an den technischen Fortschritt, damit wir unsere Kompetenzen einerseits beibehalten und da wo möglich weiter ausbauen können.

Wer akzeptiert, dass es okay ist, eine Datenbank für sich denken zu lassen, der bestraft sich (und die Gesellschaft) auf kurz oder lang nur selbst.

Um zum Thema zurück zu kommen: Wasserzeichen bekämpfen höchstens das Symptom, aber niemals die Ursache.
 
  • Gefällt mir
Reaktionen: DNS81, medsommer und Thorakon
Palomino schrieb:
Letztlich braucht es kluge Menschen um die Ergebnisse zu verstehen, sie richtig zu interpretieren und daraus Handlungen abzuleiten.
Nur fallen diese Menschen nicht vom Himmel. da hilft eine KI alleine auch nicht. Und genau hier ist ein kleiner hacken. Wie bei vielen andere sachen auch. Dir muss beigebracht werden wie man damit umgeht. Und wie so etwas richtig und effektiv eingesetzt werden kann. Und da müssen selbst Lehrer noch Lernen. Es gibt aber auch einfach zuwenig dafür. Denn spätesten ab dem 7ten Schuljahr müsste man langsam damit anfangen.
 
metoer schrieb:
Genau so ist es, gerade diese nicht existierenden Autoren bei einigen Nachrichtenseiten unter deren Namen KI Texte veröffentlicht werden halte ich für sehr fragwürdig.
Das macht der Springer-Verlag inzwischen so und die Zeitungen werden (leider) trotzdem gekauft...
 
  • Gefällt mir
Reaktionen: Haffke und metoer
Zurück
Oben