News Interne Vorwürfe: Keine Wasserzeichen für ChatGPT, damit Nutzer nicht auffliegen

an so vielen Stellen merke ich, wie unsauber AI eingesetzt wird. das fängt bei Youtube Kanälen an, klar AI Bilder und Videos merkt man mit Training sofort, aber viele lassen sich auch jetzt kleine Geschichten schreiben. Es fällt schnell auf und nervt langsam, weil die Qualität nicht da ist.

Im Arbeitsalltag gibt es auch einen Dunning-Kruger Effekt. Viele AI Nutzer merken gar nicht, dass man merkt dass sie es (falsch) einsetzen. Die Ergebnisse sind wie es viele einfach reinkopieren auf hohem Niveau nicht einsetzbar. Es klingt alles gut, aber bleibt oberflächlich, oft auch schlicht falsch.
Klar wenn man einen Dulli gegenüber hat, der keine Ahnung hat, dann merkt der das nicht.

Und ja, ich nutze es selbst in der Arbeit, wir nutzen alle bekannten Tools (bekommen Sessions z.B. von Perplexity vor ner Zeit) und es ist gewollt sich darüber auszutauschen.
 
  • Gefällt mir
Reaktionen: Reinhard62 und Blau&Gruen
NiicLas schrieb:
und bin froh, dass dort die Arbeit mit KI unterstützt und sogar gefordert wird
naja, es ist ja ein unterschied wenn man eine ki als werkzeug zur arbeitsoptimierung nutzt oder ob man der ki das gros der "denkarbeit" überlässt.
etwas überspitzt formuliert: ich sollte als absolvent mein fachgebiet/arbeit auch ohne eine ki beherrschen und dieses wissen auch ohne ki hilfe vollständig anwenden können.
problematisch wird es wenn die ki einem den kern der arbeit abnimmt und man dann zwar ingenieure, architekten und co. als absolventen hat, diese aber ohne eine ki "hilflos" sind...
das mag zugespitzt sein, aber ich denke der entscheidende punkt des gedankens wird klar...
 
  • Gefällt mir
Reaktionen: DNS81
cypeak schrieb:
problematisch wird es wenn die ki einem den kern der arbeit abnimmt und man dann zwar ingenieure, architekten und co. als absolventen hat, diese aber ohne eine ki "hilflos" sind...
Kann mich mal eben jemand abholen, welche Änderungen es in Ingenieurstudiengängen gegeben hat?

Meine Hausarbeiten, die ich seinerzeit machen musste, kann ich an einer Hand abzählen. Dafür brauche ich btw. nicht mal alle Finger. Wir haben Prüfungen gehabt und teilweise Laborpraktika. Da hätte mir AI nicht weitergeholfen.

Selbst bei meiner Diplomarbeit hätte mit ChatGPT maximal bei der Erstellung des Textes geholfen. Den Lötkolben und die endlosen Messreihen nimmt einem keine AI der Welt ab. Die Hardwarekomponenten und die Software müssen im Feld getestet werden. Ich musste meinen Quellcode im Detail erläutern, da der Prof. nicht verstanden hat, was ich da gemacht habe. Hätte mir das eine AI erstellt, dann wäre ich mit Sicherheit auf die Nase gefallen.

Meiner Meinung nach kann einem die AI helfen. Im Berufsleben und auch bei der Abschlussarbeit muss man aber beweisen, was man kann. Es ist also zwingend notwendig, dass man diese Erkenntnis zeitnah hat. Andernfalls wird man das Studium mit Sicherheit ohne erfolgreichen Abschluss absolvieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Serana und Bl4cke4gle
mae schrieb:
Jetzt koennen wir den Studis aber nicht gleich Aufgaben geben, an denen ChatGPT scheitert, weil daran scheitern die Studis am Anfang auch.
Sehe da kein Problem. Der Schwierigkeitsgrad der Aufgaben nimmt mit der Studienzeit zu. Irgendwann erreichst du halt ein Level, was durch KI nicht mehr gelöst werden kann, da wird dann Denken erforderlich. Wer als Student an der Stelle dann nicht weiter kommt, ja sorry, das war's dann wohl mit dem Studium.

Heute kann ich auch nicht jede mathematische Aufgabe per Taschenrechner lösen. Ich bin sogar im Rechnen total schlecht. Ich konnte immer nur Mathematik gut. Ohne Taschenrechner war ich im Studium aufgeschmissen. Trotzdem behaupte ich mal, ich "habe es zu etwas gebracht".
 
  • Gefällt mir
Reaktionen: Skysurfa
Bl4cke4gle schrieb:
Der Schwierigkeitsgrad der Aufgaben nimmt mit der Studienzeit zu
Fand ich nicht. Es baut inhaltlich aufeinander auf. Aber wenn man verstanden hat, was man in den vorangegangenen Semestern gerlernt hat und auch noch in der Lage ist die geforderte Transferleistung zu erbringen, wird es nicht schwieriger. Das kann einem die AI definitiv nicht abnehmen. Zumindest nicht in den Ingenieurswissenschaften. Andere Studiengänge kann ich nicht beurteilen.
 
  • Gefällt mir
Reaktionen: Bl4cke4gle
Bl4cke4gle schrieb:
Sehe da kein Problem. Der Schwierigkeitsgrad der Aufgaben nimmt mit der Studienzeit zu. Irgendwann erreichst du halt ein Level, was durch KI nicht mehr gelöst werden kann, da wird dann Denken erforderlich. Wer als Student an der Stelle dann nicht weiter kommt, ja sorry, das war's dann wohl mit dem Studium.

Ja, man kann zuschauen, wie sie mit ChatGPT in ihr Verderben rennen, aber wenn das Studis sind, die's geschafft haetten, wenn sie ohne ChatGPT gearbeitet haetten, ist das nicht nur ein Verlust fuer sie, sondern auch einer fuer die Gesellschaft. Und dann haben die Professoren ihren Job nicht gemacht.

Heute kann ich auch nicht jede mathematische Aufgabe per Taschenrechner lösen. Ich bin sogar im Rechnen total schlecht. Ich konnte immer nur Mathematik gut. Ohne Taschenrechner war ich im Studium aufgeschmissen.

Du erkennst selbst, dass das eben kein gutes Analogon ist, weil Rechnen und Mathematik eben zwei verschiedene Dinge sind. Und viel Rechnen brauchen wir nicht mehr ueben, weil Taschenrechner, Spreadsheets usw. Menschen beim Rechnen auf jeden Fall schlagen.

Das ist aber bei den Texten anders. Da kann ChatGPT eben nur bis zu einem gewissen Grad helfen. Das ist so, als koennte der Taschenrechner nur maximal mit dreistelligen Zahlen umgehen, Du brauchst in der Praxis aber groessere. Und wenn Du Dir von ChatGPT die Antworten fuer das kleine Einmaleins und weitere kleine Rechenaufgaben hast einfluestern lassen, dann stehst Du auf einmal da, wenn Du groessere Rechnungen machen sollst.
 
mae schrieb:
Ja, man kann zuschauen[...]
Puuuh, ja, das wird's vermutlich geben. Allerdings kann ich das Argument auch umdrehen und sagen, es wird Studenten geben, die überhaupt erst Interesse an etwas entwickeln, weil sie KI-Unterstützung haben werden.
Vielleicht ähnlich dem Thema Noten, die einen sind durch Noten demotiviert und dadurch schlechter als eigentlich möglich und andere sind durch Noten angespornt und holen noch mehr raus.
Gibt halt immer beide Seiten.

Beim Rest bin ich bei dir.
Wobei ich natürlich auch einfachste Rechenaufgaben beherrsche, aber dann irgendwann definitiv zum Taschenrechner greife.
Aber ja, Rechnen ungleich Mathematik ungleich Texte schreiben. Alles nicht optimal vergleichbar.
 
Erst durch das weglassen des Wasserzeichens lässt man die Leute doch auffliegen!

Wenn ein Schüler das für die Hausarbeit nutzt und ein Wasserzeichen diesen damit auffliegen lässt, ist die Hausarbeit selbst sinnlos und man kann es direkt lassen.
Sofern die deswegen die Schüler genannt haben.
 
catch 22 schrieb:
und in spätestens 10 Jahren am rumheulen, dass die ganzen neuen neuen Mitarbeiter frisch von der Uni nix drauf haben, nachdem die sich mit ChatGPT Hausarbeiten durchgemogelt haben... das wird genau mein Humor!
;)
Naja, ich hoffe, dass in 10 Jahren vielleicht Aufgaben und Bewertungen so aussehen, dass KI einfach als ganz normales Tool "eingepreist" wird. Heutzutage bezeichnet es ja auch keiner als cheaten, wenn man eine Rechtschreibekorrektur oder z.B. ne moderne Entwicklungsumgebung zum Programmieren bemutzt. Gerade Studenten sollten lernen mit etablierten Werkzeugen umzugehen (soll nicht heißen, dass man dann in 2-3 sonderkursen vielleicht auch mal den manuellen Weg gezeigt bekommt).

Bin aber froh, dass ich mir solche Aufgaben nicht ausdenken muss ;)
 
  • Gefällt mir
Reaktionen: DaDare
Fliz schrieb:
Mich würde mal die Technik interessieren.. Es gibt doch nur eine Textausgabe.. Die kopiere ich raus, eventuell noch über Notepad oder Notepad++ dazwischen.

Es gibt verschiedene Ansätze, aber einer ist z.B., dass verschiedene Formulierungen oder aber auch nur einzelne Wörter deutlich häufiger von KI verwendet werden als beim normalen Schreiben. Ich Grunde gibt es einige Abweichungen. Dadurch kann man sogar erkennen, welche KI verwendet wurde, weil jede so seine Auffälligkeiten hat.

OpenAI hat aber auch bereits gesagt, dass der Detektor schnell an seine Grenzen kommt. Gerade wenn der Text nicht 1:1 verwendet wird. Wenn du den Text in Notebpad reinkopierst, dann eventuell noch mal durch die nächste KI, z.B. DeepL zum übersetzen ins Deutsche und dann den Text mit DeepL Writer ein weiteres mal besser machst, dann bleibt vom eigentlich Text, den OpenAI gut erkennen würde, nicht viel übrig.

Ein großes Problem ist aber auch die falsche Erkennung und bei Millionen von Texten sind das dann eben auch Einige, selbst wenn der Prozentsatz relativ gering ist. Wie geht man damit um?
 
Fliz schrieb:
Mich würde mal die Technik interessieren.. Es gibt doch nur eine Textausgabe.. Die kopiere ich raus, eventuell noch über Notepad oder Notepad++ dazwischen.

Das Wasserzeichen wird dann in der Formulierung versteckt sein, deshalb heisst es auch dass Nichtmuttersprachler das evtl triggern weil die halt im Zweifel sehr oft die selbe Formulierung nutzen statt Varianten davon, wenn die jetzt mit dem Wasserzeichen übereinpasst ist das halt blöd.
Ergänzung ()

Rexaris schrieb:
Ich nutze ChatGPT oder auch Bildgeneratoren, wenn ich sie denn nutze, selten als letzten Schritt in der Bearbeitungskette. D.h. das Ergebnis der KI wird von mir meistens weiter bearbeitet.

Damit mache ich doch mögliche Wasserzeichen kaputt (oder zumindest schwer zu identifizieren), auch wenn das Gerüst bzw. der Kern doch KI-Generiert ist.

Machst du, wenn du wirklich alles in deinen Worten umschreibst.
 
Skysurfa schrieb:
Kann mich mal eben jemand abholen, welche Änderungen es in Ingenieurstudiengängen gegeben hat?
[...]
Andernfalls wird man das Studium mit Sicherheit ohne erfolgreichen Abschluss absolvieren.

ich könnte jetzt von bewerbungsgesprächen erzählen (embedded hard- und software entwicklung); sowohl bei leuten die eine teilweise laaaange vita haben als auch frischlingen von der uni - da wurden in vorgesprächen per team/zoom sowas von offensichtlich google und ki benutzt das es fast schon dreist war.
man fragt sich wie diese leute ihren abschluß geschafft haben; es ist nicht so dass wir da krass komplexe fragen oder aufgabenstellungen vorsetzen...teilweise geht es um simplen c/c++ code oder einwenig basiswissen um A/D wandlung, multiplexer etc...
inzwischen gibt's sogar den running gag dass es toll ist dass man sich die persönlichen einladungen zu einem großteil erspaart, da sich die kandidaten so selbst ins aus kegeln...

wen das schon heute üblich ist, dann will ich nicht wissen wie das noch während dem studium aussieht.
ich will es aber auch nicht übertreiben; du hast schon recht - zumindest auf unseren uni's/fh's muss man einiges an "beaufsichtigter" leistung erbringen, soinst wird es mit dem abschluß schwer.
dennoch ist es meines erachtens absolut legitim zu fragen wie es nun mit der ki um die qualität einer ausbildung bestellt ist wenn nun weniger das eigene köpfchen gefragt ist als es früher der fall war...
 
cypeak schrieb:
dennoch ist es meines erachtens absolut legitim zu fragen wie es nun mit der ki um die qualität einer ausbildung bestellt ist wenn nun weniger das eigene köpfchen gefragt ist als es früher der fall war...

Die Frage ist aber doch am Ende, wie gut die "Arbeit" erledigt wird, oder? Mir als Chef wäre es ja ziemlich egal wie mein Mitarbeiter es macht. Und wenn es durch KI genauso gut wird oder besser und dazu auch noch effizienter, dann freue ich mich doch über die Nutzung von KI.

Und wenn ein Bewerber in seinen Workflows immer Hilfsmittel benutzt, und dazu gehört auch KI, dann kann er das doch bei der Bewerbung und bei Fragen auch benutzen.

Am Ende ist es ein weiterer wichtiger Skill, wenn eine Person KI sinnvoll einsetzen kann und sich mit dem Thema auseinander setzt. Vielleicht erscheint es Dir deswegen auch als Dreist und dem Bewerber als völlig normal?
 
  • Gefällt mir
Reaktionen: Schwachkopp und DaDare
Ein Wasserzeichen wäre die Beste Lösung. Es geht wieder um das Geld.
 
PERKELE schrieb:
Wobei ich persönlich der Meinung bin das ein Wasserzeichen gut wäre.

So "Gutenbergen" sie alle weitestgehend unerkannt.
Das mit dem Wasserzeichen in KI erstellten Inhalten ist totaler Käse. Das klingt erstmal ganz toll, wenn man aber mal über den Tellerrand hinausblickt und das ganze zuende denkt, dann merkt man, dass es letztlich eher Kontraproduktiv ist. Vor allem löst es einfach die Probleme nicht.

Umgekehrt wird wenn dann ein Schuh draus. Inhalte die nicht KI generiert sind müssen eine Signatur bekommen, welche sie als Echt ausweisen. Das ist beim geschrieben Text vermutlich nicht so einfach möglich, ist dort aber auch weitestgehend egal. Es ist vor allem nötig bei Bild, Ton und Video
 
Als Dozent an einer Uni würde ich klar identifizierbare Wasserzeichen begrüssen, da es die Überprüfung der Eigenständigkeitserklärung bei der Verfassung von Facharbeiten wie Bachelor oder Masterarbeiten vereinfacht. Unsere Uni erlaubt die Benutzung von KI, jedoch muss das benutzte LLM und dessen Version klar deklariert werden. Desweiteren muss dargelegt werden für was die KI benutzt wurde (unter Berücksichtigung der Rahmenbedingungen für die Verwedung von KI, welche die Uni erarbeitet hat). Im grossen und ganzen habe ich keine Probleme damit und begrüsse die Nutzung sogar, wenn diese Zweckgemäss eingesetzt wurde.
Es bedarf halt eine klare Kommunikation zwischen Uni und Lehrkräften und zwischen Lehrkräften und Studenten was, wie und wann erlaubt ist.
Natürlich müssen die Dozenten den Unterricht so anpassen das Lernvorgaben fachgerecht erreicht und überprüft werden können unabhängig ob der Student KI benutzt oder nicht, denn wenn wir mal Linguistik aussen vor lassen, geht es ja zb in der Wissenschaft um problemorientierte Arbeit, die korrekten Lösungsansätze bedarf und das Verständnis derer vorraussetzt. Da ist die KI nur ein Werkzeug wenn man es korrekt einsetzt. Studenten die das Lernziel verfehlen würden und sich versuchen durch KI "über Wasser" zu halten kann man durch geeignete Lernkontrollen und interaktiven Unterricht recht schnell identifizieren.
 
  • Gefällt mir
Reaktionen: DaDare
Bright0001 schrieb:
Journalisten? Wissenschaftler? Juristen?
In der Wissenschaft wird ChatGPT genutzt. Zum Zusammenfassen von Artikeln, übersetzen, ausformulieren oder gar Daten Interpretation. Und da ist diese KI verdammt gut und mächtig drinnen. Es muss jedoch immer jemand "dahinter" stehen, der das ganze kontrolliert. Ich verstehe persönlich nicht, warum das hier so verteufelt wird.
Ergänzung ()

brthr_nemiel schrieb:
Unsere Uni erlaubt die Benutzung von KI, jedoch muss das benutzte LLM und dessen Version klar deklariert werden. Desweiteren muss dargelegt werden für was die KI benutzt wurde (unter Berücksichtigung der Rahmenbedingungen für die Verwedung von KI, welche die Uni erarbeitet hat).
Frage hierbei in den Raum geworfen. Hat man dies gemacht, weil man "mit der Zeit gehen wollte" oder vielmehr, weil es schwierig ist, so etwas überhaupt zu identifizieren und noch viel wichtiger nachzuweisen.
 
catch 22 schrieb:
Oder was meinst du, wie ein Lehrer nach einmaligen Lesen eines Aufsatzes beurteilen konnte, ob der Schüler den Text selber verfasst und aufgeschrieben hat, oder doch der Vater / die Mutter geholfen und das Kind den Text "nur" aufgeschrieben hat.
Ja gut, mir hatte man einen Text in der Klausur auch nicht zugetraut. Und der war definitiv nicht fremd verfasst.
Ich saß aber auch die ersten 10min und hab ganz einfach nichts gemacht, sondern mir das Thema erstmal bildlich vorgestellt.
Das ich dazu noch nie in New York war, hat dem ganzen die Krone aufgesetzt 😅😜
 
Sein Handwerk sollte man schon beherrschen.
Spätestens wenn der AI der Akku aus geht.

Wenn die AI zum Handwerk gehört ist natürlich der im Vorteil der sie möglichst früh beherrscht.

So oder so: Hausaufgaben sollte man besser selbst machen.
 
Zurück
Oben