News Interne Vorwürfe: Keine Wasserzeichen für ChatGPT, damit Nutzer nicht auffliegen

catch 22 schrieb:
Lehrer / Dozenten lassen sich sehr gerne durch nichts leichter in der Wahrnehmung positiv beeinflussen, als durch "opulente" Hausarbeiten,
Bei meinem Sohn ist es nicht so. Hausarbeiten werden in der Schule erledigt. Dafür ist er erst um vier Zuhause.
Ich selbst mache gerade eine Umschulung und da werden die Leistungen jedes Einzelnen natürlich benotet.
Deine Eltern sollen Lehrer sein? Kann ich nicht glauben
 
Apocalypse schrieb:
Ups, da hatte ich wohl noch zu wenig Koffein intus. Das ist natürlich völliger Mumpitz. Eher sollte es ein Wortspiel darstellen.
 
@DrFreaK666
Nur weil die Hausarbeiten "nicht zu Hause" sondern am Nachmittag in der Schule gemacht werden, ändert das nichts am Potential für Lehrer, die schulische Leistung durch diese Arbeiten durchgehend zu beurteilen (unter Umständen eher im Gegenteil, da das Umfeld für die Hausaufgaben kontrollierter ist, und die Lehrer vermutlich die Schüler während dessen auch beobachten können?).

Was du nicht glauben kannst, interessiert mich übrigens überhaupt gar nicht, da du vor allem nicht wissen willst, was ich von dir denke, angesichts dieser einen Zeile.
 
Palomino schrieb:
Ob KI für die Menschliche Entwicklung hilfreich ist, wage ich aber zu bezweifeln. Wenn bestimmte Kompetenzen nicht mehr gelernt werden, weil immer mehr Aufgaben von einer KI erledigt werden können, kann das nicht gut ausgehen.

Ich glaube, das Gegenteil ist der Fall.
Wer oft KI-generierte Texte verwendet, kann von ihnen lernen.
Langfristig kann es sich positiv auf die Sprachentwicklung auswirken, sobald ein signifikanter Anteil KI-Texte als Hilfswerkzeug nutzt.

Ich denke, die Auswirkungen werden sich erst in 10 oder 20 Jahren eindeutig zeigen, wenn die "KI-Generation" im Berufsleben etabliert und entsprechend Einfluss genommen hat.
So wie die "Boomer" in der Bedienung heutiger Standard-Technik überholt wurde, werden die "KI-Generationen" die heutigen "Millenials+" überholen.

In ein paar Jahrzehnten wird es sich zeigen, ob KI die Sprachentwicklung tatsächlich positiv beeinflussen wird, sodass der Anteil "Straßen-Deutsch" geringer und hoffentlich mehr Hochdeutsch gesprochen wird.
 
Ich kenne ein Beispiel, in dem ChatGPT bei einer Doktorarbeit zur Unterstützung eingesetzt wurde. Dies wurde von Schreiber auch offen dargelegt und genau beschrieben wofür ChatGPT benutzt wurde, zum Beispiel um Formulierungen zu verbessern..
Die Arbeit wurde ohne Murksen anerkannt, was ich für sehr richtig halte.
 
  • Gefällt mir
Reaktionen: metoer, Ayo34 und Miuwa
AI-Nadja schrieb:
Ich glaube, das Gegenteil ist der Fall.
Wer oft KI-generierte Texte verwendet, kann von ihnen lernen.
Meine Beobachtung an der Uni zeigt eher, dass die Studis KI als Abkürzung benutzen, um selbst mehr Freizeit zu haben oder sich auf andere Inhalte vorzubereiten, die ihnen wichtiger erscheinen. Davon abgesehen wird man kognitiv kaum gefordert, wenn man Denkprozesse outsourced. Lernen schließt auch das Scheitern und Grübeln als wichtige Prozesse mit ein. Und KI schafft gerade hier Abhilfe. Analog zu dem Unvermögen, Langeweile auszuhalten (die nachgewiesenermaßen die Kreativität fördert), stillt KI im Moment das Bedürfnis, wichtige Teilschritte des Lernens zu überspringen.

Im günstigsten Fall kommt dabei vermutlich eine Kompetenzverschiebung zustande. Ohne Reformierung unseres Bildungssystem bleibt aber selbst das eine Illusion.

AI-Nadja schrieb:
Langfristig kann es sich positiv auf die Sprachentwicklung auswirken, sobald ein signifikanter Anteil KI-Texte als Hilfswerkzeug nutzt.
Mal ganz ergebnisoffen gefragt:
Hat sich denn bspw. die Rechtschreibkorrektur in Word oder am Smartphone im letzten Jahrzehnt positiv auf die tatsächliche Sprachkompetenz ausgewirkt?

IMO führt flächendeckende technische Entlastung überwiegend zu Bequemlichkeit. Und eben jene führt selten zu Lernerfolgen.
 
  • Gefällt mir
Reaktionen: mental.dIseASe, Bright0001, metoer und 3 andere
Fliz schrieb:
Mich würde mal die Technik interessieren.. Es gibt doch nur eine Textausgabe.. Die kopiere ich raus, eventuell noch über Notepad oder Notepad++ dazwischen.
Du hast das Konzept nicht verstanden. Das Wasserzeichen soll als Text implementiert werden. Das kopierst du dann quasi mit. So ein Wasserzeichen sind im Grunde bestimmte Datenmuster, welche so versteckt sind, dass sie
1.) Nicht offensichtlich stören
2.) Bei expliziter Suche sicher gefunden werden (Sensitivität)
3.) Nicht aus versehen entstehen (Spezifität)
4.) Nicht aus der Datei entfernt werden können ohne offensichtliche Spuren zu hinterlassen oder die Datei zu zerstören.

Und genau darin besteht die Schwierigkeit: Weil Texte eben deutlich primitiver sind als Bilder, ist es nicht ganz trivial in einen Text ein Wasserzeichen einzubauen, ohne das das offensichtlich die Qualität stark negativ beeinflusst. bei Bildern geht das dank der großen Komplexität recht easy. Bei Texten eben nicht.
 
@Der Kabelbinder
Ohne Rechtschreibkorrektur würde ich heute um ein Vielfaches mehr Fehler machen. Manche Wörter wurden durch eine Reformation geändert, was ich ebenfalls nur durch diese kleinen Helfer herausfand.
Weitere Tools wie LanguageTool oder Microsoft Editor haben meinen Schreibstil ebenfalls beeinflusst.

Ich kann mit Sicherheit sagen, dass es sich auf meine Sprachkompetenz zweifellos positiv ausgewirkt hat.

Eine Entlastung halte ich in nahezu allen Bereichen für wichtig.
Ein Lebensbereich wird entlastet, ein anderer belastet. Für mich ist das Fortschritt.
 
DrFreaK666 schrieb:
Ist das ein Problem von D oder von den Eltern?
Von D, weil ein grosser Teil der Gesellschaft über die nichtuniversitäre Ausbildung die Nase rümpft. Die Gesellschaft als Ganzes macht nun mal einen Staat aus. Denn die Lehre hat nicht nur beiden Eltern einen unbgründeten schlechten Ruf, sondern auch in der Politik. Und die Politik hätte es in der Hand, da entgegen zu steuern.
 
Zuletzt bearbeitet:
Land_Kind schrieb:
Denn die Lehre hat nicht nur beiden Eltern einen sclechten Ruf
Wüsste wahrscheinlich kein Elternteil, das das denken würde. Wenn mein Sohn sich später für ein Handwerksberuf entscheidet, dann stehe ich ihm sicher nicht im Weg. Gibt danach immer noch Weiterbildungsmöglichkeiten (z.B. Techniker)
 
  • Gefällt mir
Reaktionen: Miuwa
wie alle immer gleich an die doktorarbeit denken aber vergessen wie viele unwichtigen emails und sonstige schreiben, texte etc pp mittlerweile damit gemacht werden. das würde extrem einbrechen wenn es jeder checken kann ob man das mit chatgpt gemacht hat.

zb ist bei uns in der firma keiner texter aber die Projektbeschreibung auf der Firmenwebseit ist so innerhalb von einer minute gemacht ohne, dass sich da wer lange den kopf zerbrechen muss.
 
DaDare schrieb:
Frage hierbei in den Raum geworfen. Hat man dies gemacht, weil man "mit der Zeit gehen wollte" oder vielmehr, weil es schwierig ist, so etwas überhaupt zu identifizieren und noch viel wichtiger nachzuweisen.
Ehrlich gesagt weiss ich das nicht so genau, ich denke es ist eine Mischung aus beidem. Man wird nicht so einfach heraussfinden können ob ein Student beim verfassen von Text oder Code eine KI benutzt hat und deshalb hat man sich geeinigt proaktiv die eh schon vorhandene "Eigenständigkeitserklärung" um die Angaben zur Benutzung von KI zu erweitern. Andererseits hat das Informatik Department druck gemacht, da seit GPT-4 die KI extrem beim debuggen hilft und es dort jeder nutzt. Nun haben alle Departmente nachgezogen.
(Ich hab 0 ahnung von coding und nutze die KI selber um nun eigenständig scripts zu schreiben ohne jedesmal einen (Bio)-Informatiker zu bitten mir diesen zu schreiben.)

Dies ging im Februar diesen Jahres von heute auf morgen los, ein Tag null KI am nächsten Tag volles Programm. Dazu kam das die Uni einen Copilot branch benutzt der in der EU lokalisiert ist damit keine Trainingsdaten in die USA abfliessen und irgendeine digitale signatur dann im Patentrechtsstreit eine mögliche Erfindung zb US-firmen zuspricht nur weil daten dort auf nen server gelandet sind und einen früheren Zeitstempel haben als die lokalen Daten. Zudem ist der Copilot branch fokussiert auf Programmiersprachen (kann aber auch alles andere, wenn nötig).

Interessante Randnotiz, dafür kann die Uni im moment keine einzige Plagiatserkennungssoftware nutzen, da alle diese Software firmen von einem US unternehmen aufgekauft wurden und nun ihr zusammengeklaubtes Tool im cloud dienst anbietet, das bedeutet das alle Bachelor, Master und Doktorarbiten mit sämtlichen Forschungsergebnisse abgeschöpft werden können oder der oben beschriebenen Problematik beim Patentrecht unterliegen.
Dies wiederrum bedeuted, wir sollen übergangsweise die Arbeiten händisch auf echtheit prüfen 0_O oder maximal den Abstract durch die Software jagen...

Das Problem ist nicht die KI, sondern in welchen Landesgrenzen sich die Server für cloud-dienste oder datenzentren für LLM training befinden.
 
brthr_nemiel schrieb:
(Ich hab 0 ahnung von coding und nutze die KI selber um nun eigenständig scripts zu schreiben ohne jedesmal einen (Bio)-Informatiker zu bitten mir diesen zu schreiben.)

Und das traust du dir jetzt so zu, diese Aufgaben vollständig selbstständig zu bewältigen, nur weil eine KI eingesetzt wird? Erfordert normalerweise 'n solides Grundverständnis von Programmierung und den spezifischen Tools, die verwendet werden - gerade in Bioinformatik. Gerade bei ganz komplexen Dingen, könnte die Sicherheit des gesamten Systems bröckeln; nagut bei einfachen Skripten, hält sich das in Grenzen.

Bei den meisten Antworten von LLMs muss ich selbst ja immer auch ein sehr gutes Grundverständnis besitzen, um die Ergebnisse beurteilen / einordnen zu können. Wenn man von heute auf morgen etwas "kann" fehlt der Lernprozess - auch um die Ergebnisse der KI zu überprüfen, verifizieren und (effizient) korrigieren zu können.
 
  • Gefällt mir
Reaktionen: Schwachkopp
Verstehe die Aufregung allgemein nicht.

Im Studium geht es im eigentlichen Sinne darum, insbesondere durch die Diplom/Bachelor/Masterarbeit zu beweisen, dass man selbständig ein Themengebiet recherchieren/bearbeiten/lösen kann.

In meinem Umfeld arbeite ich zu 95% mit studierten Personen, die diese Abschlussarbeiten vor ChatGPT abgelegt haben. Davon wiederum sind geschätzt jedoch nur 10% in der Lage, selbstständig was zu recherchieren und zu bearbeiten etc. D.h. ein Studium hatte auch vorher (für mich) keine Aussagekraft :)

Davon abgesehen (falls das wer anders sieht), sind nicht alle Leistungsnachweise im Studium Hausarbeiten/Abschlussarbeiten. Der Großteil der Leistungen ist in Präsenzprüfungen abzulegen... das gilt auch für Berufsausbildungen, Schule etc.
 
  • Gefällt mir
Reaktionen: brthr_nemiel
fommuz schrieb:
Und das traust du dir jetzt so zu, diese Aufgaben vollständig selbstständig zu bewältigen, nur weil eine KI eingesetzt wird? Erfordert normalerweise 'n solides Grundverständnis von Programmierung und den spezifischen Tools, die verwendet werden - gerade in Bioinformatik. Gerade bei ganz komplexen Dingen, könnte die Sicherheit des gesamten Systems bröckeln; nagut bei einfachen Skripten, hält sich das in Grenzen.

Bei den meisten Antworten von LLMs muss ich selbst ja immer auch ein sehr gutes Grundverständnis besitzen, um die Ergebnisse beurteilen / einordnen zu können. Wenn man von heute auf morgen etwas "kann" fehlt der Lernprozess - auch um die Ergebnisse der KI zu überprüfen, verifizieren und (effizient) korrigieren zu können.
Ja, da es hier um wirklich nur um basic Skripte geht wie zb in R studio plots zu machen oder Phyton scripts um batch prozessierungen zu machen. Davor war ich halt wirklich abhängig von unflexibler Statistik software.
Ich mache da keine grossen Sprünge und die eigentliche Big Data analyse die ich im labor generiere wird dann schon noch von einem echten Bioinformatiker nach state-of-the-art Protokollen bearbeitet.
Und ja auch mit KI nutze ich viele Foren wie Stackoverflow um mich abzusichern oder frage Kollegen die in bestimmten Dingen mehr Erfahrung haben, wie zb in Statistical Modelling.
Die Produktivität in Sachen Büroarbeit ist aber mit Copilot spürbar gestiegen (gemessen an der Geschwindigkeit bis ich zum gewünschten Resultat komme). Mit mittlerweilen 16 Jahren Forschungserfahrung in funktioneller Genetik vermute ich das ich ganz gut einschätzen kann ob das was ich mache (oder mir die KI ausspuckt) wissenschaftlich korrekt ist, wann ich mir Hilfe hole oder Kollaborationen anstosse ;)
Eigentlich ist es gesunder Menschenverstand sich nicht nur blind auf ein Tool zu verlassen sondern dieses richtig zu nutzen, und auch nur wenn Vorteile bringt.
 
Anfangs konnte Google noch unterscheiden, welche Texte von LLMs oder von Menschen stammten. Die Texte von Menschen waren in der Semantik nicht so "glatt" wie die von LLMs. Aber da offenbar auch Google von einem ewigen Katz-und-Maus-Spiel ausging, haben sie beschlossen, die Texte inhaltlich zu werten, unabhängig, von wem sie stammen. Weiter habe ich das nicht verfolgt.

Für komplexe Dinge wie Studienarbeiten unterstelle ich, dass es derzeit auch nach wie vor vorhandenes Fachwissen braucht, um per LLM einen inhaltlich guten und weiterführenden Text zu erzeugen. Ansonsten kratzt das höchstens an der Oberfläche und Allgemeinheiten.

Sollten die LLMs in die Lage kommen - das soll wohl im Laufe der Zeit technisch möglich werden - technisch genügend Rechenverbindungen zu haben, um selbst zu denken - also selbst weiterführende Überlegungen anstellen kann - dann wird es schon spannend. Aber ich glaube da muss man dann keine Wasserzeichen diskutieren, sondern einen allgemeinen Umgang.
 
Khaus schrieb:
Für komplexe Dinge wie Studienarbeiten unterstelle ich, dass es derzeit auch nach wie vor vorhandenes Fachwissen braucht, um per LLM einen inhaltlich guten und weiterführenden Text zu erzeugen. Ansonsten kratzt das höchstens an der Oberfläche und Allgemeinheiten.

Mag sein. Ändert aber nichts daran, dass mir schon mehr als einmal Arbeiten untergekommen sind in denen sich dann Sätze fanden wie "Hier hast du einen Entwurf für eine Einleitung:". Gejuckt hat's anscheinend keinen nachdem die Autor:innen ihren Abschluss trotzdem bekommen haben. Was auch immer man daraus jetzt ableiten mag.
 
Khaus schrieb:
Sollten die LLMs in die Lage kommen - das soll wohl im Laufe der Zeit technisch möglich werden - technisch genügend Rechenverbindungen zu haben, um selbst zu denken - also selbst weiterführende Überlegungen anstellen kann - dann wird es schon spannend.
Das tun sie doch schon, nennt sich halluzinieren...

Spass beiseite. Selbst KI-Forscher glauben nicht wirklich, dass selbst denkende Maschinen/Programme so bald Wirklichkeit werden, wenn dies überhaupt jemals möglich sein sollte. Denn vielleicht braucht es dazu schlicht auch die Vorraussetzung, dass sich so eine Maschine/Programm sich seiner Existenz selbst bewusst ist.
Dass Physiker wie beispielsweise Albert Einstein also bald "unnötig" werden, das glaube ich nicht

Und wenn doch, würde es verdammt kompliziert werden...
 
Zurück
Oben