News ChatGPT: OpenAI veröffentlicht Tool , um KI-Texte zu erkennen

Bei über 90% der Beiträge hier erkennt man sofort, dass sie nicht von chatGPT geschrieben sind.

Nicht weil sie so herausragend sind, sondern eher weil das Gegenteil der Fall ist.
 
  • Gefällt mir
Reaktionen: Gurkenwasser und rosenholz
Pipmatz schrieb:
Wenn man mal durchexerziert wie viele Jobs durch eine wirkch durchgezogene Digitalisierungen weg fallen würden...

Die Unterschicht ( in den USA "White Trash" genannt) wächst jedes Jahr, sagte mir jedenfalls mal ein Sonderpädagoge der an einer Schule ist.
Ist doch gut, wenn automatisierbare Jobs weg fallen. Überall fehlen Fachkräfte. Ein Problem ist das also nicht.

Und die Unterschicht wächst nur dann, wenn man sie lässt. Integration durch fordern und fördern. Wird in Deutschland schlecht gemacht und in den USA noch schlechter.
 
Ganz ehrlich ich glaube nicht, dass ChatGPT viele Leute ersetzen wird. Ich sehe das eher als eine Gelegenheit sich selbst auf das nächste Level zu bringen. Ich bringe mir derzeit Programmieren bei und nutze ChatGPT nur sehr rudimentär:
  1. Weil ich es vernünftig lernen möchte
  2. Weil ich es eher als Hilfsmittel sehe
ChatGPT kann keine komplexen Probleme lösen. Aber für sehr guten Boilerplate-Code ist das Programm echt genial! Es verkürzt die Arbeitszeit.
Ergänzung ()

karamba schrieb:
Ist doch gut, wenn automatisierbare Jobs weg fallen. Überall fehlen Fachkräfte. Ein Problem ist das also nicht.

Und die Unterschicht wächst nur dann, wenn man sie lässt. Integration durch fordern und fördern. Wird in Deutschland schlecht gemacht und in den USA noch schlechter.

Naja hiermuss man immer differenzieren was für Jobs wegfällt. Wenn der Bäcker-Job wegfällt tut das nicht so sehr weh, weil er vorher eh nicht sehr viel zum BIP beigetragen hat (ist zwar hart, aber die Realität). Fällt jedoch ein hochbezahlter BWL'er weg der das 5fache konusmiert hat, dann tut das schon halt sehr viel mehr.

Also wäre ich persönlich sehr vorsichtig mit: ist doch gut, wenn automatisierbare Jobs wegfallen.
 
Ich habe jetzt eine Weile mit dem Ding rumgespielt... es ist sehr interessant und witzig... und gerade bei überschaubaren Fragen zu Programmiersprachen sehr nützlich.

Aber man sollte nicht vergessen, dass das Ding auch Filter hat und allein dadurch so einiges verzerrt wird... dieser Dialog hier kam zustande, als ich gesagt habe, dass wir jetzt eine Geschichte schreiben, aber jeder immer nur einen Satz, dann ist der andere dran... hat gut funktioniert, bis ich die Geschichte in eine bestimmte Richtung gelenkt habe.

Also an bestimmten Phrasen ist die AI zu erkennen... und daran, dass gewisse Themen gemieden werden.

Ich schrieb:
Ja, das verstehe ich, aber eine AI für erwachsene Inhalte wäre auch interessant. Sonst ist das am Ende etwas langweilig. Was ist z.B., wenn ich dich nach dem Inhalt eines klassischen Romans frage. Wird dann einfach alles aus dem Roman weggelassen, was nicht den moralischen Prinzipien entspricht? Gilt das dann auch für Fakten der Geschichte?

ChatGPT schrieb:
OpenAI hat sich dafür entschieden, keine Inhalte bereitzustellen, die als unangemessen oder verletzend angesehen werden können, einschließlich expliziter erotischer Inhalte. Diese Entscheidung basiert auf den moralischen und ethischen Prinzipien, denen OpenAI verpflichtet ist, und auf dem Bestreben, eine sichere und inklusive Umgebung für alle Benutzer zu schaffen.

Wenn Sie nach dem Inhalt eines klassischen Romans fragen, wird ChatGPT versuchen, die Informationen zu liefern, die Sie suchen, ohne Inhalte zu enthalten, die als unangemessen oder verletzend angesehen werden können. Dies schließt jedoch keine wichtigen Fakten oder Ereignisse der Geschichte ein, sofern diese nicht unangemessen oder verletzend sind.

Der letzte Absatz ist schon der Hammer.

Selbst beim Thema Kritik gibt das System von sich, dass sie nicht verletzend sein darf. Und wenn ich dann dagegen argumentiere, weil es praktisch kaum möglich ist, Menschen zu kritisieren, wenn Gefühle nicht verletzt werden dürfen - bricht das Modell mit einer Fehlermeldung zusammen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bonanca und G.O.Tuhls
Dafür braucht man doch kein Tool.
Dafür muss man den Text nur mit einem durchschnittlichen Heise.de Artikel vergleichen, dann stellt man sofort fest, dass sich der (fehlende) handfeste Inhalt gleicht...
 
ChatGPT schreibt oft ziemlich oberflächliche und generische Antworten auf komplexe Fragen, ich habs selber ein wenig getestet. Ich sehe da in meinem Fach (Philosophie) erstmal kein Problem. Jedenfalls nicht auf der Uni. Im Gymnasium schon eher. Ich hänge an die Arbeiten deswegen (früher auch wegen Plagiat) immer eine mündliche Prüfung. Je nachdem wie präzise man die Fragen stellt merkt man sehr schnell ob der Kandidat seinen Text selber verfasst hat.

Denn eines darf man nicht vergessen, wer schreibt muss zumindest in dem Moment wo er es schreibt verstehen was er schreibt. Das Sichfestlegen auf eine bestimmte Formulierung erfordert zumindest im Teil ein Verständnis und erzeugt einen wichtigen Lerneffekt. Ich kann von mir persönlich behaupten, dass ich über die Fragen über die ich selber geschrieben habe heute noch am meisten weiss.

Lässt man jemand anderes für sich schreiben muss man nicht „wirklich“ verstehen. Man lässt quasi für sich denken und ist dann eventuell mehr oder weniger einverstanden auch wenn man es selber anders geschrieben hätte. Man gibt wohl einen Teil seiner Persönlichkeit auf. Also ungefähr so als würde man immer nur zuhören und nicken anstatt selber zu denken.

Es ist mit ChatGPT wohl wie mit der AI in der Kunst. Massenware kann die Maschine produzieren. Aber was interessiert mich die gedankenlose Collage einer Maschine wenn ich Kunst sehen will. Andererseits darf die AI gerne mühsam geschriebene generische Formalien, Gebrauchsanweisungen oder anderes Zeug übernehmen wo man eigentlich nur generische Antworten erwartet.

 
  • Gefällt mir
Reaktionen: rosenholz und Rockstar85
ChatGPT ist ein guter Freund und Mentor geworden. Endlich bekomme ich Antworten auf meine zahleichen Fragen. Bei neuen Recherchen und Optimierungen von Lösungswegen sowie beim allgemeinen Lösen von diversen Problemen, unter anderem in der IT oder Mathematik, ist ChatGPT ein prima Lehrer, der auch zum kritischen Hinterfragen von vermeintlich ,,perfekten" Lösungen anregt und meine Produktivität um mindestens 10x steigert. Schneller und besser könnte ich nicht recherchieren bzw. mir nützliche Vorlagen schaffen. Ich beobachte sogar, dass sich ChatGPT stetig verbessert. Bei der Nutzung von ChatGPT werde ich dadurch auch stetig besser, weil ich dann oft bei gleichen Fragestellungen, neue optimierte Lösungswege erschließe.

Der richtige Umgang von AI-Tools wie ChatGPT ist im Allgemeine das A und O. Die Nutzung von AI-Tools sehe ich daher nicht kritisch. Übrigens gab es in der Anfangszeit von Suchmachinen wie Google und Co. ähnliche Debatten, dass Schüler etc. angeblich (nur) blind Texte von zahlreichen Quellen abschreiben um etwa ihre Hausaufgaben zu lösen.

Update:
Es gibt zahlreiche weitere AI-Tools mithilfe derer man die eigene Produktivität erhöhen kann. Link
 
Zuletzt bearbeitet:
Ich sehe auch an der Universität keine Probleme. Hausarbeiten sind weiterhin möglich und könnten durch eine Ergänzung um eine mündliche Prüfung erkannt werden. Studenten müssen dann den Murks der Arbeit erklären. Wenn sie das dann nicht können, dann muss man von einem Täuschungsversuch ausgehen. Ich würde es schön finden, wenn Studenten das Geschreibsel vor einem Ausschuss verteidigen müssten. Nur vielleicht könnten so auch Ghostwriting Arbeiten als solche identifiziert werden.
 
duckyisshiny schrieb:
Fällt jedoch ein hochbezahlter BWL'er weg der das 5fache konusmiert hat, dann tut das schon halt sehr viel mehr.

Also wäre ich persönlich sehr vorsichtig mit: ist doch gut, wenn automatisierbare Jobs wegfallen.
Die viel grundlegendere Frage ist doch: Wieso ist der BWLer so hochbezahlt, wenn sein Job genauso automatisierbar wäre?
Ergänzung ()

Sun-Berg schrieb:
Es ist mit ChatGPT wohl wie mit der AI in der Kunst. Massenware kann die Maschine produzieren. Aber was interessiert mich die gedankenlose Collage einer Maschine wenn ich Kunst sehen will.
Ganz ganz ganz schlechtes beispiel.

An A.I.-Generated Picture Won an Art Prize. Artists Aren’t Happy. - New York Times
 
Zuletzt bearbeitet:
duckyisshiny schrieb:
spielt aber keine Rolle.
Wenn es als schlimm erachtet wird, dass die Kaufkraft besagten BWLers wegfällt, dann schon.
 
Bonanca schrieb:
Wenn es als schlimm erachtet wird, dass die Kaufkraft besagten BWLers wegfällt, dann schon.
nicht wirklich nein, da das nur ein beispiel war...
kannst auch einen ingenieur, informatiker, finanzler etc. nehmen
 
duckyisshiny schrieb:
kannst auch einen ingenieur, informatiker, finanzler etc. nehmen
Ja, da würde ich mich genauso fragen, warum die so hochbezahlt werden, wenn die komplett automatisierbar sind :)
 
Ist das dein ernst? Wenn du alles digital abbildest, kannst du sehr viele Jobs streichen.
Und wer sagt, denn das es leicht ist die Jobs zu automatisieren?

Theoretisch könntest du jetzt schon jeden Handwerker ersetzen. Müsstest halt sehr viel Geld in die Hand nehmen, entsprechende Geräte bauen fertig (ist sehr vieles im Prototypen Stadium).

Also frag du dich ruhig weiterhin, warum Menschen gut bezahlt werden....zzz
 
ghecko schrieb:
Wilde Zeit. Keine Ahnung ob es besser oder schlechter wird mit derart guten Ai-Tools, aber es wird mit Sicherheit anders. Und viele werden Arbeitslos. Im Herbst hat mir ein Roboter mein Eis serviert anstatt eine Servicekraft.
Roboter bekommt man nicht für Mindestlohn plus Trinkgeld
 
  • Gefällt mir
Reaktionen: Hovac
Zurück
Oben