News Deutscher Bundestag: Studie untersucht ChatGPT-Auswirkungen auf die Bildung

BoardBricker schrieb:
Aber die unangenehme Frage, was eine Leistung (hier im Wesentlichen Reproduktion zuvor erbrachter menschlicher Leistung) wert ist, die von einer Maschine vergleichbar gut und wesentlich schneller erledigt werden kann, sollte man mal in den Raum stellen und wirken lassen.
Drollig, diese Leistung auf Reproduktion zu reduzieren. Das ist keine unangenehme Frage, die du da stellst. Das ist Humbug :D
 
Zwiebackpackung schrieb:
Die Prüfungsleistung Abschlussarbeit kann künftig allein dadurch definiert sein, wie gut man eine KI bedienen kann, nicht mehr durch fachliche Qualifikation.
Das kommt stark auf den Fachbereich an. Ein sprachbasiertes Modell, wie es ChatGPT zugrunde liegt, kann keine unbekannten Probleme lösen. Eine Voraussetzung für meine Abschlussarbeit war, dass sie sich mit einer neuen Problemstellung befassen muss.

Das ganze sehe ich auch als großes Manko im Bildungswesen, was nun spätestens angegangen werden muss. Vorhandenes Wissen wiederzugeben taugt als Prüfungsleistung immer weniger. Auf der anderen Seite muss es stellenweise vorhanden sein. Allerdings kann niemand tiefere Problemstellungen eigenständig lösen, ohne selbst entsprechendes Basiswissen zu haben. Da helfen im Zweifelsfall aber bspw. mündliche Prüfungen. Ob jetzt im Rahmen einer wissenschaftlichen Arbeit die Aufarbeitung des aktuellen Forschungsstands von einer KI erledigt wurde oder von "Hand", das soll mir am Ende fast egal sein. Überprüfen muss man das ja trotzdem. Was mit einem Text einer KI nicht unbedingt einfacher wird. Da prüfe ich lieber selbst die Quellen.
 
KI ist die Zukunft.
Die Menschheit ist von Natur aus viel zu dumm, langsam und vergesslich, um mit der immer größeren Menge an Informationen sich vernünftig weiterentwickeln zu können.

So wie man bis heute besser lernen sollte, wie man Informationen schnell aus dem Internet beschafft, wird man in der Zukunft lernen müssen, wie man eine KI richtig steuert / anweist, die richtigen Informationen bereitzustellen.

Aus der "Steuerung eines Computers" wird in Zukunft eine "Zusammenarbeit mit Computer-Netzwerken" entstehen.


q3fuba schrieb:
Sollte vlt. mal eine Studie gemacht werden, welchen Einfluss die Schuldbildung auf die Gesellschaft hat? ^^
Bin mir ziemlich sicher, dass dieses Ergebnis viel schlimmer ist, das der Einfluss von ChatGPT :p

Von welcher Schulbildung sprechen wir?
Von der Schulbildung im Norden Deutschland, wo quasi das Abitur verschenkt wird und bei zu schlechten Noten das System einfacher gestaltet wird?
Oder von der Schulbildung allgemein auf der Welt? Doch welche ist Referenz? Die in den USA, wo viele Leute nicht mal wissen, wo Europa ist und wo die Schuluhren digital dargestellt werden mussten, weil die Schüler Probleme hatten analoge Uhren zu lesen? (ich mache keine Witze!)
Oder nehmen wir Japan oder China als Beispiel, wo Schüler mit 13-14 Jahren das Niveau von deutschen Schülern mit 16 Jahren erreichen / teils übersteigen?

Bleiben wir doch mal beim deutschen Bildungssystem.
Solange jedes Bundesland seine eigene Suppe kocht, haben wir kein einheitliches oder faires Bildungssystem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tr0nism
Also hier in Bayern wurde (ich glaube vom BR?) ein Test gemacht ob die KI das Abitur in Deutsch bestehen würde. Und da währe sie gnadenlos durchgerasselt.
 
AGB-Leser schrieb:
Ich finde das Thema zu wichtig, als dass es in der Schule wegignoriert wird. Verhindern, dass die Schüler damit in Berührung kommen, lässt sich das nicht, vor allem, weil das ja jetzt überall eingebaut wird.
Also sollte man den Leuten beibringen, was dahintersteckt, die Vor- und Nachteile beleuchten und wie man solche Systeme/Programme nutzen kann und sollte
Ja, das wird jetzt richtig wichtig. Aber da sehe ich auch den größten Stolperstein, gerade bei der älteren Generation, die damit kaum bis nichts anfangen kann (ja, es gibt auch dort Ausnahmen).
 
  • Gefällt mir
Reaktionen: AGB-Leser
Zwiebackpackung schrieb:
Drollig, diese Leistung auf Reproduktion zu reduzieren.

Wieso? Du selbst hast doch die Möglichkeit ins Spiel gebracht, dass man einer Abschlussarbeit möglicherweise bald nicht mehr ansehen kann, ob sie menschengemacht oder KI-erzeugt ist. Wie soll das denn sonst von statten gehen, wenn nicht der übergroße Anteil im Wesentlichen Recherche und Reproduktion ist? Neue Erkenntnisse, Schlussfolgerungen und Interpretationen auf spezieller Fachebene wird so ein Ding wohl eher nicht ausspucken.
Das als Voraussetzung finde ich es sehr berechtigt, sich über die Frage Gedanken zu machen, was dann generell noch der Sinn solcher Fragestellungen/Abschlussarbeiten ist. Und diese Frage würde ich auch gerne schon in die Gegenwart vorziehen.
 
Herrenlos schrieb:
Bundestag funktioniert, handelt logisch und effizient.
Du meinst wenn dann bei Themen wie Umweltschutz, Steuererhöhungen, Atomkraft, Renten etc. nicht mehr rumgeeiert wird sondern konsequent durchgezogen wird? Ja das würde eine Menge Bürger schockieren. Nicht aus den von dir genannten Gründen, sondern weil sie genau das nicht wollen...

Das Thema an sich wird wichtig werden. Es muss möglich sein zu unterbinden, dass Schüler/Studenten ihre Aufgaben durch eine KI machen lassen. ZWar würde das wohl spätestens bei Prüfungen auffallen, da allerdings nur, wenn ein Schüler/student völig versagt. Ein schlechter Schüler/Student kann aber durch gewisse Aufgaben, die durch KIs gemacht wurden sich zu einem mittelmässigen pushen, ein mittelmäßiger zum guten etc. Konsequenz wäre, dass keinerlei Prüfungen/Aufgaben mehr in eine Endnote einfließen, die nicht unter kontrollierten Bedingungen stattgefunden hat.
 
  • Gefällt mir
Reaktionen: Kenshin_01
Tomsenq schrieb:
Die AI verursacht keine Schäden, wenn dann die Nutzer wie bei Waffen, Autos usw

falsche beratung oder ein datenleck personenbezogener daten ist auch ein schaden. googleschriften von einem server laden verursacht in deutschland auch rechtsrelevante schäden.
 
ethisch gesehen ist das bildungssystem doch eine vorbereitung darauf, selbstständig informationen einholen zu können und sich später im beruf auch selbst weiterbilden zu können.
damals hat das bedeutet, dass man in die bibliothek gegangen ist und sich informationen aus büchern geholt hat.
mit radios hat man hörbücher kaufen können und mit fernseher gab es videodokumentationen.
mit den computern konnte man sich diese informationen auch nach hause holen in form von datenträgern.
als das internet live ging, konnte man sich zuhause am computer informationen schließlich auch ohne datenträger holen.
seit den smartphones und mobilem internet kann man sich informationen nun fast von jedem ort besorgen.
sich die informationen von einem computerprogramm zusammenstellen zu lassen beschleunigt die informationssuche nur noch.

wenn das der zukünftige rechercheweg ist, dann kann die bildung das doch genauso akzeptieren, wie die vorherigen schritte.
niemand zwingt die schüler heutzutage in bibliotheken zu gehen und prüft, ob die texte der bekannten literatur entspricht und nicht aus dem internet zusammengeklaut wurde.

wenn der spinner elon musk ein brain interface entwickeln lässt, dann muss man nur an die sachen denken und bekommt die informationen angezeigt.
und im zweiten schritt bekommt man die sachen nicht mehr angezeigt, um sie lesen zu müssen, sondern bekommt das wissen bidirektional sofort als hirnsynapsen angelegt.
der kerl hat einfach zu oft die black mirror staffeln angeschaut.

spätestens dann kann man auch fulldive SAO spielen. da arbeitet sowieso keiner mehr.
 
Zuletzt bearbeitet:
0x8100 schrieb:
die erfinder von chatgpt haben ein tool erstellt, dass texte von chatgpt erkennen kann

Das Tool ist anscheinend noch nicht sonderlich ausgereift: https://www.zeit.de/digital/2023-02/openai-ki-texte-erkennung-tool/komplettansicht

Gsonz schrieb:
Nur weil ich irgendeinen bescheuerten Text analysieren kann heißt das nicht dass ich für Beruf xy gut oder schlecht geeignet bin.

So oft wie ich mitbekomme, dass Leute absolut kein Textverständnis haben, schadet ein bisschen Textanalyse in der Schule nicht.
 
DonnyDepp schrieb:
ethisch gesehen ist das bildungssystem doch eine vorbereitung darauf, selbstständig informationen einholen zu können und sich später im beruf auch selbst weiterbilden zu können.
Und deswegen hat unser damaliger Informatik-Prof. darauf verwiesen, dass die gängige englische Betitelung als "computer science" Quatsch ist. Es geht schließlich nicht um die Kisten, mit denen man arbeitet, sondern um das Be- und Verarbeiten von Daten/Informationen.

Das große Problem des Schulwesens ist, dass es in den meisten Fächern schwer ist, bei jedem einzelnen Schüler die entwickelten Fähigkeiten umfangreich nachzuprüfen und stattdessen einfacher, erworbenes Wissen abzufragen. Das beste Gegenbeispiel ist die Mathematik: man kann die Ergebnisse der gestellten Aufgaben nicht im Vorfeld auswendig lernen, sondern muss die Methodik verstanden und geübt haben. Am richtigen Ergebnis kann man i.d.R. dann auf einen Blick sehen, ob es der Schüler verstanden hat, beim falschen muss man halt Suchen, ob der Fehler im Ansatz oder im Rechenvorgang liegt.

In Fremdsprachen ist es auch für den Lehrer relativ simpel, falsche Grammatik, Rechtschreibung oder Vokabelfehler zu erkennen - nur in der Masse liegt ein großer Aufwand. Warum drehen wir da nicht einfach mal den Spieß um, und erlauben es den Lehrern, eine erste Sichtprüfung per Scanner&Software vorzunehmen? Oder Vokabeltests in der Schule am Rechner durchzuführen mit sofortiger Punkteauswertung durch Software? Warum sollte überhaupt ein Lehrer im Jahr 2023 noch Zeit damit verbringen, Vokabeltests zu korrigieren?

Dort, wo es darum geht, beim einzelnen Schüler Gedankengänge herauszufinden und zu überprüfen mangelt es an Zeit und Personal. Ich hab mich seinerzeit gefragt, warum es im Philosophieunterricht eigentlich keine oder viel zu selten Diskussionsrunden gab, sondern nur klassischen Frontalunterricht und Textstudium und halt gelegentlich mal die Aufgabe, ein Essay zu schreiben.
 
  • Gefällt mir
Reaktionen: 9t3ndo
Für mich ist eine KI nicht besorgniserregend. Die Menschheit muss sich nun überlegen, was Lebewesen von einer KI unterscheidet. Besser Informationen zu erarbeiten, zu berechnen und nieder zu schreiben wird es aller Wahrscheinlichkeit nicht sein. Das können heutzutage Computer bereits besser.
 
@downunder4two
Die Formulierung war provokativ gewählt, gebe ich zu. Mir ist es allerdings ein völliges Rätsel, wie weit die Theorie und Praxis der Digitalisierungsstrategien in Deutschland in den letzten zehn Jahren auseinanderliegen. Von dem kurzzeitigen, lebensnotwendigen Hoch während der Pandemie mal abgesehen, ist Deutschland leider sehr konservativ (im Grunde stagnierend) in Sachen Bildungsausgaben. Einerseits betonen Studien, Verbände, Praktiker und nicht zuletzt auch politische Amtsträger schon zig Jahren die Notwendigkeit von Investitionen in digitale Infrastrukturen und Weiterbeildungen. Andererseits sieht man, dass es vielerorts immer noch an ganz elementaren Dingen wie etwa einer stabilen Internetanbindung hapert, sowie, dass der deutsche Lehrbetrieb im internationalen Vergleich immer noch viel zu zögerlich und skeptisch auf digitale Technologien schaut, die Potenziale nicht gut genug erkennt und verwandelt (Beispiel). In manchen Bundesländern liegt die ü50-Quote der Lehrenden derzeit bei rund 60%. Und eben diese (sich noch im Dienst befindlichen) Lehrkräfte haben häufig einfach grundsätzliche Schwierigkeiten mit neueren Technologien, da sie schlichtweg keine Digital Natives sind und in einer bis Corona nun mal sehr konservativen Bildungspolitik eben kaum äußere Anreize gesehen haben, sich mit diesen Themen tiefgreifend auseinanderzusetzen.

Davon abgesehen arbeite ich selbst in einer großen Bildungseinrichtung und kann daher aus erster Hand bestätigen, dass sich seit der Pandemie in den Köpfen durchaus einiges bewegt hat. Es gibt - trotz theoretischen Willens - jedoch immer noch immense strukturelle, politische und behördlich Hürden sowie einen gewissen Kreis an Angestellten beziehungsweise Honorarkräften, bei denen ich den Zug in Sachen Digitales schlichtweg als abgefahren ansehe. Und wie es der Zufall so will, sind das leider mehrheitlich Personen älteren Semesters, die ohnehin in wenigen Jahren in den Ruhestand gehen. Daher auch nicht all zu verwunderlich, dass hier keine äußerordentlich hohe Begeisterung für strukturelle Änderungen vorliegt.

Auch deine Euphorie in allen Ehren. Aber ich denke nicht, dass man in Deutschland derzeit flächendeckend die Voraussetzungen erfüllt sowie überhaupt die erforderlichen Ressourcen vorweisen kann, um Schüler und Studierende wirklich nachhaltig fit für die Zukunft machen zu können. Und dabei reden wir wie gesagt nicht nur über das Personal.

Das Thema "schreibende KI" wird von nun an jedenfalls zur Daueraufgabe. Und das in einem immer schneller drängenden Tempo.

downunder4two schrieb:
Diese Aussage von einem Moderator disqualifiziert diesen vollständig von diesem Job
By the way: Welchen "Job" meinst du eigentlich? Ich bin kein Angestellter der Computerbase GmbH.

Solltest du irgendwelche Beschwerden oder Vorschläge in Sachen Forenmoderation anzumelden haben, dann kannst du diese gerne im Bereich Feedback hinterlassen oder einen Admin deines Vertrauens involvieren.

Danke dir.
 
  • Gefällt mir
Reaktionen: DisturbedMox
Es verwundert mich nicht, vor allem da ich persönlich ChatGPT in letzter Zeit stark benutze auf die Vorbereitung der AP1.

Die KI gibt nicht einfach nur Text aus, nein sogar beispiele in Form von Tabellen und Auflistungen. Sogar teils so gute Erklärungen das Dozenten teils überflüssig werden.

Das problematische und da ertapp ich mich auch immer wieder: ChatGPT macht deine Aufgaben und Hausaufgaben binnen Sekunden. Das ist nicht gut da der lern Effekt nicht eintritt. Von der Bildung her könnte ChatGPT in manchen schulischen Bereichen durchaus Probleme bedeuten.

Edit:
Könnte aber den Lehrermangel etwas entgegen wirken wenn richtig angestellt :P
 
  • Gefällt mir
Reaktionen: 9t3ndo
Da sollte nicht groß untersucht werden sondern auf der Stelle je Schule 1-2 Lehrer einen Crashkurs in Nutzung und Didaktik damit bekommen. Der Geist ist aus der Flasche und dieses Werkzeug kann im Handumdrehen absolut stumpfsinnige und dumme Computerrecherche sinnvoll ersetzen. Ich habe diese Aufgaben immer schon gehasst und tue es auch jetzt. Bedingt durch die Energiekriese wurde ich mehr oder weniger in ein Technikerstudium im Gartenbau gedrängt und besonders im Lernbereich Berufsausbildung und Pflanzenschutz haben wir eine grausige Referentin, die uns maximal unproduktive Aufgaben gibt, die ewig dauern und nichts erreichen. Ich frage jetzt nur noch ChatGPT (zusammen mit zwei anderen Studenten sind wir dazu übergegangen scherzhaft zu sagen "Gott sagt/ich frage Gott") und zusammen mit dem bereits vorhandenen -guten- Fachwissen reicht es mit etwas Abgleichen innerhalb von 5-10 Minuten die Aufgabe einer 90 Minuten Doppelstunde zu lösen.
Das müssen die Lehrer als Chance und nicht als Gefahr erkennen.

Dass das natürlich der Fraktion, die nur ihre Zeit absitzt, den Lehrplan stumpf umsetzt und seit 1994 die gleichen Folien auf dem Overheadprojektor zeigt, nicht gefällt, ist klar. Für diese Lehrmodelle -nennen wir es mal so- ist das eine absolute Bedrohung.
 
Zwiebackpackung schrieb:
Grüsse von der Universität. Hier fragt man sich, wie man zukünftig mit Studien-, Bachelor- und Masterarbeiten umgehen will, von denen man nicht mehr erkennen kann, ob sie ein Mensch oder eine KI verfasst hat. Die Prüfungsleistung Abschlussarbeit kann künftig allein dadurch definiert sein, wie gut man eine KI bedienen kann, nicht mehr durch fachliche Qualifikation.
Sind bei euch die Masterarbeiten echt so einfach gestrickt das eine statistische Auswertung was wohl die wahrscheinlichste Antwort auf die Frage ist, und zwar mit "Quelle: Internet", bereits eine ausreichende Qualität für eine Masterarbeit hat?
ChatGTP hat ja keine Ahnung was es schreibt, sondern gibt aus was es selbst für die wahrscheinlichste Antwort hält und zwar auf Basis dessen wie das Modell trainiert wurde und vor allem auch massive mit welchem Datensatz. Ob du Antworten faktisch richtig sind oder nicht ist noch gar nicht teil des Modells.


Ist für mich irgendwie schwer vorstellbar. Es sollte ja eigentlich bei einer Masterarbeit darum gehen auch etwas neues zum Fachbereich beizutragen also gerade etwas zu dem man nicht einfach Google auch hätte fragen können, dazu die Problematik das ChatGTP nicht in einer Art antwortet bei dem sich das Programm dafür interessiert ob die Antwort richtig oder falsch ist, sondern nur dafür ob das ein Mensch auch so getan hätte.
Ich ziehe da er meinen Hut vor jedem der ChatGPT so benutzen könnte, denn dazu muss er in der Lage sein sein Fach so gut zu verstehen, dass er eben auch den ganzen Kram Korrektur lesen kann, die Fehler zu verbessern und passend zum eigenen Arbeit und eventuellen noch ausgeführten Experimenten. Und das auch noch zu einem Thema das so noch nie vorher behandelt wurde. Dabei auch noch so Zeiteffektiv das einfach 2000€ an einen der vielen menschlichen Ghostwriter nicht tatsächlich die günstigere Methode gewesen wäre. ;-)

Die Konkurrenz zu ChatGTP ist ja nicht die Arbeit tatsächlich selbst zu schreiben, sondern die anderen bereits aktuell verwendeten Methoden um sich bei seiner Master Arbeit "helfen" zu lassen.
Ergänzung ()

0x8100 schrieb:
mündliche prüfungen mit entsprechenden fragen würden den einsatz solcher hilfsmittel entlarven,
Kann man ChatGTP überhaupt so benutzen ohne das Thema verstanden zu haben? Je komplexer das Thema desto mehr muss man ja Gegenlesen und Korrekturen machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BoardBricker
Zwiebackpackung schrieb:
--Auftrag an Chat GPT: Schreibe eine 70-seitige Abschlussarbeit zum Thema XYZ mit diesen und jenen Randbedingungen.--

Grüsse von der Universität. Hier fragt man sich, wie man zukünftig mit Studien-, Bachelor- und Masterarbeiten umgehen will, von denen man nicht mehr erkennen kann, ob sie ein Mensch oder eine KI verfasst hat. Die Prüfungsleistung Abschlussarbeit kann künftig allein dadurch definiert sein, wie gut man eine KI bedienen kann, nicht mehr durch fachliche Qualifikation.
Bei Hausarbeiten gibt es das Problem natürlich. Bei Abschlussarbeiten wird es auffallen, wenn man seine Studierenden vernünftig betreut und sie nicht nur zweimal in den 4 bzw. 6 Monaten spricht...

OT: Mir fällt in letzter Zeit leider auf, wie viele hier blind gegen das Establishment und die Regierung wettern. Bewegen sich so viele hier auf AFD-Niveau?
 
  • Gefällt mir
Reaktionen: koech und Apocalypse
schnacken schrieb:
Die KI gibt nicht einfach nur Text aus, nein sogar beispiele in Form von Tabellen und Auflistungen. Sogar teils so gute Erklärungen das Dozenten teils überflüssig werden.
Ich hoffe dir ist bewusst, dass es sich hier nicht um eine K.I. sondern ein trainiertes Sprachmodell handelt, welches kein Verständnis von irgendeinem Thema besitzt und Antworten basierend auf einer Annahme liefert wie wahrscheinlich diese zu einer hoffentlich korrekt ausgewerteten Fragestellung erwartet werden würden.

Ich kann den ganzen Hype um ChatGPT nicht nachvollziehen. Ja, da kommen teilweise durchaus tolle Ergebnisse raus, aber bisher habe ich keinen Artikel oder wirklich umwerfendes Beispiel gesehen, das mich davon überzeugt hätte, dass da eine "Intelligenz" dahinter steht. Die Texte folgen allen den gleichen Mustern. Wie hier schon jemand schrieb, könnte man damit gut unsere Politiker ersetzen, denn sich wirklich auf eine Aussage festlegen und diese mit Fakten, Zitaten und Beispielen untermauern oder argumentieren kann ChatGPT stand heute nicht.
 
  • Gefällt mir
Reaktionen: Apocalypse
Hab grad maln Test gemacht mit ChatGP. So schlau is die KI dann doch nicht. Fragt sie mal nach Bernd Höcke und Björn Höcke... ;)
Wäre vll auch eine Idee für einen beitrag für CB @Jan mal zu recherchieren, wo die Schwächen und Fehler dieser und ggf. anderer KIs liegen.
 
JP-M schrieb:
denn sich wirklich auf eine Aussage festlegen und diese mit Fakten, Zitaten und Beispielen untermauern oder argumentieren kann ChatGPT stand heute nicht.
Beispiele sollte ChatGPT sich schon aus dem Internet kopieren können, aber je nachdem wie man die Frage halt formuliert hat, kann es sein das die Quellen die es verwendet halt so unterschiedlich sind, das die Antworten eben das Gegenteil bedeuten, nur weil man halt zum Beispiel eimal factual statt truthfully verwendet hat.
Quellen hat ChatGTP ja reichlich im Datensatz mit dem es trainiert wurde. Das Modell hat selbst weder Interesse noch die Fähigkeit zu wissen welche Text im Datensatz jetzt stimmen und welche nicht.

ChatGPT ist halt ein strohdummes System.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JP-M und aid0nex
Zurück
Oben