News Deutscher Bundestag: Studie untersucht ChatGPT-Auswirkungen auf die Bildung

@Erkekjetter
Du hast immer noch nicht begriffen, was ich schon vor zig Beiträgen geschrieben habe. ChatGPT und KI im Allgemein können Fehler in den Algorithmen haben, aber sofern es keine solche gibt, sind ihre Ausgaben korrekt. Wenn du eine KI mit dem Datensatz trainierst, dass blaue Farbe rot ist, so würde doch nur ein blöder behaupten, dass die Ausgabe rot nicht korrekt sei.
Sprich, gäbe es einen Datensatz zu einem Bernd u./o. keine Daten zu Bernd = Björn, so wäre die Ausgabe eine Andere. Dir sollte zudem klar sein, was eine richtige "Wahrheitsprüfung" für einen Rechenaufwand bedeuten würde (wäre +/- die gleiche Klasse wie TSP). Des Weiteren müsste man, um bei dem Beispiel "Bernd" zu bleiben, auch alle Spitznamen, Kosenamen, etc. als Ein- u. Ausgabe verbieten.
 
Chatbots gibt es schon etwas länger. Ursprünglich zitierten diese halt nur Wikipedia und nun sind sie halt stärker.
Im Mathematikunterricht gibt es die App Photomath schon einige Jahre, gab hier auch keinen Aufschrei dass diese Hausaufgaben erledigen kann.
Ich vermute der Aufschrei hier ist so groß, da die "weichen" Wissenschaften die sich aufs zitieren und labern beschränken und ansonsten keinen großen Anspruch haben, hier nun Angst haben unter die Räder zu kommen... In den Legislative gibt es halt viele studierte Politologen und bei aller Liebe, wenn man die Titel der Doktor oder Masterarbeiten hier liest ist man verwundert dass das nicht das Thema eines Aufsatzes vor dem Abitur ist.
Evtl kann man es auch positiv sehen: Nun können die Kinder die nicht aus Doppelakademikerhaushalten kommen sondern Migrationshintergrund haben auch einmal ihre Aufsätze gratis von der KI kontrollieren lassen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Am Ende wird es wieder in Deutschland zu Einschränkungen kommen, weil ChatGPT eine Supermacht ist.

ChatGPT ist Schweizer Taschenmesser es kann einfach alles, egal ob gut oder schlecht für mich und mein Leben ist es eine Bereicherung die ich nicht mehr missen möchte und wo ich auch 100 Euro im Monat für ausgeben würden.
 
Herrenlos schrieb:
Meinst du nicht, dass es ein fataler Fehler wäre, das System mit falschen Daten zu füttern? :freak:
Achwas, wir wollen doch eine echtes Modell der Deutschen Politik, oder? Wenn wir was besseres wollen würden, wären wir doch alle Partei Mitglieder und würden für was besseres wählen und zwar da wo es zählt, in den Parteien.
Ergänzung ()

Erkekjetter schrieb:
Weshalb? Wenn die KI zu dem Schluss kommt, dass ein Loch im Budget weniger fatal ist als die Ausgaben nicht zu machen, gibt es auch das.
Klar, und wenn die AI zum Schluss kommt, das es weniger fatal ist, also weniger Menschen sterben, wenn einfach keine mehr Geboren wären, dann sorgt sie auch dafür. Und das Budget ist dann auch sehr schnell im Plus. ;-)
Es ist einfach eine AI zu überhöhen, aber klar zu formulieren was so ne AI eigentlich machen soll ist wahrscheinlich viel schwieriger als die AI selbst designen. Da würde ich nicht mit brauchbaren Ergebnissen rechen, zumindest nicht in Naher Zukunft. ;-)
 
Zuletzt bearbeitet:
Herrenlos schrieb:
ChatGPT und KI im Allgemein können Fehler in den Algorithmen haben, aber sofern es keine solche gibt, sind ihre Ausgaben korrekt. Wenn du eine KI mit dem Datensatz trainierst, dass blaue Farbe rot ist, so würde doch nur ein blöder behaupten, dass die Ausgabe rot nicht korrekt sei.

Natürlich ist so eine Ausgabe falsch. Eine falsche Antwort wird doch nicht richtig, nur weil die Logik irgendwelcher Algorithmen ergibt, dass diese (falsche) Information häufig zu finden ist.

Bei ChatGPT gilt: Garbage in, garbage out. Das hat mit Intelligenz nicht viel zu tun, sondern ist eher blindes nachplappern der Informationen, mit denen es trainiert wurde. Und das wird zum Problem, wenn Nutzer das nicht wissen oder nicht verstanden haben und sich darauf verlassen, dass ChatGPT richtige Antworten liefert.
 
Herrenlos schrieb:
@Erkekjetter
Du hast immer noch nicht begriffen, was ich schon vor zig Beiträgen geschrieben habe. ChatGPT und KI im Allgemein können Fehler in den Algorithmen haben, aber sofern es keine solche gibt, sind ihre Ausgaben korrekt.
Also nicht nur muss die Software fehlerfrei geschrieben sein, nein der Datensatz und das Training muss auch frei von Fehlern sein, und das obwohl alle drei Quellen auf Menschen basiert.
Und dann muss das alles auch noch mehrfach konvertiert werden.
Ich mag die Argumentation von dir, weil sie zu folgendem Satz führt:

The Stamp Collector did nothing wrong!
 
Apocalypse schrieb:
Achwas, wir wollen doch eine echtes Modell der Deutschen Politik, oder?
Das kommt drauf an, was man als Output haben möchte. Wenn man eine KI haben möchte, die 1:1 das Modell der deutschen Politik abbildet, so muss einem klar sein, dass die KI mit hoher Wahrscheinlichkeit die selben "Fehler" produzieren wird, wie auch unsere Politiker.

@Spottdrossel
Natürlich ist so eine Ausgabe falsch.
Eben nicht. Die Ausgabe ist korrekt, nur der Inhalt ist falsch.
Garbage in, garbage out.
Das ist korrekt.
Das hat mit Intelligenz nicht viel zu tun, sondern ist eher blindes nachplappern der Informationen, mit denen es trainiert wurde.
Hier müsstest du dich mit dem Begriff "KI" befassen. Es sollte einem klar sein, dass wir hier nicht mit einer "richtigen" künstlichen Intelligenz zu tun haben. Oder bist du der Ansicht, dass dein Mobiltelefon wirklich "smart" ist? Meiner zeigt mir öfters, dass es regnet, obwohl draußen die Sonne scheint.

@Apocalypse
Also nicht nur muss die Software fehlerfrei geschrieben sein, nein der Datensatz und das Training muss auch frei von Fehlern sein, und das obwohl alle drei Quellen auf Menschen basiert.
Und dann muss das alles auch noch mehrfach konvertiert werden.
Fast richtig. Das die Trainingsdaten fehlerfrei sein sollten, habe ich bereits geschrieben. Es gibt aber noch weitere wichtige Aspekte: Regelwerk, autonome Fehlerkorrektur, Gewichtung(Priorisierung), usw.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
OldboyX schrieb:
Ich sehe nicht, wie ChatGPT bei irgendwelchen Prüfungen eine Rolle spielen sollte.
Vor-Ort-Prüfungen werden natürlich weiterhin unter der üblichen Kontrolle stehen. Es geht im Grunde um (fast) alles, was zu Hause abzuarbeiten ist. Das reicht von der klassischen Hausarbeit bis hin zur Bearbeitung von Büchern oder kleineren Textausgaben, die, so lange sie auf "Standardwissen" aufbauen, sehr leicht durch KI in eine fertige Form gebracht werden können.

Man darf sich hier natürlich nicht täuschen. Die Möglichkeit des Betrugs gab es auch schon vorher. Was aber zu denken gibt, ist, dass die Hemmschwellen zum Missbrauch immer niedriger werden, da KI nun direkter Begleiter im Rechercheprozess wird (diesem eigentlich sogar vorgeschaltet wird) und nicht einfach nur potenzielle Quellen auswirft, die man selber durchforsten muss. Da liegt es nahe, auch Teile der kritischen Auseinandersetzung mit den Texten vorwegnehmen zu lassen. Es ist wie so oft also auch eine Frage der Disziplin, keine Abkürzungen zu nehmen.

Ich befürchte, dass auf universitärem Niveau vor allem diejenigen Fachrichtungen an Schreibkompetenz einbüßen werden, bei denen die Schreibarbeit nicht obligatorischer Teil des Studiums ist. Der Biochemiker oder Informatiker, der seine Ergebnisse formulieren soll, wird noch weniger Anreize sehen, ein Schreibcoaching in Anspruch zu nehmen, wenn er die Aufgabe derart komfortabel an KI auslagern kann. Das, was im ersten Moment als Stütze dient, kann auf kurz oder lang dazu führen, dass wir uns auf einer weiteren Ebene von solchen Technologien abhängig machen.

OldboyX schrieb:
Es gibt keine digital natives
Pardon! Dann ist das tatsächlich der falsche Begriff.
Was ich meine ist, dass ältere Generationen meiner Erfahrung nach tendenziell höhere Abneigungen haben, ihre Methoden umzuwerfen und sich mit neueren Technologien auseinanderzusetzen. Das trifft in meinem Umfeld durchaus zu, heißt aber natürlich nicht zwangsweise, dass jüngere Menschen, denen hier tatsächlich sogar die kritische Distanz fehlt, durch das Bedienen von Interfaces automatisch kompetent werden.

OldboyX schrieb:
Willkür und Subjektivität machen übrigens auch die Sache mit dem Beurteilen von Gedankengängen oder diskursiven Fähigkeiten so problematisch
Die Bewertung ist schwieriger, das stimmt, aber nicht unmöglich. Am anderen Ende werden schriftliche Arbeiten, die zu Hause angefertigt werden, durch den Mangel an Nachweisbarkeit aber ebenfalls ein Stück schwerer belastbar.
Daraus dann zu schließen, dass Klausuren und Tests vor Ort nach den "harten" Kriterien das Maß der Dinge sein, fände ich jedenfalls schade.

Die Frage ist ja letztlich auch, wie man die relevanten Kompetenzen der Zukunft (siehe etwa "21st Century Skills" bzw. "Future Skills"), die ja insbesondere digitalen Kontext haben, sicherstellen und in die alten Schemata integrieren möchte. Von den harten Fachkenntnissen in technischen Bereichen mal abgesehen, zählen dazu auch viele weiche Faktoren, die sich nur schwer in ein starres, faires Bewertungsraster bringen lassen. Dass diese Kriterien überhaupt gesehen und als wichtig erachtet werden, ist auch noch mal ein Problem für sich. In so fern ist es gar nicht schlecht, dass Neuerungen wie ChatGPT die Diskurse noch einmal grundsätzlich anregen und die eigentlichen Ziele der Lehre hinterfragt werden.
 
Zuletzt bearbeitet:
Spottdrossel schrieb:
Natürlich ist so eine Ausgabe falsch. Eine falsche Antwort wird doch nicht richtig, nur weil die Logik irgendwelcher Algorithmen (oder Personen) ergibt, dass diese (falsche) Information häufig zu finden ist.
Ich habs mal erweitert.

Da wären wir bei objektive vs. subjektive Wahrheit.
Und beides kriegt man nicht unter einen Hut wie mir die Lebenserfahrung zeigt. Selbes Prinzip auch hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OldboyX
Herrenlos schrieb:
Du hast immer noch nicht begriffen, was ich schon vor zig Beiträgen geschrieben habe. ChatGPT und KI im Allgemein können Fehler in den Algorithmen haben, aber sofern es keine solche gibt, sind ihre Ausgaben korrekt.
Nein du begreifst nicht, dass es ein Problem der Aufgabenstellung ist. Der Algorihtmus von ChatGPT ist vollkommen richtig. Die Antwort ist trotzdem falsch. Weil die Quellen, aus denen ChatGPT lernt und extrahiert bereits Fehler enthalten. Wenn ich Frage "Wer ist Bernd Höcke?" und es kommt die Aussage von ChatGPT,, es sei ein AFD Politiker, ist das einfach falsch. Es müsste entweder eine Nachfrage kommen, welcher Bernd Höcke gemeint ist oder ein Auswahl verschiedener Bernd Höckes und wenn dann auf Bernd Höcke aus der AFD eingegrenzt wird, muss der Hinweis erfolgen, dass es diesen nicht gibt sondern er Björn Höcke heißt, es aber aufgrund des Hintergrundes mit Oliver Welke entsprechend oft zu dieser Fehlannahme kommt. Hier versagt ChatGPT, weil die wahrscheinlichste (weil am häufigsten vorkommende Antwort) auf eine Frage nicht automatisch die richtige ist. Der Fehler liegt in der zugrunde liegenden Aufgabenstellung bzw. Annahme, mit der ChatGPT ans Werk geht. Diese Probleme in ähnlicher Form treten auch bei KI Mace Runnern auf, die irgendwann nicht dem eigentlichen Ziel hinterherrennen sondern dem Ort wo das Ziel am häufigsten war. Eigentlich kann diese Art des Fehlers bei jeder selbstlernenden KI auftreten, genau das ist das Problem, an dem auch derzeit viel geforscht wird. Denn was die KI sich selbst beibringt, ist oft ein Blackbox. Aber Forschungen zeigen, dass selbst wenn man diese Blackbox öffnet und sichtbar macht, es immer noch Fehler dieser Art gibt.

Denn KI heute fehlt es, was der Mensch kann. Abstrahieren und mehrere Kontextebenen verknüpfen und daraus korrekte Antworten ableiten, die Fehler wie den von Bernd Höcke ausschließen bzw. korrigieren.

Zudem entsteht bei ChatGPT auch ein Loophole, wenn die durch ChatGPT erstellten bzw. inspirierten Texte wiederum in den ausgewerteten Texten von ChatGPT landen.
 
Wir brauchen einen umfassenden Überblick über die technischen, ethischen und sozialen Auswirkungen von ChatGPT auf Bildung und Wissenschaft

Vielleicht sollte man eher eine Studie in Auftrag geben, die sich mit den Auswirkungen von Lehrermangel, Zustand der Schulen und Unterrichtsausfällen beschäftigt.
 
  • Gefällt mir
Reaktionen: daddel_lars und Xiaolong
ChatGPT + Echtzeit Stimmensimulation + Echtzeitdeepfake = apokalyptischer Höllenritt. Es gibt, meiner Meinung nach, Technologien die dem normalen Volk nicht zur Verfügung stehen sollten. Diese hier gehört dazu.
 
Der Kabelbinder schrieb:
...
Pardon! Dann ist das tatsächlich der falsche Begriff.
Was ich meine ist, dass ältere Generationen meiner Erfahrung nach tendenziell höhere Abneigungen haben, ihre Methoden umzuwerfen und sich mit neueren Technologien auseinanderzusetzen. Das heißt nicht zwangsweise, dass jüngere Menschen, denen hier tatsächlich sogar die kritische Distanz fehlt, durch das Bedienen von Interfaces automatisch kompetent werden.
Mir ging es weniger um den Begriff als darum, dass Fachkenntnisse im digitalen auch von der jungen Generation nicht automatisch erlernt werden, sondern das was sie automatisch erlernen eben sehr eingeschränkt ist (auf die Konsum-Bedürfnisse). So können viele junge Menschen zwar wischen und whatsappen und Instagram und snapchat. Aber wenn man von ihnen ein hochauflösendes Foto verlangt haben sie kein Konzept davon. Sie wissen nicht, dass diese Dienste alles automatisch komprimieren, was Dateiformate sind und "O-Ton" die Fotos auf meinem handy immer gut scharf sind wenn ich reinzoome, aber die von meinem Freund, die er mir per Whatsapp schickt, sind schlecht (wenn ich reinzoome ist alles verpixelt) - daraus wird dann geschlossen, dass der Kumpel ein Garbagephone hat, das keine gscheiden Fotos macht ;). Ich wollte nur sagen, dass viele (vor allem auch Politiker) die diesen Begriff verwenden hier dem Irrtum aufsitzen, dass Menschen die mit etwas groß werden dann Experten dafür sind. Wir sind doch auch alles keine Mechaniker, nur weil wir mit Automobilen groß wurden.

Der Kabelbinder schrieb:
Die Bewertung ist schwieriger, das stimmt, aber nicht unmöglich. Am anderen Ende werden schriftliche Arbeiten, die zu Hause angefertigt werden, durch den Mangel an Nachweisbarkeit aber ebenfalls ein Stück schwerer belastbar.
Daraus dann zu schließen, dass Klausuren und Tests vor Ort nach den "harten" Kriterien das Maß der Dinge sein, fände ich jedenfalls schade.
Ich erlebe im Bildungsbereich schon, dass das was "unmöglich" ist, einfach ausgeblendet wird oder mangels Reliabilität und Objektivierbarkeit oft in Beliebigkeit versinkt. Die wenigen die bei weichen Dingen dann für etwas einstehen, die werden oft angefeindet (weil Toleranz und jede Sicht akzeptabel etc.).

Der Kabelbinder schrieb:
Die Frage ist ja letztlich auch, wie man die relevanten Kompetenzen der Zukunft (siehe etwa "21st Century Skills" bzw. "Future Skills"), die ja insbesondere digitalen Kontext haben, sicherstellen und in die alten Schemata integrieren möchte. Von den harten Fachkenntnissen in technischen Bereichen mal abgesehen, zählen dazu auch viele weiche Faktoren, die sich nur schwer in ein starres, faires Bewertungsraster bringen lassen. Dass diese Kriterien überhaupt gesehen und als wichtig erachtet werden, ist auch noch mal ein Problem für sich. In so fern ist es gar nicht schlecht, dass Neuerungen wie ChatGPT die Diskurse noch einmal grundsätzlich anregen und die eigentlichen Ziele der Lehre hinterfragt werden.
Klar gehört es diskutiert. Für Unis sicherlich problematisch, für Schulen aber wahrscheinlich überdramatisiert. Wobei die Frage nach der Sinnhaftigkeit von Bachelorarbeiten und Masterarbeiten durchaus auch zu stellen ist. Neuartikeit mag ja noch immer erfülllbar sein, aber sinnvolle Neuhaftigkeit mit gesellschaftlichem Mehrwert wird man da bei vielen Arbeiten vergeblich suchen (und das ohne Wertung).

Ich finde auch den Hinweis auf die Fehlerquote der KI nur wenig hilfreich. Das Internet ist so voll mit falscher Information, da hat man doch dort generell das gleiche Problem. Ganz abgesehen davon, dass hier auch Bücher kein Allheilmittel sind. Jede Art von Information die wir holen ist letztlich ein "wahrscheinlich stimmt das" Prinzip und wir gehen da gar nicht unähnlich vor.
 
  • Gefällt mir
Reaktionen: Xiaolong und Der Kabelbinder
Erkekjetter schrieb:
Der Algorihtmus von ChatGPT ist vollkommen richtig. Die Antwort ist trotzdem falsch.
Gut, dass wir endlich auf gleichen Nenner sind.
Erkekjetter schrieb:
Wenn ich Frage "Wer ist Bernd Höcke?" und es kommt die Aussage von ChatGPT,, es sei ein AFD Politiker, ist das einfach falsch. Es müsste entweder eine Nachfrage kommen, welcher Bernd Höcke gemeint ist oder ein Auswahl verschiedener Bernd Höckes
Und wieder hast du nur einen Teil meines Beitrages gelesen. Ließ bitte #121 ganz. Ergänzend kann ich dazu schreiben, was ich bereits Apocalypse geantwortet habe:

"Das die Trainingsdaten fehlerfrei sein sollten, habe ich bereits geschrieben. Es gibt aber noch weitere wichtige Aspekte: Regelwerk, autonome Fehlerkorrektur, Gewichtung(Priorisierung), usw."

Erkekjetter schrieb:
Eigentlich kann diese Art des Fehlers bei jeder selbstlernenden KI auftreten, genau das ist das Problem, an dem auch derzeit viel geforscht wird.
Nein, die Probleme, an denen bezüglich KI derzeit geforscht wird, sind gänzlich andere. Das Zauberwort heißt "Effizienz". Den Forschern auf dem Gebiet der "KI" ist schon lange bekannt, welche Funktionen integriert werden sollen - Dies hat bereits u.a. Alan Turing beschrieben. Das Problem liegt in der Komplexität der nötigen Funktionen und den daraus resultierenden Rechenaufwand.
 
Ich weis nicht, wie man darüber diskutieren kann. Wenn eine KI alles für jemanden macht, wird man dumm. Das Gehirn ist auch, wie ein Muskel, benutzt du ihn nicht, verkümmert er. Und mal vorneweg. Wenn diese KI auch schon dazu beiträgt, dass zensiert wird, ist das doch der gemachte Weg: Du darfst nicht mehr frei denken oder eine Meinung haben: Die KI stimmt dir nicht zu. Tolle Welt.
 
Andy4 schrieb:
Wenn diese KI auch schon dazu beiträgt, dass zensiert wird, ist das doch der gemachte Weg
Aber da sind wir doch schon. Schonmal versucht als Neuling eine Google oder Facebook Werbekampagne zu starten und etwas passt den Algorithmen nicht -> Direkt gesperrt.

Versuch mal eine Antwort zu erhalten nach dem warum... Google macht eine Aktion mit 400€ Werbebudget investieren und 400€ zusätzlich on top kriegen, machst du das fliegt dir alles um die Ohren weil die KI "verdächtige Aktivitäten" festgestellt hat. Originalton: "Zu hohes Budget für einen frischen Account"... Super :)

OK ist zwar keine "Zensur" wie du das meinst aber die Werkzeuge dazu hätten wir. Vielleicht ist hier einmal die digitale Inkompetez die herrscht mal von Vorteil :)
 
OldboyX schrieb:
für Schulen aber wahrscheinlich überdramatisiert
Heißt, dass digitale Kompetenzen für nicht-Studierende eine geringere Rolle spielen?
Gerade da fände ich es wichtig, wirklich jeden abzuholen und für einen kritischen Umgang im Netz zu schulen. Denn am Ende sind das alles Wählerinnen und Wähler. Da wäre es mir schon relativ wichtig, wenn die sich im Netz kritisch zu orientieren wissen. Das wird auch deshalb immer wichtiger, weil die Filterblasen vor den persönlichen KI-Assistenten ja keines Falls Halt machen.
 
  • Gefällt mir
Reaktionen: Herrenlos und Andy4
Der Kabelbinder schrieb:
Gerade da fände ich es wichtig, wirklich jeden abzuholen und für einen kritischen Umgang im Netz zu schulen
Bin ganz bei dir. Ahne aber bereits jetzt, dass zu diesem wichtigen Thema höchstens eine Broschüre und Standardpauke geben wird. Den Kindern wird nie/selten in unseren Schulen das kritische Denken beigebracht. Der Lehrstoff wird ganz einfach stupide den Kleinen reingedrückt (Wissen als Fastfood). So wurde es leider bei allen wichtigen & aktuellen Themen gemacht (siehe Toleranz, Diversität, usw.).
 
Da können die Boomer-Minister in den Talkshows wieder schön mit Buzzwords umherwerfen und Sachverstand vorgaukeln. In Wirklichkeit müssen die Lernkontrollen halt etwas angepasst werden. Fertig. Derweil freuen sich die Lehrer, dass sie ihre Arbeitsblätter nicht mehr selber erstellen müssen.

Die richtigen, schwierigen und teuren Probleme bei der Bildung bleiben dann mal wieder auf der Strecke.
 
Zurück
Oben