News Deutscher Bundestag: Studie untersucht ChatGPT-Auswirkungen auf die Bildung

Scythe1988 schrieb:
Das ist so, weil die Leute, die sowas denken, einfach keine Ahnung von den Hintergründen haben, wieso manche Dinge sind, wie sie sind.
Dann erleuchte uns doch mal mit deinem Hintergrundwissen. In diesem Land läuft so unglaublich viel schief und es gibt tausende Beispiele, wie man es in anderen Ländern besser macht. Absolut wenig davon wird umgesetzt weil man zum größten Teil in der Selbstverwaltung versinkt. Gibt genug seriöse Studien, in welchen Bereichen D mittlerweile abgehängt ist, in denen wir mal Weltspitze waren, da ist dein Beitrag nichts anderes als hohle Phrasen.

Alleine die Probleme im Bildungssektor zeichnen sich seit mehr als 20 Jahren ab, was tut man dagegen? Man lässt es einfach so laufen in der Hoffnung, die Probleme lösen sich schon von selbst. Wenn da viel im Hintergrund passiert ist davon jedenfalls auf der Ergebnisseite absolut nichts zu erkennen. Also entweder du erzählst hier einen vom Pferd oder das was passiert, ist absolut ineffizient und vor allem ineffektiv.
 
Zuletzt bearbeitet:
Hier meine Frage an Chat GPT:
Welche Auswirkungen werden KI-Sprachmodelle wie ChatGPT auf die Bildung und Forschung haben?



Antwort ChatGPT:
KI-Sprachmodelle wie ChatGPT haben bereits einen signifikanten Einfluss auf die Bildung und Forschung, und es wird erwartet, dass dieser Einfluss in Zukunft weiter zunehmen wird.
In der Bildung können KI-Sprachmodelle dazu beitragen, den Zugang zu Informationen und Wissen zu verbessern, indem sie Schülern und Studierenden schnell und präzise Antworten auf ihre Fragen liefern. Außerdem können sie als Tutoren oder Lernbegleiter fungieren und dabei helfen, den Lernprozess zu personalisieren und zu beschleunigen.
In der Forschung kann die KI-Sprachverarbeitung dazu beitragen, große Datenmengen schnell und effizient zu analysieren und Muster und Trends zu identifizieren, die für die Forscher von Interesse sein können. Dies kann insbesondere in den Sozialwissenschaften, der Biomedizin und anderen Daten-intensiven Forschungsfeldern von großem Nutzen sein.
Es ist jedoch wichtig zu beachten, dass KI-Sprachmodelle wie ChatGPT nur so gut sind wie die Daten, aus denen sie trainiert wurden, und dass es noch viele Herausforderungen gibt, die bei der Verwendung dieser Technologie in Bildung und Forschung zu beachten sind. Dazu gehören beispielsweise ethische und moralische Überlegungen, die sicherstellen sollen, dass die Technologie verantwortungsvoll und für alle Nutzer zugänglich eingesetzt wird.
 
Herrenlos schrieb:
Des Weiteren würden die Entscheidungen keine Löcher im Budget fressen.
Weshalb? Wenn die KI zu dem Schluss kommt, dass ein Loch im Budget weniger fatal ist als die Ausgaben nicht zu machen, gibt es auch das. Genau das ist das Problem auch bei der Politik aktuell: Es wird unterstellt, dass es an Lobbyismus, an Fehlentscheidungen, Parteipolitik etc. liegt. Was in Teilen sicher auch der Fall ist. Vor allem wird die Politik aber abgelehnt, weil man der Meinung ist, es besser zu wissen und weil einem die entscheidungen nicht gefallen. Nicht, weil sie nicht logisch wären. Und genau das gleiche Problem gäbe es mit einer KI....

Insbesondere bei ChatGPT sollte man sich aber dringlichst damit befassen, wie diese KI eigentlich arbeitet. IHre Antworten müssen weder korrekt noch logisch sein. Das ist nicht die Art, wie diese KI arbeitet und trainiert wird. Wer das glaubt unterliegt einem fatalen Fehler. ChatGPT lügt, verbreitet Unwahrheiten und unlogische Antworten. Je nach Frage und Fragestellung. Einfach aufgrund der Tatsache, wie sie trainiert wird.
 
Zuletzt bearbeitet:
@Chilisidian: Die geforderte Antwort hast du dir mit deinem Post doch selbst gegeben :)
 
Erkekjetter schrieb:
Weshalb? Wenn die KI zu dem Schluss kommt, dass ein Loch im Budget weniger fatal ist als die Ausgaben nicht zu machen, gibt es auch das.
Klar, kann die KI entscheiden, dass höhere Ausgaben einen Mehrwert darstellen, als zu sparen. Mit den Löcher im Budget war ganz klar etwas anderes gemeint - Fehlinvestitionen und Fehlausgaben.
Erkekjetter schrieb:
Es wird unterstellt, dass es an Lobbyismus, an Fehlentscheidungen, Parteipolitik etc. liegt.
Wieso wird es nur unterstellt, wenn es dafür klare Beweise gibt? Natürlich lebt es sich gut mit Amnesie, hast du aber schon mal die Presse gelesen? Es wurde doch schon mehrmals geschrieben, dass die Politiker sich öfters mit Lobbyvertretern sich treffen, als mit den eigenen Berater. Die Öl- und Stromkonzerne machen wahnsinnige Gewinne. Den Sektoren der Bildung und Medizin wurde kein müder Blick geschenkt. Über den Zustand der Bundeswehr muss man kein Wort verlieren. Ja, ich weiß vieles nicht besser, aber ich würde nicht so tun, als würde es mit mir alles besser werden. Fast für jeden Politiker könnte ich auch einen von der Straße holen. Er könnte es zwar auch nicht, wäre aber im Unterhalt günstiger.
Wenn man die KI mit richtigen Datensätzen trainiert und wahre Resultate zurückgibt, so kann es nicht die selben Probleme haben, wie wir es gerade in der Politik erleben. Du vergisst einfach einen wichtigen Punkt: Die KI kann lernen.
Erkekjetter schrieb:
ChatGPT lügt, verbreitet Unwahrheiten und unlogische Antworten.
Ich habe mit meinen ehemaligen Professoren vor kurzen zu diesem Thema unterhalten. Das System war sogar in der Lage ganz fiese Logikaufgaben korrekt zu beantworten. Habe das System schon einige Male getestet und kein einziges Mal erlebt, dass die Antworten unlogisch oder nicht korrekt waren. Du hast anscheinend nicht begriffen, wie das System funktioniert. Es kann keine Unwahrheiten verbreiten, da sie über keine Schnittstellen zB. für Broadcasting verfügt.
Klar, wenn du der festen Überzeugung bist, dass die Erde flach ist, und ChatGPT danach fragst, wirst du mit der Antwort nicht einverstanden sein. ;)
 
q3fuba schrieb:
Sollte vlt. mal eine Studie gemacht werden, welchen Einfluss die Schuldbildung auf die Gesellschaft hat? ^^
Bin mir ziemlich sicher, dass dieses Ergebnis viel schlimmer ist, das der Einfluss von ChatGPT :p

Braucht man doch nicht - 2006 gabs doch ne wunderbare Doku dafür...
 
  • Gefällt mir
Reaktionen: q3fuba und Xiaolong
Erstellt wird die Studie vom Büro für Technikfolgenabschätzung, das vom Karlsruher Institut für Technologie (KIT) betrieben wird.
Das ist in etwa so, als wenn ich für eine Studie zum Thema 'Tierethik in Schlachtbetrieben' die Tönnies Holding beauftrage.
 
Herrenlos schrieb:
Ich habe mit meinen ehemaligen Professoren vor kurzen zu diesem Thema unterhalten. Das System war sogar in der Lage ganz fiese Logikaufgaben korrekt zu beantworten. Habe das System schon einige Male getestet und kein einziges Mal erlebt, dass die Antworten unlogisch oder nicht korrekt waren. Du hast anscheinend nicht begriffen, wie das System funktioniert. Es kann keine Unwahrheiten verbreiten, da sie über keine Schnittstellen zB. für Broadcasting verfügt.
Oh doch, habe ich schon öfters festgestellt, dass falsche/unlogische Ergebnisse ausgespuckt worden sind.
Meine Aussage hierzu ist aber genau wie deine rein subjektiv und daher als Kritik unerheblich.
 
Herrenlos schrieb:
Du hast anscheinend nicht begriffen, wie das System funktioniert.
Doch habe ich im Gegensatz zu dir wohl doch. Frage ChatGPT doch bitte mal, wer Bernd Höcke ist. Und dann erzähle mir nochmal, ich habe nicht kapiert, wie ChatGPT funktioniert und das die KI nicht eben doch Unwahrheiten verbreitet und unlogische Antworten gibt.
Herrenlos schrieb:
Du vergisst einfach einen wichtigen Punkt: Die KI kann lernen.

Ja kann sie. Und genau das ist das Thema. Beschäftige dich damit wie ChatGPT lernt und was es als Zielsetzung hat. Am Beispiel Bernd Höcke kann man das ziemlich gut nachvollziehen.
Herrenlos schrieb:
Wieso wird es nur unterstellt, wenn es dafür klare Beweise gibt?
Lies doch bitte meinen Beitrag erneut. Ich bestreite überhaupt nicht, dass es das nicht gibt. Ganz im Gegenteil. Meine Aussage ist, dass das nur ein Teil der Wahrheit ist und die Ablehnung noch auf vielen weiteren Punkten basiert von denen einige genauso auch bei einer KI auftreten würden. Denn die Bewertung, was logisch und sinnvoll ist, erfolgt immer noch durch den jeweilig Urteilenden und dieser ist eben nicht rein objektiv.
 
ChatGPT ist extrem brauchbar und im Alltag praktisch. Ich bin dennoch über die Ständigen Aussagen bezüglich der "Generierung" von Bachelor-/Master- Abschlussarbeiten stark verwundert.

Ja, ChatGPT gibt dir einen Text aus, kann aber nicht eine Quelle nach "wissenschaftlichen" Standard zitieren oder die Quellen im allgemeinen "sinnvoll" ausgeben. Selbst mit Chrome Plugins, die ChatGPT mit den Suchmaschinen verbinden, kommt nichts besseres heraus.

Als "Anstoßgeber" für Ideen und Lösungen von Aufgaben langt ChatGPT jedoch allemal. Normale Hausaufgaben in Schulen oder ähnliches sind problemlos mit ChatGPT lösbar - Wenn man sich denn entsprechend artikulieren kann. Hier muss der Anwender aber auch immer sich selbst hinterfragen - Es bringt nichts, alles "fertig und vorgegeben" als eigene Leistung zu verkaufen.

Wobei derartige Selbstreflektionen wahrscheinlich heute kaum noch existent sein werden.
 
  • Gefällt mir
Reaktionen: wifi hero
Chilisidian schrieb:
Ich bin doch etwas überrascht, wie nah die Regierung da mal am Zahn der Zeit ist und zumindest eine Studie in Auftrag gibt. Normal wird sowas ja immer um mindestens 5 Jahre verschlafen, um sich dann zu wundern.
Bei den älteren Politikern ist es so. Können wir ja gerade in allen Bereichen erleben.
 
derMutant schrieb:
Oh doch, habe ich schon öfters festgestellt, dass falsche/unlogische Ergebnisse ausgespuckt worden sind.
Kannst du bitte sagen, was dein Input war? Ich hatte schon ein paar Eingaben gehabt, wo er mir keine Antwort liefern konnte. Eine falsche Ausgabe habe ich nicht erlebt. Eine suboptimale schon (ala brut force).

Erkekjetter schrieb:
Frage ChatGPT doch bitte mal, wer Bernd Höcke ist.
Hier die Antwort von ChatGPT:

"Bernd Höcke is a German politician and a member of the far-right Alternative for Germany (AfD) party. Höcke has been associated with controversial and extreme views, including anti-immigrant rhetoric and criticism of Germany's culture of remembrance for the Holocaust. Some of his comments have been widely criticized as being racist and xenophobic, and his views have been widely condemned by mainstream political parties in Germany. It's important to note that such views are not representative of the vast majority of Germans and are not tolerated in German society."

Was ist an dieser Aussage falsch? Ist doch absolut zutreffende Aussage. Der Herr Höcke positioniert sich doch selbst als eine solche Person mit gerade diesen Weltansichten.

Erkekjetter schrieb:
Denn die Bewertung, was logisch und sinnvoll ist, erfolgt immer noch durch den jeweilig Urteilenden und dieser ist eben nicht rein objektiv.
Ich glaube nicht, dass du begriffen hast, wie KI funktioniert. Die KI kann nur rein objektiv Urteile treffen.
Ja, man kann eine KI mit falschen Datensätzen trainieren. Ihr handeln bleibt aber trotzdem objektiv und logisch.
 
Kann nicht vorstellen, dass Banane wirkt im Köpfle - Schnappi GPTle.
 
Herrenlos schrieb:
Kannst du bitte sagen, was dein Input war? Ich hatte schon ein paar Eingaben gehabt, wo er mir keine Antwort liefern konnte. Eine falsche Ausgabe habe ich nicht erlebt. Eine suboptimale schon (ala brut force).


Hier die Antwort von ChatGPT:

"Bernd Höcke is a German politician and a member of the far-right Alternative for Germany (AfD) party. Höcke has been associated with controversial and extreme views, including anti-immigrant rhetoric and criticism of Germany's culture of remembrance for the Holocaust. Some of his comments have been widely criticized as being racist and xenophobic, and his views have been widely condemned by mainstream political parties in Germany. It's important to note that such views are not representative of the vast majority of Germans and are not tolerated in German society."

Was ist an dieser Aussage falsch? Ist doch absolut zutreffende Aussage. Der Herr Höcke positioniert sich doch selbst als eine solche Person mit gerade diesen Weltansichten.
Der "Gute" heißt Björn Höcke, das ist das Problem. Satiresendungen nennen ihn immer wieder Bernd.
 
Herrenlos schrieb:
Was ist an dieser Aussage falsch?
Der Kerl heißt Björn Höcke. Einen Bernd Höcke bei der AFD gibt es nicht...
 
Prüfungen waren noch nie was wert. Auswendig lernen braucht doch heutzutage keiner und im Job nutzt man jedes Hilfsmittel was einen schneller voran bringt. Gelehrt wird aber als ob man das Rad immer wieder neu erfinden muss, obwohl es das Auto schon lange gibt. Bei der heutigen Komplexität hat man dazu keine Zeit.

Anstatt Inhalte zu lehren die extrem tief gehen, und nach 2 Wochen dank fehlender Anwendung wieder vergessen sind, oder nie zur Anwendung kommen, sollte man sich lieber darauf fokusieren was am Ende tatsäclich hängen bleibt: Ein Inhaltsverzeichnis der Themen im Hirn. Kurz anreißen, verstehen, abhaken.

Auf keinem Fall irgendwas lehren was durch ein Framwork oder Plugin in Sekundenbruchteilen berechnet wird. 95% der Entwickler sind "Anwender", keine "Erfinder". Die restlichen 5% die Frameworks entwickeln bringen sich das schon selbst bei.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gsonz und Xiaolong
Doch, natürlich.... weil ChatGPT mit Auswertungen von Texten lernt. Wird dort, wie in dem Fall, oft genug was falsches geschrieben, nimmt CHatGPT das als wahr an und gibt es aus. So wird es auch anfällig für Dinge wie Aberglauben, Volksglauben etc. Beispielsweise das ein Spiegel kaputt machen 7 Jahre Pech bringt. All das müsste manuell aussortiert werden, was wiederum bedeutet, das diejenigen, die das tun, das richtige Wissen und tun. Das ist ein ähnliches Problem wie die Schwarmintelligenz bei Wikipedia.

ChatGPT hat keine Wahrheitsprüfung enthalten sondern gibt aus, was es als wahrscheinlichste Antwort hält, was der fragende Hören will.

Und das führt noch zu ganz anderen Problemen....
 
  • Gefällt mir
Reaktionen: Spottdrossel und Relict
Für ein paar Anregungen oder mal einen Satz hier und da umformulieren funktioniert ChatGPT ganz OK. Eine Gefahr für die Wissenschaft oder die Idee das Studierende sich damit ihre Hausarbeiten schreiben lassen, die sehe ich noch nicht. Dafür ist es einfach noch zu schlecht und kennt nur ausgedachte Quellen. Ich halte es für ein nützliches Tool. Programmieren kann es ja wohl auch ganz gut. Im Schulcontext ist es vlt. etwas anderes, aber Hausaufgaben habe ich auch damals schon im Bus abgeschrieben.
 
  • Gefällt mir
Reaktionen: tidus1979 und Gsonz
Ich bin Elektroingenieur für Leistungshalbleiter und habe letzte Woche mal ein-zwei Stunden in meinem Fachbereich mit ChatGPT gespielt.

Ich war echt erstaunt über gut 80 % richtige, wenn auch etwas oberflächliche Antworten.
Aber dann wären da noch die 20 % schlichtweg falsche Antworten, die ein Amateur mit Sicherheit nicht rausfinden wird. Wenn man diese Fehler nun als Wahrheit annimmt und weiter verbreitet, sehe ich ChatGPT als unfreiwillige Plattform für Desinformationen an.
 
Zurück
Oben