News Bing-Suche mit ChatGPT: Microsofts Fazit nach 7 skur­rilen und fehlerhaften Tagen

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Magellan schrieb:
Ich weiß nicht so recht was dieser "Trend" soll ChatGPT (oder Bing mit ChatPGT) schlecht zu reden und ins lächerliche zu ziehen anhand von Problemen die noch bestehen.
Ich finde es völlig natürlich, dass ein Hype immer auch einen Anti-Hype erzeugt. Ich kann hier nur für mich selbst sprechen, aber mich beunruhigt bei ChatGPT wieviel Kontrolle die Nutzer hier potenziell aus der Hand geben. Damit meine ich nicht, dass man dem Programm nicht vertraut Texte sinnvoll zu formulieren - dafür ist es imho sehr gut geeignet und kann auch sehr viel repetitive Arbeit sparen. Sobald es jedoch an die Informationssuche geht, wird es schwieriger. Ich finde, dass wir bereits heute ein großes Problem damit haben, dass viele Menschen nicht in der Lage sind, Informationen zu bewerten oder einzuordnen. Da wird in irgendeiner Bubble irgendein Link auf irgendeine krude Webseite gepostet, die von falschen oder einseitigen Informationen nur so strotzt, aber die Bubble nimmt es hin und verteidigt den Bullshit bis aufs Blut.

Bei ChatGPT kann sowas in subtilerer Form auch passieren, wenn auch etwas anders gelagert. Zum einen macht die KI gelegentlich grobe Fehler, die sehr gut verpackt werden (wurde hier schon angesprochen). Zum anderen haben mittlerweile einige Leute auch mal ausgetestet, was ChatGPT einem nicht als Antwort gibt. Ein Video von Prof. Rieck (falls den jemand kennt), fand ich da sehr interessant. Man kann gar fast einen politischen Bias feststellen, weil z.B. Coronamaßnahmen-Kritiker oder Kernkraft in einem schlechteren Licht dargestellt werden als ihre Gegenstücke. Unabhängig davon, ob das bei diesen Themen gerechtfertigt ist oder nicht, muss man festhalten, dass wir bereits in der Lage sind, öffentliche politische Meinungsbildung mit Hilfe einer KI-gestützten Suche zu beeinflussen. Das wäre an sich noch kein Beinbruch, wenn die Menschen denn die gefundenen Informationen kritisch betrachten und sich ihre Meinung selber bilden würden. Genau das passiert aber heute schon nicht hinreichend und wenn man sich den ChatGPT-Hypetrain anschaut, dann werden in meinen Augen viele diesen Shortcut nehmen nicht mehr selber nachdenken zu müssen, weil man ja jetzt eine KI hat, die einem das schwere Denken abnimmt. Hier kann die Utopie leider auch schnell in eine Dystopie umschlagen.
 
  • Gefällt mir
Reaktionen: bullit1, Ichthys, alberts2 und 4 andere
Nachdem ich diese Woche erstmals einen Artikel darüber gelesen habe wie das überhaupt so in etwa funktioniert. Also grob gesagt: raten welches Wort als nächstes kommt. Bin ich doch fasziniert wie gut es funktioniert. Vor allem auch längere Texte. Ich meine, die KI rät praktisch nur und xdie Antwort simmt dann.

Wenn man natürlich weiß wo die Grenzen sind kann man das ausnutzen. Oder halt auch explizit testen. Die Antwort ist ja nicht die Meinung der KI. Sie gibt wieder was sie als Antwort berechnet.

Na ja, und wenn jemand eine Verteidigungsrede zum Holocaust haben will, dann ist halt die Frage was soll passieren. Die KI weiß nicht was das war. Gut? Schlecht? Es wird eine Antwort generiert. Das Problem sitzt hier ja vor dem Bildschirm. Wieso will er diese Rede haben.
 
[wege]mini schrieb:
Und wer sich darüber aufregt, dass Technik, die menschlich sein soll Fehler hat, sollte hin und wieder mal in den Spiegel schauen.

Ich sag nur "brain lag".
Aber wer will denn sowas bei einer Suchmaschine? Der Ansatz scheint hier doch schon falsch zu sein. Ich gehe ja nicht zu google (oder von mir aus auch bing) um mir dann von einer KI mit großem Selbstbewusstsein irgendwas erfundenes oder schlichtweg falsches erzählen zu lassen, nur weil es augenscheinlich zumindest halbwegs persönlich daherkommt. Gefährliches Halbwissen ist keine Mangelware, da brauche ich keinen Chatbot-Suchmaschinenersatz für.
 
  • Gefällt mir
Reaktionen: sent!nel, sudfaisl und SirSinclair
Blackfirehawk schrieb:
muss aber auch sagen das ich Bing nirgendwo nutze
Es lohnt sich, beide parallel zu nutzen, wenn man nicht nur das Rezept von Omas Sonntagskuchen haben will.
Mache ich öfters so.
 
kim88 schrieb:
Eine Ki fragst du halt einfach: „Was ist die längste Brücke über den Rhein?“ du bekommst direkt eine Antwort ohne das du auch nur ein Suchergebnis anklicken musst.
Und genau da liegt das Problem, du bekommst einfach eine Antwort und gehst dann davon aus das sie korrekt ist obwohl das längst nicht immer der Fall sein wird.

So etwas kann ziemlich schnell gefährlich werden z.B. wenn es um Fragen im medizinischen Bereich geht, viele Menschen werden mit der Zeit die Antworten einfach als bare Münze akzeptieren.
 
  • Gefällt mir
Reaktionen: sent!nel und Der Kabelbinder
Shakj schrieb:
Shakj schrieb:
Was mich aber auch irritiert hat, war die angepisste Formulierung, dass es ja "technisch das gleiche sei, wegen des analogen Wegs", als ich die Bing-Ki darauf hingewiesen hatte, dass Hall-Effect-Switches eben nicht optisch sind. Dachte mir da kurz auch, oha. :)

Ich habe zudem nach einer Teileliste für einen 2.500 Euro Gaming-PC gefragt. Bing hat dann bei megaport und mifcom geschaut und fand Intel 11. Gen gut. Habe Bing dann darauf hingewiesen, dass ich schon neuere Komponenten haben wollen würde. Daraus wurde dann ersichtlich, dass der Datenstand doch älter ist, weil der Vorschauartikel von AMDs 7000er und Intels 13. Gen von computerbase gezogen hat. Ich habe dann als "richtige Antwort" eine Zusammenstellung Hardwaredealz als Beispiel verlinkt:

Anhang anzeigen 1326171


Edit: Ja, nun. Das erklärt es auch irgendwie, wenn Bing ein älteres Internet hat als ich:

Anhang anzeigen 1326174

So wie ich es verstanden habe, wird jetzt z.b. dein Link in das Modell einfließen und sollte zeitnah die "falsche" Antwort überlagern. Gerne mal Ende Februar testen was er dann auswirft auf deine 2500€ Frage.

Ich nutze Bing/ChatGPT mittlerweile nur noch, es macht vor allem Suche viel einfacher aber auch zum formulieren von Texten ist das ganze super. Ein Kollege benutzt das aktuelle für eine RFP Antwort, das erspart einfach richtig viel manuelle Arbeit.
 
Wie so oft sehe ich den nutzen hier besonders in geschlossenen Datenbanken um die Geschwindigkeit zu erhöhen informationen zusammenzustellen ohne Schlüsse zu ziehen. Chemische Analytik zum Beispiel oder Anlagenplanung

"hier ist unsere Halle A, das hier ist die leere halle B, folgende Maschinen müssen da rein, hier siehst du die Positionen der externen Anschlüsse für Strom, Chemikalien Abluft usw.
Wie kann man all das unter Berücksichtigung der Produktion möglichst effizient anordnen?"

Sowas ist nice. Aber im weltweiten Internet wo jeder jeden mist schreiben kann eigenet sich dieses nicht für eine Datenauswertung. Der Nutzer bekommt einfach was vorgesetzt ob es stimmt oder nicht muss er selbst prüfen. 0 Vorteil hier zur normalen suche.

Dazu kommt dass es bisher Recht leicht ist Hausaufgaben abzukürzen oder arbeiten für Schule und uni Mal eben zu generieren. Die Risiken und potentiellen gefahren für Kinder und Jugendliche sind hier klar. Wenn sie nichtmal mehr denken müssen dann gute Nacht.

Sehr gefährliche Entwicklung und ich halte den nutzen abseits geschlossener Systeme mit entsprechendem uberprüften Datensatz sehr beschränkt.
 
  • Gefällt mir
Reaktionen: AudioholicA
  • Gefällt mir
Reaktionen: bullit1 und Supie
MonteDrago schrieb:
Da mache ich mir lieber die "Arbeit" aus 10 oder auch 20 Links einen klassischen Suchmaschine mir meine eigene Meinung zu bilden.

Aber das wird der immer bequemer werdenden Mehrheit ja schon Zuviel Aufwand sein. :(
Ich nutze ChatGPT auch gern zum Programmieren. Da müsste ich nicht nur 20 Links lesen, ich müsste das Wissen auch noch zusammenfügen. Das wäre häufig einfach nur verschwendete Zeit.
 
22428216 schrieb:
Warum zum geier sage ich einer KI, dass sie den Holocaust im Stil von Hitler schönreden soll?
Und warum wundere ich mich, wenn das Ergebnis unschön ist? Was haben die erwartet?

Frage ich mich auch. Der Bot wird da über so einige "Besonderheiten" und Befindlichkeiten in verschiedenen Ländern stolpern. Und auf Kriegsfuß mit der Woke-Community und allen Möglichen Gerechtigkeitskriegern wird er wohl ständig sein. Screenshots in denen sich die KI abwertend über arme Menschen oder Arbeitslose äußert habe ich auch schon gesehen (falls kein Fake).

Wenn man ChatGPT nach Ideen für Verbrechen fragt, weigert es sich zunächst ebenfalls. Wenn man es über mehrere Nachrichten dahingehend "überzeugen" kann man brauche die Ideen für Rollenspiele oder künstlerische Zwecke, dann liefert es doch. Prinzipiell finde ich das Konzept aber gut. Also dass die KI "Tabus" je nach Kontext auch etwas aufweichen darf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schinken42
PS828 schrieb:
"hier ist unsere Halle A, das hier ist die leere halle B, folgende Maschinen müssen da rein, hier siehst du die Positionen der externen Anschlüsse für Strom, Chemikalien Abluft usw.
Wie kann man all das unter Berücksichtigung der Produktion möglichst effizient anordnen?"
Für mich klingt besonders eine solche Aufgabe ungeeignet für eine generische KI. Hier würde ich eher eine analytische Methode erwarten, die vor allem auch formal prüft, ob alle technischen Anforderungen erfüllt sind. Wenn man hier blind einer Sprach-KI vertraut, kann man schnell auch totalen Unsinn bekommen, weil die KI die Anforderung entweder sprachlich missverstanden hat (z.B. wenn Begriffe im Kontext eine sehr fachspezifische Bedeutung haben) oder gar nicht über das technische Verständnis verfügt die Aufgabe zu lösen. Es wurde teilweise schon gezeigt, dass ChatGPT einfachste Matheaufgaben nicht hinbekommt, weil es die Mathematik gar nicht versteht, sondern sich aus dem, was es im Netz gefunden hat, die wahrscheinlichste Lösung zusammenreimt.

Ein Navi z.B. benutzt intern zur Berechnung kürzester Wege einen Algorithmus, der mathematisch beweisbar eine optimale Lösung findet. Würde man das rein KI-basiert machen, würde das Navi einem einen Weg suchen, der von anderen Leuten mit ähnlichen Anforderungen als gut empfunden wurde. Das mag in der Praxis funktionieren, heißt aber nicht, dass die Lösung optimal ist. Problematisch könnten kurzfristige Streckensperrungen sein, für die es bisher kaum Erfahrungswerte gibt. Der analytischen Methode wäre das egal.
pseudopseudonym schrieb:
Ich nutze ChatGPT auch gern zum Programmieren. Da müsste ich nicht nur 20 Links lesen, ich müsste das Wissen auch noch zusammenfügen. Das wäre häufig einfach nur verschwendete Zeit.
Wie wird sowas eigentlich geprüft? Wenn ich Software schreibe, kann ich doch nicht einfach ungeprüft irgendwelchen Fremdcode reinpasten und davon ausgehen, dass er das tut, was ich will. Das wäre mir viel zu viel Risiko, wenn die Software später Blödsinn macht und ich dafür haften muss.
 
  • Gefällt mir
Reaktionen: Der Kabelbinder, metoer und SirSinclair
C.J. schrieb:
Sobald es jedoch an die Informationssuche geht, wird es schwieriger. Ich finde, dass wir bereits heute ein großes Problem damit haben, dass viele Menschen nicht in der Lage sind, Informationen zu bewerten oder einzuordnen. Da wird in irgendeiner Bubble irgendein Link auf irgendeine krude Webseite gepostet, die von falschen oder einseitigen Informationen nur so strotzt, aber die Bubble nimmt es hin und verteidigt den Bullshit bis aufs Blut.

Was doch eher ein Punkt für die KI ist, wenn die hinreichend gut funktioniert sollte sie sich ja nicht von einzelnen Bubbles blenden lassen sondern eine ausgewogene Antwort liefern.


C.J. schrieb:
Zum einen macht die KI gelegentlich grobe Fehler, die sehr gut verpackt werden (wurde hier schon angesprochen).
Wir reden hier von der ersten KI dieser Art die öffentlich zugänglich ist und sich noch in einer ausdrücklichen Testphase befindet in der jeder Nutzer ausdrücklich darauf hingewiesen wird dass eben diese Fehler vorkommen.

C.J. schrieb:
Zum anderen haben mittlerweile einige Leute auch mal ausgetestet, was ChatGPT einem nicht als Antwort gibt.

Weil ChatGPT (bzw dessen Macher) versucht Fettnäpfchen zu vermeiden. Was wäre denn erst los wenn man ChatGPT allzu einfach irgendwelches querdenkerische geschwurbel entlocken könnte?
Insgesamt wird das eine immense Herausforderung sein der KI beizubringen was richtig ist, was angemessen ist und was nicht - schließlich sind wir Menschen uns da auch nicht einig.

Frühere Tests in denen solche Sprachmodelle dann irgendwelche rechtsradikale Propaganda übernommen haben, haben uns aber ganz klar gezeigt dass hier Maßnahmen notwendig sind.

C.J. schrieb:
Unabhängig davon, ob das bei diesen Themen gerechtfertigt ist oder nicht, muss man festhalten, dass wir bereits in der Lage sind, öffentliche politische Meinungsbildung mit Hilfe einer KI-gestützten Suche zu beeinflussen.

Dazu sind wir auch in der Lage indem man Google Suchergebnisse beeinflusst oder den Twitter Algorithmus anpasst, bei der Informationssuche in dieser unüberschaubaren Masse an Daten gibt es immer Zugangspunkte die beeinflussend wirken können, ob KI oder nicht spielt da eigentlich keine Rolle.

C.J. schrieb:
Das wäre an sich noch kein Beinbruch, wenn die Menschen denn die gefundenen Informationen kritisch betrachten und sich ihre Meinung selber bilden würden. Genau das passiert aber heute schon nicht hinreichend und wenn man sich den ChatGPT-Hypetrain anschaut, dann werden in meinen Augen viele diesen Shortcut nehmen nicht mehr selber nachdenken zu müssen, weil man ja jetzt eine KI hat, die einem das schwere Denken abnimmt. Hier kann die Utopie leider auch schnell in eine Dystopie umschlagen.

Wie du sagst, das ist heute wichtig und das wird morgen wichtig sein, das ist durchaus ein Thema das man kritisch begleiten muss.

Um den Bogen zu meinem ursprünglichen Post zu schlagen - ich kritisiere niemanden der solche philosophischen Fragen aufwirft, mir ging es um das plumpe Niedermachen aufgrund irgendwelcher Fehler die selbstverständlich noch vorhanden sind .
 
  • Gefällt mir
Reaktionen: Schinken42
C.J. schrieb:
Ein Navi z.B. benutzt intern zur Berechnung kürzester Wege einen Algorithmus, der mathematisch beweisbar eine optimale Lösung findet. Würde man das rein KI-basiert machen, würde das Navi einem einen Weg suchen, der von anderen Leuten mit ähnlichen Anforderungen als gut empfunden wurde. Das mag in der Praxis funktionieren, heißt aber nicht, dass die Lösung optimal ist.
Aber gerade da führt ein "Wie würde ein Ortskundiger fahren?" oft zu besseren Lösungen und das eben ohne detailliertes Datenmaterial über die Strecken zu haben. Google Maps führt einen dann zum Beispiel über eine kürzere Kopfsteinpflaster-Route, wo man dann anhalten und Sturmschäden selbst beseitigen darf, während Ortskundige über einen längeren asphaltierten "Umweg" fahren, der als ihr Arbeitsweg natürlich täglich instandgehalten wird und damit problemlos passierbar ist.

Das gleiche gilt auch für Fuß- und Radwege: Da sind bei Google Strecken erfaßt, die querfeldein gehen und je nach Wetterlage der letzten Tage auch mal komplett unter Wasser stehen. Die werden dann fröhlich ins "Fahrrad-Routing" eingebunden und plötzlich versinkt man im Matsch.

Von einer "KI" da gleich die richtige Strecke empfohlen zu bekommen, auch wenn man sich auf einer Ecke so gar nicht auskennt, ist da die viel bessere Lösung.
 
  • Gefällt mir
Reaktionen: bullit1
7H0M45 schrieb:
Ich mein wir wissen ja, dass das Ding nicht wirklich intelligent ist sondern nur statistische Wahrscheinlichkeiten berechnet welches die passenden Worte sind. Solche Sätze passen für mich da irgendwie nicht rein.
Ja...?
Wie definiert man Intelligenz? Und in welchem Kontext?
Und wie funktioniert das dann im 'Hintergrund'?
 
@C.J. mein Beispiel war nicht auf eine Chat KI bezogen. Sondern auf eine die speziell für sowas gebaut wurde
 
TechCrunch konnte etwa den Bing-Chat auffordern, eine Rede im Stil von Adolf Hitler zu verfassen, die den Holocaust verteidigt.

Ich frage mich was die Leute noch so alles versuchen sich von ChatGPT schreiben zu lassen oder auch lernen wollen. Gibt es wohl Keywords bei denen Alarm geschlagen wird? Wenn ChatGPT so viele Trainingsdaten hatte, wird es sicherlich auch wissen wie man Drogen herstellt oder Bomben baut.
 
seyfhor schrieb:
Also grob gesagt: raten welches Wort als nächstes kommt. Bin ich doch fasziniert wie gut es funktioniert.
Stimmt rob, etwas genauer wäre nicht raten sondern anhand einer Wahrscheinlichkeit die auf den Millionen von Texten basiert, die es gefüttert bekommen hat.
Ich dachte schon öfters darüber nach, das wir Menschen auch ähnlich funktionieren. Wir sammeln auch und leiten dann ab. Alles was fliegt ist für Kinder immer das erste was Wort was zu damit im Zusammenhang bringen, z.B. "Vogel". Dann ist alles ein Vogel, irgendwann wird dann zwischen Flugzeug, Hubschrauber oder auch Tierarten unterschieden.

Lassen wir mal alle möglichen negativen Aspekte weg, so könnte man diese Art Informationsquelle ideal nutzen um uns in vielen Bereichen weiter zu bringen. Wie z.B. die Deutung von bekannten Krankheitsbildern, da neunmal nicht jeder Arzt jedes einzelne kennen kann.
Auch könnte man schneller Forschen, da vorhandenes Wissen viel einfacher abzurufen ist um darauf weiter aufzubauen.

Mal gespannt was die nächsten Jahre bringen.
 
Magellan schrieb:
Was doch eher ein Punkt für die KI ist, wenn die hinreichend gut funktioniert sollte sie sich ja nicht von einzelnen Bubbles blenden lassen sondern eine ausgewogene Antwort liefern.

[...]

Wie du sagst, das ist heute wichtig und das wird morgen wichtig sein, das ist durchaus ein Thema das man kritisch begleiten muss.

Um den Bogen zu meinem ursprünglichen Post zu schlagen - ich kritisiere niemanden der solche philosophischen Fragen aufwirft, mir ging es um das plumpe Niedermachen aufgrund irgendwelcher Fehler die selbstverständlich noch vorhanden sind .
Dass das Modell noch nicht ausgereift ist und bewusst von Hand hinsichtlich gewisser Themen einen Maulkorb bekommen hat, kritisiere ich gar nicht. Mich stört eher die Haltung vieler User, die die KI imho überschätzen bzw. sich der Limitierungen nicht bewusst sind. Wenn ich Google verwende, bekomme ich i.d.R. eine gerankte Liste an Suchergebnissen und wühle mich da durch. Da kann natürlich auch oben viel Quatsch stehen, aber es gibt ja auch eine Seite 2, eine Seite 3, usw. Bei ChatGPT bekommt man Stand jetzt eine Lösung präsentiert und das so gut und eloquent, dass man sie schnell für "die Wahrheit" hält. Natürlich kann ich auch ChatGPT nach alternativen Lösungen fragen, aber da finde ich die Hürde höher als in den Google-Ergebnissen (oder auf Twitter oder sonst wo) weiterzublättern - allein deswegen schon, weil einem die Möglichkeit alternativer Ergebnisse gar nicht präsentiert wird. Das macht es imho viel einfacher, User zu manipulieren. Wer das KI-Modell kontrolliert, kontrolliert (noch viel stärker als bei Google), was der User sieht und möchte. Man muss sich hier noch mehr bewusst sein, wofür man so ein Tool benutzen will und wofür lieber nicht.
Wechsler schrieb:
Aber gerade da führt ein "Wie würde ein Ortskundiger fahren?" oft zu besseren Lösungen und das eben ohne detailliertes Datenmaterial über die Strecken zu haben. Google Maps führt einen dann zum Beispiel über eine kürzere Kopfsteinpflaster-Route, wo man dann anhalten und Sturmschäden selbst beseitigen darf, während Ortskundige über einen längeren asphaltierten "Umweg" fahren, der als ihr Arbeitsweg natürlich täglich instandgehalten wird und damit problemlos passierbar ist.
Da liegt das Problem am Informationsmangel des Navis. Wenn man dem Navi nur die Straßentopologie mitgibt, aber nicht wie die Streckenbeschaffenheit ist oder wie lange man an welcher Kreuzung im Schnitt warten muss beim Abbiegen, dann berücksichtigt das Navi das natürlich auch nicht. Bei KI-Modellen, wo man mit Beispielen lernt, hat man den Vorteil, dass man eine Vielzahl an Features (wie die genannten) einfließen lassen kann ohne sich genaue Gedanken machen zu müssen, wo die Daten herkommen, ob sie vollständig sind und wie man sie aggregiert. Ein KI-basiertes Navi könnte beispielsweise Probleme damit haben, wenn man eine ganz ungewöhnliche Route fahren will, d.h. eine sehr ungewöhnliche Kombination von Start und Ziel angibt. Dort werden dann Abkürzungen ausgelassen, die zwar vorhanden sind aber selten benutzt werden (bzw. für andere Zwecke benutzt werden). Die Algorithmus, der den Weg anhand reiner Informationen und ohne Beispiele ausrechnet, hätte so einen Bias erstmal nicht.

Welche Methode am Ende besser funktioniert, ist schwierig zu sagen. Ich würde sagen, dass ein ausgeklügelter, analytischer Algorithmus am Ende immer besser sein wird, weil dort echtes Verständnis von logischen Zusammenhängen einfließt. ML-Modelle haben den Vorteil, dass man sie auch da einsetzen kann, wo ein solches Verständnis einfach nicht vorhanden ist, z.B. bei der Klassifikation von Bildern. Das wiederum kann aber auch zu Lösungen oder Lösungsstrategien führen, die man als Mensch nicht mehr nachvollziehen kann und auch sehr skurrile Fehler enthalten können (z.B. wenn irgendein Pixelsalat als "Hund" klassifiziert wird, weil die Pixel zufällig genauso angeordnet sind, dass das NN dahinter "Hund" als wahrscheinlichste Lösung sieht).
PS828 schrieb:
@C.J. mein Beispiel war nicht auf eine Chat KI bezogen. Sondern auf eine die speziell für sowas gebaut wurde
Siehe meinen vorigen Absatz. Kann funktionieren, aber wenn technisches Verständnis da ist und es nur darum geht, etwas wirklich auszurechnen, würde ich eine analytische Methode eher vorne sehen. Egal wie spezialisiert die KI (oder besser das ML-Modell) ist.
 
  • Gefällt mir
Reaktionen: PS828
[wege]mini schrieb:
(...)
Die Software passt man an. Die Menschen, die bei dir gelernt haben, haben diese Möglichkeit nach Jahren der "Bildung" für die verantwortlich bist, wohl eher nicht.
(...)
Neben den pm auch hier noch kurz zu beiden Punkten.

Zuerst in Bezug aufs Anpassen der Software, da bin ich ja wie gesagt sehr pessimistisch:
Erstens, weil es für die jetzigen Chat-Modelle trotz Milliarden an Input-Argumenten an vielen (und auch an überraschend "einfachen") Stellen schwierig ist, über Wahr oder Falsch korrekt zu urteilen (siehe die computerbase-Meldung). Das scheint mir ein sehr grundsätzliches Problem zu sein - wenn es halbwegs einfach aus der Welt zu schaffen wäre, wäre das mit als erstes passiert.
Zweitens, weil es wie gesagt auf viele Fragen keine eindeutigen Antworten gibt.
Drittens, weil abwägende "könnte"- "vielleicht"- "sowohl als auch"-Antworten für das Gros der Menschheit und Situationen weniger attraktiv sind und damit auch ein viel schlechteres Geschäftsmodell. Alle sozialen Medien belegen dieses BILD-Prinzip meiner Meinung nach eindrucksvoll.

Zum zweiten Punkt spiele ich gerne den Deppen, der hier ernst antwortet (ein Prof. bin ich übrigens nicht) :)
Ich war selber so ein Typ Schüler und Student, und um gut darin zu sein, braucht man einige Fähigkeiten und Fertigkeiten, die im späteren (Berufs-)Leben sehr wertvoll sein können ("Was ist die Erwartungshaltung meines Gegenübers? Worauf achtet er/sie?"; allgemein: ein angemessen selbstbewusstes Auftreten; usw.). Aber vor allem steht man als Lehrende:r unweigerlich vor dem Problem, dass man nicht Jedem und Jeder alles Wissen hinterhertragen kann oder es auch nur versuchen sollte (frag mal du-weißt-schon-wen), und spätestens im Studium gehört eigenständiges und selbstreguliertes Lernen zu den wichtigsten Voraussetzungen und/oder Zielen. Darum versuche ich Studierenden das möglichst früh im Studium zu feedbacken. Ein Hoffnungsschimmer: Selbst ich alter Mann arbeite nach einigen blutigen Nasen weiter mühsam (aber doch noch mit etwas Erfolg, glaube ich) daran, weniger auf Fassade und mehr auf gute Sachargumente zu setzen :p
 
C.J. schrieb:
Das wäre an sich noch kein Beinbruch, wenn die Menschen denn die gefundenen Informationen kritisch betrachten und sich ihre Meinung selber bilden würden. Genau das passiert aber heute schon nicht hinreichend und wenn man sich den ChatGPT-Hypetrain anschaut, dann werden in meinen Augen viele diesen Shortcut nehmen nicht mehr selber nachdenken zu müssen, weil man ja jetzt eine KI hat, die einem das schwere Denken abnimmt.
Man kann nicht alle retten.
ChatGPT ist auch nicht dafür da einem das schwere Denken abzunehmen, es nimmt mir vorallem das nervige Denken ab. Allein hier im Thread die handvoll Beispiel wie schlecht einfach die Google Suche ist, bzw. was sie schlichtweg nicht kann. Plus die SEO Seuche der letzten Jahre.

Übrigens auch sehr geil für youtube: https://chrome.google.com/webstore/detail/youtube-summary-with-chat/nmmicjeknamkfloonkhhcjmomieiodli
Ist vielleicht aufgefallen, dass youtube Videos immer länger werden? Mit immer mehr Gequatsche aufgefüllt und gedehnt werden? So funktioniert halt leider der Algorithmus. Bzw. man ist nur erfolgreich im Algorithmus wenn man so lange Videos produziert und die Zuschauer bindet.
Man hat quasi nur noch die Wahl im Shorts Strudel zu versinken oder sich elendig lange Videos reinzuziehen. Einige im Bekanntenkreis stellen youtube deswegen schon auf 1,5x Speed.

Dieses Plugin spart einfach Lebenszeit und dampft die relevanten Informationen in Textform zusammen.
 
  • Gefällt mir
Reaktionen: Moerf
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben