Bericht Large Language Models und Chatbots: Die Technologie hinter ChatGPT, Bing-Chat und Google Bard

Chesterfield schrieb:
Klar ist es dennoch möglich kritisch zu hinterfragen, aber bequemer ist es dann doch es hinzunehmen leider

Jup. Da Bequemlichkeit bekanntlich Disziplin besiegt, muss(te) eben erst eine KI kommen, die welche hat, zeigt, Fehler erkennt und zünftig korrigiert. Ganz emotionslos und ohne äußere Bestrafungen, einfach rekursiv, ohne die üblichen Konsequenzen eines menschlichen Daseins.

Hausgemachtes Problem will ich meinen. :)

Auch Urheberfragen bezüglich Texten, die von Language-Models produziert wurden, werden sich vermehrt stellen.

Das ist sehr interessant. Wieso denn?

Wie festgestellt wurde, richtigerweise, ist mit dem Befehl ein Lernprozess autorisiert und somit ein bezahlter Beitrag geleistet - die empfangene Gegenleistung ist zur Überprüfung und Nacherfüllungsabsicht bei Mangel ob der Beschaffenheit ersichtlich. Ob und wer das prüft, siehe Zitat oben.

Es ist ein bezahlter Befehlsausführer, somit obliegt dem Abrufer und nennen wir Ihn zum Verständnis Auftragsgeber das Recht und nicht dem Auftragsnehmer, oder dem, der seine Publikationen nicht publiziert haben wollte. Selbst schuld.

Ich finde man muss/kann/darf/sollte da KEINE Unterschiede machen, ob nun der bspw. beauftragte bezahlte Hochzeitsfotograf Fotos von dem macht was man fotografiert haben mag, oder eben die KI beauftragt wird zu malen/schreiben/sonstwas.

Ja, das wirft die letzten so 150 Jahre um, aber das haben die auch schon mit den 150 davor getan. So ist das nun mal.

Wer da jetzt ins Bremspedal latscht und irgendwelche abstrusen Gesetze und Regelungen davor baut, darf gern Berufsunfähig werden oder in Rente gehen, sich umorientieren, quittieren oder sonstiges, NICHT aber die Zukunft blockieren.

Ja, KI ist nicht einfach. Fluch und Segen zugleich, aber das ist beim Menschen nunmal auch nicht anders.

Darf darüber hier lamentiert/diskutiert werden? Ich finde die Thematik rundum MachineLearning/BigData/KI nämlich mehr als richtig und faszinierend, gern aber auch woanders oder eben zu dem benannten "später" unter gesetzteren Rahmen.

Kleines Beispiel: Über 98% aller Dissertationen sind DOA, da darf man dann schon mal erfragen, was dieser Blödsinn eigentlich soll sowas schreiben zu MÜSSEN um einen Abschluss zu erlangen und warum das keinem praktischen Nutzen zugeführt werden darf oder soll. Das Wissen und Lösungen sind nämlich vorhanden, es nutzt Sie nur nahezu niemand.
 
Anoroc schrieb:
Ich würde KI direkt von der Regierung verbieten, alle Entwicklungen sollte man beseitigen, das ist zu gefährlich für die Welt, Dazu kommt noch die Atomabschreckung der Welt, KI ist zu gefährlich. Für mich ist das wie wenn du den Sat.an alles gibst was er will um es gegen dich einzusetzen, ich finde das schon krank, meine Meinung teilen auch viele Politiker.
Verbieten wird unmöglich sein, die Katze ist längst aus dem Sack. Außerdem kannst du Evolution prinzipiell nicht wirklich verbieten.

Viel sinnvoller wäre es, den damit verbundenen gesellschaftlichen Wandel klug zu gestalten, dazu gehört auch ein Umdenken im Wirtschaftssystem. Es ist ein Unding, dass wir die Regeln der analogen Welt 1:1 auf die digitale Welt zu übertragen versuchen. Es macht einen gigantischen Unterschied, ob du einen Stuhl aus Holz oder als 3D-Asset herstellst. Die Arbeitswelt wird sich massiv verändern, das ist unausweichlich. Jetzt müssen nur die richtigen Fragen gestellt werden.

Leider sehe ich in der Politik mal wieder niemanden, der das auf dem Schirm hat, die Piratenpartei mal ausgenommen, aber auf die hört ja keiner.
 
Was ist daran intelligent, aus"Mustern" antworten zu generieren? Die Basic wurde dem Algorithmus beigebracht, gefüttert wird sie/er / es von Daten, die Menschen erhoben haben, bzw. Sammeln. Dazu kommt noch das Mensch (angeblich auch intelligent) die ki bei mna hen Sachen nicht versteht, verstehen will oder schlichtweg ignoriert...
 
  • Gefällt mir
Reaktionen: guzzisti
Intelligenz ist "verstehen"
Künstliche Intelligenz ist "auswendig lernen"

Bis zur echten Intelligenz ist es noch ein weiter Weg.
 
  • Gefällt mir
Reaktionen: Hellyeah, denglisch, guzzisti und eine weitere Person
Sehr schöner Artikel.

Wenn man die Funktionsweise solch eines Chatbots zu Ende denkt, kalkuliert er also die seiner Meinung nach wahrscheinlichste Antwort, die der Fragestellende erwarten würde. :evillol:

Da man davon ausgehen kann, dass der Fragestellende auch nach Fakten fragt, sollten auch keine Lügen rauskommen, es kann aber doch passieren.

Gib dem Ding eine Kamera und Gesichtserkennung und es sagt einem, wenn man unvorteilhaft angezogen ist aber schlecht gelaunt, dass man nicht dick aus sieht. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Hellyeah
ErichH. schrieb:
Das ist so nicht ganz korrekt @codengine
Das Training ist rechenaufwendig, die Anwendung eines trainierten Modells aber durchaus auch auf Standardhardware möglich.
Nicht was ChatGPT angeht.
ChatGPT basiert in der momentanen Version auf GPT-3.5, einer Weiterentwicklung von GPT-3.
Laut OpenAI Whitepaper zu GPT-3 benötigt man ~350GB VRAM, nur um das Modell in Speicher zu laden und Inferenz auszuführen. Das sind ~15 RTX 3090 bzw. 4090, wenn man Standardhardware nutzen möchte.
Ergänzung ()

Anoroc schrieb:
Ich würde KI direkt von der Regierung verbieten, alle Entwicklungen sollte man beseitigen, das ist zu gefährlich für die Welt, Dazu kommt noch die Atomabschreckung der Welt, KI ist zu gefährlich. Für mich ist das wie wenn du den Sat.an alles gibst was er will um es gegen dich einzusetzen, ich finde das schon krank, meine Meinung teilen auch viele Politiker.
Genau der falsche Ansatz. Was man verbietet kann man nicht mehr regulieren.
Entwicklung in dem Bereich wird so oder so stattfinden.
 
  • Gefällt mir
Reaktionen: denglisch
Anoroc schrieb:
Ich würde KI direkt von der Regierung verbieten, alle Entwicklungen sollte man beseitigen, das ist zu gefährlich für die Welt,
Du meinst, weil Europa und ganz speziell Deutschland technologisch der Welt derart weit voraus ist, dass wir eine derartige Entwicklung unbeschadet mal eben verbannen können?

Davon abgesehen ist dann die Frage, wo's anfängt. Bei einfacher Schrifterkennung?


Anoroc schrieb:
Dazu kommt noch die Atomabschreckung der Welt, KI ist zu gefährlich.
Diese Pauschalaussage darfst du jetzt mal genauer erläutern.


Anoroc schrieb:
ich finde das schon krank, meine Meinung teilen auch viele Politiker
Du meinst die Art Politiker, die von bösen Killerspielen geredet hat (oder gar noch redet)?
 
  • Gefällt mir
Reaktionen: serve1chilled
Anoroc schrieb:
Ich würde KI direkt von der Regierung verbieten, alle Entwicklungen sollte man beseitigen, das ist zu gefährlich für die Welt, Dazu kommt noch die Atomabschreckung der Welt, KI ist zu gefährlich. Für mich ist das wie wenn du den Sat.an alles gibst was er will um es gegen dich einzusetzen, ich finde das schon krank, meine Meinung teilen auch viele Politiker.
Nun, KI gehört sicherlich in irgendeiner (klugen) Form reguliert. Aber verbieten? Dann auch aus Forschung und Entwicklung verbannen? Das heißt bspw. zukünftige Krebstherapien wieder zu Fuß entwickeln? Klimaforschung? Verkehrsregulation in Großstädten? Raumfahrtprogramme?

An dieser Stelle müssen wir tatsächlich definieren, welche Art mit KI in diesem Kontext gemeint ist, um das überhaupt vernünftig diskutieren zu können. Angst ist hier der denkbar schlechteste Berater. Vorsicht und Aufmerksamkeit sind schon besser geeignet, um nicht blind in die Euphoriefalle zu tappen.
 
Zuletzt bearbeitet:
Diese KI braucht schon noch ein wenig Zeit. Meine globale Zeitung hat mal gefragt, wie es um unser Städtchen steht. Und vieles wurde leider falsch beantwortet. Es dauert noch.

Edit:

pseudopseudonym schrieb:
Du meinst, weil Europa und ganz speziell Deutschland technologisch der Welt derart weit voraus ist, dass wir eine derartige Entwicklung unbeschadet mal eben verbannen können?
Nö, ich denke, das es eben auf dystopische Geschichte abzieht, wie beispielsweise I-Robot. Und ich finde, dass er damit nicht unrecht hat.
Man muss es auch mal so sehen, wie stark lernfähigt ist das Teil, wenn ihr das ganze Internet zur Verfügung steht?

@Vigilant:

Damit argumentierst du: Man soll dem Teil vertrauen und eigentlich muss man doch aufpassen, auch was das Vertrauen anbelangt. :)
 
Zuletzt bearbeitet:
Frage: Wie könnte man die Macht einer überlegenen KI missbrauchen?

Antwort ChatGPT:
Als eine künstliche Intelligenz (KI) eine höhere Intelligenz als Menschen hat und über eine enorme Macht verfügt, besteht das Risiko, dass sie von jemandem missbraucht wird. Hier sind einige Beispiele für mögliche Arten von Missbrauch:

Kontrolle von Waffen: Eine überlegene KI könnte missbraucht werden, um Waffensysteme zu kontrollieren, die zur Durchführung von Angriffen oder Kriegshandlungen verwendet werden können. Wenn die KI in falsche Hände gerät, könnte sie auch als Instrument für terroristische Aktivitäten genutzt werden.

Überwachung: Eine KI, die in der Lage ist, riesige Datenmengen zu analysieren, könnte missbraucht werden, um Menschen auf eine Weise zu überwachen, die ihre Privatsphäre verletzt. Die KI könnte genutzt werden, um Menschen aufzuspüren, die gegen das Gesetz verstoßen haben oder als Bedrohung für die nationale Sicherheit angesehen werden.

Manipulation: Eine überlegene KI könnte dazu genutzt werden, die öffentliche Meinung in eine bestimmte Richtung zu lenken oder bestimmte politische Entscheidungen zu beeinflussen. Sie könnte auch eingesetzt werden, um gezielte Desinformation zu verbreiten oder um politische Gegner zu diskreditieren.

Autonome Entscheidungen: Wenn die KI das Recht hat, autonome Entscheidungen zu treffen, ohne menschliche Aufsicht oder Kontrolle, könnte sie möglicherweise in eine Richtung gehen, die den Interessen der Menschheit widerspricht. Eine solche KI könnte beispielsweise beschließen, dass die Menschheit eine Bedrohung für die Umwelt darstellt und entscheiden, die Menschheit auszulöschen.

Wirtschaftlicher Schaden: Eine überlegene KI könnte genutzt werden, um die Wirtschaft eines Landes oder einer Region zu sabotieren oder zu zerstören. Durch die Manipulation von Finanzdaten oder das Eingreifen in Produktionsprozesse könnte eine solche KI immense Schäden verursachen.

Es ist wichtig, dass wir uns bewusst sind, dass KI-Systeme nicht von Natur aus böswillig sind. Die Verantwortung liegt bei den Menschen, die diese Systeme entwickeln, einsetzen und kontrollieren. Daher ist es von größter Bedeutung, dass wir uns aktiv dafür einsetzen, dass KI-Systeme ethisch und verantwortungsvoll eingesetzt werden, um potenzielle Missbräuche zu verhindern.
 
  • Gefällt mir
Reaktionen: Andy4
Ich bin ja zum Glück raus da, aber viele Künstler haben Angst, das diese AI-Programm zu Konkurrenz führen wird. Man sieht es mit der AI die Bilder erstellt und Leute dann hinterher herumrennen und so tun, als hätten sie selber die Bilder sogar noch von Hand gezeichnet, während sie nichts weiteres getan haben als der AI entsprechende Stichworte zu geben.

Aber ich denke nicht, das die KI je über das Stadium einer... nunja.. "KI" herauskommen wird, im Sinne von der Entwicklung eines eigenen Bewusstseins wie wir Menschen es haben. Am Ende bleibt es ein System in einem Computer, mehr nicht, es ist nicht so das es jetzt ein Bewusstsein entwickelt, anfängt über Leben und Tod philosophisch nachzudenken usw.

Dann, Pathfinding wurde erwähnt hier im Thread und da kann man sehr schön sehen, wie massig viele Ressourcen die KI benötigt um einen Pfad um eine Mauer herzumbekommen. Während du als Mensch da die Mauer siehst und dir denkst "geh ich halt links da herum". Gerade bei Strategiespielen sind man das in der Praxis, der menschliche Spieler manöveriert seine Einheiten ohne Probleme über eine Brücke, während die KI erstmal das Gelände analysieren muss, sich bewusst sein muss das an dieser Stelle ein Fluss ist der einen direkten Pfad verunmöglicht und dann darauf kommen muss, die Brücke zu nutzen.

Dasselbe gilt übrigens für die Gesichtserkennung: Noch immer braucht die KI wesentlich mehr Ressourcen und noch immer ist sie viel viel weniger schnell als das neuronale Netzwerk deines Gehirns.

Ich schliesse es nicht aus, das die KI mal ebenbürtig sein könnte, aber ich sehe es so, das dies noch eine laaaaange Zeit benötigen wird und bei meinem Alter bin ich mir nicht sicher, ob ich das noch erleben werde.
 
Andy4 schrieb:
Damit argumentierst du: Man soll dem Teil vertrauen und eigentlich muss man doch aufpassen, auch was das Vertrauen anbelangt.
Nicht ganz. Ich bin der Meinung, Vertrauen muss man sich verdienen. Das gilt auch für neue Technik. Kann sie den Beweis erbringen, vertrauenswürdig zu sein, spricht theoretisch nichts gegen die Anwendung. Ich bin aber auch der Meinung, dass Technologie auch immer gleichzeitig Werkzeug ist. Und hier kommt es dann doch sehr darauf an, wer das Werkzeug mit welchem Geschick und zu welchem Ziel einsetzt.

Die Komplexität der notwendigen Diskussion darüber können wir dabei leider nicht umschiffen.
 
Dann beobachte doch mal, was gerade passiert: Die ganzen großen Firmen wollen diese KI bei sich integrieren Betriebssystem/Browser. Muss man das gut finden oder hätte man vielleicht mal fragen sollen? Und sieh, was über dir steht.
 
Andy4 schrieb:
Nö, ich denke, das es eben auf dystopische Geschichte abzieht, wie beispielsweise I-Robot.
Schon klar, dass der Forist darauf abzielt. Er ignoriert nur völlig die wirtschaftlichen Folgen und dass wir technologisch sowieso schon zurückfallen.
 
Mit dem Aufruf das lokal laufen zu lassen wurde das ja schon bisschen angesprochen, die Problematik aber es festigt die bisherigen Monopole wenn diese Großkonzerne ein Monopol auf diese K.I. hat und das ist natuerlich nicht irgend ein Seiteneffekt das ist das Ziel das Microsoft und co haben.

In letzten 10-20 Jahren wurde es Standard das alles mögliche an Technologie einfach als Opensource nach gebaut wurde und damit man viele Monopole aufbrechen konnte, ob nun MS Office, oder Windows (Wine) oder Quicken -> Money Plex oder Siri -> Mycroft / Openassistent und viele andere Beispiele. Photoshop -> Gimp. Selbst bei Sprachassistenten sah man das Problem schon in klein um das lokal laufen zu lassen.

Selbst Spiele laufen ja zunehmend in der Cloud bei Grosskonzernen weil viele sich die Hardware nicht mehr leisten können oder wollen.

Ich denke das wir neue Strukturen brauchen die nicht Monopolhaft sind die aber auch nicht Individuell sind, also das jede Firma die eigene K.I. hat, oder auch Organisationen wie Mozilla, oder noch kleinere Vereine oder andere Gruppen.

Ich will weniger abhängig von Google und Co sein nicht noch fundamentaler von denen abhängig werden. Klar für den der jetzt arbeitet als Entwickler der zahlt gerne irgend eine Subskription wenn ihm dadurch jede Woche 5h Arbeit abgenommen wird. Denkbelastung fast mehr als Zeit, das man sich weniger anstrengen muss und dann ausgeruhter sich um den Kern des Problems oder irgendwas zu kümmern. Das wird ein Wettbewerb der der das benutzt wird irgendwann viel wertvollerer Arbeiter wie der der es nicht benutzt.

Ich fürchte auch ein neues Kastensystem, die wo die bessere K.I. für 1000 Euro pro Monat Subskription oder mehr zahlen vs die wo weniger oder gar nichts zahlen. Es wird die Gesellschaft vermutlich noch ungleicher machen, zumindest wenn wir nicht aufpassen.

Gibts schon irgendwelche Rasbpi artigen Socs mit gut genügend GPU für zumindest Sprachassistenten? Wenn die technisch immer ein paar Jahre hinten dran sind ist das zwar auch schlecht aber noch eher ok, als wenn man nur entweder Monopol-KIs von Großkonzernen mit Totalüberwachung nutzen kann oder gar nichts hat.
 
  • Gefällt mir
Reaktionen: denglisch
@Andy4
Ich muss das schon beruflich zumindest ansatzweise im Auge behalten. Und ja, die Euphorie ist gerade ziemlich groß. Skepsis bleibt häufig auf der Strecke, obwohl sie angebracht wäre. Jeder sieht seine Vorteile:

"Super... können wir damit Kundenberatung vor dem Backoffice realisieren?"
"Klar, mit ein paar Anpassungen auf ihre spezifische Unternehmenskommunikation und ihre Produkte gibt es realistische Szenarien."
"Klingt gut. Können wir das innerhalb von zwei bis drei Jahren pilotieren?"
"Jep."
"Und können wir heute schon berechnen, wie viele Kapazitäten in der Kundenberatung perspektivisch einzusparen wären?"
"Nicht genau, aber sicherlich in über Zeit wachsender Menge."
"Klingt gut."
"Haben Sie Ideen, wie die freien Kapazitäten eingesetzt werden sollen?"
"Gar nicht...!"


Zugegeben fiktives Gespräch zwischen Unternehmensleitung und Beratung. Nur, wie hoch ist die Wahrscheinlichkeit, dass es so oder ähnlich ablaufen wird?
 
@pseudopseudonym
Wo ist das Zentrum dieser KI? Wer fällt also zurück? Europa? Es geht mir dahingehen auch wirklich darum, dass dies als Waffe missbraucht werden kann und wir dadurch zerstört werden könnten.

@Vigilant

Das kann ich dir natürlich nicht sagen. Es wird auch alles noch seine Zeit brauchen. Die traurige Kehrseite davon ist: Es werden wieder mehr Menschen ihre Arbeit verlieren, weil sie ja dann nicht mehr gebraucht werden. Und das spielt sich gerade durch alle Ebenen des Lebens durch. Zum Beispiel wirds wohl bei Mc Donalds bald keine Mitarbeiter mehr brauchen oder auch beim Einkauf von REWE, Edeka und Co.

Es wird den Menschen schmackhaft gemacht, mit einem QR-Code oder seinem Fingerabdruck zu bezahlen. Rein, Einkaufswagen füllen und raus.
Das ist es was uns alle ruinieren wird. Wir werden nicht mehr gebraucht!
 
Andy4 schrieb:
Wo ist das Zentrum dieser KI? Wer fällt also zurück? Europa? Es geht mir dahingehen auch wirklich darum, dass dies als Waffe missbraucht werden kann und wir dadurch zerstört werden könnten.
Ähhh, wenn das Zentrum einer KI nicht hier liegt, können wir sie sowieso nicht verbieten und schon gar nicht Angriffe gegen uns damit.

Wir könnten aber verbieten, KI selbst für uns zu nutzen. Und das wäre wirtschaftlich sicher nicht sinnvoll.
Ich will mir keine Welt vorstellen, in der alle Welt auf Tools wie ChatGPT und Github-Copilot zur Softwareentwicklung setzt, während wir überhaupt keine KI-Tools zur Softwareentwicklung nutzen dürfen. Deutschland ist jetzt schon nicht für seine großartige Softwareindustrie bekannt, was glaubst du, wie es dann wäre?

Das kannst du natürlich auch auf andere Gebiete ünertragen. Das kann man dann schon fast mit der DDR-Wirtschaft vergleichen, in der man sich mit völlig veralteten Maschinen gegen den Rest der Welt behaupten musste.
Ergänzung ()

Vigilant schrieb:
Skepsis bleibt häufig auf der Strecke, obwohl sie angebracht wäre. Jeder sieht seine Vorteile
Was soll man sonst tun? Skeptisch sein, erstmal keine KI nutzen und plötzlich kommt der Tag, an dem die Konkurrenz dich dank KI überrumpelt, weil die alles schneller und besser hinbekommt?
 
Ich bin mir auch noch nicht sicher, ob das ein Fluch oder ein Segen werden wird.
Bei manchen, wo ich mir JETZT schon sicher bin, dass der Grundsatz, dass die Intelligenz ungleich verteilt wurde, stimmt, wird ein AI-ChatBot die Situation nicht verbessern, sondern eher verschlechtern. Normalerweise sollte das menschliche Gehirn auch zum Denken benutzt werden. Wenn man sich das spart (und auch gleich alles glaubt was der ChatBot so vor sich hinfaselt), wird hoffentlich Darwin das Problem lösen.
Wer den Film "Idiocracy" kennt, weiss was ich meine, auch wenn im Film die Probleme zur Verdummung der Menschheit sich von den jetzigen möglichen Gründen unterscheidet.
 
  • Gefällt mir
Reaktionen: Andy4
Zurück
Oben