Bericht Large Language Models und Chatbots: Die Technologie hinter ChatGPT, Bing-Chat und Google Bard

RobZ- schrieb:
Wofür benutzt ihr ChatGPT überhaupt sinnvoll? Hab nun Zugang und keinen Schimmer was ich damit soll :D
Meine Lieblingsanwendung ist das Programmieren. Ich hasse z. B. UI-Programmierung, wenn ich mal wieder muss. Eine kurze Beschreibung, was ich wie brauche und wie sie darzustellenden Daten aussehen, und ich erhalte meistens ein Grundgerüst, das ich nur noch etwas anpassen muss.

Auch an anderen Stellen kann man sich damit schnell ein Grundgerüst hinstellen, auf dem man aufbauen kann. Klar, man muss genau sagen wasan wie braucht und anschließend sollte man das Ergebnis verstehen und kontrollieren.
 
RiversOnRevers schrieb:
Ich will das offline nutzen könnnen.

Gibt es dafür keine Möglichkeit?
Solange du nicht ein eigenes Kraftwerk, viele tausend Euro und genug Platz dein Eigen nennst sicher nicht. Das läuft auf brutaler Hardware.

Ich nutze seit knapp einer Woche GPT in Bing und bin begeistert. Ich konnte sogar einem User hier im Forum damit helfen nachdem er keine Antworten erhielt :D

Gerade als Unterstützung beim Programmieren ist es sehr hilfreich.Beispiel: "Das Rendering der DataGrid ist langsam. Was kann ich tun?" Antwort "u. A. kann man virtualisierung verwenden"
 
  • Gefällt mir
Reaktionen: pseudopseudonym
Das ist so nicht ganz korrekt @codengine
Das Training ist rechenaufwendig, die Anwendung eines trainierten Modells aber durchaus auch auf Standardhardware möglich.
 
  • Gefällt mir
Reaktionen: breedmaster
Ich hab dazu noch keine Daten gefunden aber wieviel Speicherplatz wird man wohl für das Modell brauchen?
 
Abrexxes schrieb:
Genau da könnte KI ein Problem sein. Wie willst du die (Schwierigkeitsgrad) sinnvoll und nachvollziehbar "dümmer" machen? Da könnte selbst PacMan zum Hardcore werden. Es sei denn du "lernst" sie zu verlieren, aber tut sie das dann immer bei jedem? Wahrscheinlich würde dann jeder ein anderes Spiel spielen. 🤔
Naive Ansätze:
  • keine fertigen Stages sondern welche mitten aus dem Learning nutzen
  • verschieden komplexe Architekturen nutzen; weniger Neuronen/Layer können Probleme idR nicht so effektiv lösen/erlernen. Der Schwierigkeitsgrad der Videospiel-KI wächst dann mit der Komplexität der Netze.
  • verschieden komplexe Sets zum Lernen
 
  • Gefällt mir
Reaktionen: Abrexxes
Ich finde ChatGPT und/oder den Bing-Ableger ziemlich nützlich.

Die Bots unterstützen mich nämlich bei Dingen die mir zuvor mehr oder weniger echt schwer gefallen sind.

Beispiel: Eine Einkaufsliste für eine Woche wo mehrere Zutaten in mehreren Gerichten Verwendung finden, im optimalen Fall so, dass nichts übrig bleibt. Wir haben dank der "KI" schon ein paar neue Dinge ausprobiert und waren bislang immer zufrieden :D

1678112610213.png
1678112623609.png
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps
codengine schrieb:
Ich hab dazu noch keine Daten gefunden aber wieviel Speicherplatz wird man wohl für das Modell brauchen?
bei 175Milliarden Parametern ist GPT3 von OpenAI deutlich mehr als das zum Download verfuegbare GPT2. Das kannst du ja mal probieren. Aber GPT3 ist eh nicht gleich GPT3 - du kannst es ja auch bei dir selbst trainieren, nur wirst du nicht auf die gleichen Trainingsdaten zugreifen koennen. Das ist ja genau das Asset von OpenAI. Oder Bard. Oder ...

Hier mal ein Deployment Beispiel:
https://developer.nvidia.com/blog/deploying-a-1-3b-gpt-3-model-with-nvidia-nemo-megatron/

Deutlich kleinere Modelle wie das hier brauchen z.B. schon knapp 45GB VRAM fuer Inference: https://github.com/EleutherAI/gpt-neox#pretrained-models

Aber lokal wird sowas eh niemand deployen, wir machen die meisten Sachen auch eher noch on-Demand bei Lamda Labs oder so dann.
 
  • Gefällt mir
Reaktionen: denglisch
Weil etwas Neues (die Ergebnisse des Bots finden sich meist nirgends Wortgenau in den Quelldaten) "nur" durch bestehendes erlernt/adaptiert/kombiniert wurde, ist es keine Intelligenz? Was sind wir dann eurer Meinung nach? Aus einem scharfen Stein wurde eine Axt und aus einem Blitzeinschlag eine Feuerstelle um Essen zuzubereiten.
Ihr verwechselt Intelligenz mit Bewusstsein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiG001
Auf diesen Artikel erstmal ein KI erstelltes Gedicht über Computerbase.de und mit speziellen Grüßen an @zeedy ;)

Screenshot_20230306_154227_org.mozilla.firefox_edit_3545973616939124.jpg
 
  • Gefällt mir
Reaktionen: zeedy
ripa schrieb:
Weil etwas Neues (die Ergebnisse des Bots finden sich meist nirgends Wortgenau in den Quelldaten) "nur" durch bestehendes erlernt/adaptiert/kombiniert wurde, ist es keine Intelligenz? Was sind wir dann eurer Meinung nach? Aus einem scharfen Stein wurde eine Axt und aus einem Blitzeinschlag eine Feuerstelle im Essen zubereiten.
Ihr verwechselt Intelligenz mit Bewusstsein.

Genau das habe ich beim Lesen der Begriffs-Kritik hier eben auch gedacht. Meiner Meinung nach wissen Menschen die meisten Dinge, weil andere Menschen sie vorher herausgefunden haben. Nur einen Bruchteil erfinden sie mit der eigenen Intelligenz wirklich neu.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, denglisch und MiG001
flaphoschi schrieb:
Unter dem Begriff KI hatte ich viel mehr erwartet. Was wir haben ist laut Artikel Mustererkennung, Gewichtung und Vorraussage - anhand bisheriger Eingaben. Und dann basieren die Antworten auf Wissen das Menschen vorher schon eingegeben haben oder halt per Internet-Crawler. Es denkt also nicht.
Funktioniert unser Gehirn denn anders? Wir sind doch auch nur ein Sammelsurium von Eindrücken, die durch Erfolg und Misserfolg priorisiert wurden.
 
  • Gefällt mir
Reaktionen: |Moppel|, MiG001, blackiwid und 3 andere
RiversOnRevers schrieb:
Ich will das offline nutzen könnnen.

Gibt es dafür keine Möglichkeit?
Theoretisch könnte man ein Model wie chatgpt das auf einem statischen Datensatz beruht noch lokal ausführen. Es braucht aber starke Hardware und ist nur sehr begrenzt nützlich weil man eben auf keinerlei aktuelle Informationen zugreifen kann.

Die Bing AI hat ja in Kombination mit den Bing Crawlern Zugriff auf alles was gerade im Netz passiert und diese Informationen fließen in die Antworten ein. So was ist ohne eigenes Rechenzentrum nicht machbar und "offline" sowieso schon Mal gar nicht.
 
Wieviel CO2 Ausstoss wird eigentlich durch eine Frage erstellt?

:D back in my days (2007 herum) hat man mir gesagt, man solle google wenig benutzen, da es sehr viel Strom frisst.
 
Vigilant schrieb:
Genau hier könnte eine "KI" aber ebenso ansetzen, um beim Üben entsprechender Skills und Fähigkeiten zu unterstützen. Je nach Fähigkeit beinahe ebenso interaktiv wie eine Lehrerin.
Ich verstehe deine Intention und ergibt auch wirklich Sinn, aber in meinem Falle habe ich durch "Erleichterung" meinen Skill verloren. Sehr bedenklich für mein Empfinden.
 
  • Gefällt mir
Reaktionen: rosenholz, Vigilant und KitKat::new()
k0ntr schrieb:
Wieviel CO2 Ausstoss wird eigentlich durch eine Frage erstellt?

GIGA zu ChatGPT:
"Das System verbraucht 1.287 Megawattstunden Energie und 550 Tonnen Kohlendioxid. Die Zahlen sind vergleichbar mit 550 Hin- und Rückflügen zwischen New York und San Francisco."

https://www.giga.de/news/chatgpt-ha...is-das-uns-microsoft-und-google-verschweigen/

Ist verglichen mit dem, was bspw. das Google-Framework insgesamt an Rechenleistung beansprucht, vermutlich ein Klacks. Auf kurz oder lang wird der Energieverbrauch pro Anfrage aber natürlich steigen, wenn diese technisch deutlich komplexen Systeme, die immer stärker mit anderen Diensten vernetzt werden, in alle großen Suchmaschinen integriert werden. Das hängt ja auch daran, dass die Algorithmen selbst immer weiter lernen.
"mindestens das Vier- oder Fünffache an Rechenleistung pro Suche"
 
Zuletzt bearbeitet:
Ich würde KI direkt von der Regierung verbieten, alle Entwicklungen sollte man beseitigen, das ist zu gefährlich für die Welt, Dazu kommt noch die Atomabschreckung der Welt, KI ist zu gefährlich. Für mich ist das wie wenn du den Sat.an alles gibst was er will um es gegen dich einzusetzen, ich finde das schon krank, meine Meinung teilen auch viele Politiker.
 
  • Gefällt mir
Reaktionen: Andy4
Zurück
Oben