u-blog schrieb:
Fantastisch, mein Probemonat ist gerade abgelaufen und GPT4 war eine immense Erleichterung meiner "Arbeit" (Browser-MMO als relativer Code-Anfänger bauen), während 3.5 mehr Zeit gekostet als eingespart hat.
Der Unterschied war gerade bei längeren Unterhaltungen immens, GPT4 hat teilweise noch Anmerkungen von vor 50 Prompts mit bedacht, während 3.5 das spätestens beim übernächsten Prompt wieder vergessen hatte.
Ja, GPT3.5 ist im Vergleich zu GPT4 praktisch "schrott".
Ich nutze GPT4 schon eine ganze Weile im Copilot and die Unterhaltungen sind überhaupt nicht mit GPT 3.5 vergleichbar.
Mich wundert im Nachhinein, dass GPT3.5 überhaupt diesen Hype erzeugen konnte. Es ist wie du sagst extrem vergesslich, versteht nicht richtig wenn man nachfragt, bzw. berücksichtigt es nicht und arbeitet stur sein "ding" ab. "AI" kann man darin höchstens erahnen. Beeindruckend ist da bestenfalls der Wissenskatalog, aber mehr auch nicht. Ansonsten ist es nur für sehr stumpfe und einfache regelbasierte Aufgaben brauchbar aber nicht, um irgend eine komplexere Problemstellung zu lösen oder auf kreative Fragen mit kreativen Antworten zu reagieren.
Mir kommt GPT3.5 in der ChatGPT App sogar nochmal deutlich schlechter als GPT3.5 im Copilot vor, obwohl es angeblich die selbe Version ist..
Ne, wenn dann GPT4. Damit hat KI für mich dann auch eine gewisse Schwelle überschritten, wo ich dann auch wirklich disruptives Potenzial für die Gesellschaft sehe und nicht nur einen besseren Karl Klammer der code snippets oder Tabellen erstellen kann.
Sollte GPT5 nochmal so einen Sprung wie von 3.5 auf 4 machen, dann wird das ziemlich viel auf den Kopf stellen, jede Wette.
CyrionX schrieb:
Darum erwarte ich , dass die AIs leider zunehmend mit dem Fokus trainiert werden lebendig zu wirken als wirklich die Konzepte zu "verstehen". Zumindest was die Face2face Kommunikation betrifft. Von intelligenteren Gesprächen, wie man sie mit einem Menschen führen würde, ist man hier noch Meilenweit entfernt.
Natürlich wird das versucht. AI in der From von ChatGPT MUSS Menschlich funktionieren, da wir es nunmal mit Sprache und Text bedienen.
Aktuell hat man teilweise das Problem, dass man mehr oder weniger Prompt engineering betrieben muss, damit das Modell das macht, was man will und auch die richtigen Antworten liefert.
Um das Potenzial auszunutzen ist es daher essenziell, dass die Fähigkeiten über möglichst natürliche Formulierungen bzw. Unterhaltungen nutzbar werden.
Es ist halt wenig gewonnen, wenn AI nur effektiv ist, wenn man nen Block aus sorgfältig ausgewählten Promts als Input gibt..
Dass daran gearbeitet wird finde ich verdammt wichtig. Es ist nunmal ein Chat Bot. Der soll eben im wahrsten Sinne fähig sein wie ein mensch zu "chatten". Das ist der Sinn des ganzen.
Sieh es meinetwegen als Update für die HMI Schnittstelle.