News Neue KI für ChatGPT und Bing: OpenAI veröffentlicht multimodales GPT-4-Sprachmodell

Highspeed Opi schrieb:
Hört sich für mich nach Erbsenzählerei an.
Es ist einfach falsch. Dachte Fakten wären wichtig?
Ohne Bahnmechanik geht es eben nicht. Dann soll, wie ich erwähnte, Chat-GPT die Flugzeit bei Gerade nennen, aber daraufhinweisen das man so nicht zur Sonne fliegen kann und die Flugzeit unglaublich viel länger ist als eine gerade Linie mit 20km/s abzufliegen.

Die Stecke Berlin New-York ist das selbe, es ist falsch, du kannst nicht mit dem Auto diese Strecke fahren.
Vor allem habe ich einen Formulierungsfehler gemacht, die korrekte Frage wäre "Wie lange man mit dem Auto von Berlin nach New York fährt", nicht wie weit. Dann wäre es ja richtig bekloppt und Analog.

Das die Allgemeinheit keine Ahnung über Bahnmechanik hat oder eben nicht einfach zur Sonne fliegen kann kommt dazu. Bei dem Autovergleich sticht es einem ja ins Auge.

Highspeed Opi schrieb:
Und was man zur Verteidigung weiterhin sagen kann:
Das System ist noch nicht lange für die Öffentlichkeit zugänglich.
Richtig, aber ohne Kritik kommt man nicht weiter.
Was machen wir wenn die KI lernt dumme Fragen richtig zu beantworten?
Wir verlernen es korrekte Fragen zu stellen.
Will jetzt nicht das Ende des Abendlandes prophezeihen, aber Studien etc. über den Bildungssektor zeigen genau das, je mehr Hilfsmittel desto schlechter. Kurzfristig boostet es, langfristig nicht.

Also im Grunde, Umgang mit KI / Chat-GPT muss auch "erlernt" sein.
Und hier sehe ich die Deutschen nicht.

Muss aber sagen, das so ein Quarkfehler der KI in einem Jahr wohl nicht mehr unterlaufen wird.
 
Zuletzt bearbeitet:
@Draco Nobilis
Hast du die (nachgereichten) Antworten durchgelesen? Die Antworten waren richtig.
Und wie schon erwähnt, übertreibst du es mit der Bahnmechanik ein bisschen.

Wenn man die Frage stellt, wie lange man mit dem Auto von München nach Berlin fährt, erhält man auch eine normale Antwort ohne den Hinweis, dass es vom Verkehr, Uhrzeit, Wetter, Staus, Unfällen, anderen Ereignissen, etc. abhängt, weil auch das völlig übertrieben ist.
Ein bisschen eigene Logik sollte man von einem menschlichen Leser schon voraussetzen können.

Ich sehe diese KI wie ein Werkzeug.
Wenn man es nicht bedienen kann, erhält man entsprechende Ergebnisse.
Und wie jedes Werkzeug ist es nicht optimal und kann auch versagen.
Das Ergebnis hängt trotzdem im Wesentlichen vom Bediener ab, nicht vom Werkzeug.

Es bleibt eben nur eine KI im entsprechenden Anfangsstadium, da wir Menschen zu dumm sind, der KI die Regeln logischer / verständlicher zu formulieren.
Im Großen und Ganzen macht die KI das, was der Mensch ihr vorgibt. Und wenn die Vorgabe dumm ist, ist das Ergebnis auch entsprechend dumm.

Daher bin ich der Meinung, dass die KI bzw. Menschen dahinter trotzdem einen beeindruckenden Job gemacht haben.
Diese KI ist vielleicht das erste Holzrad im Zeitalter der Kutschen. Es wird noch eine Weile dauern, bis wir von der Kutsche mit Holzrädern zum modernen Auto, Bahn, Flugzeug, Hubschrauber, Space Shuttle, etc. kommen.


Edit:
Das nächste Update steht schon an:
https://winfuture.de/news,135048.html
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Solavidos und FrAGgi
Highspeed Opi schrieb:
Das nächste Update steht schon an:
Schon gelesen, stark.

Highspeed Opi schrieb:
Ein bisschen eigene Logik sollte man von einem menschlichen Leser schon voraussetzen können.
Oh ich glaube das mit der Sonne hätten 70% der Menschen genau so als Wahrhaftig genommen^^

Highspeed Opi schrieb:
Ich sehe diese KI wie ein Werkzeug.
Wenn man es nicht bedienen kann, erhält man entsprechende Ergebnisse.
Und wie jedes Werkzeug ist es nicht optimal und kann auch versagen.
Bin deiner Meinung. Aber das muss der Mensch auch begreifen.
Dann sehe ich aber wieder die "Surfer wie Sie einen Bergsteiger mit Tipps von Chat-GPT helfen wollen, der auf den Mount Everest steigen möchte."

Schuld ist zwar nicht direkt Chat-GPT, aber es kann das unterstützen, das Erde Sonne ist ein perfektes Beispiel.
Durch eine KI die eine Annahme macht und darauf basierend die Antwort stellt hilft ja nicht.
 
  • Gefällt mir
Reaktionen: DieRenteEnte
Tolles Werkzeug welches das Leben mancher in manchen Situationen leichter macht aber auch das gegenteil bewirkem wird......
 
@Draco Nobilis

Durch das Erde-Sonne Beispiel kann zumindest niemand verletzt werden.
Wer bei der Berechnung der Bahn beteiligt ist, hat zum Glück eine entsprechende Qualifikation.

Ich habe mich schon mal gefragt, wie lange es dauern wird, bis jemand durch einen (Formulierungs-)Fehler dieser KI sich selbst schadet oder sogar stirbt.
Ob es natürlich Selektion sein wird?

Richtig gespannt bin ich aber, wie es in 10 oder 20 Jahren aussehen wird und wie es sich auf das (Lern-)Verhalten der Menschen auswirken wird.
Man kann ja bereits heute sehen, welchen Einfluss auf Politik, Wirtschaft, Gesundheit oder Menschenleben sogar dumme Menschen in Social Media haben können, welche von weiteren dummen Menschen gefolgt werden.

Da die KI buchstäblich von den Inhalten aller Menschen lernt, wird es vermutlich die Meinungsbildung wie ein Katalysator verstärken können. Da kann man nur hoffen, dass die Algorithmen nicht von temporär dominanten Meinungen beeinflusst werden.
Am Ende glaubt noch jeder, dass man zum Thetan aufsteigen kann. Dass Impfungen viel mehr schaden als helfen oder dass die Erde flach ist.
 
  • Gefällt mir
Reaktionen: Solavidos
Highspeed Opi schrieb:
Richtig gespannt bin ich aber, wie es in 10 oder 20 Jahren aussehen wird und wie es sich auf das (Lern-)Verhalten der Menschen auswirken wird.
Man kann ja bereits heute sehen, welchen Einfluss auf Politik, Wirtschaft, Gesundheit oder Menschenleben sogar dumme Menschen in Social Media haben können, welche von weiteren dummen Menschen gefolgt werden.
Jo das wird "spannend"

Highspeed Opi schrieb:
Da die KI buchstäblich von den Inhalten aller Menschen lernt, wird es vermutlich die Meinungsbildung wie ein Katalysator verstärken können.
Uh jetzt wirds gefährlich.
Du weißt das für wesentliche Themen so einige Tausend billigste Lohnsklaven ChatGPT auf Narrative hin eingestellt haben? So Witze über Männer sind ok, aber über Frauen nicht?
Witze über Joe Biden sind ok, aber über Trump nicht?

Sehr gefährlich, alles politische ist ein Minenfeld.
Was wenn die KI auf einmal sagt das y Recht hat und es x, der die KI entwickelte nicht passt?
Die KI kann quasi die Realität einer Person vorbestimmen.
Viel stärker und rhetorisch besser als es die Medien können.

Highspeed Opi schrieb:
Ich habe mich schon mal gefragt, wie lange es dauern wird, bis jemand durch einen (Formulierungs-)Fehler dieser KI sich selbst schadet oder sogar stirbt.
Die KI wird solange "vergewaltigt" bis Sie so denkt wie deren Schaffer es für korrekt hält.
Daher wird die KI wesentliche Probleme nicht lösen können.

Unter anderem wegen der extremen westlichen Prägung will ja Afrika als Zusammenschluss der Länder eigene KI Programme/Projekte auf den Weg bringen.
Weil jemand schrieb schon mal das dort bsp. ein Kind vom gesamten Dorf erzogen wird, nicht nur von den eigentlichen Eltern. Das ist hier unvorstellbar, es gibtmassive kulturelle Unterschiede.
 
  • Gefällt mir
Reaktionen: SDJ, guzzisti, linuxxer und 2 andere
AI die gute, alte Blackbox, schon erstaunlich was damit so möglich ist Mittlerweile
wenn das so weiter geht, hat man ggf. bald ein emotionsbefreites AIschloch als Chef ;D
 
Es ist eine extrem interessante Entwicklung, die wir hier sehen. Die neuronalen KIs werden in den kommenden 5 Jahren alles verändern.

Bin von ChatGPT (v3.0) und seinen Möglichkeiten auch begeistert.
Es kann sehr viel Zeit sparen und sehr vieles automatisieren. Egal ob "Schreibe mir eine Script für blablabla", "Schreibe eine Einleitung für eine Vortrag über den 30.jährigen Krieg", schreiben von Mails oder gar Planen von Städtetouren:


1678475823221.png



Das einzige woran ChatGPT noch arbeiten muss ist sein "Humor"-Algorithmus:
Meine Frage: schreibe einen Witz über computerbase.de
Dieser Witz wurde generiert:
Was sagt ein ComputerBase-Leser zu einem anderen?
“Ich habe gerade die neueste CPU von Intel gekauft. Sie ist so schnell, dass sie Raptor Lake heißt.”
“Und ich habe die neueste CPU von AMD gekauft. Sie ist so schnell, dass sie Raphael heißt.”
“Wow, das sind tolle Namen. Meine CPU heißt nur Pentium 4.” 🤣
Naja, dafür ist es wohl aber auch nicht so richtig ausgelegt ;)
Auch wenn es beeindruckend ist das der Kontext schon passt, nur der "Humor" ist etwas "ausbaufähig" ;D
 
  • Gefällt mir
Reaktionen: ruthi91, Jenergy, linuxxer und eine weitere Person
Highspeed Opi schrieb:
Richtig gespannt bin ich aber, wie es in 10 oder 20 Jahren aussehen wird und wie es sich auf das (Lern-)Verhalten der Menschen auswirken wird.
Keine Sorge, das wird schon^^

 
  • Gefällt mir
Reaktionen: Sk3ptizist und DieRenteEnte
Einige Antworten hier im Thread werden so richtig schlecht altern.

  • "Drittklässlerniveau"
  • "brauch ich nicht"
  • "halben Roman ins Suchfeld hacken"

Uff. Naja, jeder wie er meint.
 
  • Gefällt mir
Reaktionen: Miguel14.05, 4nanai und LamaMitHut
@bartio : also ich musste schmunzeln ;)
 
Abo gibt es längst, 20 Dollar im Monat.
 
habe chat gpt mittlerweile für eine handvoll spezieller softwareentwicklungsprobleme befragt und durch die spezialität der fragen ist die limitierung ziemlich schnell spürbar geworden.

fragt man irgendwas, was man sowieso schon weiß, oder eigentlich zum "allgemeinwissen" gehört, dann bekommt man eine masse an informationen, immer anders verpackt. (und das ist die beeindruckende leistung von gpt)
sind die parameter jedoch sehr speziell, dann sieht man im grunde nur die ersten 3 google ergebnisse.

jedenfalls hatten die vorgeschlagenen lösungen mit dem problem zu tun, allerdings waren die lösungen weder komplett kompilierbar geschweige denn lauffähig, noch war es die passende lösung zu meinem problem.
es waren einfach die ersten google ergebnisse zusammengesammelt und neu aufbereitet.
experten helfen, egal ob IT oder handwerker, kann chatgpt eher begrenzt und ersetzen schon gar nicht.

und das sehen viele einfach nicht. sie denken bei "KI" an etwas selbstlernendes und selbstreflektierendes, und mischen dazu noch die subjektiven eindrücke hinzu, die ihnen hollywood filme vermittelt haben.

vielleicht machts ein simplifiziertes beispiel klarer:
wir befinden uns im mittelalter und jeder ist der meinung "die erde ist eine scheibe".
und einige wenige sind der meinung sie sei eine kugel.
dann würde chatgpt auch antworten, dass die erde eine scheibe ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs und guzzisti
Bei dem Beispiel mit dem niederländischen Callcenter bei dem täglich um bis zu 500 Arbeitsstunden entlastet werden kann frage ich mich:
Was passiert mit den Menschen die diese 500h täglich geleistet haben?
 
Gortha schrieb:
Ka was das Brimbrambrorium alles soll um diese pseudo-KI ChatBots/SprachBots.
Wenn ich was suche im Netz dann will ich eigentlich immer die Artikel lesen die ich selber als wertig identifiziert habe. Für mich sehe ich hier keinen Mehrwert. Fehlende Kontrolle über den input den ich potentiell bekomme, den sehe ich allerdings.

Für ne kleine Zusammenfassung mögen diese ChatBots ausreichen. Aber da kann man meist auch einfach den Teaser einer Wikipedia-Seite vorlesen lassen^^
Ich verstehe deine Kritik durchaus aber das ist doch wesentlich mehr als eine Suche.
Ich habe erst auch so gedacht und das dann mal getestet .... ist wirklich faszinierend. Ich hab mir z.B. spaßeshalber ein Powershellscript schreiben lassen :D das ging wesentlich schneller, als es selbst zu schreiben.
Und wenn etwas nicht paßt, kann man nachhaken und das Ergebnis verbessern lassen.
Als Suche sicher etwas zu viel, man kann damit aber viele andere Sachen machen.
 
Solange eine sogenannte KI die Welt und Zusammenhänge nicht im geringsten versteht, hat das mit Intelligenz nichts zu tun und richtet im besten Fall keinen Schaden an.
 
Artikel-Update: OpenAI hat GPT-4 nun offiziell vorgestellt. Es soll je nach Wunsch sowohl präzisere als auch kreativere Antworten liefern können. Wie beschrieben handelt es sich um ein multimodales Sprachmodell, das neben Texteingaben auch Bildeingaben verarbeiten kann. Laut OpenAIs internen Benchmarks schneidet es deutlich besser ab als die Vorgänger und vergleichbare LLMs.

So sinkt im Vergleich zu GPT-3.5 die Wahrscheinlichkeit, dass GPT-4 auf Anfragen nach unzulässigen Inhalten reagiert, um 82 Prozent. Dass Nutzer sachliche Antworten erhalten, ist um 40 Prozent wahrscheinlicher. Auch beim „Halluzinieren“ – also dem Erfinden von Fakten – will OpenAI deutliche Fortschritte verzeichnet haben.

Limitationen bestehen aber weiterhin, völlig zuverlässig ist es nach wie vor nicht. Details zu GPT-4 liefert ein Blog-Beitrag und die Übersichtsseite, technische Hintergründe sowie sämtliche Benchmarks finden sich in einem Paper (PDF).

API für Entwickler, ChatGPT mit GPT-4 für Plus-Abonnenten

Entwickler können das Sprachmodell über die kostenpflichtige GPT-4-API nutzen, die ersten erhalten bereits einen Zugang. Bis dato ist dieser aber limitiert, die Kapazitäten sollen nun schrittweise erhöht werden. Details zum Umgang mit GPT-4 präsentiert OpenAI in einem Developer Livestream.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Abonnenten von ChatGPT Plus, dem kostenpflichtigen Premium-Dienst für 20 US-Dollar, können über die bekannte Web-App auf das neue Sprachmodell zugreifen. Verfügbar ist es mit einer dynamisch angepassten Nutzungsobergrenze.

Microsoft integriert GPT-4 in Bing und Edge

Microsoft hat bereits verkündet, GPT-4 für Bing und Edge zu nutzen. Eine frühe Version des Sprachmodells kam schon in den letzten fünf Wochen zum Einsatz.

Weitere Organisationen und Dienste, die auf das neue Sprachmodell setzen, sind Duolingo, Stripe, Morgan Stanley und die Administration von Island.
 
  • Gefällt mir
Reaktionen: Der Kabelbinder
Perfektes Werkzeug um die Versklavung zu vollenden. Die Kinder, die kein gesundes, normales Leben mehr erleben dürfen, tun mir leid.
 
  • Gefällt mir
Reaktionen: controlokk
Zurück
Oben