Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKI-Hype ebbt ab: Erstmals rückläufige Nutzungszahlen für ChatGPT
Mit der Veröffentlichung von ChatGPT im November 2022 startete OpenAI den KI-Hype, der Chat-Dienst gewann zunehmend an Reichweite – bis zum Juni. Im letzten Monat sind die Nutzungszahlen erstmals um knapp 10 Prozent gesunken, berichtet die Washington Post.
Das größte Problem am "KI-Hype" ist, dass die Leute nicht verstehen, was das für KIs sind und diese falsch verwenden.
Die Leute erwarten eine Art allwissenden und logischen Gott... was ChatGPT aber nicht.
Dabei ist es nur ein "moderner Chatbot".
Leider sorgen Politiker bzw. staatliche Akteure und bestimmte Gruppen dafür, dass diese Technologie gebremst und die Ergebnisse absichtlich zensiert oder verfälscht werden.
Tja, nach der ersten Nutzung die erste große Enttäuschung, dass die KI doch nicht die Qualität bringt, die man erwartet. Vielleicht bei sowas wie Übersetzungen ok.
Aber ansonsten versagt KI auf ganzer Linie.
Da habe ich in vielen Bereich deutlich mehr know-how und Erfahrung. KI ist nichts weiter als eine Datensammlung durch die sich ein Algorythmus durchquälen muss, um sich was gescheit klingendes "zurechtzuschwurbeln" (siehe auch "ghosting Effekt", befürchtete "Demenz" und andere Dinge).
Aber mehr bietet es auch nicht.
Wenn das die Leute begreifen, dann wird KI nur noch punktuell eingesetzt, aber vermutlich immer noch weniger als google. Und dafür die ganzen Aufwände und Kosten? Na ja. Das ganze ist mehr ne große Werbemasche, halbintelligente CEOs über den Tisch zu ziehen und um Geld zu verdienen. Die Welt wird dadurch nicht besser.
Naja brauchen tut man die ganzen Chat Modelle noch nicht, sie zeigen halt nur Möglichkeiten von KI.
Da die ganzen KI Chat Modelle alle ohne Ausnahme technisch nur darauf basieren dass der nächste Buchstabe mit Wahrscheinlichkeit X vorausgesagt wird und sonst gar nichts dahintersteht ist es doch erstaunlich zu beobachten dass durch so eine eigentlich absurd simple Technik Wörter und Sätze herauskommen, die grammatikalisch und auch inhaltlich ok sind.
Die KI Modelle sind nunmal jetzt das erste Mal dass man ein tatsächliches Modell hat für Intelligenz wie viel oder wie wenig es in der Realität nur dafür braucht. mit den "analogen" Systemen wie in natürlichen Lebensformen war das bisher nur ganz ganz bedingt abschätzbar - eher ein Raten als ein Abschätzen.
Ich nutze lokal GPT4ALL einfach mehr zum rumspielen für noch nichts Sinnvolles. Dass das "Wissen" von ChatGPT 3.x ~ nur 8 GByte Daten hat ist doch extrem erstaunlich.
Die (kostenfreie) Version hat - sofern man nicht Bing nutzt - einen "Wissensstand" bis September 2021 und ist dadurch eingeschränkt.
Ein großer Teil wird es probiert haben und kehrt nun zu den gewohnten Vorgehensweisen zurück. Andere kennen Bing, wo die aktuelle Version ChatGPT verwendet wird, eh nur als unzuverlässige Alternative zu Google und meiden es - egal wie die Suchqualität heute ist.
Wenn man ehrlich ist, sind nicht alle antworten gleich Gold und auch Wikipedia sicher erstmal kritisch anzunehmen. Der Stand der „antworten“
Ist auch leider über ein Jahr alt.
Alles nett und gut, aber auch nur eine bessere Alexa/Siri
Meiner Erfahrung nach kann GPT ziemlich gut Coden, wenn man den Rahmen richtig absteckt und genug vorgibt. Was auch relativ gut geht, ist Webseiten damit leicht umzubauen, wenn man eben keine Lust hat, sich stundenlang durch gruseligen Bestandscode zu wühlen und sowieso schon nicht primär sowas macht.
Um bei größeren Makefiles Fehler schneller zu verstehen und bei fehlenden Requirements schnell rauszubekommen, was wie installiert werden muss (im Optimalfall spuckt's einfach ein fehlendes Paket aus), ist GPT meiner Erfahrung nach auch sehr nützlich.
Ergänzung ()
Chesterfield schrieb:
Der Stand der „antworten“
Ist auch leider über ein Jahr alt.
Für freie Modelle wie GPT4ALL wird es sicher auch in Zukunft speziell auf z.B. Programmieren angepasste Modelle geben. Ich bin mir recht sicher dass die ChatGPT ganz schnell überholen werden.
Man muss kurz- bis mittelfristig einfach mehr für ChatGPT-Plus Kunden bieten. Ich finde die 25 Anfragen aller 3 Stunden fast schon untragbar für monatliche Abonenten. Da aber alle anderen "KI"-Modelle die es aktuell gibt aber um ein vielfaches schlechter als ChatGPT Version 4 sind, gibt es halt keine Alternative dazu.
Klar ist ChatGPT4 der unangefochtene Platzhirsch aber wenn Dir Englisch reicht kannst ja trotzdem mal das Hermes Modell in GPT4ALL testen - das kostet überhaupt nichts und läuft lokal xD - glaub 10 GByte reichen für das Netz inkl der Interface Software.
Voraussetzung ist glaube ich nur, dass die CPU AVX(2) kann, was sicher 95% haben, selbst wenn älter als 5 Jahre.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
na dann ist hoffentlich bald Nvidia Bittsteller bei den PC-Gamer, und gibt der RTX 4060 mal lieber 12gb VRAM, für die gleiche UVP natürlich, und eine RTX 4080 für 699$ und RTX 4090 für 999$, komm schon Lederjacke!