Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPT-4-Nachfolger enttäuschen: Neue KI-Modelle von OpenAI, Anthropic und Google stoßen an Grenzen
Das dürfte die mögliche K.I. Blase aber vermutlich nicht platzen lassen, aber evt. einige Investitionen überdenken lassen und sich somit die Entwicklung da (im Bereich LLM zumindest) noch weiter in die Länge ziehen.
Für mich ist K.I. aktuell immer noch mehr Hype als Nutzen, aber das heisst nicht zwangsläufig, dass sich das nicht irgendwann ändern kann ... K.I.-NPCs und -Schwierigkeitssteuerung sehe ich aber nicht unbedingt positiv oder als Segen an, da Spiele damit evt. nur künstlich/billig (mit weniger Entwicklungsarbeit/Mühe) in die Länge gezogen bzw. aufgebläht werden und den Grindfaktor weiter erhöhen könnten, aber schauen wir 'mal, wie das werden wird.
Von der Umfrage bis zur Veröffentlichung vergeht viel Zeit. Die Veröffentlichung war am 18.07.2024.
Vergleichbare Daten von Mitte 2024 wirst du also unmöglich finden.
Und die Quelle der Daten findest du hier, was sich Statista gut bezahlen lässt. Falls du z.B. durch dein Unternehmen darauf zugreifen kannst, solltest du es tun.
Kurz: Es ist nicht ansatzweise mit "Familien Duell", einer Straßenumfrage oder ein paar Anrufen vergleichbar.
schaut euch mal diese nervtötende Abwimmel Chatsupport-Bots an, wo mir noch nie eine Lösung auf irgendein Problem geboten wurde. Wo meine einzige Eingabe immer nur "Operator" ist, um einen Menschen ranzubekommen.
Es wird trotz allem damit Kasse ohne Ende gemacht, man muss nur wissen wann und wo man einsteigen und wieder raus gehen muss. Wie immer und bei allem.
Mir hat der aktuelle Stand der KI tatsächlich schon einen guten Nutzen gebracht mittlerweile und ich nutze es auch im Alltag, was ich so vorher nicht erwartet habe. Der Grund ist nicht mal Faulheit, ich nutze es gezielt als Alternative zu Google und zur Erweiterung des eigenen Horizonts.
Mir sind aber auch die Limitierungen und Fehler der Sache bekannt. Ich finde hier einen guten Vergleich der Stand der Automatisierung des Fahrens, da gibt es auch nach wie vor Probleme. Der Aufwand ist einfach enorm und es ist mit vielen Problemen versehen. Das was man derzeit unter "KI" versteht und was da entwickelt wird, hat klar seine Grenzen. Da muss dann wieder ein Sprung kommen, den ich derzeit nicht sehe. Das ganze wird daher erst mal dahin dümpeln. Finde ich aber ganz gut, so gibt es dann doch noch Arbeitsplätze und der Mensch bleibt nützlich
Ich glaube das ist deutlich schwieriger von einander abzugrenzen, als es oberflächlich den Anschein macht. Oder hast du eine Definition fürs Lernen, die auf Maschinen nicht zutrifft?
DeusExMachina schrieb:
Nein wie denn?
Neuer Input würde das Wahrscheinlichkeitsmodel verzerren. Echtes Lernen wäre für LLMs der Datentod
Oh das wirklich teuer.
Deswegen soll ich des nicht weiter geben.
Egal wichtiger ist das die Umfrage Führungskräfte befragt hat und Investitionvolumina für 2022 hat schätzen lassen und zwar 2021
Daraus haben sie dann die Grafik erstellt
Das ist wie wir haben 100 Leute gefragt.
Die Gruppe war erstens nicht representativ
Zweitens Fachfremd
Und drittens gibt es keine Belege das die geschätzten Summen auch investiert wurden
Ergänzung ()
Bright0001 schrieb:
Oder hast du eine Definition fürs Lernen, die auf Maschinen nicht zutrifft?
Abstraktion und Transferleistung.
LLM konnen das nicht.
Zu dem ist lernen Iterative.
Aber einem trainiertem Modell nichts mehr hin zufügen es muss neu trainert werden.
Komplett von Null Iterative geht nicht weil dad die Datenbasis verzerrt nicht ergänzt
Bright0001 schrieb:
Synthetische Daten werden heute schon fürs Training verwendet, dass das gut funktionieren kann zeigt Alpaca.
Und was soll das bringen Garbage in Garbage out?
Oder doch eher ein definierter Datensatz das schränkt das LLM aber extrem ein
Das kann nett sein für ganz bestimmte Anwendungen aber dann ist ende
Sehr schöne Nachrichten, hoffe das bleibt so und der Hype geht langsam zu Ende.
Zitat aus dem Artikel: Nvidia verdankt seine Marktstellung der Dominanz bei den Trainings-Chips. Wenn jedoch die Inferenzphase wichtiger wird, fällt es der Konkurrenz leichter, die Lücke zu schließen.
Und ich hoffe es kommt so, dann freue ich mich den Aktienkurs von Nvidia zu verfolgen 😁.
Aber einem trainiertem Modell nichts mehr hin zufügen es muss neu trainert werden.
Komplett von Null Iterative geht nicht weil dad die Datenbasis verzerrt nicht ergänzt
Das stimmt so nicht ganz, Modelle nachtrainieren ist Gang und Gebe. Bei LLMs sogar Standard, da es mehrere Stufen des Trainings gibt (siehe z.B. Chatversionen von LLMs, die sind mit Frage-Antwortpaaren nachtrainiert worden). Google mal nach SFT bzw. RLHF in dem Zusammenhang.
Gibt es auch bei vielen anderen Modellen, z.B. im Bildklassifikationsbereich, da es viel einfacher ist, ein Modell zu nehmen, dass bereits geometrische Strukturen auseinanderhalten kann und nur die letzten Layer im Netzwerk für die Erkennung der spezifischen gewünschten Objekte auszutauschen, statt von vorne anzufangen.
puh die drehen voll am Rad von agi ist man sehr weit entfernt die illusion von Intelligenz das man vergleiche sucht ist schon arg bemüht wie bekomme ich mehr invest geld
Das aber die Skalierung durch mehr hardware nicht mehr geht da die Modelle an ihre grenze stoßen sagt aus das alles quasi ne dicke Lüge ist.
Die aktuellen llm sind lediglich verbesserte Suchmaschinen ohne menschliche Aktion kommt da nix raus.
Das gute jetzt geht der Fokus auf npu und weg von dgpu was tendenziell endlich Vernunft in nvidia zurückbringt.
Das gute damit dürfte der Energiebedarf drastisch sinken und es kristallisieren sich echte anwendungsfälle die ich primär in Forschung sofern nachprüfbar und Wissenschaft sehe.
Da helfen Statistiken auswerten sehr wohl aber ein Massenprodukt wird das nicht es gab ein Grund warum die Assistenten Systeme cortana alexa und siri gescheitert sind.
Ich war da unklar ich meinte natürlich nicht alle Grund Mechaniken neu zu bauen sondern den Datensatz neu durchlaufen zu lassen um das eigentliche Model zu generieren
Ich habe es ja erst vor ein paar Tagen hier geschrieben.
Die aktuelle Rechenleistung ist halt einfach noch ein Witz für sowas wie KI's.
Eine Erhöhung der Rechenleistung (maybe) um den Faktor 1000 oder 2000 könnte das Ganze wieder interessant machen.
Aber das dauert bestimmt noch 10 oder 20 Jahre. 😂
Aber die meisten sind auch noch im Hype. OpenAI und Google sollten auch aufpassen wie offen sie die Limits diskutieren. Sonst platzt die Blase schneller als ihnen lieb ist.
Wobei Nvidia wohl das längste Gesicht machen dürfte, wenn die Blase mal platzt bzw. der KI Boom pausiert.
Zu enge Definition, wenn ein Fisch lernt in welcher Ecke der Futterautomat angeklemmt ist, oder ein Kind wie man läuft, dann ist da nichts mit Abstraktion oder Transferleistung.
Es steht nirgends geschrieben, dass man 100% vom Output wieder als Input verwenden muss, da es die Möglichkeit gibt den Output zu filtern, bewerten oder gar von Hand zu kuratieren. Dass es was bringt zeigt, wie schon erwähnt, Alpaca.
Sas87 schrieb:
Die aktuelle Rechenleistung ist halt einfach noch ein Witz für sowas wie KI's.
Eine Erhöhung der Rechenleistung (maybe) um den Faktor 1000 oder 2000 könnte das Ganze wieder interessant machen.
Aber das dauert bestimmt noch 10 oder 20 Jahre. 😂
Das widerspricht (unter anderem) den Aussagen von Zuckerberg (etwa hier) oder auch den Aussagen von Microsoft (MS). Hier von einer Blase zu sprechen, ist realitätsfern. Zudem wissen wir nicht, wie viel weiter diese Firmen intern schon sind und was die sonst noch alles im Köcher haben. Ich halte es eher für gefährlich, diesen Trend zu verschlafen. Tech/Software-Firmen, welche hier den Anschluss verpassen, werden relativ schnell obsolet werden. Wenn die örtliche Gipserei hingegen keine AI -in welcher Form auch immer- anbietet, ist es jedoch egal.
Zu enge Definition, wenn ein Fisch lernt in welcher Ecke der Futterautomat angeklemmt ist, oder ein Kind wie man läuft, dann ist da nichts mit Abstraktion oder Transferleistung.
Nein und auch nichts mit KI dein Beispiel hinkt einfach.
Abstraktion ist das Licht geht an es gibt Futter im Grünen Ring wo das Wasser nicht so schnell fließt => der ring ist jetzt auf der anderen Seite also heute da warten
Bright0001 schrieb:
Es steht nirgends geschrieben, dass man 100% vom Output wieder als Input verwenden muss, da es die Möglichkeit gibt den Output zu filtern, bewerten oder gar von Hand zu kuratieren. Dass es was bringt zeigt, wie schon erwähnt, Alpaca.
Also 1. doch das steht geschrieben den so funktioniert ein Transformator. Und die sind alle Kuratiert was glaubst du denn wofür das pretraint steht.
Und Alpaca ist kein eigenes System da steckt GPT 3 bzw LLaMA drin. Es läuft deshalb auf Konsumerhardware weil es entsprechend abgespeckt ist das hat wieder nichts mit toll sein zu tun sondern ist einfach ein Aspekt der Skalierbarkeit im unteren Bereich.
Wenig Befehlssätze zum ab arbeiten weniger Leistungshunger
Deine Aussagen dazu sind entweder von völliger Unwissenheit geprägt oder du lässt sachen bewusst aus um dein Argument zu stärken
Ich verwende das Modell GPT-4o in Form von GitHub Copilot gerne in der Arbeit um mir Code-Ansätze zu generieren. Für ein Grundgerüst ist es ganz nützlich.
GPT bringt mich auch auf Ideen, die ich vorher nicht hatte, und gibt mir so eine gute Starthilfe.
Ich sehe derzeit noch drei große Mängel im Bereich Coding/IT:
Es kommt oft vor, dass der generierte Code in sich nicht logisch ist und so nicht funktioniert.
Es ist halt immer noch ein Sprachmodell, das nicht logisch denken kann sondern nur anhand von Wahrscheinlichkeitsrechnungen den nächsten Code-Block hinschreibt.
Oft sind die Antworten veraltet, es schlägt Programme und Tools vor, die schon seit einigen Jahren EOL sind, obwohl das Cutoff-Datum der Trainingsdaten eigentlich dahinter liegt und GPT um die Deprecation wissen sollte.
Lustig ist es auch, wenn GPT einfach Sachen herbeifantasiert/halluziniert - CLI-Flags die es nicht gibt, Menüpunkte in Programmen die nicht vorhanden sind etc. Wenn man das anmerkt und sagt, dass diese Funktion im Programm gar nicht vorhanden ist, schreibt es oft nochmal den exakt gleichen Fehler hin.
Von Intelligenz kann hier also keine Rede sein, und jeder der es so nennt ist für mich nicht ernstzunehmen.
Ein hilfreicher Text- und Code-Generator, ja, aber schlau ist hier gar nichts.
Für allgemeine Themen gelten diese Mängel meiner Erfahrung nach ebenfalls.
Wir Menschen neigen nun mal dazu, alles zu vermenschlichen und glauben, dass ein Programm intelligent sei, weil es sich eloquent ausdrücken kann.
Immer wieder faszinierend.
Die CB Community ist schlauer, als Milliardenschwere Unternehmen, mit x tausend studierten IT Experten und weiß besser, was geht und was nicht.... und überhaupt war das ja eh alles klar. I love it 🥴
Ich kann deinen sarkastischem Kommentar nachvollziehen, aber z.B. Intel ist ebenfalls ein milliardenschweres Unternehmen mit x tausend studierten IT-Experten, und trotzdem sieht frau / man / HundKatzeMaus von außen auf deren Unternehmensstrategie und fühlt zumindest Zweifel, ob das, was sie machen, vollumfänglich sinnhaft ist. Und du kannst gerne "Intel" gegen "deutsche / US-amerikanische Automobilbranche" oder andere Unternehmensgruppierungen tauschen, oder die US-amerikanische Politik ab Januar `25, die vielerorts praktzierte Vernachlässigung der Ökologie im globalen Maßstab und, und, und...
Und, dass, von außen betrachtet, alles und jeder, der "KI" im Sinne von "LLM" schreit, mit Geld totgeschmissen wird, lässt die Wahrnehmung als nicht unbegründet erscheinen, dass es einen gewissen Hype gab / gibt, siehe NVidia-Aktienkurs.
Und letztlich, kaum etwas macht Menschen mehr Spaß, als hämisch zu kommentieren, gerade in den heutigen "Social-Media"-Zeiten. Dass oft(!) die Fachkompetenz dieser Kommentierenden mit deren Häme nicht korrespondiert, führt zu Wahrnehmungen wie deiner...
My2Centz
Ergänzung ()
Project 2501 schrieb:
Für allgemeine Themen gelten diese Mängel meiner Erfahrung nach ebenfalls.
Da ich kein Programmierer bin, zitiere ich nur diese Einzelpassage und garniere sie mit einer kleinen Anekdote:
Auf meine Frage vor ca. zwei Wochen hin, wie ChatGPT die Fussballmannschaft "meines" Vereins BVB und angesichts der Verletzungsmisere aufstellen würde, wurden in der ersten Antwort verletzte Spieler aufgestellt, nach zweimaligem Hinweis meinerseits löste dann "Papa" Sokratis dieses Problem..., nur blöd, dass der 2018 den Verein verlassen hatte. Perplexity stellt mir folgende Mannschaft auf für das Spiel gegen den SC Freiburg am 23.11.2025, basierend auf der folgend formulierten Anfrage auf:
Wie sollte die Aufstellung von Borussia Dortmund zum 11. Spieltag gegen den SC Freiburg aussehen, wenn alle Spieler wieder gesund sind?
Marco Reus und Mats Hummels haben den Verein mit Ende der letzten Saison verlassen, Salih Özcan und Sebastian Haller spielen in dieser Saison auf Leihbasis bei anderen Vereinen. Da sind wohl die zitierten Quellen nicht benutzt worden...!?