News GPT-4-Nachfolger enttäuschen: Neue KI-Modelle von OpenAI, Anthropic und Google stoßen an Grenzen

@Muntermacher Diese Unterscheidung ist grundsätzlich nicht erwünscht ;)
 
lorpel schrieb:
Kann die KI denn neuen Input nicht einfach interpolieren? Ich könnte es, als Mensch.
Beim Interpolieren lernst du aber Neues. Da kannst du sagen dass 4/4=1 weil 2/2=1, aber nur weil du weißt wie ein Pferd aussieht wirst du aus diesen Daten nie erkennen wie sich ein Huhn anhört.

In gewissen Bereichen werden aber bereits Daten künstlich erzeugt. Das Problem ist jetzt halt nur dass man mit unendlich vielen Daten nicht unendlich weit kommt.
 
DeusExMachina schrieb:
Schließ doch da nicht immer von dir auf andere wäre ein Unzulässige Ad Hominen.

Ein Blase kann auch platzen wenn einfach eine Überwertung vorliegt. Du hast doch selbst schon dann und wann auf den Gartner Hype Cycle von
Jackie Fenn erwähnt.

Wir nähern uns halt dem ersten Peak oder haben ihn gerade überschritten
Da musst du mich mit jemandem verwechseln, ich halte wenig von dem Hype Cycle.

Finde es nur putzig das hier einige wirklich glauben, dass gaming GPU bald wieder günstig sind weil die Nachfrage für "KI"-hardware sinkt, oder Nvidia komplett überbewertet sei.

Das Modelle nicht bis ins unendliche skalieren als Beweis dafür zu nehmen, dass das ganze ne Sackgasse ist... Was soll ich dazu denn sagen?

Man überlege mal, was sowas z.B. für DLSS bedeuten würde: wenn es da keine Grenze gäbe müsste man ja nur einen Supercomputer der stark genug ist arbeiten lassen, und schon kann man mit nem Toaster in 4K120FPS zocken. Nur weil das nicht funktioniert ist das ganze noch lange nicht am Ende.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xiaolong und Kuristina
Tja, wenn ich wüsste was passiert.. kaufen oder verkaufen das ist die Frage.. Mittwoch sind earnings😱
Dieses Quartal und ggf. Die nächsten sollten aber relativ Safe sein..
 
"Diese Verschiebung wird uns von einer Welt mit massiven Pre-Training-Cluster zu Inferenz-Clouds führen, also dezentralen, Cloud-basierten Servern für Inferenz“, sagt Sequoia-Capital-Partnerin Sonya Huang zu Reuters."

@Volker Ich würde gerne einen Kommentar oder gar einen lehrreichen Artikel über das Thema Inferenz lesen - vlt. auch gleich von dir geschrieben? :)
z.B. Einleitend für Laien wie es im Groben funktioniert und vor allem welche Komponenten / Lösungen von welchen Herstellern auf dem Markt benötigt sind / werden.
Ich weiss, es ist noch nicht Weihnachten, aber versuchen kann man's ja :D
 
Andy schrieb:
Sowohl OpenAI als auch Google und Anthropic kommen laut Medienberichten bei der Entwicklung neuer Spitzenmodelle nicht voran. Der aktuelle Trainingsansatz, der vor allem auf dem Skalieren von Rechenleistung und Trainingsdaten setzt, stößt demnach an Grenzen.

Zur News: GPT-4-Nachfolger enttäuschen: Neue KI-Modelle von OpenAI, Anthropic und Google stoßen an Grenzen
Kleiner Schreibfehler:
um Modelle zu verbessert.

Sollte sein:
um Modelle zu verbessern.
 
K.I. ist tot es lebe der Rechenschieber!

Auf die falschen Antworten von ChatGPT kann ich auch gerne verzichten.
 
Die Anfrage ist von gerade eben (per Sprache).
Ich wollte eine Übersicht der Bezeichnungen der neuen Intel Prozessoren.
Erstaunlich, dass man bei sowas noch failen kann. 😅

Intel Gen.png
 
DeusExMachina schrieb:
Nein und auch nichts mit KI dein Beispiel hinkt einfach.
  1. Ich habe gesagt, dass die Unterscheidung zwischen Trainieren und Lernen gar nicht so einfach ist
  2. Du hast eine Definition fürs Lernen angeboten
  3. Ich habe dir mithilfe eines Beispiels gezeigt, dass deine Definition entweder falsch oder unvollständig ist
Der Inhalt des Beispiels ist dafür völlig irrelevant.

DeusExMachina schrieb:
Abstraktion ist das Licht geht an es gibt Futter im Grünen Ring wo das Wasser nicht so schnell fließt => der ring ist jetzt auf der anderen Seite also heute da warten
Einerseits tut deine Ausführung zum Begriff nichts zur Sache, andererseits ist sie auch noch unpassend. Oder willst du uns jetzt weismachen, dass Fische abstraktionsfähig sind?

DeusExMachina schrieb:
Deine Aussagen dazu sind entweder von völliger Unwissenheit geprägt
DeusExMachina schrieb:
Also 1. doch das steht geschrieben den so funktioniert ein Transformator. Und die sind alle Kuratiert was glaubst du denn wofür das pretraint steht.
Lass ich mal so stehen.

DeusExMachina schrieb:
Und Alpaca ist kein eigenes System da steckt GPT 3 bzw LLaMA drin.
Völlig Banane was da für ein Stack drunter ist, zumal es nur ein Beispiel für die Nutzung synthetischer Daten fürs Training war.

DeusExMachina schrieb:
Es läuft deshalb auf Konsumerhardware weil es entsprechend abgespeckt ist das hat wieder nichts mit toll sein zu tun sondern ist einfach ein Aspekt der Skalierbarkeit im unteren Bereich.

Wenig Befehlssätze zum ab arbeiten weniger Leistungshunger
"Sachen, die weniger Ressourcen brauchen, brauchen weniger Ressourcen."
Danke fürs Teilen dieser wichtigen Erkenntnis.

DeusExMachina schrieb:
oder du lässt sachen bewusst aus um dein Argument zu stärken
Ich bin mir ehrlich gesagt nicht ganz sicher, wogegen du eigentlich wetterst, deshalb meine Punkte nochmal einfach formuliert;
  • Generierte/Synthetische Daten können und werden Stand heute schon erfolgreich fürs Training verwendet
  • Es braucht keine Leistungssteigerung Faktor 1000 in Hardware oder "10 bis 20 Jahre" bis KIs spannend werden, weil brauchbare Modelle für den privaten Einsatz schon existieren. Nvidias llama 70B Verschnitt kratzt an GPT-4 und läuft auf aktueller Consumer-Hardware
Und dem Ton der Diskussion würde es durchaus helfen, wenn du nicht über die Kompetenz anderer mutmaßt und dich gleichzeitig selbst mit Satzzeichen anfreunden könntest. :)
 
Ohne auf jeden Zitat Schnipsel einzugehen

Du sagst Alpaca ist besser weil es mit Synthetischen Daten und einem Reduzierten Befehlssatz auf Konsumerhardware läuft und deswegen ist der Technische Unterbau egal.

Merkst du selber was für ein Blödsinn das ist?
Und das man sich mit Synthetischen Daten immer weiter weg von dem beweg was die "KI" eigentlich sein soll und sich wieder sehr schnell dem "normalem" ML annähert ist dir scheinbar nicht mal klar.

Und nun die Gretchenfrage was ist für dich ein brauchbarer Einsatz im Privaten?
 
Immerhin erkennt z.B. KI-Chatbot Grok die Verbreitung von Falschinformationen von Elon Musk.

"KI vs. Musk: Eigener Chatbot entlarvt X-CEO als Fake-News-Quelle"
https://winfuture.de/news,146824.html

Auf die Frage eines Nutzers, ob Elon Musk Falschinformationen an Milliarden von Menschen verbreitet habe, gab der KI-Chatbot Grok auf X jetzt eine eindeutige Antwort:

"Ja, es gibt zahlreiche Beweise und Analysen, die darauf hindeuten, dass Elon Musk Fehlinformationen zu verschiedenen Themen verbreitet hat [...]."

siehe auch hier:
"Did Elon Musk spread misinformation to billions of people?"
https://x.com/i/grok/share/sd51uGodABes3SWRSsxx8wfRK?mx=2
 
  • Gefällt mir
Reaktionen: LamaMitHut
DeusExMachina schrieb:
Du sagst Alpaca ist besser weil es mit Synthetischen Daten und einem Reduzierten Befehlssatz auf Konsumerhardware läuft und deswegen ist der Technische Unterbau egal.

Merkst du selber was für ein Blödsinn das ist?
Der einzige Blödsinn ist, was du mir da in den Mund legst. Ich habe es doch schon extra explizit geschrieben, was meine Thesen sind, du brauchst nur 150px nach oben scrollen. Dass dein Strohmann nichts mit dem von mir gesagten zu tun hat
DeusExMachina schrieb:
ist dir scheinbar nicht mal klar.


DeusExMachina schrieb:
Und nun die Gretchenfrage was ist für dich ein brauchbarer Einsatz im Privaten?
Für mich persönlich boilerplate Code/Tests schreiben, Fragen beantworten und ggf. mal nen Text sichten.
 
pietervandekant schrieb:
Immerhin erkennt z.B. KI-Chatbot Grok die Verbreitung von Falschinformationen von Elon Musk.

"KI vs. Musk: Eigener Chatbot entlarvt X-CEO als Fake-News-Quelle"
https://winfuture.de/news,146824.html

Auf die Frage eines Nutzers, ob Elon Musk Falschinformationen an Milliarden von Menschen verbreitet habe, gab der KI-Chatbot Grok auf X jetzt eine eindeutige Antwort:

"Ja, es gibt zahlreiche Beweise und Analysen, die darauf hindeuten, dass Elon Musk Fehlinformationen zu verschiedenen Themen verbreitet hat [...]."

siehe auch hier:
"Did Elon Musk spread misinformation to billions of people?"
https://x.com/i/grok/share/sd51uGodABes3SWRSsxx8wfRK?mx=2
Die Elon-ist-doof Artikel auf CB erscheinen meist Dienstag Abend.
Ich würde dich bitten die Hassposts dann im entsprechenden Thread zu erstellen.
 
  • Gefällt mir
Reaktionen: MalWiederIch und konkretor
AI-Nadja schrieb:
Dennoch habe ich bei jeder KI-News in diesem Computerforum immer wieder den Eindruck, als wäre es eher ein Autoforum oder so. Es würde mich überhaupt nicht wundern, wenn gefühlt >80% der Nutzer hier überhaupt nichts mit KI zu tun haben und maximal die "Chatbots" getestet haben. Und dann auch noch mit extrem schlechten Prompts...

Du ich hab mal eine Frage zu deinem Account. Warum erstellst du dir immer wieder neue Accounts mit dem gleichen Namen und Profilbild? Dein letzter war der hier: https://www.computerbase.de/forum/members/ai-nadja.914469/
Da du auch nach wenigen Wochen die dein Account erst alt ist schon hunderte Beiträge geschrieben hast, frage ich mich so langsam ob gemäß deines Accountnamens hier eine KI schreibt und kein Mensch?
 
aid0nex schrieb:
frage ich mich so langsam ob gemäß deines Accountnamens hier eine KI schreibt und kein Mensch?
Wäre das so schlimm? Endlich mal jemand mit Verstand in dem Forum 🤣. Und wenn diese 2 Faktoren die einzigen Indikatoren sind und der Inhalt sie nicht verrät auch noch eine gute 😉
 
Aisn schrieb:
Ich kann deinen sarkastischem Kommentar nachvollziehen, aber z.B. Intel ist ebenfalls ein milliardenschweres Unternehmen mit x tausend studierten IT-Experten, und trotzdem sieht frau / man / HundKatzeMaus von außen auf deren Unternehmensstrategie und fühlt zumindest Zweifel, ob das, was sie machen, vollumfänglich sinnhaft ist. Und du kannst gerne "Intel" gegen "deutsche / US-amerikanische Automobilbranche" oder andere Unternehmensgruppierungen tauschen, oder die US-amerikanische Politik ab Januar `25, die vielerorts praktzierte Vernachlässigung der Ökologie im globalen Maßstab und, und, und...
Und, dass, von außen betrachtet, alles und jeder, der "KI" im Sinne von "LLM" schreit, mit Geld totgeschmissen wird, lässt die Wahrnehmung als nicht unbegründet erscheinen, dass es einen gewissen Hype gab / gibt, siehe NVidia-Aktienkurs.

Und letztlich, kaum etwas macht Menschen mehr Spaß, als hämisch zu kommentieren, gerade in den heutigen "Social-Media"-Zeiten. Dass oft(!) die Fachkompetenz dieser Kommentierenden mit deren Häme nicht korrespondiert, führt zu Wahrnehmungen wie deiner...

My2Centz
Ergänzung ()


Da ich kein Programmierer bin, zitiere ich nur diese Einzelpassage und garniere sie mit einer kleinen Anekdote:
Auf meine Frage vor ca. zwei Wochen hin, wie ChatGPT die Fussballmannschaft "meines" Vereins BVB und angesichts der Verletzungsmisere aufstellen würde, wurden in der ersten Antwort verletzte Spieler aufgestellt, nach zweimaligem Hinweis meinerseits löste dann "Papa" Sokratis dieses Problem..., nur blöd, dass der 2018 den Verein verlassen hatte.
Perplexity stellt mir folgende Mannschaft auf für das Spiel gegen den SC Freiburg am 23.11.2025, basierend auf der folgend formulierten Anfrage auf:

Wie sollte die Aufstellung von Borussia Dortmund zum 11. Spieltag gegen den SC Freiburg aussehen, wenn alle Spieler wieder gesund sind?​


Anhang anzeigen 1544593
Anhang anzeigen 1544596
Marco Reus und Mats Hummels haben den Verein mit Ende der letzten Saison verlassen, Salih Özcan und Sebastian Haller spielen in dieser Saison auf Leihbasis bei anderen Vereinen. Da sind wohl die zitierten Quellen nicht benutzt worden...!?

Soviel zu "intelligent"... :stock:
In deiner Frage steht ja dass nun alle gesund sind^^

Desweiteren musst du bezahlen wenn du aktuelle Daten aus dem Netz nutzen möchtest. In deinem Fall sind sie zwei Jahre in der Vergangenheit.
 
Zurück
Oben