Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsChinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell
Ich wünsche es den Menschen nicht… Kleinanleger sollten es nichts anders machen als professionelle Investoren… eine diverse Anlage: Einzelaktien aus verschiedenen Branchen, ETFs, Anleihen.
Dann kann ein Tag wie heute einem egal sein.
Da besteht zwar nicht die Chance auf das große Geld… aber jeder Chance steht ein Risiko gegenüber.
Und beim Spiel auf Risiko gehen die meisten leer aus.
Ich hab auch gerade NV gekauft. Der Ansatz der Chinesen ist gut und erfordert am Ende trotzdem ordentlich Rechenleistung. Die Amerikaner reden von Sputnik. An dem Punkt wurde erst richtig investiert. Was jetzt passiert ist eigentlich sehr positiv. Am Ende bekommen wir günstige lokale Modelle. Das gibt wirtschaftlich ganz neue Möglichkeiten.
Aber da alles dank Open Source nachgestellt werden kann (und da sind auch schon Leute dran) ist natürlich fraglich, wie die "wahren" Kosten verborgen werden sollen.
Die Trainingsdaten kann man doch nur Sicherheit nicht einfach so irgendwo runterladen oder? Und wer macht sich die Mühe 6Mio Dollar an Rechenaufwand einfach mal so nachzustellen?
Um nenn Vergleich aus der Softwareentwicklung zu ziehen: Nur weil ne Bibliothek nach ihrer Erzeugung OpenSource gestellt wird kann ich noch lange nicht beurteilen wie viel Zeit die Entwicklung gekostet hat und erst Recht nicht, wie viel Geld.
Wenn du schon klugscheißen willst, dann bitte richtig.
Das Geld hat den Besitzer bereits zum Zeitpunkt des Aktienkaufs gewechselt. Heute wurden diese Aktien entwertet. Und zwar um besagte 1.2 Billionen USD.
Was uns zurück zu meinem Beitrag führt: "Lt. Bloomberg wurden durch DeepSeek-R1 heute 1.200 Milliarden Dollar an Aktienwerten vernichtet"
Die Trainingsdaten kann man doch nur Sicherheit nicht einfach so irgendwo runterladen oder? Und wer macht sich die Mühe 6Mio Dollar an Rechenaufwand einfach mal so nachzustellen?
Nicht die 6 Mio USD werden nachgestellt, sondern ob der Berechnungsaufwand für einen einzelnen Trainingslauf so wie im Paper angegeben ist.
Und dann wird überprüft, ob sich das Modell anschließend so weit verändert hat wie behauptet.
Dazu braucht man nicht die originalen Trainingsdaten.
Miuwa schrieb:
Um nenn Vergleich aus der Softwareentwicklung zu ziehen: Nur weil ne Bibliothek nach ihrer Erzeugung OpenSource gestellt wird kann ich noch lange nicht beurteilen wie viel Zeit die Entwicklung gekostet hat und erst Recht nicht, wie viel Geld.
Die Bibliothek ist nicht das wesentliche sondern der Output (das Modell was mit dieser Bibliothek errechnet wurde).
Jeder kann die Bibliothek nehmen und ein eigenes Modell damit trainieren, und somit über die Effizienz Aussagen machen.
Sehr geile Aktion, ich sehe den Dip wieder als Chance, um weiter bei Nvidia und Co. einzusteigen bzw. weitere zu kaufen. Wie oft wurde schon vorhergesagt, etwas sei besser als … und dann entpuppte sich das als nicht so effektiv/produktiv? Schon letztes Jahr wurde Nvidia und Co. das Ende der KI-Blase vorausgesagt, mit dem Resultat: Dip-Einstieg und tolle Gewinne. Ich bin da entspannt und sehe das langfristig. Nvidia wird vor allem von einem auf den anderen Tag nicht schlechter. Und für AMD ebenfalls eine Mega Chance günstigere Hardware zu verkaufen die den Chinesen scheinbar ausreicht, auch hier tolle Einstiegschancen. Zumal bei AMD als auch Nvidia Cloud Computig der Hauptfokus ist und da läuft es nach wie vor gigantisch...
Hat noch jemand aktuelle Tests und Papers zu dem Teil?
Offenbar ist jetzt auch eine grafische Version à la Claude nachgeschoben worden.
DeepSeek, the viral AI company, has released a new set of multimodal AI models that it claims can outperform OpenAI’s DALL-E 3.
The models, which are available for download from the AI dev platform Hugging Face, are part of a new model family that DeepSeek is calling Janus-Pro. - Techcrunch.com
Gibt ja schon eine ganze Menge runtergerechnete Varianten von R1 - hab heute mal ein paar Varianten lokal ausprobiert. Also das Reasoning lokal kann schon was. Habe schon den Eindruck, dass man damit sinnvoll arbeiten kann. Auch die kleinen Varianten sind für vieles ausreichend - die Antworten (und noch mehr der "Denkprozess") wirken teilweise deutlich "erwachsener" als das, was ich bisher aus Mixtral, Llama3 und Co. herausbekommen habe. Damit wird man nicht das große ChatGPT ersetzen, aber die Cloud-Variante von Deepseek kann ja auch deutlich mehr vermutlich (habs bisher noch nicht hinbekommen da nen Account zu erstellen, aber letztlich interessiert mich ohnehin lokal viel mehr.
Werden einige bestimmt aber nicht alle.
Habe neulich im Fernsehen gesehen was es den europäischen KI Unternehmen schwer macht sich weiterzuentwickeln, den fehlen einfach Milliarden an Investitionen für Hardware.
Am reinen Verlust oder Pleite einer AG kann man Legal kein Geld verdienen, das ist auch gut so.
Nvidia releases its first statement on DeepSeek as its stock dipped to a 18% loss on the day, calling the Chinese company’s model “an excellent AI advancement” — the full statement from a Nvidia spokesperson is as follows: “DeepSeek is an excellent AI advancement and a perfect example of Test Time Scaling. DeepSeek’s work illustrates how new models can be created using that technique, leveraging widely-available models and compute that is fully export control compliant. Inference requires significant numbers of NVIDIA GPUs and high-performance networking. We now have three scaling laws: pre-training and post-training, which continue, and new test-time scaling.”