News Chinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell

derkerl schrieb:
er nannte Deepseek " Sputnik-Moment der KI" und zog einen Vergleich mit dem Achtungserfolg der Sowjetunion, die am 4. Oktober 1957 mit dem ersten künstlichen Erdsatelliten "Sputnik" die westliche Welt überraschte."
Also Sputnik war nicht irgendein Moment oder ein Achtungserfolg, wo man mal anerkennend mit dem Kopf nickt, weil der Gegner doch gar nicht so dumm ist wie gedacht. Das war ein Schock, denn wer ne Rakete ins All schicken kann, kann ne Rakete nach Amerika schicken (und das nuklear bestückt). Das! war das Problem. Denn Amerika konnte das zu diesem Zeitpunkt eben noch nicht.
https://de.wikipedia.org/wiki/Sputnikschock
 
  • Gefällt mir
Reaktionen: Hornblower und konkretor
Azdak schrieb:
Ich kannte bis eben keines der beiden Bilder, aber das Bild im Spoiler halte ich nicht für die Originalversion. Warum? Weil ich z.b. nicht glaube, das es Leute gibt, deren linke Hand größer ist als ihr linker Fuß. Gibt noch mehr Ungereimtheiten in dem Bild.
Du kannst ja beide Bilder übereinander legen und schauen ob es sich deckt. Bildersuche im Netz kann dabei auch helfen. Vielleicht findest du das Original in besserer Qualität mit dem toten Rotwein^^
 
DarthFilewalker schrieb:
Ich finde es ebenfalls problematisch, dass auch in den westlichen Medien immer mehr (zumindest subtile) Zensur betrieben wird und es nur eine Narrative gibt und sollte man davon abweichen, man entweder ein Verschwörungstheoretiker oder Putin-Versteher ist.
Als jemand der zu vielen Themen kontroverse Meinungen vertritt (und ziemlich sicher mit vielem falsch liegt) habe ich nicht das Gefühl dass es mehr Zensur gibt als früher. Die Themen haben sich vielleicht ein wenig verschoben. Ich habe eher den Eindruck, dass man immer weniger häufig komisch angeschaut wird, wenn man kontroverse Meinungen vertritt. Aber vielleicht bin auch einfach nur abgestumpft.
Ergänzung ()

iceshield schrieb:
....der wichtigste Grund, warum Menschen bei Aktien verlieren, ist Ungeduld und Unwissenheit.
Grundsätzlich ja, teils verlieren Leute aber auch viel Geld weil sie zu lange an etwas glauben. Hätte ich Nvidia Aktien würde ich persönlich jetzt aber auch nicht in Panik verfallen.
 
HighDefinist schrieb:
Also, ja, sehr gut recherchiert ComputerBase, und ihr seit definitiv nicht auf chinesische Propaganda hereingefallen.
Sollte es Propaganda sein, was ich nicht glaube, hat es dennoch mal eben eine Billion an Marktkapitalisierung pulverisiert.
 
Whitehorse1979 schrieb:
Jede KI ist politisch beeinflusst. Auch die westlichen Variationen. Open Source könnte jetzt echt der Durchbruch werden. Mal abwarten wie anpassbar das Ganze ist.
Muss sie aber vermutlich auch sein. Wenn man bei jeder Frage jede mögliche Meinung vertreten wollen würde, wären alle Aussagen Ellenlang und das Tool irgendwo unbrauchbar.
 
Gab wohl sowas wie eine Cyberattacke auf DeepSeek und deswegen soll es Probleme beim registrieren gekommen sein
GiUKHwsaIAAYZOZ.jpg


auch NBC u.a berichten darüber https://www.nbcnews.com/business/bu...attack-says-limiting-registrations-rcna189451
 
  • Gefällt mir
Reaktionen: Teckler
JonaK schrieb:
passt bitte sehr gut auf was ihr zu deepseek postet. Aktuell ist im Internet eine absolute propaganda Maschine am laufen die Unwahrheiten über deepseek verbreitet. Reddits r/ChatGPT ist voller Posts wie toll das Modell ist.

Die Leute installieren sich gerade massenhaft ein chinesisches “Kostenloses” ChatGPT.

23 January 2025. Nature

China’s cheap, open AI model DeepSeek thrills scientists​

DeepSeek-R1 performs reasoning tasks at the same level as OpenAI’s o1 — and is open for researchers to examine.

https://www.nature.com/articles/d41586-025-00229-6
 
  • Gefällt mir
Reaktionen: rosenholz, KingZero, chithanh und eine weitere Person
w0mbat schrieb:
Wenn du nur die Trainingszeit rechnest, ist ChatGPT auch viel günstiger. Das originale Modell ist auf ein paar Tausend A100 trainiert worden.
Heise.de über Deepseek:

"Konkret sollen es 5,6 Millionen US-Dollar reine Trainingskosten gewesen sein, bei 2,78 Millionen GPU-Stunden, wie sie auf der eigenen Webseite schreiben. Metas Llama mit rund 400 Parametern liegt bei etwa elfmal so vielen GPU-Stunden."
 
NameHere schrieb:
Wenn OpenAI, ChatGPT und andere jetzt weniger genutzt werden als geplant und somit deutlich weniger Hardware gebraucht wird. Ist das dann gut für die Chip Hersteller?
trifft aber nur jetzt zu Beginn zu. Für die genannten Firmen wird es allerdings wirklich eng. Aber natürlich kommen dann andere die eben die Modelle mit "guten westlichen Trainigsdaten" anbieten und natürlich auch im Westen betrieben. Da braucht es ebenso die Hardware. Und es gibt NIE genug, egal wie gut und effizient die Modelle auch sein mögen.
Ist wie bei dem Computerthema und Spielen. Selbst wenn es irgendwann 100k Monitore mit 10kHz gibt, warten trotzdem alle auf 200k und 20kHz und beklagen alles was weniger ist als Augenkrebs...
Daher: die Hardwarehersteller werden davon mittelfristig nichts bemerken -> und daher wird auch da der Kurs wieder nach oben gehen. Schlimm würde es nur (oder wird) wenn auch entsprechende alternative chinesische Hardware kommt...
 
@peru3232

Warum sind Menschen nicht 4 Meter groß?

Es gibt kein grenzenloses Wachstum. Wir haben begrenzte Ressourcen… es ist so asozial, was die Tech-Konzerne veranstalten.

Software könnte so viel effizienter sein… dabei geht es nicht nur um das Training der Modelle.
 
  • Gefällt mir
Reaktionen: NameHere und madmax2010
JonaK schrieb:
passt bitte sehr gut auf was ihr zu deepseek postet. Aktuell ist im Internet eine absolute propaganda Maschine am laufen die Unwahrheiten über deepseek verbreitet. Reddits r/ChatGPT ist voller Posts wie toll das Modell ist.

Die Leute installieren sich gerade massenhaft ein chinesisches “Kostenloses” ChatGPT.
Du verstehst schon was "Open Source" und "im Dezember veröffentlicht" bedeutet?

Um es mal auszusprechen: Ne ganze Menge unabhängige Entwickler können sich seit über nem Monat den Quellcode ansehen. Und machen das auch, steht im Artikel. Da kann man nichts drin verstecken.
Im Gegensatz zu ChatGPT, das ist ne Blackbox, ob man nun zahlt oder nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maviapril2, anarchie99 und madmax2010
Im Dezember DeepSeek V3, am 22.01. DeepSeek R1, vor gut einer Stunde Janus-Pro-7B.

Was haben die Jungs und Mädels von DeepSeek vor? :watt:
 
  • Gefällt mir
Reaktionen: Teckler und NameHere
  • Gefällt mir
Reaktionen: LamaMitHut und madmax2010
peru3232 schrieb:
trifft aber nur jetzt zu Beginn zu. Für die genannten Firmen wird es allerdings wirklich eng.
Was schreibe ich die ganze Zeit?
peru3232 schrieb:
Aber natürlich kommen dann andere die eben die Modelle mit "guten westlichen Trainigsdaten" anbieten und natürlich auch im Westen betrieben. Da braucht es ebenso die Hardware. Und es gibt NIE genug, egal wie gut und effizient die Modelle auch sein mögen.
Welche anderen? Bezahlmodell ist gerade auf eine kleine Nutzerschaft reduziert worden. Wie viele Kostenpflichtige Messenger haben sich durchgesetzt?
btw habe Heute gelesen das VW gerne ein paar Werke an die Chinesen abstoßen möchte. Das machen die weil der Bedarf nach deutscher Hardware gestiegen ist^^
peru3232 schrieb:
Daher: die Hardwarehersteller werden davon mittelfristig nichts bemerken -> und daher wird auch da der Kurs wieder nach oben gehen. Schlimm würde es nur (oder wird) wenn auch entsprechende alternative chinesische Hardware kommt...
Wenn die Sanktionen bestehen bleiben oder ausgeweitet werden sehe ich kein Wachstum für die. Die Chinesen haben es schon mit den E-Autos gemacht und jetzt mit der AI. Was meinst was noch alles kommt?
Man erinnere sich an Huawei und deren Dominanz, was auch der Grund war für den Ban.
 
suspect_user schrieb:
5,6 Millionen US-Dollar reine Trainingskosten
Ich versteh nicht so ganz wieso hier Leute staunen oder applaudieren. LLMs sind kein Hexenwerk. Jeder kann eine "KI" baun wenn er Mittel und die Hardware hat und dann auch lokal laufen lassen. Es gibt bisher keine KI, LLMs sind einfach nur "intelligente Datenbanken" wo vorher Datensätze mit Staubsaugern aufgesaugt wurden und mittels riesigem VRAM zusammengewurstet wurden zu einer Vektorverknüpfung aka Datenbank. Das einfachste bzw günstigste wäre vermutlich einfach Wikipedia runterzuladen und zu verwursten. In China brauch man sich halt dann keine Gedanken machen zu Urheberrechten der Quellen, aber das hat OpenAI und co ja auch nicht interessiert. Ka wieso es in EU bisher nichts vergleichbares gibt, denn alles was man braucht ist Startkapital und die nötige HW zb von Nvidia. Es werden in den nächsten Jahren immer mehr solche Projekte aus dem Boden gestampft kommen. Daher verstehe ich diese $500 mrd Investition in OpenAI und co auch nicht. AI ist eine riesige Blase die bald platzen wird. Wenn das dann passiert ist, kann Nvidia ja wieder zurück wo sie hingehören, in den Gaming Market.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Spike S., the_IT_Guy, anarchie99 und 2 andere
Zurück
Oben