News Chinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell

wollte mich registieren, Fehlermeldung mit Kann derzeit keine Email mir zuschicken, versuchen sie es später. Hat das auch einer von euch bekommen ?
 
passt bitte sehr gut auf was ihr zu deepseek postet. Aktuell ist im Internet eine absolute propaganda Maschine am laufen die Unwahrheiten über deepseek verbreitet. Reddits r/ChatGPT ist voller Posts wie toll das Modell ist.

Die Leute installieren sich gerade massenhaft ein chinesisches “Kostenloses” ChatGPT.
 
  • Gefällt mir
Reaktionen: Nanatzaya, Ned Flanders, schnrsnkl und 19 andere
Es kann andere Sprachen rudimentär, die tollen Ergebnisse scheinen aber nur in Englisch und Chinesisch zu klappen.
 
  • Gefällt mir
Reaktionen: alphatau, Kazuja und Ice =A=
 
  • Gefällt mir
Reaktionen: n8mahr und NDschambar
Nochmal, was ist an 50.000 H100 GPUs "nicht die nötigen Ressourcen"?
Die Kosten ohne Mengenrabatt nur 1,9 Mrd€

Edit: Die 6 Mio. ergebn sich durch das Mieten von 50.000 dieser GPUs für 2 Monate.
 
  • Gefällt mir
Reaktionen: Volvo480, Brave50, Ice =A= und 6 andere
supertramp schrieb:
Dann scheinen die Chinesen doch nicht in den Höhlen zu leben wie der im hochnäsige Westen immer behauptet 😀
Tolle Arbeit China :daumen:
Wer genau hat das jetzt immer behauptet!? Das genaue Gegenteil ist der Fall, da China ernst genommen wird gibt es überhaupt die ganzen wichtigen Sanktionen.
 
  • Gefällt mir
Reaktionen: Hornblower, Rock Lee, Yar und 14 andere
Aus dem Artikel:

Wie CNBC berichtet, entwickelte DeepSeek das im Dezember veröffentlichte Modell innerhalb von zwei Monaten, die Kosten lagen bei unter 6 Millionen US-Dollar.

Ja, das behauptet DeepSeek. Ueberpruefen laesst es sich natuerlich nicht.

Wie die von dem Entwickler-Team veröffentlichten Benchmarks zeigen, bewegt es sich auf einem ähnlichen Niveau wie Claude 3.5 Sonnet und GPT-4o.

Klar, wenn die Entwickler ihr Modell auf bestimmte Benchmarks finetunen, dann schneidet es in diesen Benchmarks gut ab.

Nun schafft es DeepSeek R1, mit o1 mitzuhalten und übertrifft es in manchen Benchmarks sogar.

Welche Benchmarks sind das denn? Inbesondere, waren die Benchmarkfragen und -antworten vor dem Erscheinungszeitpunkt von DeepSeek oeffentlich? Denn, dann waere es fuer DeepSeek ja sehr einfach, den Benchmark einfach einzutrainieren.

Also, ja, sehr gut recherchiert ComputerBase, und ihr seit definitiv nicht auf chinesische Propaganda hereingefallen...
 
  • Gefällt mir
Reaktionen: Kazuja, robin631, Micha- und 5 andere
w0mbat schrieb:
Nochmal, was ist an 50.000 H100 GPUs "nicht die nötigen Ressourcen"
Das steht so in jedem Artikel.
Wie CNBC berichtet, entwickelte DeepSeek das im Dezember veröffentlichte Modell innerhalb von zwei Monaten, die Kosten lagen bei unter 6 Millionen US-Dollar. Das Training erfolgte auf in der Leistung begrenzten Nvidia-H100-GPU2: Nvidia H800.

SPON:Einem Bericht der »New York Times « zufolge benötigt DeepSeek einen Computer mit lediglich rund 2000 Nvidia-Chips.

Edit: Da war einer schneller^^
 
Super, dann muss ich nicht mehr den VPN anwerfen und ChatGPT fragen. Vlt finde ich dann doch irgendwann Gefallen an dem Krempel…
 
  • Gefällt mir
Reaktionen: Inxession
1737985019822.png

Hmm ja, vielleicht besser nicht...
 
  • Gefällt mir
Reaktionen: zett0, Snapuman, Banjo und 63 andere
w0mbat schrieb:
@Abrexxes Nochmal, was ist an 50.000 H100 GPUs "nicht die nötigen Ressourcen"?
Allein der Microsoft->OpenAI->Oracle Deal soll dich 100.000 GB200 bekommen, an den kommen die Chinesen wohl nicht ran, und das wissen die ja auch. Es macht also keinen Sinn sich auf die Hardware der Amerikaner zu konzentrieren. Dann lieber von Anfang an etwas intelligenteres machen anstatt die Brechstange (500 Milliarden?) zu bemühen.
 
  • Gefällt mir
Reaktionen: PulsarS, Ice =A= und Zwenki
HighDefinist schrieb:
und ihr seit definitiv nicht auf chinesische Propaganda hereingefallen
Teste und vergleiche doch einfach mal DeepSeek. Mach dir selber ein Bild.
(seid*)
 
  • Gefällt mir
Reaktionen: Raykus, gartenriese, rosenholz und 6 andere
  • Gefällt mir
Reaktionen: Raykus, wexoo, Schumey und 29 andere
JonaK schrieb:
Die Leute installieren sich gerade massenhaft ein chinesisches “Kostenloses” ChatGPT.

Du tust so als wäre da ein versteckter Wolf im Schafspelz. Ein "kostenloses" chinesisches ChatGPT ist genau das als was es angeboten wird.
 
  • Gefällt mir
Reaktionen: Raykus, Paddydapro, gartenriese und 6 andere
Die Chinesen nutzen Open Source als Waffe für hybride Kriegesführung.

Da platzt doch glatt die Finanz-AI-Blase und die Börsenkurse gehen den Bach runter.
Massenhafte Marching Calls.
Mit üblen Folgen für den Bankensektor und uns allen.
 
  • Gefällt mir
Reaktionen: LamaTux, DonChiChi, appleJuice1337 und 2 andere
  • Gefällt mir
Reaktionen: Apocalypse, MiroPoch und Shoryuken94
xNeo92x schrieb:
Hmm ja, vielleicht besser nicht...
war doch klar.
Außerdem: Zuck und Musk nutzen ihre Produkte doch genauso für politische Zwecke...
 
  • Gefällt mir
Reaktionen: gartenriese, Ice =A=, Apocalypse und 3 andere
@xNeo92x Noch besser ist die Prompt dass er in römischen Zahlen hochzählen soll und danach immer jeweils ein Jinping setzen soll. Bei 11 bricht er komischerweise sofort ab :D
 
  • Gefällt mir
Reaktionen: Volvo480, Rock Lee, oxe23 und 6 andere
Zurück
Oben