Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsChinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell
Leider sind die Menschen nicht im gleichen Maße quellenkritisch bewandert, sodass die gesamte KI-Entwicklung dahingehend natürlich ein Risiko darstellt. Chinesische Produkte verschärfen die Situation.
ChatGPT macht Milliarden Verluste und China baut das Teil einfach mal für 6 Mio in 2 Monaten nach? In der Entwicklung sind 2 Monate so gut wie nichts. Das ist absolut beeindruckend für China und peinlich für ChatGPT.
Die USA sollten die Investition von ihren 500 Mrd USD nochmal überdenken. China zieht da mit 20 Mio nach.
Finde bisher nichts von seinem Umgang unzivilisiert. Falls ich als neutraler Beobachter ebenfalls sagen soll. Ich denke, dass das jeder etwas anders empfindet.
Klar steht Dir das frei. Mit meiner Antwort wächst natürlich das Risiko eines "Meta-Gesprächs", aber sei es drum: Ich habe ganz bewusst die Forumulierung "FÜR MICH" verwendet, da mir bewusst ist, dass das ein subjektives Wahrnehmen ist. Manche Menschen nehmen so ein Feedback auch einfach mal an, andere halt nicht.
Ruff_Ryders88 schrieb:
Manche sind halt snowflakes, andere sind Freunde der klaren Worte.
Und wieder andere finden es erstrebenswert, klare Worte höflich formuliert zu sehen, und noch erstrebenswerter, deswegen nicht gleich als Snowflake bezeichnet zu werden.
ChatGPT macht Milliarden Verluste und China baut das Teil einfach mal für 6 Mio in 2 Monaten nach? In der Entwicklung sind 2 Monate so gut wie nichts. Das ist absolut beeindruckend für China und peinlich für ChatGPT.
Klingt das nicht zu gut um wahr zu sein?
Damit hätte ein 1,5 Jahre altes Startup die komplette Tech Industrie lächerlich gemacht.
Klingt ja alles ganz nett aber irgendwie auch seltsam das ein paar Leute was geschafft haben das die größten Tech Konzerne mit ihren Milliarden nicht konnten.
Mir macht weniger sorgen, dass sie offen damit umgehen und mehr, wie das Modell propagiert wird. Das ist den Menschen im Web selbst schon aufgefallen. Mich persönlich macht das extrem misstrauisch.
Es ist Open Source, entsprechend kann jeder es lokal laufen lassen. Es ist aber mit Vorsicht zu genießen.
Ich habe das 32b Modell auch heute mal ausprobiert und es läuft sogar auf meiner RTX 4080S mit "nur" 16GB VRAM. Die Leistung ist laut Benchmarks vergleichbar mit dem o1-Mini Modell.
Wobei man sagen muss, dass das schon ganz ordentlich quantisiert ist, um in 16GB VRAM zu passen. Da ist es dann auch nicht mehr wirklich auf dem Niveau von o1-Mini. Aber es geht und das ist erstaunlich, da bin ich bei dir.
w0mbat schrieb:
Nein, der Markt reagiert erst heute. R1 wurde schon vor Wochen im deep tech Bereich besprochen.
Ja, auch für LM-Studio gibt's einige Downloads. Ich würde bei 16GB VRAM aber eher zu einem 8b-Distill greifen anstatt zu dem 32b, um dann doch nur eine 2bit-Quantisierung zu nehmen.
Ich würde das mit den 6 Millionen mal gar nicht ernst nehmen. Der Hedgefond dahinter hat in 2021 bereits für über 130 Mio. € einen Supercomputer für AI Deep Learning gebaut und über 10 Jahre Erfahrung im Bereich Machine Learning.
JonaK schrieb:
Es ist Open Source, entsprechend kann jeder es lokal laufen lassen. Es ist aber mit Vorsicht zu genießen.
Selbst hier im Forum tun das die Meisten ja nicht, sondern registrieren sich mit ihren Daten auf deren Website oder laden deren App herunter.
Ich warte da auch erstmal auf gute Forks mit ner großen Community dahinter und würde gar nicht erst auf die Idee kommen mich dort zu registrieren. Wie du schon sagst, das klingt alles too good to be true.
Die Börse reagiert sofort auf dieses neu Modell.
Nur sollte natürlich nicht vergessen werden, das dahinter ein Hedgefonds steht. Und der will - wie die US-Techies - natürlich irgendwann sein investiertes Geld mit möglichst viel Rendite auch wieder zurück haben.
Der Markt reagiert sehr sensibel auf so etwas. Ganz normaler Vorgang.
Jetzt heißt es nachkaufen bei Nvidia und weiter auf 'hold'.
Es wäre sehr naiv jetzt zu verkaufen.
....der wichtigste Grund, warum Menschen bei Aktien verlieren, ist Ungeduld und Unwissenheit.
Business Case nicht vorhanden. Und wenn, dann nur in Staaten in denen Diktatur und Zensur herrscht. Dann hats halt mal kurz ne Kurskorrektur gegeben. So what. Nun heißt es, nachkaufen.
Viel schlimmer ist jedoch, das die westliche Gesellschaft mittlerweile wirklich so dumm ist und solch Software sich auch noch freiwillig auf seine Systeme holt. Der Chinese reibt sich die Hände und bedankt sich für die Daten. Leider sind auch mehr als genug Mitarbeiter so dumm und klopfen da auch noch sensible Daten rein.
Auf jeden Fall klingt es so gut, dass man es mit Vorsicht genießen sollte - wer weiß welche staatliche Unterstützung da wirklich dahinter steckt...
Allerdings fängt ja auch niemand mehr bei Null an, durch Llama & Co gibt es ja ein gewisses Grundniveau welches alle Wettbewerber recht einfach erreichen können. Wenn dann mal einer eine wirklich bahnbrechende Idee hat wie man irgendwas grundlegend besser machen kann dann sind auch deutliche Sprünge denkbar.
Dank Open Source sollten wir ja recht bald wissen worauf die Leistung beruht.
Im Hintergrund ist ein Börsenspekulant, der über eine Dekade lang Ressourcen darauf geworfen hat bei diesen sehr mächtigen Mustererkennern/-replikatoren dazu zu nutzen den eigenen Handel zu optimieren. Das Sprachmodell ist "nur" eine Ausgründung dessen. Da war eigenes KnowHow da, es wurde Vorarbeit Dritter genutzt und von umliegenden (staatlichen) Einrichtungen.
Und bei den westlichen Unternehmen rächt sich immer, dass da auf Profit bzw. das Einwerben von Geldern optimiert wird/werden muss. Vermarktung/Werbung übersteigt da oftmals schnell die Ausgaben für R&D, wobei R&D nicht selten damit beschäftigt wird Ergebnisse zu liefern die sich vermarkten lassen. Gerade OpenAI und Partner spammen ja Paper in die Wissenschaftsliteratur, die hauptsächlich zeigen sollen wie geil das Produkt ist. Dabei sind die Paper großteils Inhaltsleer was Wissensvermittlung angeht :/
OS ist nicht auf einmal magisch perfekt oder neutral. Es ist nur öffentlich verfügbar.
Ob es da Zensur oder Beeinflussung beim Training gab und ob dies zu rechtfertigen wäre[1] lässt sich auch bei OpenSource Modellen nur schwer nachvollziehen.
[1] Eine Auswahl und Wichtung findet immer statt. Wenn Wörterbücher mehr Wichtung bekommen um korrekte Rechtschreibung sicher zu stellen ist das zu rechtfertigen, wenn es um Quellen zu mindestens umstrittenen Themen geht, wird es aber schwieriger zu bewerten wie gut eine Rechtfertigung ist.