News Chinesisches AI-Modell: DeepSeek ist schneller und günstiger als OpenAIs o1-Modell

Maviba schrieb:
aber spricht Bände, was die Neutralität von ChatGPT, DeepSeek & Co betrifft.
Die Sache ist doch die, dass ChatGPT, DS usw. zu bestimmten Fragen gar keine Antwort geben dürfen. Also es schon eine gewisse Form der Zensur gibt, egal ob West oder Ost, demokratisch oder autoritär.
Ergänzung ()

Wenngleich ich die USA auch nicht als Vorzeigedemokratie betrachten würde.
 
Modularer Aufbau = besser , ist aber auch nix neues.....hätte man auch früher drauf kommen können 😅 oder klingt das einfacher als es ist ? 🤔
 
Ich teste gerade lokal das 32b Modell mit Ollama (+API Chatbox). Es läuft. Dauert halt nur bei mir ewig.

Prompt ist, dass es mir ein CSS-Menü mit 3 Einträgen erstellen soll (Prompteingabe auf englisch). Seit einer Stunde wird gerechnet. Also der Output kommt Wort für Wort, aber mit mehreren Sekunden Denkpause. War aber natürlich zu erwarten. Dennoch interessant, vorallem weil die Überlegungen der KI auch gepostet werden unter "<think>".
 
  • Gefällt mir
Reaktionen: CyborgBeta
Ich wollte das auch mal testen. Da hat Ollama anfangen, 405GB runterzuladen. Hab's dann abgebrochen. Soviel Plattenplatz hab ich nicht mehr.

Wie lädt man die kleineren Modelle?
 
Ich habe doch auch nichts anderes behauptet ... nur seine Aussage war unpräzise.
 
Miuwa schrieb:
Wenn du ein Rechenzentrum hast, dann schon.
Also das ist die "Arroganz" in unserer Techbranchen, mit denen wir neuen Technologien hier in Dt. begegnen, ist beispiellos.

Hier bitte es hat keinen Tag gedauert, da wird es vom anderen Umgesetzt und in Foren wie diesen hier wird herumgeheut, was nicht geht oder unmöglich ist.

https://www.golem.de/news/ki-reasoning-hugging-face-will-deepseek-r1-nachbilden-2501-192835.html

Und nur zum Verständnis. Ich bin kein ITler, kein Ingenieur oder KI-Experte. Ich bastle nur meine PCs seit 1996 selbst zusammen. Nicht mehr und nicht weniger. Aber 1+1 kriege noch gebacken, ohne zu meinen, dass das nicht geht!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CyborgBeta
@div4o Und wo wiederspricht diese News meiner Aussage? Gehst du davon aus, dass Hugging Face das auf ner Workstation macht?

EDIT: Du hast ja gesagt

div4o schrieb:
Es ist ein OPEN SOURCE LLM AI Model, dass du auf DEINEM Rechner LOKAL, OHNE Zensur laufen lassen kannst. Du kannst quasi damit deine EIGENE KI für deine Bedürfnise und deine Zielgruppe bauen.
Auf meinem Lokalen Rechner kann ich (meines Wissens) halt weder das Originalmodell vernünftig laufen lassen (distilled schon), noch es in vernünfitger Zeit umtrainieren. Dass eine Firma, die Zugang zu entsprechender Rechenleistung hat, das durchaus kann hat doch niemand bestritten, bzw. war genau der Kern meiner Aussage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CyborgBeta
Forscher der University of California, Berkeley unter Leitung Ph.D. candidate Jiayi Pan sollen die Kerntechnologien von Deepseek R1-Zero für nur 30 US-Dollar reproduziert haben.
Gelesen bei Toms Hardware:
https://www.tomshardware.com/tech-i...odel-has-remarkable-problem-solving-abilities

Der Standard berichtete heute auch:
https://www.derstandard.de/story/3000000255178/forscher-bauten-kernfunktion-von-deepseek-um-30-dollar-
nach
Zitiat " ...Laut dem Chefforscher lässt sich Tinyzero für weniger als 30 Dollar trainieren. Allerdings betont man, dass man diese Kapazitäten ausschließlich beim Countdown Game und Multiplizieren validieren konnte. Man kann allerdings nicht sagen, ob die Modelle auch bei allgemeineren Aufgabenstellungen dazu in der Lage wären. Um das zu prüfen, fehlt es den Forschern derzeit an der nötigen Hardware-Rechenperformance. ..."
 
Demnächst erzeugen die Modelle beim trainieren noch Geld. XD
 
Ich bin mal gespannt, ob Hugging Face den Ansatz durchhalten und durchziehen kann, weil es im Grunde der ursprüngliche Ansatz von OpenAI ist.

Zumindest die Ressourcen haben sie theoretisch.

Fehlt noch ein europäischer und/oder deutscher Ansatz. Den wird Aleph Alpha vermutlich nicht so schnell liefern. Zumindest nicht allein.
 
LadyAlice schrieb:
hätten niemals eine Chance wenn geltendes Urheberrecht beachtet würde.
Nach deutschem Urheberrecht darf man Inhalte, die frei im Netz verfügbar sind, für maschinelles Lernen verwenden. Wer das nicht will, muss in maschinenlesbarer Form widersprechen. Ich kenne nicht viele Seiten, die das machen.
 
Azdak schrieb:
Nach deutschem Urheberrecht darf man Inhalte, die frei im Netz verfügbar sind, für maschinelles Lernen verwenden. Wer das nicht will, muss in maschinenlesbarer Form widersprechen.
Interessant, warum kennt ChatGPT dann z.b den kompletten Inhalt eines Buches das ich vor Jahren unter Pseudonym veröffentlicht habe und welches Geld kostet und NICHT frei (gratis) verfügbar ist? Ergibt wenig Sinn für mich.
 
@LadyAlice Tatsächlich habe ich mich nicht korrekt ausgedrückt bei dem "frei verfübgar". $44 b UrhG spricht von digitalen und digitalisierten Werken, zu denen rechtmäßig Zugang besteht.
Deswegen finde ich in aktuellen Büchern fast immer so etwas ganz vorne:
vorbehalt.png


Mir ging es aber im Kern darum, dass oft gerne gesagt wird "das dürfen die gar nicht" und nicht selten ist das schlicht falsch. Wie das konkret bei dir jetzt aussieht, keine Anhnung. Das alles rechtmäßig war? Nach welcher Rechtslage? Deutsche Rechtslage wie hier? Amerikanisches Recht?
Der sinngemäße Satz "Wenn die nicht Recht gebrochen hätten, dann hätten sie XY nicht gekonnt", find ich halt deutlich zu einfach gehalten. Mein Statement passte zu deinem Beitrag, ohne das ich damit die Recht- oder Unrechtmäßigkeit in deinem Fall bewerten wollte.
 
  • Gefällt mir
Reaktionen: MDM
Zurück
Oben