PegasusHunter
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.380
hm..
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Nö, mit Programmen wie PRISM, Boundless Informant, Tempora, XKeyscore, Mail Isolation Control and Tracking, FAIRVIEW, Stellarwind (PSP), Genie, Bullrun, Edgehill und CO-TRAVELER Analytics.Kaufmannsladen schrieb:@Alesis Hast du den Artikel gelesen?
Ergänzung ()
Genau! Mit der Technik aus den UFOs und der Hohlerden
Hauptsache mal den Markt erschüttert.Inwieweit diese Marktreaktion gerechtfertigt ist, ist aber ebenfalls zweifelhaft.
... wie schnell doch ein Erschüttern der Marktkapitalisierung (Hier der Kurz von NVIDIA) zustande kommt, nur weil "jemand" eine Zahl (in diesem Fall in Form des finanziellen Aufwandes) in Verbindung mit einem Ergebnis in die Welt schmeißt.4nanai schrieb:vielleicht magst das ja nochmal erläutern
deutlich mehr gerechtfertigt als all diese Delirium valuations. Das basiert doch alles auf absolut nichts mehrInwieweit diese Marktreaktion gerechtfertigt ist, ist aber ebenfalls zweifelhaft.
Ach was? War es mal wieder Clickbait. Wer hätte das gedacht?NameHere schrieb:@Andy Was hat es nun gekostet? Wäre gut, wenn du auch eine tatsächliche Summe nennst in deinem Artikel, was du nicht tust.
MalWiederIch schrieb:Warum wird eigentlich im Artikel so getan, als ob die „geringen Kosten“ und nicht die Leistung mit offenem Quellcode das wären, was alle erstaunt
tomgit schrieb:Das ist leider falsch. Inferenz ist genau das, was bei dem gesamten Prozess am günstigsten ist. Vortraining und Training sind die mit Abstand teuersten Teile beim erstellen eines Modells. Das sieht man aber auch alleine schon daran, was für eine Hardware jeweils benötigt wird. Selbst Fine-Tuning ist deutlich teurer als die Inferenz.
Ich kann auf meinem MacBook ein Phi-3 oder ein Gemma-2 bis 27b Parameter performant laufen lassen. An Finetuning, was deutlich weniger kostet als Training, kann ich hier einfach vergessen.
Das 8B Modell (destilliert llama) läuft auf ner 3060 TI 8GB RAM + 8700 (nicht K) mit ner Auslastung von 50 % CPU, 100 % GPU, 2 GB RAM und 6,5 GB VRAM und liefert Ergebnisse, die ansehnlich sind in einem flotten Tempo. Die Sprachfähigkeiten ins Deutsche haben aber gelitten, sodass es deutlicher holpriger als die Online Variante ist.Ayo34 schrieb:Wieviel VRAM hast du und welche Modellvariante hast du verwendet? Hast du die Vollversion von dem Modell verwendet oder eine optimierte? Da liegen dann Welten zwischen den Ergebnissen.
Auf einem AMD Ryzen AI Max mit 64GB kannst du sogar das große optimierte 70B Modell laufen lassen -> Top Ergebnisse!
Das 32B und 14B Modell sollten auch sehr ordentliche Ergebnisse abliefern und geht mit 16 - 32GB VRAM. Darunter wird es dann schwierig, wenn man nur 4-8GB VRAM hat.
Wie kommst Du auf die Annahme? Im Artikel steht das Gegenteil...Rollkragen schrieb:Jetzt passiert, was sich einige schon gedacht haben: Es reicht günstigere Hardware.
Ich sehe das auch so, wie im Artikel angedeutet. Wegen der Exportbeschränkungen kann das Unternehmen gar nicht offiziell zugeben, über zehntausende H100 GPU's zu verfügen, auch wenn es so ist. Wenn das Training von Meta auf 16.000 H100 60 Millionen gekostet hat, wie hoch waren dann die Kosten bei der oben veranschlagten Anzahl an GPU's? Von den Anschaffungskosten mal zu schweigen. Wenn die Firma diese "über Umwegen" erworben hat, werden das auch keine Schnäppchenpreise gewesen sein.Klar ist: Es sind deutlich mehr als 2.048 H800-GPUs.
Im Gespräch sind mehr als 50.000 Hopper-GPUs. ... Scale-AI-CEO Alexander Wang verkündete, es handele sich dabei um H100-GPUs, was DeepSeek aufgrund der amerikanischen Export-Restritikionen nicht offiziell mitteilen könne. Laut Stratechery sei aber auch denkbar, dass es sich um die H800-Varianten für China handelt, die in der Interconncect-Bandbreite beschränkt sind.
Im Bestand hat DeepSeek aber ohnehin H100-GPUs.
So begann Liang bereits 2021 mit dem Einkauf von GPUs, er baute damals laut Financial Times ein Cluster mit 10.000 Chips auf. Welche GPUs verbaut worden sind, schreibt die Financial Times jedoch nicht, bei Wired ist aber von 10.000 H100-Chips die Rede, die DeepSeek bereits zum Start nutzen konnte.
Metas Modell Llama 3.1 405B wurde für 100 Tage auf einem Cluster mit 16.000 H100-GPUs trainiert, die Kosten sollen dafür bei rund 60 Millionen US-Dollar gelegen haben.
Konzerne die im Wettbewerb stehen, sind gezwungen sich alle Vorteile zu sichern die in Reichweite sind. Oder sie haben sich abgesprochen.thehintsch schrieb:Selbst wenn man unterstellen würde, dass die großen Tech-Konzerne absichtlich Ressourcen-intensive Verfahren pushen um mehr Investitionen rauszuleiern, wäre es doch trotzdem so, dass wenn man verhältnismäßig einfach den Bedarf so massiv reduzieren könnte, das auch im Interesse der Konzerne gewesen wäre das umzusetzen.
Das ist für einen Ingenieur bzw. Wissenschaftler oftmals das größere Lob.Anerkennend...
...und dann schnippte Tanos.Alesis schrieb:...also nach der Massiven Reduzierung auf nur noch wenige Menschen.
Gelöschter_User schrieb:Viel interessanter wäre es zu wissen, was in Summe an Geld "versenkt" wurde.
Wofür braucht es viele verschiedene KIs. Wir haben nur einen Planeten. Jeder macht aber seine eigene Suppe.