News Llama 3.1: Meta veröffentlicht Konkurrent für GPT-4o mini als Open Source

Wie meinst du das @Quackmoor?
Ich und viele meiner Kollegen und Bekannte können ihre Arbeit dank ChatGPT / Copilot sehr viel effizienter und schneller erledigen und somit mehr Geld erwirtschaften, Verträge annehmen etc.
Ökonomisch doch sinnvoll, oder nicht?
 
  • Gefällt mir
Reaktionen: Gizzmow, codengine, Gabber und 23 andere
Quackmoor schrieb:
Und immer noch gibt es keine ökonomisch sinnvolle Nutzung von KI.
Naja für Entwickler aber auch Office worker die schnell mal irgend ein Anschreiben oder irgendwas erstellen sollen ne Einladung zu ner Betriebsfeier, klar der output wird vielleicht nicht perfekt aber lieber hab ich 90% richtig und 10% falsch und ersetze die 10% als 100% selbst zu schreiben.

Dazu kommen noch dinge wie lokal Filme dynamisch hoch skalieren.
Ergänzung ()

Ja ich trau dem Braten nicht, ich denke sie wissen genau das fast niemand mal schnell die Trainingsdaten ersetzt, daher ist der Code alleine fast wertlos, was allerdings gut ist, ist wenn fehler oder irgendwas entdeckt werden das die dann von anderen gefixt und der Fix ihnen gesendet werden kann, und natürlich gutes Greenwashing.

Würde man die Trainingsdaten auch public domain oder so was stellen sähs anders aus, that said, ich mache für Spiele gerne das Argument, veröffentlicht doch mal den Source zumindest bei Spielen wo Artwork relativ wichtig ist und dann ist man immer noch vom Urheberrecht geschützt solange das Artwork nicht Creative Commonce lisense unterstellt ist.

Aber bei Spielen herrscht offenbar noch kein großer konkurenzdruck daher scheint (fast) niemand das zu machen.
 
Die richtige Frage wäre: But Can It Run Crysis?
 
  • Gefällt mir
Reaktionen: DrSky
blackiwid schrieb:
Ja ich trau dem Braten nicht, ich denke sie wissen genau das fast niemand mal schnell die Trainingsdaten ersetzt, daher ist der Code alleine fast wertlos,

Häh? Code? Es geht um ein Model für die python-Bibliothek transformers...
 
Donnidonis schrieb:
Wie meinst du das @Quackmoor?
Ich und viele meiner Kollegen und Bekannte können ihre Arbeit dank ChatGPT / Copilot sehr viel effizienter und schneller erledigen und somit mehr Geld erwirtschaften, Verträge annehmen etc.
Ökonomisch doch sinnvoll, oder nicht?
Was genau machst beruflich?

Ich sehe aktuell nur für CEOs Gewinn, wenn es um KI geht.
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Haldi schrieb:
Und wie viel RAM benötigt man um das Lokal laufen zu lassen?
Allen

Ich denke @Quackmoor meinte die horrenden Energiekosten. Dazu müsste man wissen wieviel Porzent der Anfragen

"Sind Tomaten ein Nachtschattengewächs?"

und wieviele:

"Schreibe ein Executive Summary" sind...
 
Haldi schrieb:
Und wie viel RAM benötigt man um das Lokal laufen zu lassen?
Kommt drauf an ob du das voll in VRAM betreiben willst und wie groß die context windows sein soll
Je mehr du auslagester desto weniger VRAM / RAM wird benötigt, aber die Performance ist dann halt entsprechend schlecht.

Es kommt natürlich auch auf die Quantisation drauf an - allgemein brauchst du mehr VRAM als die Dateigröße ist.

Hier ein Beispiel, wo die Meta-Llama-3-70B Q4-K-M Variante mit 8K context window auf 48GB VRAM (3x 4060 Ti 16GB) läuft:


Mit moderater Quantisation und 128K context windows oder so kannste schon locker mit 400GB VRAM Bedarf rechnen denke ich.
 
Joa ne.... das 70B Model ist schon zu fett für meine GPU....
Möchte echt gerne mal wissen das das 405B da tut xD

1721757107583.png
 
Warum erwähnt der Artikel dass hier mit GPT4o mini konkurriert werden soll? Das 405b Modell steht in Konkurrenz zu GPT4o.

Wenn ein Modell mit 4o mini konkurriert, dann wohl am ehesten die neue Version vom 8b Modell.
 
  • Gefällt mir
Reaktionen: Neo772™
Rickmer schrieb:
Hier ein Beispiel, wo die Meta-Llama-3-70B Q4-K-M Variante mit 8K context window auf 48GB VRAM
Schade, hätte gehofft eine 16GB Karte reicht für ein 70B Modell.

Gibt es spezialisierte NPU Grafikkarten für Consumer. So ein privates 405B Modell wäre schon geil.
 
Quackmoor schrieb:
Und immer noch gibt es keine ökonomisch sinnvolle Nutzung von KI.
Wie kommst du darauf? Nur ein Beispiel:

https://www.reddit.com/r/singularity/comments/1eabnl1/klarna_ceo_on_replacing_700_customer_service/

Dieser Trend hat bereits vor einer Weile begonnen und dürfte sich in den nächsten Jahren extrem beschleunigen. Agents sind der nächste Schritt, dann werden KIs auch produktiv selbstständig Entscheidungen treffen. Wahrscheinlich ab nächstem Jahr.
 
  • Gefällt mir
Reaktionen: Moerf, Zockmock, NukER und 3 andere
Blaexe schrieb:
Wenn ein Modell mit 4o mini konkurriert, dann wohl am ehesten die neue Version vom 8b Modell.
Bei den 8B und 70B Versionen hat sich von Llama 3.0 zu 3.1 in vielen Metriken kaum was getan

https://huggingface.co/meta-llama/Meta-Llama-3.1-405B
1721757492129.png


DoS007 schrieb:
Gibt es spezialisierte NPU Grafikkarten für Consumer. So ein privates 405B Modell wäre schon geil.
Wenn es sowas gäbe würdest du keins kaufen können weil alle Datacenter die auf Jahre ausbuchen
 
  • Gefällt mir
Reaktionen: Zockmock, MechanimaL und DoS007
Rickmer schrieb:
Bei den 8B und 70B Versionen hat sich von Llama 3.0 zu 3.1 in vielen Metriken kaum was getan
128k context window ist alleine schon "ne Menge getan". Außerdem widerspricht das ja nicht dem was ich gesagt habe. 4o mini ist ja auch nicht so gut wie 4o. Und in den Benchmarks befindet sich das 405b Modell auf dem selben / etwas über dem Niveau von 4o.

Der Vergleich mit mini macht hier keinen Sinn. Den macht Meta ja auch nicht. Mini ist ein Modell in der Größenklasse 8b.
 
  • Gefällt mir
Reaktionen: Neo772™
Quackmoor schrieb:
Und immer noch gibt es keine ökonomisch sinnvolle Nutzung von KI.

Kann nur jemand erzählen, der noch nichts ausprobiert hat oder einfach uninformiert ist.

Ein ganz kurzes Beispiel von heute, ich hatte folgenden Text zu einem DeepL Blindtest:

"Die Übersetzungen wurden 1,3-mal häufiger bevorzugt als die von Google Translate, 1,7-mal häufiger als die von ChatGPT-4 und sogar 2,3-mal häufiger als die von Microsoft."

Wie macht man daraus nun eine sinnvolle Grafik, die der Leser auf Anhieb versteht? Erstmal muss man viel rechnen und umwandeln und das ist keine einfache Rechnung, weil alles von einander abhängig ist. Das hat in 1sec Gemini daraus gemacht:

Gemini_Chart_Image.png


Schön normiert auf 100 Befragte, perfekte Beschriftungen. Man kann also sagen, dass 36 Leute bzw. 36% der Leute DeepL bevorzugt haben und nur 16% Microsoft. Hätte sogar direkt bei Gemini die Tabelle noch nach meinem beliebigen anpassen können.
 
  • Gefällt mir
Reaktionen: menace_one, Moerf, 9t3ndo und 2 andere
Zurück
Oben