News KI-Feature für WhatsApp und Co.: Meta präsentiert Chatbot Meta AI mit neuem Sprachmodell Llama 3

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.909
  • Gefällt mir
Reaktionen: ComputerJunge, Otorva, c[A]rm[A] und eine weitere Person
Weiß man etwas darüber, ob die 24.000 GPUs mal wieder von Nvidia stammen? :D

Edit: Ahja schon gesehen, ist der Fall ^^
 
  • Gefällt mir
Reaktionen: Kastinuk
Die sollten eher mal AI in die Autovervollständigung und Groß/Kleinschreibung sowie Speech-to-text in Whatsapp stecken, das dürfte den mesten Usern mehr bringen.
 
  • Gefällt mir
Reaktionen: seech, Floxxwhite, Captnkuesel und 11 andere
  • Gefällt mir
Reaktionen: Rambo00Zocker und LamaMitHut
Ich halte das Label Opensource für eine Art von Greenwashing, klingt gut ist aber völlig bedeutungslos da fast niemand realistisch einen eigenen Server betreiben kann sofern die Server-teile auch Opensource sind, wenn nicht wäre es eh schon fast ne Lüge.

Was bringt es wenn ein Client opensource ist, aber alle Funktionalität aufm Server passiert und die offizielle Funktionalität totale Spionage ist.

Offen heißt bei mir das es möglich sein muss solche Systeme daheim laufen zu lassen, ansonsten ist es nicht offen.

Aber ja auch wenn der Serverteil auch Opensource sein sollte, ist das Problem das niemand Daten haben wird mit dem man das Ding so füttern kann das es benutzbar ist, das ist dann schon fast ne neue Art von Tivoisierung.
https://bitsea.de/en/2022/04/tivoisierung-wann-ist-software-wirklich-frei/
 
  • Gefällt mir
Reaktionen: bad_sign
blackiwid schrieb:
Offen heißt bei mir das es möglich sein muss solche Systeme daheim laufen zu lassen, ansonsten ist es nicht offen.
Du kannst Llama3 ohne Probleme zuhause auf dem Desktop laufen lassen, hab ich schon ausprobiert. Das Netzwerk an sich (weights) kann man herunterladen, das reicht um es lokal zu verwenden ohne das da irgenwas an einen anderen Server geschickt werden muss.

Was die Dinger nicht sind ist wirklich Open Source wie bei Softwarelizenzen (MIT, BSD, GPL, ...), da gibt es meistens einige Einschränkungen wie man sie verwenden darf. Wobei das vor allen kommerzielle Verwendung betrifft.
 
  • Gefällt mir
Reaktionen: klaus1k, TerraByte1982, fox40phil und 5 andere
  • Gefällt mir
Reaktionen: ReVan1199
blackiwid schrieb:
Offen heißt bei mir das es möglich sein muss solche Systeme daheim laufen zu lassen, ansonsten ist es nicht offen.
GPT4all herunterladen -> dann Llama3 auswählen.
Läuft lokal (ohne Internetverbindung; d.h. nach herunterladen) unter Windows, Linux & Mac.
Unter Linux habe ich gerade Llama 3 Instruct 8B ausprobiert und ich muss sagen, die Antworten sind schon ein gutes Stück besser als früher.
 
Dalek schrieb:
das reicht um es lokal zu verwenden ohne das da irgendwas an einen anderen Server geschickt werden muss.
Aber ohne Trainingsdaten kann das doch sicher nichts oder?

Dalek schrieb:
Was die Dinger nicht sind ist wirklich Open Source
Nennt man das dann nicht Open Access oder so, Naja braucht sicher auch ne 1000 Euro Nvidia Karte um das laufen zu lassen? :D aber gut das ist ne andere Frage...
 
Epistolarius schrieb:
Nein, hier sind wirklich Billionen gemeint (im englischen Original sind es "trillions"). Die Anzahl der Token mit denen es trainiert wurde ist viel höher als die Anzahl Parameter im Modell selbst. Die sind wirklich im Milliardenbereich dann mit 8 Milliarden bzw. 70 Milliarden für die verschiedenen Versionen.
Ergänzung ()

blackiwid schrieb:
Aber ohne Trainingsdaten kann das doch sicher nichts oder?
Das wurde doch schon trainiert, was man bekommt ist das fertig trainierte Netzwerk. Wieso sollte das nichts können?
 
  • Gefällt mir
Reaktionen: klaus1k und TerraByte1982
Elverado schrieb:
Unter Linux habe ich gerade Llama 3 Instruct 8B ausprobiert und ich muss sagen, die Antworten sind schon ein gutes Stück besser als früher.
Auch als Mistral 7B?
 
Kann ich nicht sagen, hab aktuell Mistral 7B nicht. Ich mach alle paar Monate mal GPT4all auf und schaue, was es neues gibt und was sich verändert hat.
Im Zweifelsfall kann das ja jeder selbst ausprobieren.

Interessanter wird ja aber wahrscheinlich ohnehin Llama3 70B.
 
Vielleicht gibt's dann mal demnächst Support vom neuen Chatbot falls mal wieder der Insta Account gehackt wurde.
Momentan gibt's nämlich noch gar keinen Support.
 
Endlich braucht man nicht mehr selbst WhatsApp Chat Nachrichten beantworten, das macht dann die KI...
 
Dalek schrieb:
Was die Dinger nicht sind ist wirklich Open Source wie bei Softwarelizenzen (MIT, BSD, GPL, ...), da gibt es meistens einige Einschränkungen wie man sie verwenden darf. Wobei das vor allen kommerzielle Verwendung betrifft.
Llama 2 und 3 können uneingeschränkt kommerziell genutzt werden, solange man weniger als 700 Millionen monatlich aktive Nutzer hat (siehe Lizenz). Mark Zuckerberg hat es damit begründet, dass Cloudanbieter wie AWS oder Azure Llama nicht monetarisieren können sollen, ohne es vorher mit Meta abzuklären. Das ist meiner Meinung nach fair und nachvollziehbar.
 
  • Gefällt mir
Reaktionen: klaus1k und LamaMitHut
Dalek schrieb:
Das wurde doch schon trainiert, was man bekommt ist das fertig trainierte Netzwerk. Wieso sollte das nichts können?
Naja der Trick ist also die Lizenz da stand opensource aber ist nicht Opensource... ich frag ja nach weil ich nicht sicher bin, nur das ich weis das Meta nicht aus Liebe zu den Menschen sowas frei gibt für alle... da muss eine Falle eingebaut sein.
Hab mich also geirrt die Falle sind nicht fehlende Trainingsdaten sondern die Lizenz. Würde interessieren ob wenn es weder BSD noch GPL artige Lizenz ist wie die OSI das dann Opensource nennen kann oder nennen die das Opensource obwohl die OSI es nicht tut?

Wie auch immer ein weiterer Trick scheint mir die Integration von den Sozial Media Sachen zu sein, da selbst wenn sie den Source von Meta in Teilen mit liefern würden was sie nicht tun, ein Social Media für 1-5 User uninteressant ist und man deshalb schon die ganze Integration mit Facebook will.
Aber klar vielleicht könnte man teile davon benutzen für irgendwelche Privaten Projekte ohne Facebook, da man es aber nicht kommerziell benutzen kann seh ich nicht wieso Leute das benutzen / verbessern sollten und nicht andere opensource Lösungen.
 
llama3 70b 1 token/sec
llama3 8b q8 45 token/sec
beides mit lmstudio.ai rocm version. Sprich alle mit nvidia oder amd 6800 oder 7000er können es ja gerne mal selbst checken.
 
  • Gefällt mir
Reaktionen: klaus1k
Zurück
Oben