dernettehans
Lt. Commander
- Registriert
- März 2021
- Beiträge
- 1.249
Gibts schon lange und besser: https://lmstudio.ai/
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Oder oobabooga, wer dann noch bock auf Roleplay hat der nimmt dazu noch SillyTavern als Frontenddernettehans schrieb:Gibts schon lange und besser: https://lmstudio.ai/
DaLexy schrieb:Hab meinen Text oben mal etwas editiert. Leider ist das was du sagst derzeit die realität denn desto mehr Kontext du willst, desto mehr VRAM/RAM brauchst du.
Dann kommt noch hinzu wieviel Parameter du in dem Model hast, 7B oder 20B ! Gibt auch 120B Models aber das kannste als Otto User schon vergessen wenn du nicht gerade 2-3x 3090/4090 mit 64GB RAM hast ^^
Ich fahre derzeit 13B mit Quant 8 oder 20B/23B mit Quant 4.
Das sieht dann schnell so aus mit einer 3080 10GB und 32GB RAM
Die Bilder sind von meinen Testruns mit 8k und 16k kontext.
Ich hatte schon Probleme 13B Modelle zu laden in LMStudio mit ner RTX4080 und 16GB VRAM und 32GB RAM weiss aber nich genau woran es nun lag, eigentlich sollte das ja gehn. Wirklich schade dass ich keine 4090 hab, denn bei 20GB scheint grad so die grenze zu sein für gute größere Models.DaLexy schrieb:Dann kommt noch hinzu wieviel Parameter du in dem Model hast, 7B oder 20B ! Gibt auch 120B Models aber das kannste als Otto User schon vergessen wenn du nicht gerade 2-3x 3090/4090 mit 64GB RAM hast ^^
Natürlich gibt es Szenarien wo es sinnvoll sein wird, das LLM auf dem eigenen PC laufen zu lassen (Spiele etwa -> NPCs). Also ja, nachhaltig, aber natürlich ein Forschungsprojekt.Matthias B. V. schrieb:Für mich eher Marketing als wirklich langfristig nachhaltig.
Ja, das kannst du. Allerdings kommt es da auf das Modell an. 70B models kannst du damit nutzen und die mit in den RAM auslagern aber da musst du bedenken das die Tokens/sec und Responmsetime darunter leiden. Ich hab mit meinen Settings gerade bei 4k Kontext und 23B "Output generated in 119.89 seconds (2.24 tokens/s, 269 tokens, context 2536). Ich kann damit leben, obwohl schneller schöner wäredrmaniac schrieb:Also dank der arbeitsspeicherpreise heute ist es ja gar nicht so aufwendig sich 128 GB RAM oder mehr in den Rechner zu hauen. Allerdings grafikkartenspeicher wird das schon eher ein Problem... Wäre es denn von Vorteil wenn man "nur" eine 4090 besitzt und dafür aber unglaublich viel RAM in die Kiste packt? Ich glaube meine fragestellung will einfach nur ausdrücken kann ich mit viel Arbeitsspeicher es kompensieren dass ich nur z.b eine grafikkarte im Rechner habe
Ich kenne LMStudio nicht aber das wird mit sicherheit ein problem mit den Settings gewesen sein, ich brauchte auch erstmal 1-2 Wochen um mit den Settings klarzukommen bzw. zu verstehen was da falsch läuft.dernettehans schrieb:Ich hatte schon Probleme 13B Modelle zu laden in LMStudio mit ner RTX4080 und 16GB VRAM und 32GB RAM weiss aber nich genau woran es nun lag, eigentlich sollte das ja gehn. Wirklich schade dass ich keine 4090 hab, denn bei 20GB scheint grad so die grenze zu sein für gute größere Models.