MechanimaL
Lieutenant
- Registriert
- Nov. 2005
- Beiträge
- 989
Wenn Du das ganze lokal betreibst, musst Du halt schauen, dass das Model von Deinem System geladen werden kann und da spielt der VRAM, also der Arbeitsspeicher Deiner Grafikkarte, eine Rolle.samuelclemens schrieb:Inwieweit ist das 40 gb modell besser als das 4 gb modell für mein vorhaben?
Desweiteren die Frage, ob Du direkt alles in Deutsch machen willst oder es ok ist ein Englisch zu arbeiten und später zu übersetzen.
Und dann wäre wahrscheinlich ein Model ratsam, dass eine höhere Kontext-Länge erlaubt, wenn es um längere Zusammenhänge geht. (ggf muss im GUI die zu verwendende Kontextlänge auch eingestellt werden).
https://llm.extractum.io/ da kannst Du dir z.B. einen Überblick über Models, ihre Qualitäten, VRAM Vorausetzungen und maximale Kontextlänge verschaffen.
Ich selbst habe seit längerem nichts gemacht in dem Bereich und lediglich chatGPT benutzt (für rein praktische Hilfen, nichts kreatives), kann Dir jetzt also auch keine aktuellen Tipps geben, @madmax2010 hat ja eines vorgeschlagen. Kannst ja mal berichten, was wie gut funktioniert.
PS: Hier sind ein paar ebenfalls ein paar interessante Models versammelt ,wenn's um Storytelling geht. Wenn Du unzensierte Chats haben möchtest, dann achte bei den Models generell auf "uncensored" oder "abliterated" im Titel (idR).
Zuletzt bearbeitet: