CoMo schrieb:
Die Modelle dort kann man dann wohl für die Apps in
Pinokio nutzen.
Pinokio habe ich auch schon gesehen bei CT 3003 in einem Video.
Sah recht gut aus. Wobei dort auch gesagt wurde das es ein bisschen heikel ist, weil irgendwelche Scripte ausgeführt werden.
Pinokio selbst ist ja auf Github.
Ist die Frage ob es sicher verwendet werden kann hmm.
CoMo schrieb:
Ui, da brauch man viel RAM
oicfar schrieb:
Danke dir, werde ich mir auch mal ansehen. Aktuell habe ich nur Local AI unter Unraid.
oicfar schrieb:
Das mit den eigenen Dokumenten habe ich noch nicht ausprobiert. Da fehlt mir noch der Use-Case.
Manchmal hab ich mich schon gefragt wo das nochmal genau in der PDF Stand und wenn man das irgendwie smart durchsuchen könnte wäre super praktisch
oicfar schrieb:
Wenn ich da was brauche, dann greife ich zu ChatGPT.
Ich aktuell auch, aber es lokal zu haben hätte auch was, sofern es ungefähr chat gpt einigermaßen gleich kommt
oicfar schrieb:
Nur weil es z.Z. ein Hype ist, muss man nicht auf den Zug aufspringen.
Das stimmt. Allerdings bin ich sehr technikbegeistert und sehr interessiert und finde vieles spannend und probiere gern aus.
oicfar schrieb:
Musik ist nicht mein Use-Case. Aber da gibt's was,
Hast du da eine Empfehlung?
Bisher kenne ich nur das man Geräusche oder Soundtrack mäßig was machen kann. Mit Suno.ai und Udio kann man ganze Lieder selbst erstellen mit eigenen lyrics, gerade das finde ich mega gut und nutze ich sehr gern!
Vorher hätte ich nie gedacht, das ich das "brauche" das ich damit spaß habe aber jetzt wo ich es nutze macht es mir spaß Lieder zu schreiben, darüber nachzudenken und das dann zu einem Song umwandeln zu können, was sehr gut klappt meiner Meinung nach, ich ohne KI aber nie so leicht hinkriegen würde.
oicfar schrieb:
Ja. VRAM und RAM. Eine GPU sollte schon mind. 16GB haben. Und RAM sollte auch nicht unter 64GB sein. Ansonsten kriegst du manche LLMs nicht zum Laufen.
64GB RAM ist machbar 16GB VRAM wird mit Nvidia mit meinem Budget sehr schwer :/
12GB sind drinne aber 16GB nicht.
oicfar schrieb:
Ich habe gestern paar Bilder mit SD generiert und von den 64GB RAM wurden fast 50GB belegt.
Wahnsinn!
Das ist ja wirklich extrem viel. In welcher AUflösung hast du rendern lassen?
oicfar schrieb:
Frage dich erstmal: Wofür brauche ich es? Was nützt es mir? Was habe ich davon?
Hmm viel ist neugier, ausprobieren.
Einiges finde ich praktisch ChatGPT zu fragen und lokal wäre es mir viel lieber.
oicfar schrieb:
Zu den Dokumenten? Welche Fragen? Wie oft machst du das?
Sicher nicht allzuoft, aber schadet nicht es zu haben finde ich
oicfar schrieb:
die ich generiert habe ca. 50 Minuten pro Bild.
Oha, das ist schon sehr lange.
Ich habe Zeit aber 50 Minuten ist ne Hausnummer
oicfar schrieb:
Dauerte schon ~5 Minuten bis ich das Ergebnis in GPT4ALL hatte.
Wow das ist lange für eine Anfrage?
oicfar schrieb:
Auf der einen Seite kommen CPUs mit einer NPU Einheit drauf.
Das stimmt, da frage ich mich auch inwieweit das was ändert und ob es das schon tut oder ob es noch mehrerer Generationen Bedarf....
oicfar schrieb:
Thema GraKa wäre wäre was Richtung 4090. Oder mal was kleineres (aber teurer) PNY NVIDIA RTX 4000 ADA 20GB oder PNY NVIDIA RTX A4000 16GB.
ui und ich finde ne 4090 schon mega teuer ^^
Bohnenhans schrieb:
Pinokino wurde ja schon von CoMo hingewiesen - echt ein cooles Tool für den ganzen freien KI Kram
Hast du es im Einsatz?
Wenn ja unter welchem Betriebssystem?
Wie würdest du die Sicherheit einschätzen, kann man es problemlos verwenden oder eher mit Vorsicht genießen^^?