MechanimaL schrieb:Cool. Könntest Du mal das Ausgangsbild schicken?
Klar, das Controlnet hatte ich auf Basis von diesem Bildchen gemacht:
Wie man sehen kann, hatte sich Stable Diffusion nicht super strikt dran gehalten - hatte ich auch in diesem Fall garnicht versucht.
Weitere Bilder gibts nicht - ich hatte mit einem Text2Image Prompt angefangen, den ich mir freihand ausgedacht hatte. Das Bild oben war rein für das Openpose Controlnet, weil ich keine Lust hatte, für drei Leute eine Pose manuell zusammen zu frickeln.
Gestern habe ich noch gesehen, dass es mittlerweile Controlnet-Sammlungen gibt, z.B. bei controlnetposes.com
Auch interessant, jedoch sind (bisher) fast keine Controlnets mit mehreren Personen bei.
Bei dem spezifischen Bild oben hatte ich nur Openpose genutzt.MechanimaL schrieb:Hast Du eigtl. versucht weitere Teile von Controlnet zu verwenden? Ich lese raus, dass ja, aber dass das nicht so gut geklappt hat? Oder war in dem Prozess bisher "nur" Openpose im Einsatz?
Ich hatte schon ein wenig mit Openpose_bones_ver_07 in Blender rum probiert, hier ein Beispiel von Schulterzucken mit Händen hoch geworfen und gleichzeitig Zunge rausstecken:
Das hat soweit funktioniert, bis auf das mit dem Zunge rausstecken - damit hat sich Stable Diffusion schwer getan. Ein Oopsie bei der Verwendung von Inpainting hat mir dafür aber diese Horrorshow beschert:
MechanimaL schrieb:In der "3D-Openpose" Extension kann man ja auch Hände bearbeiten. Aber ich glaube, die Erkennung davon läuft dann über andere Teile von Controlnet, da der Openpose-Adapter nicht so detalliert arbeitet (Finger)- richtig? Evtl wäre da noch was rauszuholen
Hmm... 3D-Openpose scheint mehr oder weniger dasselbe wie Openpose_bones_ver_07 in Blender zu bieten, aber vereinfacht und dafür weniger flexibel.
Wie gut Openpose inkl. Fingern funktioniert, hatte ich noch nicht experimentiert.
Aber dafür ist es direkt in Stable Diffusion drin und besser als Openpose-Editor oder Posex. Jetzt fehlen noch Möglichkeiten für Gesichtsausdrücke sowie eine gut gefüllte Bibliothek voller Presets...
Kannte ich noch nicht, aber überzeugt mich ganz ehrlich nicht vollständig. Die Steuerung scheint klobig zu sein. Dann arbeite ich lieber mit Tiled Diffusion...MechanimaL schrieb:PS: Hast Du das mal getestet: https://github.com/hako-mikan/sd-webui-regional-prompter ? Scheint ähnlich wie Latent Couple zu arbeiten, aber laut Eigendarstellung eine "potentielle Verbesserung".
Latent Couple kann übrigens auch eine komplexe Segmentierung mithilfe dem LatentCoupleHelper (oder wenn du das hinbekommst, solch eine segmentierung freihand zu machen...)
Der wird auch im Video von Aitrepreneur aus meinem letzten Post vorgestellt.
Bzw. ist auch noch auf meiner todo Liste, mich mal mit der ComfyUI zu beschäftigen, welche auch viele mächtige Möglichkeiten mitbringt.
Zuletzt bearbeitet: