Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)
Also ich finde es schön, wenn hier mal mehr Bilder, auch von anderen Bild-Generatoren, gepostet werden. Das hilft auch den Lesern, ein wenig die Unterschiede zu erkennen. Und wenn wir schon bei Cocktails sind : Das hatte ich vor kurzem beim Testen der T-800 Lora für Flux gemacht. Die LORA kann ich nur empfehlen.
Nein, darum geht es nicht. Es war nie die Rede von Perfektion,sodnern von natürlich wirkenden, bzw. fotorealistisch aussehenden Bildern.
Und das Bild von @Rickmer ist da sehr nah dran. Aber die Form der linken Limette im Glas passt eben nicht. Und da geht es nicht darum, dass Limetten nicht auch mal deformiert sein können, sodnern darum, dass das in der Form eben einfach unrealistisch ist.
Doch, genau darum geht es. Zum einen dürfen keine logischen Fehler enthalten sein, zum anderen dürfen die Bilder nicht perfekt sein, sondern müssen kleinere Schönheitsfehler enthalten. Es gibt zum Beispiel keine Limetten, die perfekt rund oder perfekt oval sind. Beschäftige dich mal ein bisschen mit dem Thema.
Nein. Es ging darum, dass die von dir geposteten Bilder weit weg von (foto-)realistisch sind und dass das mit anderen KIs besser funktioniert.
Keine Ahnung was du eigentlich auf einmal mit "perfekt" willst.
CyborgBeta schrieb:
Es gibt zum Beispiel keine Limetten, die perfekt rund oder perfekt oval sind.
Das habe ich auch nie behauptet. Aber die Form, die die linke Limettenscheibe im Glas hat, ist absolut unrealistisch. Das Ding ist keine Scheibe, sondern hat total seltsam gewölbte Flächen. Das Messer mit dem man so eine "Scheibe" schneiden könnte, müsste eine Klinge aus Gummi haben. Und daran kann man eben erkennen, dass das Bild KI-generiert ist. Das ist eben, wie du selbst geschrieben hast, ein logischer Fehler.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Glaze is a system designed to protect human artists bydisrupting style mimicry. At a high level, Glaze works byunderstanding the AI models that are training on human art, andusing machine learning algorithms, computing a set of minimalchanges to artworks, such that it appears unchanged to humaneyes, but appears to AI models like a dramatically different artstyle.
Ich hatte das mal ausprobiert indem ich es auf einen meiner Render verwendet habe. Das soll ja immerhin unsichtbar sein...
Also von der Website runtergeladen, ausgepackt und laufen lassen. Die Oberfläche sieht so aus:
Also eins meiner generierten Wallpaper genutzt und mit drei Settings durchlaufen lassen:
Intensity Low, Render Quality Low
Intensity Default, Render Quality Default
Intensity High, Render Quality Slowest
Die Originale (zu jpg konvertiert weil die als png teilweise über dem Größenlimit lagen) sind unten angehängt. Ich habe das zum direkten Vergleich hier übereinander gelegt und segmentiert:
Dafür, dass das unsichtbar sein soll, finde ich das bei default Settings ziemlich gut sichtbar. Von 'high' brauchen wir garnicht reden. Das sieht aus, als hätte jemand eine ölige Pfütze über das Bild ergossen...
Hier nochmal die Originale (nach jpg Konvertierung) in Reihenfolge none -> low -> medium -> high:
Am besten in einem separaten Fenster öffnen und bei 100% Auflösung betrachten. Das ist ein selbst gemachter Bildschirmhintergrund, daher 5120x2160...
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Mich würde hier echt wahnsinnig interessieren, ob die Unterschiede zwischen SD 3.0 Large und SD 3.5 Large ausschließlich mehr Training sind, oder ob mehr getan wurde.
Mich würde hier echt wahnsinnig interessieren, ob die Unterschiede zwischen SD 3.0 Large und SD 3.5 Large ausschließlich mehr Training sind, oder ob mehr getan wurde.
Ganz viel Training mit Frauen im Gras... irgendwie hat Stable Diffusion bei mir eine Delle mit 3.0 bekommen und ich frage mich gerade, warum Stable Diffusion, wenn ich auch Flux benutzen kann. Die Ergebnisse mit Flux Schnell sind cool und 10sec auch nicht viel...
Aktuell lohnt es sich, außer zum Experimentieren, wohl noch nicht groß was mit SD 3.5 zu machen, insb. wenn man auch Flux (oder Pony/SDXL je nach Anwendungszweck) zur Verfügung hat. Allerdings ist das SD 3.5 Model von der Lizenz und der Beschaffenheit offen für Fine Tunes und könnte somit prinzipiell den Weg von 1.5/SDXL gehen, bei dem die Qualität der Community-basierten Models das Base Model ja um ein Vielfaches übertroffen haben. Bei Flux hingegen, ist dieser Prozess leider nicht eingetreten und es gibt außer LORAs keine großen Verbesserungen, da aufgrund der Art des Models ("distilled") Finetuning nicht gut möglich ist.
Die besseren Beispielbilder auf civitai von SD3.5 verwenden übrigens auch einen anderen Sampler und ggf anderen Workflow, als das Beispiel von der comfyUI Seite (siehe Galerie).
Hier
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.