[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

wilk84 schrieb:
Ja total realistisch die Bilder
Wird noch etwas dauern, bis von Fotografie nicht mehr unterscheidbar, aber genau das wird der Fall sein. ;)

Und ich muss hier niemanden überzeugen ... deine Meinung ist mir ziemlich egal.
 
Also ich finde es schön, wenn hier mal mehr Bilder, auch von anderen Bild-Generatoren, gepostet werden. Das hilft auch den Lesern, ein wenig die Unterschiede zu erkennen. Und wenn wir schon bei Cocktails sind ;) : Das hatte ich vor kurzem beim Testen der T-800 Lora für Flux gemacht. Die LORA kann ich nur empfehlen.

1725654996094.png

(Alle Infos)
 
  • Gefällt mir
Reaktionen: Kaulin, Ayo34 und CyborgBeta
CyborgBeta schrieb:
Nein, darum geht es nicht. Es war nie die Rede von Perfektion,sodnern von natürlich wirkenden, bzw. fotorealistisch aussehenden Bildern.

Und das Bild von @Rickmer ist da sehr nah dran. Aber die Form der linken Limette im Glas passt eben nicht. Und da geht es nicht darum, dass Limetten nicht auch mal deformiert sein können, sodnern darum, dass das in der Form eben einfach unrealistisch ist.
 
Ich habe direkt gesehen, dass die Bilder nicht echt sind und auch besonders bei dem Bild von @MechanimaL

Wo gibt es noch Strohhalme aus Plastik?
 
  • Gefällt mir
Reaktionen: Kaulin und MechanimaL
wrglsgrft schrieb:
Nein, darum geht es nicht.
Doch, genau darum geht es. Zum einen dürfen keine logischen Fehler enthalten sein, zum anderen dürfen die Bilder nicht perfekt sein, sondern müssen kleinere Schönheitsfehler enthalten. Es gibt zum Beispiel keine Limetten, die perfekt rund oder perfekt oval sind. Beschäftige dich mal ein bisschen mit dem Thema.
 
CyborgBeta schrieb:
Doch, genau darum geht es.
Nein. Es ging darum, dass die von dir geposteten Bilder weit weg von (foto-)realistisch sind und dass das mit anderen KIs besser funktioniert.
Keine Ahnung was du eigentlich auf einmal mit "perfekt" willst.

CyborgBeta schrieb:
Es gibt zum Beispiel keine Limetten, die perfekt rund oder perfekt oval sind.
Das habe ich auch nie behauptet. Aber die Form, die die linke Limettenscheibe im Glas hat, ist absolut unrealistisch. Das Ding ist keine Scheibe, sondern hat total seltsam gewölbte Flächen. Das Messer mit dem man so eine "Scheibe" schneiden könnte, müsste eine Klinge aus Gummi haben. Und daran kann man eben erkennen, dass das Bild KI-generiert ist. Das ist eben, wie du selbst geschrieben hast, ein logischer Fehler.
 
  • Gefällt mir
Reaktionen: CyborgBeta
CyborgBeta schrieb:
Und ich muss hier niemanden überzeugen ... deine Meinung ist mir ziemlich egal.

Das hatte ich auch nicht vor. Ich war nur verwundert, dass du in diesem Ausmaß Realismus von einer offensichtlichen Grafik nicht unterscheiden kannst.
 
  • Gefällt mir
Reaktionen: Maviapril2
Gibt was neues zum Lora Trainieren:


Funktioniert auch mit 8GB VRAM Karten.
12 Bilder, 1440 Steps in ~ 4Std. mit meiner 4070.
 
  • Gefällt mir
Reaktionen: Kaulin, Teropet und Ayo34
Ob man es glaubt oder nich aber Menschen werden sich nie in einen meiner Prompt Ideen verlaufen. Viel zu gruselig :D

Aber Cars dafür um so mehr... :D


UniversalUpscaler_d1c3a4b6-6737-4a24-89a1-5b3ac9ecc28d.jpg
UniversalUpscaler_8e606348-050b-410f-bd3f-03d4126da88d.jpg
CREATIVITY 10_UniversalUpscaler_0f8133a4-94f3-4767-9279-fb22c744ead4__Designer - 2024-08-07T17...png
UniversalUpscaler_107a6173-4d05-459a-b6ea-07ccce5cfb33.jpg
UniversalUpscaler_a1eb64d1-a509-4964-b5eb-ee330bb0fa1cdd.jpg
UniversalUpscaler_48714840-63db-4c6c-ae69-bb8927b6128f7.jpg
UniversalUpscaler_516d5081-965f-4754-bc22-bf28880060fc.jpg
UniversalUpscaler_1a2ce606-7e93-4a74-866e-97ac33b1e79d.jpg
UniversalUpscaler_35102d38-7d9f-4012-abdb-7243ea921719.jpg
UniversalUpscaler_53dd4788-56d4-4d0c-a588-84baf0b708e0.jpg
 
  • Gefällt mir
Reaktionen: Kaulin, leboef, MechanimaL und 2 andere
@A.K. Womit erstellt?
 
Ihr habt sicherlich schonmal von Glaze gehört?

https://glaze.cs.uchicago.edu/what-is-glaze.html
Glaze is a system designed to protect human artists bydisrupting style mimicry. At a high level, Glaze works byunderstanding the AI models that are training on human art, andusing machine learning algorithms, computing a set of minimalchanges to artworks, such that it appears unchanged to humaneyes, but appears to AI models like a dramatically different artstyle.

Ich hatte das mal ausprobiert indem ich es auf einen meiner Render verwendet habe. Das soll ja immerhin unsichtbar sein...

Also von der Website runtergeladen, ausgepackt und laufen lassen. Die Oberfläche sieht so aus:
1728566806576.png


Also eins meiner generierten Wallpaper genutzt und mit drei Settings durchlaufen lassen:
  • Intensity Low, Render Quality Low
  • Intensity Default, Render Quality Default
  • Intensity High, Render Quality Slowest

Die Originale (zu jpg konvertiert weil die als png teilweise über dem Größenlimit lagen) sind unten angehängt. Ich habe das zum direkten Vergleich hier übereinander gelegt und segmentiert:
GlazeShowcase_Lines+Text.jpg


Dafür, dass das unsichtbar sein soll, finde ich das bei default Settings ziemlich gut sichtbar. Von 'high' brauchen wir garnicht reden. Das sieht aus, als hätte jemand eine ölige Pfütze über das Bild ergossen...

Hier nochmal die Originale (nach jpg Konvertierung) in Reihenfolge none -> low -> medium -> high:
GlazeShowcase_NoGlaze.jpgGlazeShowcase_Intensity-LOW-V2.jpgGlazeShowcase_Intensity-DEFAULT-V2.jpgGlazeShowcase_Intensity-HIGH-V2.jpg
Am besten in einem separaten Fenster öffnen und bei 100% Auflösung betrachten. Das ist ein selbst gemachter Bildschirmhintergrund, daher 5120x2160...
 
  • Gefällt mir
Reaktionen: Kaulin

Mimik-kontrolle mit LivePortrait. Mittlerweile sehr detailliert steuerbar.
 
  • Gefällt mir
Reaktionen: Kaulin
  • Gefällt mir
Reaktionen: Kaulin, painomatic und Ayo34
Das soll 8B Parameter haben wie damals schon das SD 3.0 Large... ich vermute, dass SD3.5 einfach nur SD3.0 mit zusätzlichem Training ist?

Immerhin hatte Stability AI die Eier, deren Blogpost direkt mit einer Frau die im Gras liegt zu eröffnen.
https://stability.ai/news/introducing-stable-diffusion-3-5

1729633409506.jpeg

Mich würde hier echt wahnsinnig interessieren, ob die Unterschiede zwischen SD 3.0 Large und SD 3.5 Large ausschließlich mehr Training sind, oder ob mehr getan wurde.
 
  • Gefällt mir
Reaktionen: Kaulin und Ayo34
Rickmer schrieb:
Mich würde hier echt wahnsinnig interessieren, ob die Unterschiede zwischen SD 3.0 Large und SD 3.5 Large ausschließlich mehr Training sind, oder ob mehr getan wurde.

Ganz viel Training mit Frauen im Gras... irgendwie hat Stable Diffusion bei mir eine Delle mit 3.0 bekommen und ich frage mich gerade, warum Stable Diffusion, wenn ich auch Flux benutzen kann. Die Ergebnisse mit Flux Schnell sind cool und 10sec auch nicht viel...
 
  • Gefällt mir
Reaktionen: Kaulin
Aktuell lohnt es sich, außer zum Experimentieren, wohl noch nicht groß was mit SD 3.5 zu machen, insb. wenn man auch Flux (oder Pony/SDXL je nach Anwendungszweck) zur Verfügung hat. Allerdings ist das SD 3.5 Model von der Lizenz und der Beschaffenheit offen für Fine Tunes und könnte somit prinzipiell den Weg von 1.5/SDXL gehen, bei dem die Qualität der Community-basierten Models das Base Model ja um ein Vielfaches übertroffen haben. Bei Flux hingegen, ist dieser Prozess leider nicht eingetreten und es gibt außer LORAs keine großen Verbesserungen, da aufgrund der Art des Models ("distilled") Finetuning nicht gut möglich ist.

Die besseren Beispielbilder auf civitai von SD3.5 verwenden übrigens auch einen anderen Sampler und ggf anderen Workflow, als das Beispiel von der comfyUI Seite (siehe Galerie).

Hier
noch ein Vergleich bzgl. Fotos Flux vs SD 3.5
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kaulin
Zu SD 3.5 kann ich nur eines sagen: Runtergeladen, paar Workflows ausprobiert, gelacht und wieder gelöscht.

An Flux führ im moment kein Weg vorbei
 
  • Gefällt mir
Reaktionen: Kaulin
Zurück
Oben