[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

MechanimaL

Lieutenant
Registriert
Nov. 2005
Beiträge
996
Die Möglichkeiten der Bild-Erschaffung mittels künstlicher Intelligenz haben in der jüngsten Zeit einen enormen Schub erfahren. Zugleich wurde der Zugang für die Allgemeinheit erleichtert, indem mehrere Anbieter entstanden sind, die "txt2img" Dienste kommerziell betreiben (z.B. "Midjourney") oder die nötige Software kostenfrei und quelloffen zur Verfügung stellen ("Stable Diffusion").

"Txt2Img" bedeutet, dass Bilder durch die Eingabe eines "Prompts" in Form einer Beschreibung, was auf dem Bild zu sehen sein soll, erschaffen werden. Hierfür wurden AI-Systeme mit Millionen von Bildern und deren Beschreibungen trainiert. Somit stehen uns prinzipiell zuvor nicht da gewesene Möglichkeiten der künstlerischen Entfaltung bzw. Erschaffung von Bildern, ganz ohne selbst die handwerklichen Fertigkeiten dafür zu besitzen, zur Verfügung.

Im CB-Forum sind zu dem Thema bereits einzelne Threads aufgeploppt. Um dem bestehenden Interesse gerecht zu werden, die aktiven Nutzer zusammenzubringen und Neue auf dieses Thema aufmerksam zu machen, soll nun dieser Sammelthread dienen. Im Folgenden findet Ihr außerdem Hinweise auf Online- Dienste, Testseiten und lokale Nutzungsmöglichkeiten, samt Installationshilfe. Am Ende dieses Posts stehen Links zu Youtube Channels (u.a. mit Tutorials zu bestimmten GUIs), sowie zu Wikis, Guides, Prompting Tipps, Communities- hauptsächlich zu Stable-Diffusion.

Wünschenswerter Inhalt von Beiträgen​

  • Fragen zu entsprechenden Plattformen / Software und deren Nutzung
  • Das Teilen von selbst erstellten Bildern, bzw. Feedback zu diesen
  • Tipps und Tricks zur Bilderstellung, sowie das Teilen von Informationsquellen
  • Neue Entwicklungen in dem Bereich mitteilen und kommentieren
  • Genereller Austausch zum Thema Bild-KI

Posting-Regeln für Bilder​

  1. Bei Bildern bitte immer (mindestens) angeben, womit und mit welchem Prompt es erstellt wurde, wie im folgenden Beispiel dargestellt. Bei mit Hilfe von "img2img" oder anders weiter bearbeiteten Bildern, gerne den Entstehungsprozess mitteilen oder mit Bildern darstellen - das kann sehr hilfreich sein.
  2. Für den Inhalt der Bilder gelten die Allgemeinen Forenregeln

Beispiel:

00446-1575132698-award winning underwater photo of a cute sea urchin eagle, 4k.png

Stable Diffusion 1.5
award winning underwater photo of a cute sea urchin eagle, 4k


Online Dienste und Test-Seiten

Wer einmal txt2img online testen möchte, kann dies auf den folgenden Webseiten tun, in der Regel kostenlos für eine gewisse Zahl an Versuchen bzw. mit eingeschränkten Funktionen (evtl. einmalige Anmeldung erforderlich). Eine weitere Übersicht über die aktuell besten Modelle bietet dieses Leaderboard.



So sehen Ergebnisse aus​

Galerien erschaffener Bildern gibt es jeweils hier (inkl. Angabe der verwendeten Prompts):

FLUXStable DiffusionIdeogramMidjourneyDall-ERecraft
CivitAI (SFW)
CivitAI (NSFW)
CivitAI (SFW)
CivitAI (NSFW)
IdeogramShowcaseDall-E 2025Gallery


GUIs für eine kostenlose, lokale Anwendung von Bildgeneratoren​

Im Gegensatz zu anderen Produkten, lassen sich "Stable Diffusion", "Flux" und "AuroFlow" (u.a.) offline auf dem eigenen Rechner installieren und komplett ohne Anmeldung oder Einschränkung, sowie mit ständig wachsendem Funktionsumfang nutzen. Dazu zählt u.a. img2img, was es erlaubt, im Zusammenspiel mit der AI das Bild weiter zu verfeinern, bestimmte Bereiche zu erhalten, andere zu verändern (inpainting) usw.!

Es gibt eine sehr aktive "GUI"-Entwickler-Szene, die verschiedene (häufig Browser-basierte) "UIs" dafür hervorgebracht hat, die z.T. mehrere Updates täglich unterlaufen. Im folgenden eine Übersicht:

NameBasis1 click installerOSModelsProjekt Page
Swarm UIEin Interface auf Basis von ComfyUI, verbindet somit das umfangreichste Tool für lokale Bild- und Videogeneration mit den einfachen Bedienmöglichkeiten anderer GUIs. Multi-GPU Support.jaWindows, Linux, MacSD1+2, SDXL, SD3, FLUX,
AuraFLow,
uvm.
https://github.com/mcmonkeyprojects/SwarmUI
reForgeWeiterentwickeltes A1111 mit besserem Ressourcenmanagement und Unterstützung von mehr Models (u.a. FLUX).jaWindows, Linux, MacSD1+2, SDXL,
FLUX
https://github.com/Panchovix/stable-diffusion-webui-reForge
ruined
Fooocus
Einsteigerfreundliches UI, orientiert an Midjourney.jaWindows, Linux, MacSD1+2, SDXL,https://github.com/runew0lf/RuinedFooocus
ComfyUINode basiertes Backend mit vielseitigem Code Support für versch. Models (u.a. FLUX). Häufig Erstimplementierung neuer Tools und Models, sowie hohe Anpassbarkeit.jaWindows, Linux, MacSD1+2, SDXL, SD3, FLUX,
AuraFLow,
uvm.
https://github.com/comfyanonymous/ComfyUI
Invoke AINode basiertes GUI auf Diffusers Basis mit Fokus auf In-/Outpainting und Komposition.jaWindows (Nvidia), Linux, MACSD1+2, SDXL, FLUXhttps://invoke-ai.github.io/InvokeAI/
SD NextFork von A1111 mit Support für Diffusers und somit mehr Models. Gute Dokumentation, aber manuelle Installation.neinWindows (Nvidia), Linux, MacSD1+2, SDXL, SD3, FLUX, AuraFlow
uvm
https://github.com/vladmandic/automatic
A1111 SD-WEBUIDer "OG" der GUIs- auf Basis von Stability AI s LDM/CompVis Diffusion; sehr viele Extensions, wird nicht mehr upgdedated.jaWindows, Linux, MacSD1+2, SDXL,
SD3
https://github.com/AUTOMATIC1111/stable-diffusion-webui/

Grafikkarten/System Voraussetzungen für lokale Anwendung​

Am besten fahrt ihr als Besitzer von NVIDIA Karten (ab der 2xxxer Serie) mit möglichst viel VRAM. Unter Linux können auch mit AMD, sofern ROCm unterstützt wird, gute Ergebnisse erzielt werden, unter Windows ist es mit AMD etwas umständlicher auf akzeptable Geschwindigkeiten zu kommen, man benötigt ZLUDA oder DirectML, was die Installation komplizierter macht.

Ob Euch die Perfomance mit eurer jeweiligen Hardware zufriedenstellt, probiert ihr am besten selbst aus. Diese ist auch stark davon abhängig, mit welchen KI-Modellen ihr arbeitet. Bereits ab 4GB VRAM könnt ihr kleinere Modelle, wie z.B. SD1.5 (Basisauflösung 512x512) nutzen. Die Bilder können im Prozess der Erstellung oder im Nachgang noch hochskaliert werden und bereits mit Community Modellen von SD1.5 können ansehliche Bilder erstellt werden. (Ergebnisse von SDXL und FLUX, die mehr VRAM benötigen, findet ihr in der obigen Tabelle.)

Hier findet ihr Benchmarks der Bildgenerierung mit verschiedenen Karten. Hier listet comfyUI Empfehlungen zum Kauf von Grafikkarten auf.

Aktuelle GUI Empfehlung (März 2025):​

SwarmUI damit seid ihr bestens ausgerüstet, sowohl "klassische" Models zu nutzen, in einem bequem bedienbaren Interface, habt aber auch, dank des ComfyUI Backends, die Möglichkeit, neue Modelle und Tools (idR) direkt zum Release auszuprobieren. Es läuft auf Windows, Linux und Mac (M1/M2 vorausgesetzt).

Folgt den Installationsanweisungen auf der Github-Seite und installiert das Tool am besten auf einer SSD mit mehr als 30GB freiem Platz (sonst müsst ihr ständig Models, die zwischen 6-22GB groß sind hin und herschieben oder von langsameren Platten laden.)

Stellt fragen gerne in diesem Thread oder besucht den Discord von SwarmUI.

Tipp: Sowohl SwarmUI, als auch andere GUIs, sowie KI-Anwendungen in den Bereichen Audio/Video/Bild/Text könnt ihr in der Regel vereinfacht über Pinokio installieren. Dabei müsst ihr Euch keine Sorgen über Änderungen an bestehenden Abhängigkeiten/Programmversionen oder Datendownload in andere Orte, als den Speicherort von Pinokio machen, da es alles Benötigte in seinem eigenen Installations-Ordner sammelt. Ideal also zum Testen.


Weiterführende Links
Im Folgenden noch etliche, nützliche Links (hauptsächlich für SD).

Hier findet ihr ausführliche WIKIs, Guides, Linklisten, Datenbanken von Künstlern/Stilen und vieles mehr - alles was ihr braucht, um den Durchblick zu erlangen, gute Ergebnisse zu erzielen und tiefer in die Materie einzusteigen.

Die Links sind auf Englisch, wer deutschsprachige Links parat hat, schickt mir diese gerne (per Nachricht) und ich ergänze die Liste entsprechend.

Youtube Kanäle​

Wikis & Allgemeine Guides​

Communities​

Künstler​

Models​

Prompting




Ich hoffe dieser Thread wächst und gedeiht, mit zahlreichen Bildern, an denen wir uns gemeinsam erfreuen können und die neue User dafür begeistern, sich auch mit diesem spannenden Thema zu beschäftigen. Bei Änderungs- oder Ergänzungswünschen, schreibt mich einfach per PN an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CyborgBeta, Ayo34, Schwachkopp und 13 andere
Cool, danke für den Thread, dann gibt es ja noch reichlich Lesestoff, den ich mir anschauen kann! Gute Arbeit, ich freue mich auch schon auf den Austausch ;)
 
Moin,
habe gerade letztens erst ein wenig mit Dall-E herumgespielt und bin sehr interessiert an dem Thema.
Schade, dass es nicht auf Deutsch funktioniert, denn mein Englisch ist leider nicht gut genug für eine umfassende Beschreibung des Bildes.
 
Gerade dann könnte es ja interessant sein, mit z.B. dict.cc verschiedene übersetzte Worte auszuprobieren, die du in einer Query sehen willst. Je nach Wort kommen ja auch andere Ergebnisse ;)
 
  • Gefällt mir
Reaktionen: Willmehr
@Maviapril2 Hatte auch schon drüber nachgedacht es mit einem Translator zu versuchen, aber die dict.cc Seite kannte ich nicht....vielen Dank für den Tipp.
 
  • Gefällt mir
Reaktionen: Maviapril2
Ja, finde das ganz nützlich, da die üblichen Verdächtigen meist nur eine eingeschränkte Auswahl an Worten anzeigen. Freut mich, wenn ich dir weiterhelfen konnte, und freue mich natürlich auch, wenn du damit dann auch
erfolgreich Ergebnisse generieren lassen kannst.
 
Willmehr schrieb:
Moin,
habe gerade letztens erst ein wenig mit Dall-E herumgespielt und bin sehr interessiert an dem Thema.
Schade, dass es nicht auf Deutsch funktioniert, denn mein Englisch ist leider nicht gut genug für eine umfassende Beschreibung des Bildes.
In dem Fall würde ich tatsächlich einen "Translator" probieren, die funktionieren mittlerweile recht gut! Also eine Seite, die über eine reine "Dictionary"-Funktion hinausgeht und ganze Sätze versteht und grammatikalisch korrekt übersetzt. Zum Beispiel:
Nachdem Du beschrieben hast, was auf dem Bild zu sehen sein soll, bietet sich an, zu beschreiben wie es dargestellt sein soll. Das Ganze noch nach Belieben mit Informationen bspw. zur Art des Bildes (Photo, Drawing, Illustration usw), Qualitätsmerkmalen (highly detailed o.ä.) und ggf. Künstlern (art by xy oder einfach die Künstlernamen, am Ende) auffüllen. Beispiele für "Prompts" und ihre Ergebnisse findest Du u.a. in den im Eingangspost verlinkten Galieren Galerien ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Willmehr und Maviapril2
MechanimaL schrieb:
ganze Sätze versteht und grammatikalisch korrekt übersetzt
Ja, aber ich dachte, nachdem ich mir eines der von dir verlinkten Tutorials angesehen habe, dass Sätze nicht unbedingt benötigt werden und gerade das Austauschen von einzelnen Worten durch bedeutungsähnliche Worte zu guten Ergebnissen führen kann. Dafür ist meiner Meinung nach ein Wörterbuch als Ergänzung/Inspiration evtl. hilfreich.
MechanimaL schrieb:
Mit dem Wort hast du es heute aber :D

MechanimaL schrieb:
[IMG]https://www.computerbase.de/forum/attachments/00446-1575132698-award-winning-underwater-photo-of-a-cute-sea-urchin-eagle-4k-png.1268613/[/IMG]
Ein sehr cooles Bild im Eingangspost ;)
 
Na wenn wir schon beim Thema KI sind:
https://www.deepl.com/ ^^

Eigentlich können sowohl Stable Diffusion als auch Midjourney aber auch Befehle auf Deutsch annehmen. Ich weiß allerdings nicht, ob dann der gesamte Datensatz angesprochen (übersetzt) wird oder nur der Teil, der deutsche Metadaten enthält.
 
@Der Kabelbinder So wie ich Repräsentation in neuronalen Netzwerken kenne, wird da das komplette Netz angesprochen. Allerdings wird das deutsche Wort womöglich einer anderen Stelle im x-dimensionalen Raum eingeordnet als das dazu passende Englische. Je nachdem, in welchen Zusammenhängen diese Worte stehen (also wie ähnlich sie sich sind, die Einordnung kommt vor allem durch die anderen Worte, die mit einem Wort gemeinsam verwendet werden), kann dann was Sinnvolles oder nicht Sinnvolles dabei rauskommen.

Mal als Beispiel mit Ähnlichkeitsvektoren:
http://vectors.nlpl.eu/explore/embeddings/en/associates/

Da kann man dann auch so Spielereien ausprobieren wie die Wortvektoren wie z.B. "King" und "Woman" zu addieren und dann davon "Man" zu subtrahieren, der daraus resultierende Wortvektor hat dann eine hohe Übereinstimmung zu "Queen" und "Princess" (zumindest als ich das mal in einem Kurs mit word2vec, wenn ich mich richtig erinnere, probiert habe)

Ah, habe hier noch eine Seite gefunden, die das vielleicht etwas veranschaulicht, habe es nur überflogen, aber da kommt auch das von mir genannte Beispiel vor:
https://jalammar.github.io/illustrated-word2vec/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Kabelbinder
Moin und danke an alle hier für die guten Anregungen !
Ich habe bisher nur DALL-E am Start und dort, mangels momentan eigener Fantasie, kopierte Promps aus diversen Galerien eingefügt und dabei erkannt, dass die Ergebnisse vollkommen anders sind.
Ich habe hier eine nackte Wand und meine Idee ist ein einzigartiges Bild zu erzeugen, welches ich auf Leinwand drucken und damit mein Zuhause verschönern kann !!
Bisher finde ich meine erzeugten Bilder allerdings eher verstörend, kalt und irgendwie ungemütlich !
 
Aus welchen Galerien kamen denn die Prompts? Midjourney erzeugt (auf Anhieb ohne Vor-/Nacharbeit) aktuell wohl die qualitativ besten Ergebnisse: Nimm ein paar Zeilen Deines Lieblingssongs und lass Dich beeindrucken! Um es groß auszudrucken ist aber, soweit ich weiß, wiederum Upscaling nötig, wofür es wiederum etliche kostenlose Möglichkeiten - auch mittels AI gibt. Desweiteren benötigst Du einen kostenpflichtigen Account, um in höherer Qualität downloaden zu können, wofür wiederum (mein letzter Stand) eine Kreditkarte nötig ist..

Wir können aber auch mal versuchen, Deine ersten Versuche etwas in die gewünschte Richtung zu lenken :)

Ergänzung ()

Ich probiere gerade etwas zum ersten Mal. Na wer erkennt ihn? (Auflösung unter dem Spoiler)
1665514477712.png

Stable Diffusion
a photo of [De Niro:Schwarzenegger:45] sitting at a table of a bar at night, intricate face, intricate eyes, intricate hair, highly detailed, 4k

(Steps: 60, Sampler: Euler a, CFG scale: 7, Seed: 1218665563)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bohnenhans, Maxminator, Willmehr und 2 andere
Der Kabelbinder schrieb:
Eigentlich können sowohl Stable Diffusion als auch Midjourney aber auch Befehle auf Deutsch annehmen. Ich weiß allerdings nicht, ob dann der gesamte Datensatz angesprochen (übersetzt) wird oder nur der Teil, der deutsche Metadaten enthält.
Mit Englisch klappt's am besten, weshalb ich das empfehle, aber ich habe auf die Überlegung hier, erstmalig testweise ein Prompt sowohl in Deutsch als auch Englisch verwendet und etliche Teile davon (leider nicht alle) wurden auch "verstanden". Mein Beispiel war ein Zauberer in rotem Umhang, der über eine hohe Brüge zu einer verlassenen Burg läuft. Ich bekam Burg und Brücke auch im Deutschen, ggf. auch Personen, aber keine Zauberer und die Farbe rot war auch eher zufällig im Bild angeordnet. Hier hat jemand das ganze mit portugiesisch probiert.

Interessanterweise führen Wörter in einer bestimmten Sprache (oder Zeichenart) auch zu kulturellen Ausprägungen von gleichen Inhalten, Häuser sehen bspw. chinesisch(er) aus, wenn ein Zeichen/Wort der Sprache verwendet wird (siehe hier).


Im vorherigen Post habe ich übrigens "Prompt Editing" benutzt, das Fusionieren von Personen (Dingen usw.) funktioniert aber auch einfach in dem man sie wie eine Person eingibt (also ohne Trennung durch "," oder "and"). Prompt Editing bedeutet, dass SD eine Zahl x an Samplingsteps (in dem Fall) die 1. Person zu erschaffen beginnt, dann ab Step x mit der anderen weitermacht, das Prompt also während des Prozesses geändert wird. Erklärung mit Beispielen hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tHE_nICKEL, Der Kabelbinder und Maviapril2
Ich stelle mal ein paar Objekte aus meiner kleinen Sammlung vor. :)

historic_portrait_of_Barton_Fink_x-ray_look_octane_r_bf0f3da2-8b3d-487c-9707-a50a69a48050-1.png
Midjourney
portrait of Barton Fink, x-ray look, octane render, smokey, void, flaming green orange, unreal engine, 8K --testp --upbeta

foamy_structure_Taurus_sculpture_alabaster_eb083d18-ec06-45a5-a3fc-34a00721d7e5.png
Midjourney
foamy structure Taurus sculpture alabaster --test --upbeta

bird_sculpture_made_of_white_alabaster_black_ink__gr_fec82a0e-a169-4b72-8452-1a423ec17f06.png
Midjourney
bird sculpture made of white alabaster, black ink , growing dripping blending, dark hole, red rim-light, close up, octane look, unreal engine, hyper detailed, silky texture, steam, blur, dof, 4k --ar 2:1 --test

black_ink_dripping_down_a_white_alabaster_sculpture__8933fc23-345b-47d5-a059-670bd54ea7eb-1.png
Midjourney
black ink dripping down a white alabaster sculpture, sculpture, textured, close up, dof, octane look, unreal engine, hyper detailed, 4k --ar 2:1 --test --upbeta

hand_sculpture_made_of_white_alabaster_black_liquid__3cc31434-2e24-414d-9f52-e3ea1bd45b77.png
Midjourney
hand sculpture made of white alabaster, black liquid ink dripping, dark hole, red light, close up, octane look, unreal engine, hyper detailed, silky texture, steam, blur, dof, 4k --ar 2:1 --test --upbeta


hand_sculpture_hanging_in_threads_made_of_white_alab_9b72c951-668a-4cb3-bd77-80c7118368e8.png
Midjourney
hand sculpture hanging in threads, made of white alabaster, black ink dripping, growing, dark hole, red spike light, close up, octane look, unreal engine, hyper detailed, silky texture, steam, blur, dof, 4k --ar 2:1 --test --upbeta

Man merkt, dass Midjourney mit deutlich mehr Digital Art gefüttert wurde bzw. deutlich besser dahin ausprägen kann. Vielleicht kann mich jemand, der viel Erfahrung mit Stable hat, aber ja auch vom Gegenteil überzeugen. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wrglsgrft, Impy81, Bohnenhans und 6 andere
Heyho zusammen!

Man freu ich mich über diesen Thread! Ich bin AI-Süchtig, seit es Midjourney & Co gibt!

Für alle die das gern in Deutsch ausprobieren möchten, schaut euch mal die App Wonder (iOS/Android) an. Dort habe ich mit Deutsch auch echt gute Ergebnisse erzielt.

Hier mal ein paar Lieblinge von mir:

Prompt: Black Swan Tattoo, Aotearoa Style
Stil: Pen&Ink
wonder_1663864175146.jpg


Prompt: White Dog as a ghost
Stil: Magic
wonder_1663869620711.jpg


Prompt: Girl with umbrella in the rain
Stil: Cinematic
wonder_1663870303600.jpg


Prompt: Cute little unicorn, pixar style, bokeh
Stil: Studio Lighting
wonder_1663924899509.jpg


Prompt: Young girl in a dress on a white horse riding through nature
Stil: Pen&Ink
wonder_1663955125425.jpg


Prompt: Young girl back view walking
Stil: Pen&Ink
wonder_1665049218575.jpg


Prompt: Young girl with long brown hair and orange v-neck , smiling, with a sleeping newborn baby on arm
Stil: Pen&Ink
wonder_1665078844719.jpg


Prompt: Young girl running for the train
Stil: Novelistic
wonder_1665080434946.jpg


Witzigerweise nutze ich das ganz häufig um Situationen zu beschreiben, in denen meine Freundin sich gerade befindet um mich überraschen zu lassen, wie die KI sie sich vorstellt :) das macht sau viel Spaß und lädt jedes mal zu einem Schmunzler ein, wenn ich ihr meine Vorstellungen und Ergebnisse zukommen lasse. Der ganze "süße" kram ist zusammen mit meiner kleinen Tochter entstanden, die das mit ihren 4 Jahren auch super spannend findet!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardware_Junkie, eduardos, wrglsgrft und 7 andere
tHE_nICKEL schrieb:
Der ganze "süße" kram ist zusammen mit meiner kleinen Tochter entstanden, die das mit ihren 4 Jahren auch super spannend findet!
Da muss ich ja gestehen dass ich da irgendwie ein ungutes Gefuehl habe...

Wenn ein Kind da die Moeglichkeit auf Zuruf schoene Bilder machen zu lassen, kommt dann da nicht vielleicht irgendwann die eigene Kreativitaet ein bisschen zu kurz?
Ok, die eigenen Gedanken in Anweisungen fuer die KI zu fassen ist ja auch schon durchaus eine Leistung. Aber irgendwie fehlt da dann doch irgendwann das "machen".

Oder habe ich mich zu sehr von der Star Trek TnG Episode mit einem sehr aehnlichen Thema beeinflussen lassen? :D
 
Ich denke mal, dass durch die einfache Möglichkeit der Bilddarstellung eher kreative Gedanken aktiviert werden. Vor allem bei denjenigen, die sich bisher handwerklich selbst nicht im Stände fühlen bzw. es sich selbst nicht zutrauen, Dinge zu gestalten. Ob das bei kreativ bereits aktiven Menschen zu einer "Verrohung" führt, glaube ich nicht. Für das Gestalten mit den eigenen Händen - das ist ja oft der Antrieb - gibt es so maschinell jedenfalls keinen Ersatz. Oder anders: Selbst malen, zeichnen oder plastisch basteln macht einfach mehr Spaß als ein paar Wörter in ein Feld zu tippen und auf das Ergebnis zu warten. Gerade bei und mit Kindern. :)

Image-Gens können aber definitiv eins sehr gut: den Kopf zum imaginieren anregen.
 
  • Gefällt mir
Reaktionen: Willmehr, Maviapril2 und tHE_nICKEL
tHE_nICKEL schrieb:
Man freu ich mich über diesen Thread! Ich bin AI-Süchtig, seit es Midjourney & Co gibt!

Für alle die das gern in Deutsch ausprobieren möchten, schaut euch mal die App Wonder (iOS/Android) an. Dort habe ich mit Deutsch auch echt gute Ergebnisse erzielt.
Danke für den Tipp. Die Beispiele von Dir sind alle damit entstanden oder auch mit was anderem?

tHE_nICKEL schrieb:
Witzigerweise nutze ich das ganz häufig um Situationen zu beschreiben, in denen meine Freundin sich gerade befindet um mich überraschen zu lassen, wie die KI sie sich vorstellt :) das macht sau viel Spaß und lädt jedes mal zu einem Schmunzler ein, wenn ich ihr meine Vorstellungen und Ergebnisse zukommen lasse.
Das kenne ich :D Es macht mega Spaß andere Leute mit selbst erstellten Bildern von imaginären oder auch denkbaren Situationen zu belustigen ^^
Der Kabelbinder schrieb:
Ich denke mal, dass durch die einfache Möglichkeit der Bilddarstellung eher kreative Gedanken aktiviert werden. Vor allem bei denjenigen, die sich bisher handwerklich selbst nicht im Stände fühlen bzw. :)
Also ich habe bspw. jetzt erst Lust mir ein Zeichenbrett - ok, digital ^^ - zuzulegen, um Skizzen als Grundlage zu erstellen. Auf die Idee wäre ich früher nie gekommen. Mal davon abgesehen, befassen sich viel mehr Leute im Zuge der AI-Bilderschaffung mit Kunst und Künstlern. Was Kinder angeht: Ich sehe jetzt auch keinen Grund, sie davor "zu schützen", ich glaube, die gemeinsame Zeit ist wertvoll und es kann viel dabei gelernt werden, zb Worte zu finden, eine Situation zu beschreiben.

PS ich habe grade mal probiert aus einem 512x512 Konterfei ein größeres Bild zu kreieren. Da gibt es verschiedene Ansätze, die ich grade durchprobieren will. Das hier war jetzt im Prinzip eine Art "Zoom-Out" in dem ich das Bild auf eine größere Leinwand platziert habe (in paint 3D :D ) und dann im "inpainting" den leeren Bereich habe nachberechnen lassen. Das Ergebnis dann wiederum auf die Leinwand eingefügt und runterskaliert, wieder den Rest berechnen lassen usw. ein paar Details markiert und neu berechnet, wo Fehler waren. Also txt2img mit Prompt den Rest mit img2img. War jetzt nur ein Test, sonst hätte ich bei den Flügeln wohl noch mehr wert auf Perspektive gelegt.. Auf jedenfall klappt das mit der Vorgehensweise. Ausgangsbild und Ergebnis:

05151-1820857690-dark angel princess, highly detailed, d & d, fantasy, highly detailed, digita...png1664636382536-1820857692-dark angel princess, highly detailed, d & d, fantasy, highly detailed...png
SD 1.4 - dark angel princess, highly detailed, d & d, fantasy, highly detailed, digital painting, trending on artstation, concept art, sharp focus, illustration, global illumination, ray tracing, realistic shaded, art by fuji choko and viktoria gavrilenko and hoang lap
 
  • Gefällt mir
Reaktionen: wrglsgrft, Willmehr, Maviapril2 und eine weitere Person
MechanimaL schrieb:
Danke für den Tipp. Die Beispiele von Dir sind alle damit entstanden oder auch mit was anderem?

Die Beispiele hier im Thread sind allesamt mit Wonder erstellt. Irgendwo habe ich noch ein paar Ergebnisse von Midjourney, aber die haben mich im ersten Test noch nicht ganz so gecatcht, wie es Wonder geschafft hat.
 
  • Gefällt mir
Reaktionen: Maviapril2
Zurück
Oben