[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

MechanimaL

Lieutenant
Registriert
Nov. 2005
Beiträge
976
Die Möglichkeiten der Bild-Erschaffung mittels künstlicher Intelligenz haben in der jüngsten Zeit einen enormen Schub erfahren. Zugleich wurde der Zugang für die Allgemeinheit erleichtert, indem mehrere Anbieter entstanden sind, die "txt2img" Dienste kommerziell betreiben (z.B. "Midjourney") oder die nötige Software kostenfrei und quelloffen zur Verfügung stellen ("Stable Diffusion").

"Txt2Img" bedeutet, dass Bilder durch die Eingabe eines "Prompts" in Form einer Beschreibung, was auf dem Bild zu sehen sein soll, erschaffen werden. Hierfür wurden AI-Systeme mit Millionen von Bildern und deren Beschreibungen trainiert. Somit stehen uns prinzipiell zuvor nicht da gewesene Möglichkeiten der künstlerischen Entfaltung bzw. Erschaffung von Bildern, ganz ohne selbst die handwerklichen Fertigkeiten dafür zu besitzen, zur Verfügung.

Im CB-Forum sind zu dem Thema bereits einzelne Threads aufgeploppt. Um dem bestehenden Interesse gerecht zu werden, die aktiven Nutzer zusammenzubringen und Neue auf dieses Thema aufmerksam zu machen, soll nun dieser Sammelthread dienen. Im Folgenden findet Ihr außerdem Hinweise auf Online- Dienste, Testseiten und lokale Nutzungsmöglichkeiten, samt Installationshilfe. Am Ende dieses Posts stehen Links zu Youtube Channels (u.a. mit Tutorials zu bestimmten GUIs), sowie zu Wikis, Guides, Prompting Tipps, Communities- hauptsächlich zu Stable-Diffusion.

Wünschenswerter Inhalt von Beiträgen​

  • Fragen zu entsprechenden Plattformen / Software und deren Nutzung
  • Das Teilen von selbst erstellten Bildern, bzw. Feedback zu diesen
  • Tipps und Tricks zur Bilderstellung, sowie das Teilen von Informationsquellen
  • Neue Entwicklungen in dem Bereich mitteilen und kommentieren
  • Genereller Austausch zum Thema Bild-KI

Posting-Regeln für Bilder​

  1. Bei Bildern bitte immer (mindestens) angeben, womit und mit welchem Prompt es erstellt wurde, wie im folgenden Beispiel dargestellt. Bei mit Hilfe von "img2img" oder anders weiter bearbeiteten Bildern, gerne den Entstehungsprozess mitteilen oder mit Bildern darstellen - das kann sehr hilfreich sein.
  2. Für den Inhalt der Bilder gelten die Allgemeinen Forenregeln

Beispiel:

00446-1575132698-award winning underwater photo of a cute sea urchin eagle, 4k.png

Stable Diffusion
award winning underwater photo of a cute sea urchin eagle, 4k


Online Dienste und Test-Seiten

Wer einmal txt2img online testen möchte, kann dies auf den folgenden Webseiten tun, in der Regel kostenlos für eine gewisse Zahl an Versuchen bzw. mit eingeschränkten Funktionen (evtl. einmalige Anmeldung erforderlich):



So sehen Ergebnisse aus​

Galerien erschaffener Bildern gibt es jeweils hier (inkl. Angabe der verwendeten Prompts):

FLUXStable DiffusionIdeogramMidjourneyDall-EAuraflow
CivitAI (SFW)
CivitAI (NSFW)
CivitAI (SFW)
CivitAI (NSFW)
IdeogramShowcaseDall-E 2 GalleryVergleichsgalerie


GUIs für eine kostenlose, lokale Anwendung von Bildgeneratoren​

Im Gegensatz zu anderen Produkten, lassen sich "Stable Diffusion", "Flux" und "AuroFlow" (u.a.) offline auf dem eigenen Rechner installieren und komplett ohne Anmeldung oder Einschränkung, sowie mit ständig wachsendem Funktionsumfang nutzen. Dazu zählt u.a. img2img, was es erlaubt, im Zusammenspiel mit der AI das Bild weiter zu verfeinern, bestimmte Bereiche zu erhalten, andere zu verändern (inpainting) usw.!

Es gibt eine sehr aktive "GUI"-Entwickler-Szene, die verschiedene (häufig Browser-basierte) "UIs" dafür hervorgebracht hat, die z.T. mehrere Updates täglich unterlaufen. Im folgenden eine Übersicht:

NameBasis1 click installerOSModelsProjekt Page
A1111 SD-WEBUIBekanntestes UI auf Basis von Stability AI s LDM/CompVis Diffusion; sehr viele ExtensionsjaWindows, Linux, MacSD1+2, SDXL,
SD3
https://github.com/AUTOMATIC1111/stable-diffusion-webui/
ForgeWeiterentwickeltes A1111 mit besserem Ressourcenmanagement und Unterstützung von mehr Models (u.a. FLUX).jaWindows, Linux, MacSD1+2, SDXL,
FLUX
https://github.com/lllyasviel/stable-diffusion-webui-forge
FooocusEinsteigerfreundliches UI, orientiert an Midjourney.jaWindows, Linux, MacSD1+2, SDXL,https://github.com/lllyasviel/Fooocus
ComfyUINode basiertes Backend mit vielseitigem Code Support für versch. Models (u.a. FLUX). Häufig Erstimplementierung und hohe Anpassbarkeit.jaWindows, Linux, MacSD1+2, SDXL, SD3, FLUX,
AuraFLow,
uvm.
https://github.com/comfyanonymous/ComfyUI
Swarm UIEinfachere Anwendung von ComfyUI, dank eigener Oberfläche; Multi-GPU Support.jaWindows, Linux, MacSD1+2, SDXL, SD3, FLUX,
AuraFLow,
uvm.
https://github.com/mcmonkeyprojects/SwarmUI
Invoke AINode basiertes GUI auf Diffusers Basis mit Fokus auf In-Outpainting und Komposition.jaWindows (Nvidia), Linux, MACSD1+2, SDXLhttps://invoke-ai.github.io/InvokeAI/
SD NextFork von A1111 mit Support für Diffusers und somit mehr ModelsneinWindows (Nvidia), Linux, MacSD1+2, SDXL, SD3, FLUX, AuraFlow
uvm
https://github.com/vladmandic/automatic

Installation von SD auf dem eigenen PC (am Beispiel von FOOOCUS und A1111 SD-WEBUI) für die kostenlose Offline Nutzung


Einen relativ einfachen und übersichtlichen Einstieg in Stable Diffusion bietet FOOOCUS, das sich vornimmt, die einfache Bedienung des kostenpflichtigen Midjourney mit den Vorteilen des lokalen, kostenfreien und zensurfreien Stable-Diffusion zu vereinen.

Am besten entwickelt und am meisten genutzt unter den SD-GUIs ist wahrsch. die Version von Automatic1111 (Features), die ich insb. erfahreneren bzw. ambitionierten Nutzern ans Herz legen würde.

Hardware Anforderungen​

Wie hier zu lesen ist, wird bei NVIDIA Karten jeweils (Win/Linux) mindestens 4GB VRAM und 8GB System RAM benötigt, ab der NVIDIA RTX 2xxx-er Serie (GTX 1000er wird zwar unterstützt, benötigt aber mehr RAM und ist kaum schneller als CPU). AMD Karten benötigen 8GB VRAM; ansonsten wird noch M1/M2 unterstützt, soll aber laut Usern sehr langsam sein, hierzu gibt es ggf. bessere Anwendungen.

Automatische Installation (Windows, NVIDIA)​

Zur Installation von FOOOCUS die hier verlinkte Datei herunterladen und in einem Ordner der Wahl entpacken. Mit "run.bat" wird das Programm dann gestartet. Hier ist zunächst eine (je nach Internetverbindung) dauernde Wartezeit angesagt, da automatisch Standardmodels (sog. Checkpoints) heruntergeladen werden. Diese landen in "Fooocus\models\checkpoints". Anschließend öffnet sich das Programm im Broswer und die Arbeit damit kann beginnen.

Für die Installation mit AMD Grafikkarte muss, wie hier erklärt, die Startdatei editiert werden.

Wer Linux nutzt, findet hier die nähere Info zur Installation. Am Ende des Kapitels wird auch auf die Kombination Linux+AMD eingegangen.

Nutzung​

Eine kurze deutsche Anleitung zu Fooocus ist hier zu finden.

In diesem Video (deutsch), wird die Installation durchgeführt und das Programm vorgestellt:



Hardware Anforderungen​

Hier kommt es vor allem auf die Grafikkarte an, denn sie leistet die Haupt-Arbeit. Mit einer Nvidia Karte ab 4GB und ab der 10xx er Geforce Serie sollte es bereits funktionieren. Empfehlenswert wäre aus Performance Gründen eine Karte ab der 20xx Series mit 8GB oder mehr. Was den System-RAM angeht, sollten es mindestens 8GB sein.

Automatische Installation (Windows, NVIDIA)​

  • Die hier verlinkte .zip-Datei downloaden und an den gewünschten Installationsort entpacken.
    • Der Ordnerpfad sollte keine Leerzeichen enthalten.
  • Anschließend "update.bat" durchführen und warten bis die Operationen beendet sind, danach das Fenster schließen.
  • Abschließend kann die "run.bat" durchgeführt werden, um die Installation abzuschließen und das Programm zu starten. Ist alles korrekt verlaufen solltet Ihr ein "Running on local URL: http://127.0.0.1:7860" sehen, unter diesem Link könnt ihr das WEB-UI öffnen, sollte es sich nicht von selbst im Browser öffnen.

Installation (Windows, AMD)​

In diesem Thread widmet sich ein CB-User dem Vergleich verschiedener Stable Diffusion Anwendungen mit einer AMD Karte. Am besten schneidet in der Performance "ComfyUI" - eine Alternative zu A1111 - ab. Wer dieses gerne probieren möchte, findet hier eine Anleitung und hier noch weitere Hilfe.

Nachfolgend die "offizielle" Anleitung für A1111 (unter Windows mit AMD):
Hier Schritt 1 bis 3 durchführen: Anleitung und Downloadlinks und folgendes bei der Installation berücksichtigen:
  • Bei Python darauf achten, das Häkchen bei "Set Path" zu Beginn der Installation zu setzen.
  • Eine Festplatte/einen Ordner wählen, wo das Programm installiert sein soll (Empfehlung SSD mit mind. 25 GB Platz) und dort im Explorer nach einem Rechtsklick darauf "git bash here" wählen; im folgenden Fenster "git clone https://github.com/lshqqytiger/stable-diffusion-webui-directml.git"ausführen
    • Der Ordnerpfad sollte an keiner Stelle Leerzeichen enthalten

A1111 Installation (Linux, Nvidia)​

Dieser Anleitung folgen.


A1111 Installation (Linux, AMD)​

Dieser Anleitung folgen.

WEB-UI starten​

Im Browser auf http://127.0.0.1:7860 verbinden, sofern dieser sich nicht von selbst geöffnet hat, und man befindet sich im WEB-UI und kann loslegen.

Wie man das UI verwendet, darauf findet ihr unter den weiterführenden Links zahlreiche Tutorials und How-Tos. Bei Fragen könnt ihr Euch auch immer an die User in diesem Thread wenden. Wir freuen uns, Euch zu helfen :)

Bei Problemen mit A1111 sind hier ein paar typische Lösungsansätze gesammelt.

Guide für A1111 für Mac User:
Installation und Starten auf MAC

Versionsspezifische Tipps​

SDXL 1.0

Weiterführende Links

Im Folgenden noch etliche, nützliche Links (hauptsächlich für SD).

Hier findet ihr ausführliche WIKIs, Guides, Linklisten, Datenbanken von Künstlern/Stilen und vieles mehr - alles was ihr braucht, um den Durchblick zu erlangen, gute Ergebnisse zu erzielen und tiefer in die Materie einzusteigen.

Die Links sind auf Englisch, wer deutschsprachige Links parat hat, schickt mir diese gerne (per Nachricht) und ich ergänze die Liste entsprechend.

Youtube Kanäle​

Wikis & Allgemeine Guides​

Communities​

Künstler​

Models​

Prompting




Ich hoffe dieser Thread wächst und gedeiht, mit zahlreichen Bildern, an denen wir uns gemeinsam erfreuen können und die neue User dafür begeistern, sich auch mit diesem spannenden Thema zu beschäftigen. Bei Änderungs- oder Ergänzungswünschen, schreibt mich einfach per PN an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CyborgBeta, Ayo34, Schwachkopp und 13 andere
Cool, danke für den Thread, dann gibt es ja noch reichlich Lesestoff, den ich mir anschauen kann! Gute Arbeit, ich freue mich auch schon auf den Austausch ;)
 
Moin,
habe gerade letztens erst ein wenig mit Dall-E herumgespielt und bin sehr interessiert an dem Thema.
Schade, dass es nicht auf Deutsch funktioniert, denn mein Englisch ist leider nicht gut genug für eine umfassende Beschreibung des Bildes.
 
Gerade dann könnte es ja interessant sein, mit z.B. dict.cc verschiedene übersetzte Worte auszuprobieren, die du in einer Query sehen willst. Je nach Wort kommen ja auch andere Ergebnisse ;)
 
  • Gefällt mir
Reaktionen: Willmehr
@Maviapril2 Hatte auch schon drüber nachgedacht es mit einem Translator zu versuchen, aber die dict.cc Seite kannte ich nicht....vielen Dank für den Tipp.
 
  • Gefällt mir
Reaktionen: Maviapril2
Ja, finde das ganz nützlich, da die üblichen Verdächtigen meist nur eine eingeschränkte Auswahl an Worten anzeigen. Freut mich, wenn ich dir weiterhelfen konnte, und freue mich natürlich auch, wenn du damit dann auch
erfolgreich Ergebnisse generieren lassen kannst.
 
Willmehr schrieb:
Moin,
habe gerade letztens erst ein wenig mit Dall-E herumgespielt und bin sehr interessiert an dem Thema.
Schade, dass es nicht auf Deutsch funktioniert, denn mein Englisch ist leider nicht gut genug für eine umfassende Beschreibung des Bildes.
In dem Fall würde ich tatsächlich einen "Translator" probieren, die funktionieren mittlerweile recht gut! Also eine Seite, die über eine reine "Dictionary"-Funktion hinausgeht und ganze Sätze versteht und grammatikalisch korrekt übersetzt. Zum Beispiel:
Nachdem Du beschrieben hast, was auf dem Bild zu sehen sein soll, bietet sich an, zu beschreiben wie es dargestellt sein soll. Das Ganze noch nach Belieben mit Informationen bspw. zur Art des Bildes (Photo, Drawing, Illustration usw), Qualitätsmerkmalen (highly detailed o.ä.) und ggf. Künstlern (art by xy oder einfach die Künstlernamen, am Ende) auffüllen. Beispiele für "Prompts" und ihre Ergebnisse findest Du u.a. in den im Eingangspost verlinkten Galieren Galerien ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Willmehr und Maviapril2
MechanimaL schrieb:
ganze Sätze versteht und grammatikalisch korrekt übersetzt
Ja, aber ich dachte, nachdem ich mir eines der von dir verlinkten Tutorials angesehen habe, dass Sätze nicht unbedingt benötigt werden und gerade das Austauschen von einzelnen Worten durch bedeutungsähnliche Worte zu guten Ergebnissen führen kann. Dafür ist meiner Meinung nach ein Wörterbuch als Ergänzung/Inspiration evtl. hilfreich.
MechanimaL schrieb:
Mit dem Wort hast du es heute aber :D

MechanimaL schrieb:
[IMG]https://www.computerbase.de/forum/attachments/00446-1575132698-award-winning-underwater-photo-of-a-cute-sea-urchin-eagle-4k-png.1268613/[/IMG]
Ein sehr cooles Bild im Eingangspost ;)
 
Na wenn wir schon beim Thema KI sind:
https://www.deepl.com/ ^^

Eigentlich können sowohl Stable Diffusion als auch Midjourney aber auch Befehle auf Deutsch annehmen. Ich weiß allerdings nicht, ob dann der gesamte Datensatz angesprochen (übersetzt) wird oder nur der Teil, der deutsche Metadaten enthält.
 
@Der Kabelbinder So wie ich Repräsentation in neuronalen Netzwerken kenne, wird da das komplette Netz angesprochen. Allerdings wird das deutsche Wort womöglich einer anderen Stelle im x-dimensionalen Raum eingeordnet als das dazu passende Englische. Je nachdem, in welchen Zusammenhängen diese Worte stehen (also wie ähnlich sie sich sind, die Einordnung kommt vor allem durch die anderen Worte, die mit einem Wort gemeinsam verwendet werden), kann dann was Sinnvolles oder nicht Sinnvolles dabei rauskommen.

Mal als Beispiel mit Ähnlichkeitsvektoren:
http://vectors.nlpl.eu/explore/embeddings/en/associates/

Da kann man dann auch so Spielereien ausprobieren wie die Wortvektoren wie z.B. "King" und "Woman" zu addieren und dann davon "Man" zu subtrahieren, der daraus resultierende Wortvektor hat dann eine hohe Übereinstimmung zu "Queen" und "Princess" (zumindest als ich das mal in einem Kurs mit word2vec, wenn ich mich richtig erinnere, probiert habe)

Ah, habe hier noch eine Seite gefunden, die das vielleicht etwas veranschaulicht, habe es nur überflogen, aber da kommt auch das von mir genannte Beispiel vor:
https://jalammar.github.io/illustrated-word2vec/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Kabelbinder
Moin und danke an alle hier für die guten Anregungen !
Ich habe bisher nur DALL-E am Start und dort, mangels momentan eigener Fantasie, kopierte Promps aus diversen Galerien eingefügt und dabei erkannt, dass die Ergebnisse vollkommen anders sind.
Ich habe hier eine nackte Wand und meine Idee ist ein einzigartiges Bild zu erzeugen, welches ich auf Leinwand drucken und damit mein Zuhause verschönern kann !!
Bisher finde ich meine erzeugten Bilder allerdings eher verstörend, kalt und irgendwie ungemütlich !
 
Aus welchen Galerien kamen denn die Prompts? Midjourney erzeugt (auf Anhieb ohne Vor-/Nacharbeit) aktuell wohl die qualitativ besten Ergebnisse: Nimm ein paar Zeilen Deines Lieblingssongs und lass Dich beeindrucken! Um es groß auszudrucken ist aber, soweit ich weiß, wiederum Upscaling nötig, wofür es wiederum etliche kostenlose Möglichkeiten - auch mittels AI gibt. Desweiteren benötigst Du einen kostenpflichtigen Account, um in höherer Qualität downloaden zu können, wofür wiederum (mein letzter Stand) eine Kreditkarte nötig ist..

Wir können aber auch mal versuchen, Deine ersten Versuche etwas in die gewünschte Richtung zu lenken :)

Ergänzung ()

Ich probiere gerade etwas zum ersten Mal. Na wer erkennt ihn? (Auflösung unter dem Spoiler)
1665514477712.png

Stable Diffusion
a photo of [De Niro:Schwarzenegger:45] sitting at a table of a bar at night, intricate face, intricate eyes, intricate hair, highly detailed, 4k

(Steps: 60, Sampler: Euler a, CFG scale: 7, Seed: 1218665563)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bohnenhans, Maxminator, Willmehr und 2 andere
Der Kabelbinder schrieb:
Eigentlich können sowohl Stable Diffusion als auch Midjourney aber auch Befehle auf Deutsch annehmen. Ich weiß allerdings nicht, ob dann der gesamte Datensatz angesprochen (übersetzt) wird oder nur der Teil, der deutsche Metadaten enthält.
Mit Englisch klappt's am besten, weshalb ich das empfehle, aber ich habe auf die Überlegung hier, erstmalig testweise ein Prompt sowohl in Deutsch als auch Englisch verwendet und etliche Teile davon (leider nicht alle) wurden auch "verstanden". Mein Beispiel war ein Zauberer in rotem Umhang, der über eine hohe Brüge zu einer verlassenen Burg läuft. Ich bekam Burg und Brücke auch im Deutschen, ggf. auch Personen, aber keine Zauberer und die Farbe rot war auch eher zufällig im Bild angeordnet. Hier hat jemand das ganze mit portugiesisch probiert.

Interessanterweise führen Wörter in einer bestimmten Sprache (oder Zeichenart) auch zu kulturellen Ausprägungen von gleichen Inhalten, Häuser sehen bspw. chinesisch(er) aus, wenn ein Zeichen/Wort der Sprache verwendet wird (siehe hier).


Im vorherigen Post habe ich übrigens "Prompt Editing" benutzt, das Fusionieren von Personen (Dingen usw.) funktioniert aber auch einfach in dem man sie wie eine Person eingibt (also ohne Trennung durch "," oder "and"). Prompt Editing bedeutet, dass SD eine Zahl x an Samplingsteps (in dem Fall) die 1. Person zu erschaffen beginnt, dann ab Step x mit der anderen weitermacht, das Prompt also während des Prozesses geändert wird. Erklärung mit Beispielen hier.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tHE_nICKEL, Der Kabelbinder und Maviapril2
Ich stelle mal ein paar Objekte aus meiner kleinen Sammlung vor. :)

historic_portrait_of_Barton_Fink_x-ray_look_octane_r_bf0f3da2-8b3d-487c-9707-a50a69a48050-1.png
Midjourney
portrait of Barton Fink, x-ray look, octane render, smokey, void, flaming green orange, unreal engine, 8K --testp --upbeta

foamy_structure_Taurus_sculpture_alabaster_eb083d18-ec06-45a5-a3fc-34a00721d7e5.png
Midjourney
foamy structure Taurus sculpture alabaster --test --upbeta

bird_sculpture_made_of_white_alabaster_black_ink__gr_fec82a0e-a169-4b72-8452-1a423ec17f06.png
Midjourney
bird sculpture made of white alabaster, black ink , growing dripping blending, dark hole, red rim-light, close up, octane look, unreal engine, hyper detailed, silky texture, steam, blur, dof, 4k --ar 2:1 --test

black_ink_dripping_down_a_white_alabaster_sculpture__8933fc23-345b-47d5-a059-670bd54ea7eb-1.png
Midjourney
black ink dripping down a white alabaster sculpture, sculpture, textured, close up, dof, octane look, unreal engine, hyper detailed, 4k --ar 2:1 --test --upbeta

hand_sculpture_made_of_white_alabaster_black_liquid__3cc31434-2e24-414d-9f52-e3ea1bd45b77.png
Midjourney
hand sculpture made of white alabaster, black liquid ink dripping, dark hole, red light, close up, octane look, unreal engine, hyper detailed, silky texture, steam, blur, dof, 4k --ar 2:1 --test --upbeta


hand_sculpture_hanging_in_threads_made_of_white_alab_9b72c951-668a-4cb3-bd77-80c7118368e8.png
Midjourney
hand sculpture hanging in threads, made of white alabaster, black ink dripping, growing, dark hole, red spike light, close up, octane look, unreal engine, hyper detailed, silky texture, steam, blur, dof, 4k --ar 2:1 --test --upbeta

Man merkt, dass Midjourney mit deutlich mehr Digital Art gefüttert wurde bzw. deutlich besser dahin ausprägen kann. Vielleicht kann mich jemand, der viel Erfahrung mit Stable hat, aber ja auch vom Gegenteil überzeugen. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wrglsgrft, Impy81, Bohnenhans und 6 andere
Heyho zusammen!

Man freu ich mich über diesen Thread! Ich bin AI-Süchtig, seit es Midjourney & Co gibt!

Für alle die das gern in Deutsch ausprobieren möchten, schaut euch mal die App Wonder (iOS/Android) an. Dort habe ich mit Deutsch auch echt gute Ergebnisse erzielt.

Hier mal ein paar Lieblinge von mir:

Prompt: Black Swan Tattoo, Aotearoa Style
Stil: Pen&Ink
wonder_1663864175146.jpg


Prompt: White Dog as a ghost
Stil: Magic
wonder_1663869620711.jpg


Prompt: Girl with umbrella in the rain
Stil: Cinematic
wonder_1663870303600.jpg


Prompt: Cute little unicorn, pixar style, bokeh
Stil: Studio Lighting
wonder_1663924899509.jpg


Prompt: Young girl in a dress on a white horse riding through nature
Stil: Pen&Ink
wonder_1663955125425.jpg


Prompt: Young girl back view walking
Stil: Pen&Ink
wonder_1665049218575.jpg


Prompt: Young girl with long brown hair and orange v-neck , smiling, with a sleeping newborn baby on arm
Stil: Pen&Ink
wonder_1665078844719.jpg


Prompt: Young girl running for the train
Stil: Novelistic
wonder_1665080434946.jpg


Witzigerweise nutze ich das ganz häufig um Situationen zu beschreiben, in denen meine Freundin sich gerade befindet um mich überraschen zu lassen, wie die KI sie sich vorstellt :) das macht sau viel Spaß und lädt jedes mal zu einem Schmunzler ein, wenn ich ihr meine Vorstellungen und Ergebnisse zukommen lasse. Der ganze "süße" kram ist zusammen mit meiner kleinen Tochter entstanden, die das mit ihren 4 Jahren auch super spannend findet!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardware_Junkie, eduardos, wrglsgrft und 7 andere
tHE_nICKEL schrieb:
Der ganze "süße" kram ist zusammen mit meiner kleinen Tochter entstanden, die das mit ihren 4 Jahren auch super spannend findet!
Da muss ich ja gestehen dass ich da irgendwie ein ungutes Gefuehl habe...

Wenn ein Kind da die Moeglichkeit auf Zuruf schoene Bilder machen zu lassen, kommt dann da nicht vielleicht irgendwann die eigene Kreativitaet ein bisschen zu kurz?
Ok, die eigenen Gedanken in Anweisungen fuer die KI zu fassen ist ja auch schon durchaus eine Leistung. Aber irgendwie fehlt da dann doch irgendwann das "machen".

Oder habe ich mich zu sehr von der Star Trek TnG Episode mit einem sehr aehnlichen Thema beeinflussen lassen? :D
 
Ich denke mal, dass durch die einfache Möglichkeit der Bilddarstellung eher kreative Gedanken aktiviert werden. Vor allem bei denjenigen, die sich bisher handwerklich selbst nicht im Stände fühlen bzw. es sich selbst nicht zutrauen, Dinge zu gestalten. Ob das bei kreativ bereits aktiven Menschen zu einer "Verrohung" führt, glaube ich nicht. Für das Gestalten mit den eigenen Händen - das ist ja oft der Antrieb - gibt es so maschinell jedenfalls keinen Ersatz. Oder anders: Selbst malen, zeichnen oder plastisch basteln macht einfach mehr Spaß als ein paar Wörter in ein Feld zu tippen und auf das Ergebnis zu warten. Gerade bei und mit Kindern. :)

Image-Gens können aber definitiv eins sehr gut: den Kopf zum imaginieren anregen.
 
  • Gefällt mir
Reaktionen: Willmehr, Maviapril2 und tHE_nICKEL
tHE_nICKEL schrieb:
Man freu ich mich über diesen Thread! Ich bin AI-Süchtig, seit es Midjourney & Co gibt!

Für alle die das gern in Deutsch ausprobieren möchten, schaut euch mal die App Wonder (iOS/Android) an. Dort habe ich mit Deutsch auch echt gute Ergebnisse erzielt.
Danke für den Tipp. Die Beispiele von Dir sind alle damit entstanden oder auch mit was anderem?

tHE_nICKEL schrieb:
Witzigerweise nutze ich das ganz häufig um Situationen zu beschreiben, in denen meine Freundin sich gerade befindet um mich überraschen zu lassen, wie die KI sie sich vorstellt :) das macht sau viel Spaß und lädt jedes mal zu einem Schmunzler ein, wenn ich ihr meine Vorstellungen und Ergebnisse zukommen lasse.
Das kenne ich :D Es macht mega Spaß andere Leute mit selbst erstellten Bildern von imaginären oder auch denkbaren Situationen zu belustigen ^^
Der Kabelbinder schrieb:
Ich denke mal, dass durch die einfache Möglichkeit der Bilddarstellung eher kreative Gedanken aktiviert werden. Vor allem bei denjenigen, die sich bisher handwerklich selbst nicht im Stände fühlen bzw. :)
Also ich habe bspw. jetzt erst Lust mir ein Zeichenbrett - ok, digital ^^ - zuzulegen, um Skizzen als Grundlage zu erstellen. Auf die Idee wäre ich früher nie gekommen. Mal davon abgesehen, befassen sich viel mehr Leute im Zuge der AI-Bilderschaffung mit Kunst und Künstlern. Was Kinder angeht: Ich sehe jetzt auch keinen Grund, sie davor "zu schützen", ich glaube, die gemeinsame Zeit ist wertvoll und es kann viel dabei gelernt werden, zb Worte zu finden, eine Situation zu beschreiben.

PS ich habe grade mal probiert aus einem 512x512 Konterfei ein größeres Bild zu kreieren. Da gibt es verschiedene Ansätze, die ich grade durchprobieren will. Das hier war jetzt im Prinzip eine Art "Zoom-Out" in dem ich das Bild auf eine größere Leinwand platziert habe (in paint 3D :D ) und dann im "inpainting" den leeren Bereich habe nachberechnen lassen. Das Ergebnis dann wiederum auf die Leinwand eingefügt und runterskaliert, wieder den Rest berechnen lassen usw. ein paar Details markiert und neu berechnet, wo Fehler waren. Also txt2img mit Prompt den Rest mit img2img. War jetzt nur ein Test, sonst hätte ich bei den Flügeln wohl noch mehr wert auf Perspektive gelegt.. Auf jedenfall klappt das mit der Vorgehensweise. Ausgangsbild und Ergebnis:

05151-1820857690-dark angel princess, highly detailed, d & d, fantasy, highly detailed, digita...png1664636382536-1820857692-dark angel princess, highly detailed, d & d, fantasy, highly detailed...png
SD 1.4 - dark angel princess, highly detailed, d & d, fantasy, highly detailed, digital painting, trending on artstation, concept art, sharp focus, illustration, global illumination, ray tracing, realistic shaded, art by fuji choko and viktoria gavrilenko and hoang lap
 
  • Gefällt mir
Reaktionen: wrglsgrft, Willmehr, Maviapril2 und eine weitere Person
MechanimaL schrieb:
Danke für den Tipp. Die Beispiele von Dir sind alle damit entstanden oder auch mit was anderem?

Die Beispiele hier im Thread sind allesamt mit Wonder erstellt. Irgendwo habe ich noch ein paar Ergebnisse von Midjourney, aber die haben mich im ersten Test noch nicht ganz so gecatcht, wie es Wonder geschafft hat.
 
  • Gefällt mir
Reaktionen: Maviapril2
Zurück
Oben