Am 25.12.2023 dokumentierte ich einen Workflow zur Visualisierung romantischer Weihnachtsbälle mit Midjourney und Photoshop. Dabei wurde deutlich, wie fehleranfällig Midjourney bei der Darstellung von Details sein kann – insbesondere bei überladenen und komplexen Kompositionen. Zu dieser Zeit waren die Möglichkeiten der KI-Bildgenerierung noch stark begrenzt: kein Editor, nur einfache Befehle wie „subtle“ und „strong“ Variation, sowie die Inpaint-Funktion, um Variationen zu erstellen. Photoshop war noch unverzichtbar, um die Ergebnisse zu verfeinern und die Schwächen der KI auszugleichen.
Ein Jahr später ist das, was damals nach Innovation klang, längst Standard geworden. Diese Dokumentation bleibt bewusst unverändert – nicht als Anleitung für heute, sondern als eine Art Zeitkapsel. Sie zeigt, wie rasant sich die Technologie entwickelt hat und wo wir vor nicht allzu langer Zeit gestartet sind.
Detailfülle als Basis für Fehleranfälligkeit
Ein zentraler Aspekt, den ich während meiner Arbeit festgestellt habe, ist, dass eine höhere Detaildichte in den Bildern oft zu vermehrten Fehlern führt, insbesondere bei der Darstellung von Proportionen. Dies ist ein interessantes Phänomen, das zeigt, dass überladene Bilder nur für Moodboards gut sind, aber zum Beispiel nicht für tatsächliche Sujets. Also zumindest jetzt noch nicht. Der Retuscheaufwand stünde vermutlich in keinem Verhältnis.
Ein schönes Stimmungsbild. Außer man schaut zu genau.
Bei zu vielen Details werden die Bilder leider Fehleranfällig.
Nostalgie hat ihren Preis
Ein weiterer wichtiger Punkt war die Erkenntnis, dass Bilder, die zu perfekt bearbeitet sind, oft ihre nostalgische Qualität verlieren. In meinen Experimenten mit Stichworten wie „vintage grainy VHS footage“ stellte ich fest, dass gerade die Unschärfe die eine nostalgische Atmosphäre erzeugen. Die technische Perfektionierung durch Hochskalierung oder zu detailgenaue Bearbeitung kann diese Wirkung leider mindern.
Hier ist der Unterschied noch einmal deutlich zu sehen: Grobkörnig / Grainy (links) und glattgebügelter / smoother Upscale (rechts)
Technischer Aspekt
Anscheinend hat das Programm ein Problem damit, die Funktion Inpaint bei grobkörnigem Bildmaterial zu verwenden. Selbst nach erneutem Upscale ist die Funktion nicht anwendbar. Also zum Beispiel, wenn ich jetzt die Frisur austauschen wollen würde, würde das nicht funktionieren. Aber woran das liegt, weiß ich (noch) nicht. Da merkt man wieder, dass nicht alles auf Knopfdruck und so schnell geht, wie sich das manch einer wünschen würde.
Und auch bei Photoshop Generative Fill konnte ich keine guten Ergebnisse damit erzielen.
Das Bild hat mir sehr gut gefallen, aber es war eine Take it or leave it Situation. Die Funktion Inpaint hat gefehlt.
Trotz Upscale gab es keine Inpaint-Funktion.
Hier wollte ich in Photoshop mit Hilfe der Funktion „generative Fill“ den Kopf tauschen. Die Ergebnisse waren leider unbrauchbar.
Stoffe und Materialien
Ich lege großen Wert darauf, wie die Kleidung gestaltet ist, insbesondere die Beschaffenheit der Stoffe. Das spielt eine entscheidende Rolle. Auch die Farbtöne sind essenziell, da sie zentrale Elemente sind, die den Charakter einer bestimmten Ära – zum Beispiel in Filmen – authentisch widerspiegeln.
Ich bin immer so fasziniert von den Stoffen. Derartige Kostüme herzustellen wäre sicher eine Menge Arbeit.
Conclusio
Zusammenfassend zeigt sich, dass jede Erfahrung mit Midjourney wertvolle Lektionen über die Auswirkungen von Werkzeugen und Techniken auf digitale Kreationen bietet.
Eine hohe Detaildichte kann zwar beeindruckend wirken, erhöht jedoch die Fehleranfälligkeit, insbesondere bei Proportionen. Gleichzeitig zeigt sich, dass zu perfekt bearbeitete Bilder oft an nostalgischer Wirkung verlieren. Dieses Experimentieren und Abwägen ist essenziell, um die Balance zwischen technischer Präzision und emotionaler Wirkung zu finden.
Let's go
Sie haben Fragen zu
meiner Dienstleistung?
Ich biete spezialisierte Workshops für generative KI im Marketing und Midjourney-Kurse für Werbeagenturen an. 🙋♀️💜