← Zurück zum Journal
KI Produktbilder5 min

KI-Produktbilder für Beauty: 3 Fallstricke bei Texturen & Skin

Hautporen wie Orangenschalen. Gloss-Texturen wie geschmolzenes Plastik. Reflexionen, die physikalisch unmöglich sind. Wo KI bei Beauty-Content aktuell noch scheitert.

Edwin Wenzlaff

Edwin Wenzlaff

CEO & Founder·

KI-Produktbilder für Beauty: 3 Fallstricke bei Texturen & Skin · Titelbild

Hautporen, die aussehen wie Orangenschalen. Gloss-Texturen wie geschmolzenes Plastik. Reflexionen, die physikalisch unmöglich sind. Das sind die Artefakte, die in aktuellen KI-Tools bei Beauty-Content immer wieder auftauchen.

Jeder redet davon, dass KI jetzt "photorealistisch" ist. Midjourney V6, DALL-E 3, Stable Diffusion XL. Alles Game-Changer. Stimmt auch. Aber niemand redet über die Edge Cases, die in Beauty-Content den Unterschied zwischen "wow" und "Uncanny Valley" ausmachen.

Beauty ist gnadenlos. Ein Fashion-Shoot verträgt künstlerische Freiheit. Ein Tech-Produkt verzeiht leichte Unschärfe. Aber eine Foundation auf Haut? Da sieht jeder Marketing-Lead sofort, wenn etwas off ist.

Aus unserer Arbeit mit KI-Beauty-Content kristallisieren sich drei zentrale Problemzonen heraus. Hier was uns bisher hilft, sie zu umschiffen.

Fallstrick #1: KI versteht Hauttexturen nicht wie menschliche Augen

Das Problem ist subtil aber brutal. KI-Modelle trainieren auf Millionen Fotos. Die meisten davon? Stark bearbeitet, gefiltert, optimiert. Instagram-Reality, nicht Skin-Reality.

Das Ergebnis: Generierte Haut sieht entweder aus wie Porzellan (null Textur, uncanny) oder wie extreme Makro-Aufnahmen (jede Pore ein Krater).

Wir haben das bei Launch-Tests für einen Concealer-Visual gesehen. Erster Versuch mit Midjourney: Models mit Haut wie aus Wachs. Zweiter Versuch mit mehr "texture" im Prompt: Haut wie Mondlandschaften. Der Sweet Spot? Liegt in einer Zone, die sich nicht einfach prompten lässt.

Was funktioniert:

Wir arbeiten mittlerweile mit einem Hybrid-Ansatz. Base-Image aus KI, dann Texture-Overlays aus echten Hautaufnahmen in Photoshop. Klingt nach Mehrarbeit? Ist es. Aber es ist immer noch 60% schneller als ein klassisches Shooting und 80% günstiger.

Zweiter Trick: Reference Images. Nicht im Prompt beschreiben, sondern echte Hautfotos als Style-Reference hochladen. Funktioniert besonders gut in Midjourney mit dem --sref Parameter. Die Trefferquote steigt von etwa 20% auf 65%.

Aber ehrlich? Perfekte Hauttexturen out-of-the-box? Gibt's noch nicht. Wer was anderes behauptet, hat entweder Glück gehabt oder lügt.

Fallstrick #2: Reflexionen und Gloss sind der AI-Albtraum

Lip Gloss. Highlighter. Jedes Serum in einer Glasflasche. Alles Produkte, bei denen Licht-Physik entscheidend ist.

KI-Modelle verstehen Licht. Irgendwie. Sie können beeindruckende Lichteffekte erzeugen. Aber sie verstehen nicht die Konsistenz von Licht über verschiedene Oberflächen hinweg.

Ein Beispiel aus einem Lip-Produkt-Test: Das generierte Bild zeigte einen Lipgloss auf Lippen. Die Reflexion auf dem Gloss? Kam von links oben. Die Reflexion im Auge der Person? Von rechts. Die Schatten im Gesicht? Suggerierten Licht von vorne.

Physikalisch unmöglich. Aber KI kümmert das nicht.

Das Problem dahinter:

Diffusion-Modelle lernen statistische Wahrscheinlichkeiten. "Gloss sieht glänzend aus" ist eine Wahrscheinlichkeit. "Glanz kommt von einer konsistenten Lichtquelle" ist eine physikalische Regel. KI lernt ersteres, nicht letzteres.

Unsere Lösung:

Wir generieren Produktbilder und Model-Shots separat. Dann composite in post. Mehr Kontrolle, konsistente Lichtsetzung. Ja, das ist nicht "voll AI". Aber es funktioniert.

Für simple Produkt-Shots auf weißem Hintergrund: Inpainting mit sehr präzisen Masken. Wir generieren erst das Produkt, dann die Reflexion gezielt nach. Midjourney's "Vary (Region)" ist dafür Gold wert.

Wer behauptet, man könne komplexe Beauty-Shots mit einem Prompt generieren, hat noch nie ein Briefing von einem Brand-Manager bekommen.

Fallstrick #3: Hauttöne sind ein technisches und ethisches Minenfeld

Hier wird's ernst. KI-Modelle haben ein Bias-Problem bei Hauttönen. Das ist dokumentiert, bekannt, und trotzdem eine Daily Challenge.

Wer schon mal für einen Brand mit diversem Model-Casting Bilder generiert hat, kennt das Phänomen: Man briefed "verschiedene Hauttöne, natürlich, gleichmäßig beleuchtet". Ergebnis nach 50 Generationen: ein Großteil der Bilder zeigt hellere Hauttöne. Die dunkleren Hauttöne? Oft falsch beleuchtet, unnatürliche Kontraste, manchmal verfärbte Undertones.

Das ist kein Zufall. Das ist Training Data Bias.

Warum das passiert:

Fotografien von dunkleren Hauttönen sind in den meisten Datensätzen unterrepräsentiert. Und wenn sie existieren, sind sie oft schlechter beleuchtet (weil viele Fotografen historisch nicht gelernt haben, dunkle Hauttöne richtig auszuleuchten).

KI lernt aus diesen Daten. Und reproduziert die Probleme.

Was wir dagegen tun:

Erstens: Explizite Prompts mit genauen Hautton-Beschreibungen. Nicht "diverse models", sondern "Fitzpatrick skin type V, warm undertones, evenly lit". Specificity matters.

Zweitens: Model-Referenzen hochladen. Echte Fotos von Models mit den gewünschten Hauttönen als Style-Ref. Das erhöht die Consistency massiv.

Drittens: Post-Production Color-Grading. Wir haben Lookup-Tables für verschiedene Hauttöne erstellt, die wir standardmäßig anwenden. Sichert ab, dass alle Hauttöne gleichwertig dargestellt werden.

Aber der wichtigste Punkt? Haben wir ein menschliches Review. Immer. Jedes Bild wird von jemandem gecheckt, der versteht, was auf dem Spiel steht. AI-powered, human-led. Kein Bullshit.

KI für Beauty: Wo wir in 12 Monaten stehen werden

Aktuelle KI-Tools sind beeindruckend. Aber sie sind nicht magisch. Wer glaubt, man kann jetzt einfach "beautiful skincare model" prompten und perfekte Brand-Assets bekommen, wird enttäuscht.

Die Wahrheit? KI beschleunigt Workflows massiv. Typische Zeitersparnis bei Content-Produktion liegt irgendwo zwischen 50 und 70% gegenüber klassischer Produktion. Aber es braucht Know-how. Technical Understanding. Und ehrliche Kommunikation darüber, was geht und was nicht.

In 12 Monaten? Werden viele dieser Probleme gelöst sein. Neue Modelle wie SORA deuten darauf hin, dass physikalisch konsistente Bildgenerierung möglich ist. Training Data wird diverser. Tools werden präziser.

Aber bis dahin gilt: Wer jetzt in Beauty-Content mit KI einsteigt, braucht Partner, die die Grenzen kennen. Nicht Leute, die versprechen, dass alles magisch funktioniert.

Details über Hautporen, Gloss-Physik und Hautton-Gleichgewicht sind der Unterschied zwischen AI-Content, der nach AI aussieht, und Content, der einfach funktioniert.

Falls du gerade überlegst, wie du Beauty-Content skalieren kannst ohne Qualität zu verlieren: Lass uns reden. Wir zeigen dir genau, wo KI heute schon liefert und wo du noch menschliche Expertise brauchst.

KI Produktbilder →

[ Written by ]

Edwin Wenzlaff

Edwin Wenzlaff

CEO & Founder

Edwin denkt in Systemen und Marktwirkung. Verbindet Content mit Business-Outcome. Schreibt strategisch, visionär, mit Pointe.