Bildgenerierung mit WAN 2.2: Was das Open Source Modell drauf hat

Wenn du gerade von unserem WAN 2.2 Video‑Blogbeitrag kommst, weißt du schon, was dich erwartet.
Wenn nicht – kein Problem. Hier bekommst du den zweiten Teil unseres Tests. Diesmal geht’s um die Bildgenerierung mit WAN 2.2, und die ist – kein Witz – richtig stark.

Warum? Weil WAN 2.2 nicht nur in der Videogenerierung überzeugt, sondern auch bei Standbildern extrem abliefert: realistische Hauttöne, fotorealistisches Licht, klar definierte Materialien.

Falls du erstmal das Video sehen willst: Hier geht’s zum Beitrag →

Und jetzt viel Spaß mit dem praktischen Deep Dive in die Bildgenerierung mit WAN 2.2 – inklusive Beispielen, Setup und echten Learnings aus dem Test.

Inhaltsverzeichnis

Kurz vorgestellt: Was ist WAN 2.2?

 

WAN 2.2 ist ein generatives Modell für Video und Standbild. Für Fotos wirkt es erstaunlich „echt“: Hauttöne bleiben natürlich, Licht verhält sich plausibel und Materialien zeigen feine Texturen. Der Look ist eher neutral‑fotografisch und funktioniert deshalb für Porträt, Produkt und Interior gleichermaßen. Die Modelle stehen unter Apache 2.0 – das bedeutet breite kommerzielle Nutzungsrechte (Marken‑ und Persönlichkeitsrechte sind natürlich weiterhin zu beachten). In der Praxis arbeiten wir dafür am liebsten mit ComfyUI.

So nutzt du WAN 2.2 mit ComfyUI:

 

Du brauchst lediglich ComfyUI, die WAN 2.2‑Modelle und einen fertigen Workflow. Installiere ComfyUI, lade die Modelldateien von der offiziellen WAN‑Seite und öffne anschließend unseren Text‑to‑Image-Workflow per Drag‑&‑Drop. Tipp: Starte mit einer moderaten Bildgröße, zum Beispiel 1024 px Kantenlänge, und erhöhe danach schrittweise.

 

 

ComfyUI sucht Modelle in Unterordnern wie models/unet/, models/vae/ und models/text_encoders/. Für die großen 14B‑Modelle brauchst du High‑Noise und Low‑Noise – so erhältst du stabile Formen und feine Details. 

Showcase: Was alles möglich ist

<nerdmodus>
Unsere Bildtestreihe entstand mit ComfyUI und dem oben verlinkten Workflow und Settings. Erstes Sampling mit dem High Noise Model, das zweite mit Low Noise. Durch diese Kombination entstehen Bilder, die beim Thema Detailreichtum und Korrektheit von Details seines Gleichen suchen.

Generiert wurden die Bilder mit einer Auflösung von 1440×1800 Pixel – und jetzt kommts: Jedes Bild braucht dabei in diesen Settings 8 Minuten auf einer RTX 6000 Ada. Gerade beim Thema Performance ist noch Luft nach oben – aber die Open Source Community arbeitet bereits daran und verfolgt gerade verschiedene Ansätze mit Lightning LoRAs, Sageattention-Optimierung und anderen innovativen Workflows. Auch die Kombination aus Qwen Image für ersten Sampling Step und zweitem Sampling-Step mit WAN 2.2 Low Noise sieht bisher vielversprechend aus. 

</nerdmodus>

1) Porträtfotografie – natürlich & detailliert

 

WAN 2.2 kann Haut glaubwürdig wiedergeben. Nutze weiches Fensterlicht oder eine große Softbox und bleib beim Stil sparsam.

2) Lifestyle & Performance

3) Interior & Architektur

4) Natur, Landschaft & Luftaufnahmen

5) Makro & Material

6) Sci-Fi, Space & Concept

7) Illustration, Branding & Grafik

Heads-up: Georgs LoRA Experimente auf Basis von WAN 2.2 liefern auffallend konsistente Porträts. Nächstes Mal verraten wir Training, Prompt-Rezepte und Best Practices. (Link folgt)

Unser Expertenfazit

 

WAN 2.2 setzt in der reinen Bildgenerierung ein starkes Zeichen: Porträts überzeugen mit natürlicher Haut und glaubwürdigen Catchlights, Produkte zeigen saubere Kanten und kontrollierte Reflexe, Materialien wirken dank klarer Mikrostruktur sehr real. Der neutrale Fotolook macht die Ergebnisse vielseitig einsetzbar – vom Webshop bis zum Editorial. Die Kehrseite: Die großen Modelle sind rechenintensiv und fühlen sich aktuell am besten in ComfyUI an. Wer sofort testen möchte, lädt die WAN‑Modelle von der offiziellen Seite (Modelle & Beispiele → https://comfyanonymous.github.io/ComfyUI_examples/wan22/) und öffnet unseren Text‑to‑Image‑Workflow per Drag‑&‑Drop (Workflow → https://contentmarketingmitki.de/wp-content/uploads/2025/08/Wan2.2_Text-To-Image.json). Einmal starten, mit moderater Auflösung beginnen – fertig.

Unsere Schulungsangebote

 

Wir arbeiten gerade an einer neuen Ausbildung zum Diffusion Engineer. Wenn du also richtig tief abgeholt werden willst, melde dich schonmal vorab per Email. Bis dahin bieten wir individuelle Unternehmens-Seminare an, bei denen wir auch ComfyUI Schulungen für ganze Design- und Marketingteams durchführe. Wenn du also wissen willst wie man mit WAN 2.2 eigene Bilder produzieren, können wir für dich und deine Abteilung ein individuelles Seminar konzipieren. Die Erfahrungen aus 100+ Seminaren in deutschen Organisationen lügen nicht. Hier findest du alle Infos und Anfragemöglichkeiten zu unseren individuellen KI Fortbildungen und Seminaren für Unternehmen.

 

Fazit

 

WAN 2.2 bringt Standbilder sehr nah an professionelle Fotografie: natürliche Haut, plausibles Licht, saubere Kanten und feine Mikrotexturen – bei einem neutralen, gut steuerbaren Look. Porträt, Produkt, Material, Interior, Food und Makro gelingen mit wenigen, klaren Angaben zu Licht, Optik (z. B. 35 mm, geringe Schärfentiefe) und Material.

 

Für die Praxis heißt das: Mit ComfyUI und unserem Workflow kommst du schnell (Zeit ist relativ) vom Prompt zur Datei; dank Apache 2.0 sind die Ergebnisse auch kommerziell nutzbar (Rechte Dritter beachten). Und falls du Setup, Qualität oder Tempo ausreizen willst, unterstützen wir dich gern mit Schulungen.

Bereit für den nächsten Schritt?

 

Die Tools entwickeln sich schnell, und jedes hat seine Besonderheiten.

 

Im KI Marketing Bootcamp gehen wir systematisch vor: Von der Strategie über die Tool-Auswahl bis zur konkreten Umsetzung. Du lernst nicht nur die Theorie, sondern arbeitest an echten Projekten – mit direktem Feedback und praktischen Workflows, die du sofort einsetzen kannst.

 

Was erwartet dich?

  • Praxisorientierte Anleitungen: Lerne, wie du KI-Tools strategisch einsetzt und das Beste aus ihnen herausholst

  • Erprobte Workflows: Vom Konzept bis zur Umsetzung – mit sofort anwendbaren Strategien

  • Individuelle Begleitung: Kleine Gruppen und persönliche Betreuung bei deinen Projekten

Deine Vorteile:

  • Learning by Doing: Entwickle eigene Kampagnen, die auf deine spezifischen Ziele zugeschnitten sind

  • Praxiswissen: Nutze echte Beispiele und Erfolgsstrategien für deine eigenen Projekte

  • 100% Online: Flexibel lernen, wann es in deinen Zeitplan passt

Für Unternehmen: Maßgeschneiderte Workshops für dein Marketing-Team.

Dein Expertenteam: Vroni Hackl und Georg Neumann – dein Expertenteam und deine Guides durch KI im Marketing.

Vroni forscht zu Sprachmodellen, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »
Aktuelles
„Was euch nicht gehört, könnt ihr nicht verkaufen“ – Was drei Urteile für deinen KI-Einsatz bedeuten

Drei deutsche Gerichte haben innerhalb weniger Monate die Spielregeln für generative KI neu geschrieben. Die These ist unbequem, aber belastbar: Wer KI-Output als eigene kreative Leistung verkauft, ohne den menschlichen Gestaltungsbeitrag nachweisen zu können, steht rechtlich mit leeren Händen da. Und haftet trotzdem für alles, was rauskommt. Das betrifft nicht irgendwelche Tech-Konzerne in Kalifornien. Das betrifft jede Agentur, die nächste Woche ein KI-generiertes Logo an einen Kunden liefert. INPUT: Was die KI frisst – und

Weiterlesen »
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳