Stable Diffusion SDXL 1.0 – Gamechanger oder Gurke?

Der Fortschritt in der Welt der Künstlichen Intelligenz (KI) ist atemberaubend und bietet stetig neue Möglichkeiten. Am 26. Juli 2023 wurde SDXL 1.0 als neues Basis-Model von Stable Diffusion veröffentlicht. Wir haben uns die Zeit genommen, das neue Bildgenerierungs-Model ausgiebig auszuprobieren. Soviel vorweg: Definitiv Gamechanger! Hier teilen wir unsere Eindrücke:

 

1. Handhabung und Integration

Leider ist die Handhabung von SDXL 1.0 momentan noch etwas holprig. Die Integration in Automatic1111 könnte noch etwas Feinschliff gebrauchen. Für diejenigen, die eine alternative Route wählen möchten, steht das node-basierte ComfyUI zur Verfügung. Hierbei handelt es sich jedoch um ein eher komplexes Interface, welches Anfänger vielleicht abschrecken könnte.

 

 

2. Bildqualität

Das Herzstück eines jeden Bildgenerierungs-Models. Und hier punktet SDXL 1.0 gewaltig! Die Bildqualität ist phänomenal. Selbst ohne feines Tuning liefert das Modell bereits mit einfachen Prompts brillante Ergebnisse. Ein besonderes Highlight ist die feste Integration von Offset Noise im Training, wodurch Bilder entstehen, die in Sachen Kontrast mit denen des Konkurrenten Midjourney mithalten können.

 

 

3. Prompting

Ein wesentlicher Vorteil des neuen SDXL 1.0 ist das verbesserte Textverständnis. Dies spart nicht nur Zeit, sondern auch Nerven. Besonders hervorzuheben ist, dass die Tage der langen, umständlichen negativen Prompts aus Stable Diffusion 1.5 Zeiten gezählt sind. Nun kann man sich wirklich auf das Wesentliche konzentrieren, was den Prozess erheblich beschleunigt.

 

SDXL 1.0 Testreihe mit negative Prompt:

SDXL 1.0 Testreihe ohne negative Prompt:

Prompt: medium shot photo of a happy 40 year old business woman with ginger hair, freckles, munich, beautiful detailed face, dramatic lighting, 50mm, F1.8, film grain, chromatic aberations, analog photography


Negative: animation,doll,anime,painting,cartoon,drawing,illustration,3d,sketch,surreal,(cropped head), (cropped body),out of frame,crossed eyes, bad hands,((disfigured)),((deformed)),strange anatomy,(bad proportions),((extra limbs)),(ugly),((b&w)),weird colors,blurry,((monochrome)),lowres,(low quality:2),jpeg artifacts

 

4. Training

Einfach beeindruckend! Wir haben den ultimativen Test gemacht: Georg Neumann hat basierend auf 109 Fotos ein eigenes SDXL 1.0 Model trainiert. Ohne aufwändiges Captioning oder sorgfältige Bildauswahl entstand in nur 10.000 Steps ein hochwertiges Modell.

 

Trainingsdaten:

 

 

Testgenerierungen

 

 

Georgs Reaktion?

„Wow! Wenn das nur der Anfang ist, bin ich gespannt, wo wir in ein paar Monaten sein werden, besonders wenn wir mit bereits feingetunten Models aus der Community arbeiten können.“

 

Unser Fazit zu SDXL 1.0

Die Zeichen stehen auf Innovation. SDXL 1.0 ist nicht einfach nur ein neues Update – es markiert einen bedeutenden Schritt nach vorne. Dies spiegelt sich auch in der begeisterten Aufnahme durch die Open-Source-Community wider. Sogar eingefleischte Fans von Stable Diffusion 1.5 erkennen das Potential und wechseln bereits. Mit den ständig erscheinenden, hochwertigen Embeddings und feingetunten Models steht der KI-Bildgenerierung eine strahlende Zukunft bevor.

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »
Aktuelles
„Was euch nicht gehört, könnt ihr nicht verkaufen“ – Was drei Urteile für deinen KI-Einsatz bedeuten

Drei deutsche Gerichte haben innerhalb weniger Monate die Spielregeln für generative KI neu geschrieben. Die These ist unbequem, aber belastbar: Wer KI-Output als eigene kreative Leistung verkauft, ohne den menschlichen Gestaltungsbeitrag nachweisen zu können, steht rechtlich mit leeren Händen da. Und haftet trotzdem für alles, was rauskommt. Das betrifft nicht irgendwelche Tech-Konzerne in Kalifornien. Das betrifft jede Agentur, die nächste Woche ein KI-generiertes Logo an einen Kunden liefert. INPUT: Was die KI frisst – und

Weiterlesen »
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳