Neues Charakter-Referenz-Feature cref von Midjourney getestet: Die Lösung für konsistente Charaktere und virtuelle Avatare?

Inhaltsverzeichnis

Die Generierung konsistenter Charaktere war bisher ein komplexes Thema, das sich nur über Stable Diffusion mit dem Training von LoRas, Checkpoints oder der Nutzung von IP Adapter abbilden ließ. Nerdig und schwer zugänglich. Aber jetzt stößt Midjourney zur Party dazu und hat seine eigene Form der Referenzierung über IP Adapter mitgebracht. In diesem Beitrag teste ich das Feature aus einer ganz eigenen Brille: Von jemandem, der damit beauftragt wird, solche künstlichen Avatare zu erschaffen. Challenge accepted!

Wie funktioniert das neue "cref" Feature von Midjourney?

Das Charakter-Referenz-Feature, kurz „cref“, ermöglicht es Nutzer:innen, eigene oder fremde Bilder als Referenz für die Erstellung neuer, einzigartiger Charaktere zu verwenden. Diese Technologie bietet unglaubliche Möglichkeiten, insbesondere in der Welt der virtuellen Avatare und digitalen Kunst.

Um das Feature zu nutzen, fügt ihr den Parameter –cref an euren Prompt an und gebt dahinter eine Bild-URL als Referenz an. Wie das geht zeige ich im folgenden Video:

Hier ein kurzes Tutorial-Video zur Nutzung von cref in Midjourney:

Gewichtung von --cref über --cw nutzen:

Um die Gewichtung der Referenz zu steuern, könnt ihr zusätzlich den Wert „cref weight“ (–cw) nutzen: 

  • –cw 100 (Standardwert): Hierbei wird alles als Referenz genutzt: Gesicht, Haare, Kleidung
  • –cw 50 (Mittelwert): Hier werden Teile aus der Referenz genutzt: z.B. Gesicht und Haare 
  • –cw 0 (Minimalwert): Hier wird nur das Gesicht als Referenz genutzt und der Rest variiert.

Natürlich könnt ihr auch auch alle Werte dazwischen nutzen.

Beispiel-Prompt:

/imagine Photo Type: portrait, 50mm photograph, Canon EOS R3, 4k, highly detailed, Subject Focus: 30 year old woman from Berlin, business clothing, shoulder length wavy pink hair, round glasses, brown eyes, happy, Color Tone: natural, Setting: office space background, Atmosphere: professional, Texture: film grain:2, Mood: happy, Composition: bokeh, Lighting: natural lighting –ar 4:5 –style raw –v 6.0 –cref https://bildurl.com/beispiel.png –cw 100

Was taugt das neue cref Feature von Midjourney?

Um das neue Feature für mich, KundInnen und KursteilnehmerInnen zu testen, habe ich das System auf zwei Arten getestet und schließlich noch gegen Stable Diffusion antreten lassen. 

Fremde Referenzen

Zunächst habe ich mit einem Bild experimentiert, das ich mit Stable Diffusion generiert habe. Durch Anpassen des „cref weight“ (–cw) konnte ich steuern, wie stark das Originalbild als Referenz herangezogen wird. Die Ergebnisse variierten je nach Einstellung erheblich, allerdings war die Ähnlichkeit zum Original nicht so konsistent, wie ich es mir gewünscht hatte.

Referenzbild – generiert mit Stable Diffusion
--cw 100
--cw 50
--cw 0
--cw 50 und in Interaktion gepromptet

Eigene Referenzen

Anschließend habe ich ein Bild verwendet, das von Midjourney selbst generiert wurde. Hier sind die Ergebnisse deutlich konsistenter, obwohl immer noch einige Abweichungen, beispielsweise bei Augenbrauen oder Gesichtsform, zu beobachten sind.

Referenzbild – generiert mit Midjourney
--cw 100
--cw 50
--cw 0
--cw 50 und in Interaktion gepromptet

Vergleich mit Stable Diffusion ohne Finetuning/Training

Ohne jegliches Feintuning oder Training konnte ich mithilfe eines speziell entwickelten Prompts einen relativ konsistenten virtuellen Avatar einer 30-jährigen Frau erschaffen. Dies zeigt ganz gut das Potenzial auch ohne aufwendiges Training.

Stable Diffusion mit IP Adapter

Jetzt simulieren wir die Technik hier Midjourney cref mit Stable Diffusion und nutzen ControlNet mit dem IP Adapter Plus Face SDXL. Das Ergebnis zeigt eine ähnliche Wirkung und ist ohne tiefere Einstellung der Parameter mit –cw 0. Es werden Details übernommen, aber nicht genug um eine 100%ig Ähnlichkeit zum Original zu gewährleisten. 

Referenzbild – generiert mit Stable Diffusion

Fazit

Das neue „cref“-Feature von Midjourney ist eine gute Ergänzung für alle, die im Bereich der digitalen Charaktererstellung tätig sind. Besonders beeindruckend ist die Leistungsfähigkeit des Features, wenn es mit von Midjourney generierten Bildern als Referenz arbeitet. Für Anwendungen, bei denen eine oberflächliche Wiedererkennbarkeit ausreicht, bietet es eine überzeugende Lösung. Dennoch gibt es Raum für Verbesserungen, insbesondere wenn es um die feine Abstimmung und die Konsistenz der generierten Bilder geht.

Wer stark Ähnlichkeit und mehr Flexibilität benötigt, kommt derzeit um ein Finetuning/Training für Stable Diffusion nicht herum. Hier kann man je nach Anforderung über das Training eines LoRas oder eines finegetunten Checkpoints nachdenken. Auf Grund der Flexibilität rate ich zum Checkpoint, da diese erfahrungsgemäß deutlich flexibler sind als LoRas. 

Du willst generative KI für Marketing und Kreation lernen?

In unserem KI Marketing Bootcamp nehmen wir dich an die Hand und erklären dir die Basics und das Hintergrundwissen dazu. Wir schulen Einzelpersonen oder auch ganze Abteilungen in unseren individuellen Unternehmens Bootcamps. Sprich uns einfach an und wir finden die passende Form für Dich.

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »
Aktuelles
„Was euch nicht gehört, könnt ihr nicht verkaufen“ – Was drei Urteile für deinen KI-Einsatz bedeuten

Drei deutsche Gerichte haben innerhalb weniger Monate die Spielregeln für generative KI neu geschrieben. Die These ist unbequem, aber belastbar: Wer KI-Output als eigene kreative Leistung verkauft, ohne den menschlichen Gestaltungsbeitrag nachweisen zu können, steht rechtlich mit leeren Händen da. Und haftet trotzdem für alles, was rauskommt. Das betrifft nicht irgendwelche Tech-Konzerne in Kalifornien. Das betrifft jede Agentur, die nächste Woche ein KI-generiertes Logo an einen Kunden liefert. INPUT: Was die KI frisst – und

Weiterlesen »
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳