KI-generierte Personas versprechen schnelle, günstige User Research in großem Maßstab. Tausende Interviews an einem Nachmittag führen, Rekrutierung überspringen, Ergebnisse in Stunden statt Wochen. Für Produktteams, die in Research-Backlogs ertrinken, klingt das nach der Lösung. Aber was sagt die Forschung dazu, wie gut synthetische Nutzer echte Menschen tatsächlich abbilden?
Was synthetische Nutzer sind – und was nicht
Synthetische Nutzer sind KI-generierte Profile, die echte Menschen simulieren sollen. Man füttert das System mit demografischen Daten – Alter, Beruf, Wohnort – und es produziert eine Persona, die Forschungsfragen beantwortet.
Manche Plattformen gehen weiter und versprechen digitale Zwillinge, die auf echten Interviewdaten basieren. Andere generieren komplett fiktive Nutzer aus demografischen Templates. Der Unterschied zwischen diesen Ansätzen ist enorm – und die meisten Plattformen verkaufen die zweite Option, während sie implizieren, man bekäme die erste.
Das Stanford-Google-Experiment
Eine Studie von Stanford und Google mit über 1.000 Teilnehmern untersuchte systematisch, wie gut KI echte Menschen simulieren kann. Die Methode war aufwendig: Erst führten die Forscher echte, ausführliche Interviews mit jedem Teilnehmer. Dann trainierten sie eine KI darauf, genau diese Person nachzuahmen.
Das Ergebnis: 85% Genauigkeit bei der Vorhersage, wie diese Menschen neue Fragen beantworten würden. Das ist beeindruckend – aber der Haken liegt in der Methode selbst. Die KI brauchte zuerst echte Gespräche als Grundlage. Sie ersetzte keine Forschung, sondern erweiterte, was durch Gespräche mit echten Menschen bereits gelernt worden war.
Der zweite Teil des Experiments war ernüchternder. Die Forscher testeten auch Personas, die nur aus demografischen Daten gebaut waren: Alter, Geschlecht, Wohnort, Beruf. Die Genauigkeit sank auf kaum besser als ein Münzwurf.
Zu wissen, dass jemand eine 35-jährige Marketing-Managerin aus München ist, sagt fast nichts darüber aus, wie sie sich tatsächlich verhält, was sie frustriert oder wofür sie bezahlen würde.
Warum Sprachmodelle beim Simulieren von Menschen scheitern
Sprachmodelle generieren, was plausibel klingt – nicht was wahr ist. Wenn man einen synthetischen "frustrierten Kunden" nach seiner Erfahrung fragt, schöpft die KI aus Millionen von Textbeispielen. Sie produziert ein überzeugendes Komposit, das dem tatsächlichen Verhalten keiner echten Person entspricht.
Die Nielsen Norman Group machte das in einem direkten Vergleich sichtbar. Sie befragten synthetische und echte Nutzer zu einer Online-Lernplattform.
Die synthetischen Nutzer berichteten: Kurse vollständig abgeschlossen, Diskussionsforen als hilfreich empfunden, Navigation intuitiv verstanden. Die echten Nutzer erzählten eine andere Geschichte: Die meisten Kurse mittendrin abgebrochen, Foren komplett gemieden, sich ständig in der Navigation verlaufen.
Die KI-Personas produzierten, was Forscher als sycophantisches Feedback bezeichnen – zustimmend, positiv, konfliktfrei. Genau die Art von Feedback, die Produkte scheitern lässt, weil sie sagt, was man hören will, statt was man wissen muss.
Drei systematische Schwächen
Diese Diskrepanz ist kein Zufall, sondern folgt aus der Art, wie Sprachmodelle funktionieren.
Overconfidence-Bias
Synthetische Nutzer berichten perfekte Aufgabenerfüllung. Echte Nutzer kämpfen, brechen Aufgaben ab, finden Workarounds. Das Chaos menschlichen Verhaltens – das Zögern, die Missverständnisse, die kreativen Umwege – passt nicht in die ordentlichen Narrative, die KI generiert.
Fehlende Randfälle
KI-Personas clustern um Mainstream-Verhalten. Power User, Menschen mit Accessibility-Bedürfnissen, unerwartete Nutzungsweisen werden systematisch unterrepräsentiert. Dabei sind es oft gerade diese Randfälle, die die größten Chancen und die kritischsten Probleme offenbaren.
Verzerrte Repräsentation
Trainingsdaten bilden nicht alle Gruppen gleich ab. Bestimmte Demografien, Dialekte und Perspektiven erscheinen seltener. Synthetische Personas erben diese Lücken und verstärken sie – verpackt in der Autorität von Daten, was die Verzerrung schwerer erkennbar macht.
Wann synthetische Nutzer trotzdem nützlich sein können
Trotz dieser Einschränkungen gibt es Situationen, in denen synthetische Nutzer einen Beitrag leisten können – solange man ihre Grenzen kennt.
Für frühe Hypothesengenerierung, bevor überhaupt klar ist, welche Fragen relevant sind, können sie Möglichkeiten aufzeigen. Sie sind Brainstorming-Partner, keine Forschungssubjekte.
Für das Testen von Interviewleitfäden können synthetische Personas verwirrende Formulierungen aufdecken. Wenn eine KI eine Frage missversteht, werden echte Nutzer sie wahrscheinlich auch missverstehen.
Für das Durchspielen von Variationen, nachdem echte Forschung ein konkretes Muster identifiziert hat: Was, wenn dieser Nutzertyp zusätzlich Einschränkung X hätte? Hier kann KI beim Durchdenken von Implikationen helfen – wobei die Ergebnisse Hypothesen bleiben, keine Fakten.
Wann man sie meiden sollte
Neue Konzepte nur mit synthetischen Nutzern zu testen, ist riskant. Ihr positives Feedback ist bedeutungslos, weil es aus der Struktur von Sprachmodellen folgt, nicht aus echter Erfahrung.
Bei spezialisierten Zielgruppen – ob Mediziner, Industrieingenieure oder Menschen mit spezifischen Behinderungen – sind generische KI-Personas nicht nur nutzlos, sondern gefährlich. Sie führen aktiv in die Irre, weil sie Expertise simulieren, die sie nicht haben.
Alles, was Emotionen betrifft – Vertrauen, Angst, Frustration, Begeisterung – erfordert echte Menschen. KI simuliert emotionale Reaktionen auf Basis von Textmustern. Sie erlebt sie nicht, und dieser Unterschied zeigt sich in den Daten.
Und jede Entscheidung, die signifikante Ressourcen bindet, braucht echte Validierung. Das ist keine Frage der Präferenz, sondern des Risikomanagements.
Der bessere Weg: KI-unterstützte echte Forschung
Die Stärke von KI liegt nicht darin, Menschen zu ersetzen, sondern echte Forschung effizienter zu machen.
KI für Durchführung und Analyse: Automatisierte Interviews mit echten Nutzern, Transkription, initiales Coding, Mustererkennung über viele Gespräche hinweg. Hier spart KI tatsächlich Zeit, ohne Qualität zu kompromittieren.
Menschen für Einsicht: Urteilsvermögen, Empathie, das Erkennen von Zwischentönen, strategische Interpretation. Das sind die Teile, die am meisten zählen – und die KI nicht leisten kann.
KI für Skalierung, aber erst nachdem echte Forschung Muster validiert hat. Dann kann sie beim Durchdenken von Implikationen und Variationen helfen.
Menschen für Validierung: Finale Entscheidungen gehen immer zurück an echte Nutzer.
Dieser hybride Ansatz verbindet KI-Geschwindigkeit mit menschlicher Wahrheit. Er nimmt ernst, was die Forschung zeigt: dass KI ein mächtiges Werkzeug ist – aber nur, wenn sie auf dem Fundament echter Gespräche mit echten Menschen aufbaut.
Häufig gestellte Fragen
Können synthetische Nutzer echte Nutzerinterviews ersetzen?
Nein. Für explorative Forschung und finale Validierung braucht man echte Menschen. Synthetische Nutzer können ergänzen, niemals ersetzen.
Was ist das größte Risiko von Forschung mit synthetischen Nutzern?
Das Sycophancy-Problem. KI-Personas geben übermäßig positives, oberflächliches Feedback, das bestätigt, was man hören will, und kritische Issues verpasst, die tatsächlich beim Bauen besserer Produkte helfen würden.
Sind interview-basierte KI-Zwillinge zuverlässiger?
Ja, deutlich. Stanford fand 85% Genauigkeit, wenn die KI auf echten Interviewdaten dieser spezifischen Person trainiert wurde. Aber man braucht trotzdem erst das echte Interview, was bedeutet, dass man den Research-Schritt nicht wirklich spart.
Wann ist Forschung mit synthetischen Nutzern angemessen?
Hypothesengenerierung, Interviewleitfaden-Tests und das Erkunden von Variationen validierter Muster. Niemals für Konzeptvalidierung oder finale Entscheidungen.
Wie erkläre ich die Einschränkungen Stakeholdern?
Formuliere es klar: Synthetische Nutzer generieren Möglichkeiten, keine Evidenz. Jede Erkenntnis, auf die es sich zu handeln lohnt, braucht echte Nutzervalidierung. Wenn jemand Widerstand zeigt, frage, ob er seine Produkt-Roadmap auf einen Münzwurf wetten würde.
Synthetische Nutzer sind ein Werkzeug, keine Methode. Nutze sie, um Fragen zu generieren, dann beantworte diese Fragen mit echten Menschen.


