Agentic AI im UX Research: Was sich 2026 wirklich verändert
Zurück zu Insights
AI & Technologie

Agentic AI im UX Research: Was sich 2026 wirklich verändert

Ich baue einen AI Interviewer. Nicht obwohl, sondern weil ich seit 25 Jahren User Research mache.

Seit 25 Jahren mache ich UX Research. Ich habe 1999 eine der ersten User-Research-basierten Strategieberatungen in Deutschland gegründet. Ich habe den Wandel von Papierprototypen zu Figma erlebt, von Fokusgruppen zu Remote-Tests, von handgeschriebenen Notizen zu automatischer Transkription.

Was gerade passiert, fühlt sich anders an.

Ich baue ein Tool, das Tiefeninterviews automatisiert. Gleichzeitig weiß ich, dass Tiefeninterviews die Königsdisziplin im qualitativen Research sind – sie benötigen Erfahrung, Empathie, Sensibilität, Neugier und den Mut, auch unbequeme Fragen zu stellen. Menschen, die man gar nicht kennt.

Das klingt nach Widerspruch. Ist es aber nicht.

Die Lage der Branche

Bevor wir über agentic AI reden, müssen wir über die Branche reden. Denn die Zahlen zur KI-Adoption erzählen nur die halbe Geschichte.

UX Research steckt in einer Krise. Laut UXPA-Umfragen haben 35% der Organisationen Personal verloren, 37% hatten Layoffs. Die Nielsen Norman Group schreibt: "A year ago, UX felt like it was on trial." Der Jobmarkt stabilisiert sich zwar langsam, aber die Unsicherheit bleibt.

In dieses Klima platzt jetzt die Nachricht: 78% der Researcher glauben laut Qualtrics' 2026 Market Research Trends Report, dass KI-Agenten innerhalb von drei Jahren mehr als die Hälfte aller Projekte End-to-End übernehmen werden. 15% nutzen bereits heute agentic AI.

Man muss diese Zahl im Kontext lesen. Dahinter steckt nicht nur Technologie-Optimismus, sondern auch Angst. Die Angst um den Arbeitsplatz, die konjunkturelle Unsicherheit, die Sorge: Was bedeutet KI für mich, meinen Beruf, meine Rolle?

Die Nielsen Norman Group nennt 2026 das "Jahr der AI Fatigue". Menschen sind müde – müde davon, zu hören, sie würden ersetzt, wenn sie nicht "vibe coden". Müde von Tools, die nicht in echte Workflows passen. Müde davon, erklären zu müssen, warum automatisierte Entscheidungen riskant sind.

Was "agentic" bedeutet

Ein agentic System unterscheidet sich von klassischen KI-Tools durch vier Eigenschaften.

Zielorientierung: Das System bekommt ein Ziel, keine Anweisung. "Finde heraus, warum Nutzer den Checkout abbrechen" statt "Transkribiere diese fünf Interviews".

Planung: Es zerlegt das Ziel selbstständig in Schritte.

Ausführung: Es führt die Schritte aus, ohne dass jemand jeden Klick bestätigt.

Anpassung: Es reagiert auf das, was passiert. Wenn eine Frage nicht funktioniert, formuliert es um.

Der Unterschied zu einem Assistenten: Ein Assistent wartet auf Anweisungen, ein Agent handelt autonom.

Was gewonnen wird

Die Frage ist nicht, was verloren geht, wenn KI Interviews führt. Die Frage ist, was gewonnen wird.

Tiefeninterviews sind nicht nur Königsdisziplin – sie sind auch zeitraubend und aufwändig in jeder einzelnen Phase. Rekrutierung, Terminierung, Durchführung, Transkription, Analyse. Selbst kundenorientierte Unternehmen, für die qualitative Nutzerforschung Standard war, kürzen Budgets ein. Sie setzen stärker auf Data-Driven Decisions, weil sie nicht mehr die Zeit und das Geld haben. Der Druck ist groß, die Releasezyklen werden schneller.

Der notwendige Research wird oft nicht durchgeführt.

Das ist das eigentliche Problem. Nicht dass KI Interviews führt, sondern dass Interviews gar nicht mehr stattfinden. Gute Produkte entstehen im Dialog mit Menschen. Nur findet dieser Dialog nicht statt. Stattdessen interpretiert man Daten, entwickelt Hypothesen und trifft Entscheidungen aus dem Bauch heraus.

KI kann diesen Dialog wieder ermöglichen – für Unternehmen, die ihn sich sonst nicht leisten könnten.

Was nicht ersetzt werden kann

Natürlich gibt es Situationen, die eine KI nicht hinbekommt. Fragen aus der Intuition heraus zu stellen, aus Erfahrung, aus einer intrinsischen Neugierde. Den Moment zu erkennen, in dem jemand etwas sagt, aber etwas anderes meint. Die Pause, die mehr verrät als jede Antwort.

Ergebnisse Stakeholdern nicht nur zu vermitteln, sondern sie zu einer gemeinsamen und verbindlichen Perspektive zu bewegen – das kann keine KI.

Aber 2026 hat sich viel getan. Die Kontextfenster sind größer geworden, agentische Fähigkeiten stärker, Dateninterpretation und Analyse besser. KI entwickelt sich weiter. Die Nielsen Norman Group schreibt: "We will see core AI technologies incrementally improve their 'jagged' capabilities, potentially reaching watershed moments for user-research activities."

Die Grenzen verschieben sich. Das heißt nicht, dass sie verschwinden.

Das Vertrauensproblem

Die Nielsen Norman Group identifiziert Trust als das größte UX-Problem für KI-Experiences 2026. Menschen, die von KI-Features enttäuscht wurden, adoptieren neue Systeme zögerlicher.

Für Research bedeutet das: Ein Agent, der in einem Interview daneben liegt, beschädigt nicht nur diese eine Studie. Er beschädigt das Vertrauen der Teilnehmer in KI-gestützte Forschung insgesamt.

Agenten werden oft gelauncht, bevor sie bereit sind. Die Folge: schlechte Erfahrungen, wachsende Skepsis. Jede schlechte Interaktion macht die nächste Adoption schwieriger.

Wie QUALLEE das umsetzt

QUALLEE ist ein agentic Research-Tool. Der KI-Interviewer führt eigenständig Gespräche, stellt Nachfragen basierend auf Antworten, extrahiert Themen automatisch. Aber wir haben bewusste Grenzen eingebaut.

Menschen definieren die Ziele. Der Agent führt aus, aber die Forschungsfragen kommen vom Team.

Rohdaten bleiben zugänglich. QUALLEE liefert keine fertigen Zusammenfassungen, die man akzeptieren muss, sondern O-Töne, Zitate, die rohe Stimme der Nutzer. Der Researcher interpretiert.

Teilnehmer wissen, dass sie mit einer KI sprechen. Das ist nicht nur Compliance mit dem EU AI Act, sondern Respekt.

Für komplexe Fragen gibt es hybride Projekte. KI für Volumen, menschliche Expertise für Tiefe.

Was bleibt

UX Research wird wieder wichtiger werden. Das Handwerkliche wird wieder wichtiger werden, die Intimität und Authentizität, die im Dialog zwischen Menschen entsteht. Das Menschliche per se wird stärker wertgeschätzt, je mehr sich KI durchsetzt.

Das wird aber nichts daran ändern, wie Geld und Zeit verteilt werden. Es wird mehr Daten geben, mehr Rechenpower, mehr Intelligenz auf Knopfdruck. KI-erzeugte Simulationen werden unfassbar gut sein.

Aber das Geld, das man mit Menschen verdient, fließt weiterhin dadurch, dass mit diesen Menschen gesprochen wurde.


Häufig gestellte Fragen

Was ist Agentic AI im Kontext von UX Research?

Agentic AI bezeichnet KI-Systeme, die eigenständig mehrstufige Workflows ausführen. Im UX Research bedeutet das: Statt einzelne Tasks wie Transkription zu automatisieren, übernehmen Agenten ganze Prozesse – von der Interviewführung bis zur Themenextraktion.

Ersetzt Agentic AI menschliche UX Researcher?

Nein, aber es verändert die Rolle. Researcher werden zu Strategen, die Ziele definieren und Ergebnisse interpretieren. Die operative Durchführung übernehmen zunehmend Agenten. Das erfordert andere Skills, aber nicht weniger Expertise.

Wie zuverlässig sind KI-Agenten für qualitative Forschung?

Für standardisierte Anwendungsfälle mit klaren Zielen funktionieren sie gut. Für explorative Forschung, sensible Themen oder Situationen, die Empathie erfordern, bleiben Menschen überlegen. Die Kunst liegt im richtigen Einsatz: Agenten für Volumen, Menschen für Tiefe.

Was bedeutet der EU AI Act für agentic Research-Tools?

Ab August 2026 gelten vollständige Transparenz- und Dokumentationspflichten. Nutzer müssen wissen, dass sie mit KI interagieren. Anbieter müssen Risiken klassifizieren und dokumentieren.


Selbst ausprobieren

Erlebe, wie sich ein KI-geführtes Interview anfühlt. In unserem aktuellen Forschungsprojekt untersuchen wir, wie Menschen im Alltag mit KI interagieren. Das Gespräch dauert etwa 20 Minuten.

Jetzt teilnehmen →

Marcus Völkel
Artikel teilen

Mehr zu diesem Thema

Agentic AI im UX Research: Was sich 2026 wirklich verändert | QUALLEE