KI-Produkte haben ein Vertrauensproblem. Viele erklären nicht, was im Hintergrund passiert. Daten fließen irgendwohin, Algorithmen tun irgendwas, am Ende kommt ein Ergebnis raus. Für qualitative Forschung, wo Menschen sensible Informationen teilen, ist das nicht akzeptabel.
Bei QUALLEE haben wir uns von Anfang an für einen anderen Weg entschieden. Dieser Artikel erklärt, wo und wie KI zum Einsatz kommt, welche Grenzen wir gezogen haben und was das konkret für deine Forschung bedeutet.
Übersicht
- Unsere AI Governance Strategie
- Human-in-the-Loop: KI als Entlastung
- Der Analysechat
- Vektor- und Graphdatenbanken
- Privacy by Design und Verschlüsselung
- Der Support: KI mit menschlicher Absicherung
- Warum deutsche Server nicht verhandelbar sind
- KI und DSGVO: Wie geht das zusammen?
- Welche KI-Systeme wir einsetzen
- Was KI bei uns nicht tut
- Häufig gestellte Fragen
Unsere AI Governance Strategie
AI Governance ist kein Buzzword, das wir uns ans Produkt kleben. Es ist ein Rahmenwerk aus Prinzipien und Prozessen, nach denen wir QUALLEE entwickeln und betreiben. Orientiert haben wir uns am NIST AI Risk Management Framework und den Anforderungen des EU AI Acts.
Vier Säulen tragen die Strategie: Transparenz, Kontrollierbarkeit, Rechenschaftspflicht und Datenintegrität.
Transparenz
Du weißt jederzeit, wo KI arbeitet und wo nicht. Kein versteckter Einsatz, keine Überraschungen. Wenn KI eine Rolle spielt, sagen wir das. Wenn nicht, auch.
Kontrollierbarkeit
Du behältst die Kontrolle über deine Daten und die Interpretation der Ergebnisse. KI liefert Vorschläge und Analysen; du entscheidest, was daraus wird.
Rechenschaftspflicht
Wir dokumentieren, welche Systeme eingesetzt werden, wie sie konfiguriert sind und welche Sicherheitsmaßnahmen greifen. Bei Fragen können wir Auskunft geben.
Datenintegrität
Die Grundlage jeder KI-Analyse sind vertrauenswürdige Daten. Wir speichern, wer wann welche Einwilligung gegeben hat. Wir verfolgen, wohin Daten fließen. Wir löschen nach definierten Fristen.
Diese Prinzipien sind keine Absichtserklärungen, die in einem PDF verstauben. Sie sind in die Architektur des Produkts eingebaut.
Human-in-the-Loop: KI als Entlastung, nicht als Ersatz
Das größte Missverständnis über KI in der Forschung ist die Vorstellung, sie würde Researcher ersetzen. Das Gegenteil ist der Fall. Wir setzen konsequent auf das Prinzip Human-in-the-Loop: KI arbeitet zu, Menschen entscheiden.
KI übernimmt bei QUALLEE die zeitintensiven, repetitiven Aufgaben: Interviews führen, Antworten transkribieren, Themen clustern, Muster identifizieren. Das sind Tätigkeiten, die Stunden und Tage verschlingen können. Stunden und Tage, die dir dann für die eigentlich wichtige Arbeit fehlen.
Die eigentlich wichtige Arbeit ist das, was nur Menschen können: Zusammenhänge verstehen, die sich nicht aus Daten allein ergeben. Empfehlungen erarbeiten, die den Kontext des Unternehmens berücksichtigen. Stakeholder überzeugen, Prioritäten setzen, strategische Entscheidungen treffen.
Ein konkretes Beispiel. Du führst ein Forschungsprojekt mit 25 Interviews durch. Ohne KI-Unterstützung verbringst du etwa 15 Stunden mit Leitfadenerstellung, 35 Stunden mit Vorbereitung und Führen der Gespräche, 8 Stunden mit der Transkription und nochmal 15 Stunden mit der initialen Clusterung und Themenanalyse. Das sind fast acht Tage, bevor du überhaupt anfängst, Empfehlungen zu entwickeln.
Mit QUALLEE führt die KI die Interviews, transkribiert automatisch und liefert dir eine erste Themenstruktur. Du investierst vielleicht zwei Stunden in die Qualitätskontrolle und Feinjustierung. Die restlichen 7,5 Tage gehören jetzt der Analyse, der Interpretation, der strategischen Arbeit.
Das ist kein Ersatz, sondern Befreiung.
Der Analysechat: Die Nadel im Heuhaufen finden
25 Interviews ergeben schnell 200 Seiten Transkript. Irgendwo darin steht die Aussage, die dein ganzes Projekt auf den Punkt bringt. Aber wo?
Der Analysechat ist dein Zugang zu den Daten. Du stellst Fragen in natürlicher Sprache; die KI durchsucht alle Transkripte und findet relevante Stellen. Dabei nutzen wir Vektor- und Graphdatenbanken, die semantische Ähnlichkeiten erkennen. Du fragst nach „Frustration beim Checkout", und das System findet auch Aussagen wie „Da bin ich dann immer genervt abgebrochen" oder „Das war einfach zu umständlich".
Du kannst die Antworten der KI hinterfragen. Woher kommt diese Interpretation? Welche Aussagen stützen sie? Die KI zeigt dir die Originalzitate, Teilnehmer für Teilnehmer. Du entscheidest, ob die Schlussfolgerung trägt oder ob du tiefer graben musst.
Das Besondere: Du musst der KI nicht blind vertrauen. Du kannst jederzeit alle Transkripte und Rohdaten als Export herunterladen – Excel, CSV, JSON, PDF. Damit behältst du die volle Kontrolle und kannst eigene Analysen fahren, wenn das System nicht das liefert, was du brauchst.
Vektor- und Graphdatenbanken: Weniger Halluzination, mehr Präzision
Ein häufiges Problem bei KI-Systemen sind Halluzinationen: Die KI erfindet Aussagen, die so nie gemacht wurden, oder vermischt Informationen aus verschiedenen Quellen. In der Forschung ist das fatal.
Wir setzen Technologien ein, die dieses Risiko minimieren. Vektordatenbanken speichern Aussagen als mathematische Repräsentationen ihres Bedeutungsgehalts. Wenn du eine Frage stellst, sucht das System nach Aussagen mit ähnlicher Bedeutung, nicht nach identischen Wörtern. Das ist präziser als einfache Volltextsuche.
Graphdatenbanken bilden Beziehungen ab. Welcher Teilnehmer hat welche Aussage gemacht? In welchem Kontext? Zu welcher Frage? Diese Verknüpfungen sorgen dafür, dass Aussagen nicht aus dem Zusammenhang gerissen werden.
Der Effekt: Wenn die KI dir eine Antwort gibt, ist sie in den tatsächlichen Daten verankert. Du kannst jeden Schritt nachvollziehen, vom Original-Transkript bis zur Interpretation.
Diese Architektur ermöglicht es auch, sehr große Datenmengen sicher zu analysieren. 50 Interviews, 100 Interviews – das System skaliert, ohne an Präzision zu verlieren.
Privacy by Design und Verschlüsselung
QUALLEE wurde von Anfang an nach dem Prinzip Privacy by Design entwickelt. Das bedeutet: Datenschutz ist keine nachträgliche Erweiterung, sondern in jede Architekturentscheidung eingeflossen.
Alle Daten sind stark verschlüsselt, sowohl bei der Übertragung als auch bei der Speicherung. Das gilt nicht nur für persönliche Daten wie E-Mail-Adressen und Passwörter, sondern auch für deine Forschungsinhalte: Interviews, Fragebögen, Transkripte, Analysen. Selbst wenn jemand physischen Zugang zu unseren Servern hätte, könnte er mit den verschlüsselten Daten nichts anfangen.
Das Consent-Management ist granular und nachvollziehbar. Wir speichern nicht nur, ob eine Einwilligung erteilt wurde, sondern auch wann, mit welcher IP-Adresse, welchem Browser und welcher exakten Version des Einwilligungstexts. Wenn jemand seine Einwilligung widerruft, dokumentieren wir auch das.
Speicherfristen sind definiert und werden automatisch durchgesetzt. Unser Privacy-Tool prüft täglich, welche Daten die Aufbewahrungsfrist überschritten haben, und löscht sie. Keine Daten, die ewig herumliegen.
Der Self-Service für Betroffenenrechte ermöglicht dir, deine Daten zu exportieren, Einwilligungen zu widerrufen und dein Konto zu löschen. Ohne Ticket, ohne Wartezeit.
Der Support: KI mit menschlicher Absicherung
Unser Support nutzt KI auf drei Ebenen, alle mit klaren Grenzen und dem Human-in-the-Loop-Prinzip.
Der Live-Support-Chat ist ein KI-Assistent, der auf unsere Wissensdatenbank zugreift. Er kann Fragen zu Funktionen beantworten, bei der Navigation helfen und Tipps geben. Wenn eine Frage außerhalb seines Wissens liegt, sagt er das ehrlich und verweist an den menschlichen Support.
Für Erstanfragen über das Supportformular haben wir eine First-Level-Support-KI entwickelt. Sie analysiert eingehende Tickets, kategorisiert sie und erstellt einen ersten Antwortvorschlag. Häufige Fragen beantwortet sie direkt; komplexere Anfragen leitet sie mit einer Zusammenfassung an das menschliche Support-Team weiter. So bekommst du schneller eine erste Rückmeldung, und unser Team kann sich auf die Fälle konzentrieren, die wirklich menschliche Aufmerksamkeit brauchen.
Für technische Probleme, die ins Code-Level gehen, haben wir einen halbautonomen Support-Agenten entwickelt. Der analysiert Bug-Reports, durchsucht die Codebase nach relevanten Stellen und liefert strukturierte Analysen mit konkreten Vorschlägen. Der Agent hat nur Lesezugriff; er kann nichts ändern oder löschen. Und jede Analyse wird von einem Menschen geprüft, bevor sie in eine Lösung mündet.
Alle drei Systeme folgen dem Prinzip: KI beschleunigt die Arbeit, ein Mensch trifft die Entscheidungen.
Warum deutsche Server nicht verhandelbar sind
Unsere Infrastruktur steht in Deutschland. Das ist keine Marketing-Aussage, sondern eine bewusste Entscheidung mit konkreten Konsequenzen.
Deutsche Rechenzentren unterliegen deutschem und europäischem Datenschutzrecht. Die DSGVO gilt hier nicht nur auf dem Papier, sondern wird von Aufsichtsbehörden aktiv durchgesetzt. Das gibt dir und deinen Teilnehmern Rechtssicherheit.
Der CLOUD Act der USA erlaubt amerikanischen Behörden theoretisch Zugriff auf Daten, die von US-Unternehmen verarbeitet werden – auch wenn die Server in Europa stehen. Indem wir auf europäische Anbieter setzen, umgehen wir dieses Risiko vollständig.
Für sensible Forschungsdaten, gerade im B2B-Bereich, ist das oft ein Ausschlusskriterium. Viele Unternehmen dürfen aus Compliance-Gründen keine Daten an Systeme geben, die unter US-Jurisdiktion fallen könnten. Mit QUALLEE hast du dieses Problem nicht.
KI und DSGVO: Wie geht das zusammen?
Eine Frage, die immer wieder kommt: Wie kann KI datenschutzkonform sein, wenn die Modelle von amerikanischen Unternehmen stammen?
Die kurze Antwort: Durch die richtige vertragliche und technische Absicherung.
Die ausführliche Antwort beginnt mit der Unterscheidung zwischen Rechtsgrundlagen. Nach Artikel 6 DSGVO gibt es verschiedene Wege, Datenverarbeitung zu legitimieren. Bei QUALLEE stützen wir uns primär auf die Vertragserfüllung: Du schließt einen Vertrag mit uns ab, und die KI-gestützte Analyse ist Teil der vereinbarten Leistung. Für diese Verarbeitung brauchen wir keine gesonderte Einwilligung; ein transparenter Hinweis reicht.
Anders sieht es aus, wenn Daten Dritter ins Spiel kommen, etwa bei Interviewteilnehmern. Hier holen wir explizite Einwilligungen ein und speichern sie revisionssicher.
Für die Zusammenarbeit mit KI-Anbietern haben wir Auftragsverarbeitungsverträge (AVV) abgeschlossen, im Englischen Data Processing Agreement (DPA) genannt. Diese Verträge regeln nach Artikel 28 DSGVO genau, was der Anbieter mit den Daten tun darf und was nicht. Konkret: keine Verwendung für Modelltraining, keine Weitergabe an Dritte, Löschung nach Verarbeitung.
Seit Juli 2023 besteht das EU-US Data Privacy Framework (DPF), ein Angemessenheitsbeschluss der EU-Kommission für Datenübermittlungen in die USA. Im September 2025 hat das Gericht der EU eine Klage dagegen abgewiesen, was für zusätzliche Rechtssicherheit sorgt. Ergänzend setzen wir auf Standardvertragsklauseln (SCCs), die einen zusätzlichen rechtlichen Rahmen bieten.
Aber Verträge allein reichen nicht. Deshalb die technischen Maßnahmen: Verschlüsselung bei Übertragung und Speicherung, Minimierung der übertragenen Daten, keine dauerhafte Speicherung bei den Anbietern. Die Rohdaten bleiben auf unseren deutschen Servern; an die KI-APIs gehen nur die für die jeweilige Aufgabe notwendigen Textinhalte.
Welche KI-Systeme wir einsetzen
Transparenz bedeutet auch, konkret zu sein. Hier sind die KI-Komponenten, die bei QUALLEE arbeiten.
Opus 4.5 führt die Interviews. Das ist ein Large Language Model, das natürliche Gespräche führen kann. Es stellt Fragen, hört zu, fragt nach. Kein starres Skript, sondern adaptive Gesprächsführung, die sich an den Antworten orientiert.
Automatische Transkription wandelt gesprochene Sprache in Text um. Weniger als 4 Prozent Fehlerrate, auch bei Akzenten und Nebengeräuschen. Du sprichst, das System schreibt mit.
Themenanalyse clustert Aussagen nach inhaltlicher Ähnlichkeit. Das System erkennt, welche Aussagen zusammengehören, auch wenn unterschiedliche Worte verwendet werden.
Content-Moderation schützt die Plattform vor Missbrauch. Automatische Erkennung problematischer Inhalte, ohne dass du etwas davon merkst.
Alle diese Systeme arbeiten nach den Prinzipien, die ich oben beschrieben habe: transparent, kontrollierbar, auf deutschen Servern.
Was KI bei uns nicht tut
Das ist der wichtigere Teil. Hier sind die Grenzen, die wir gezogen haben.
Keine Profilbildung. Die KI erstellt keine Profile von dir oder deinen Teilnehmern. Sie merkt sich nicht, wer was in früheren Interviews gesagt hat. Jedes Gespräch steht für sich. Keine übergreifende Verhaltensanalyse, keine Persönlichkeitsmodelle, keine Scoring-Systeme.
Keine biometrische Analyse. Wir werten weder Video noch Audio biometrisch aus. Keine Gesichtserkennung, keine Emotionserkennung aus Stimme oder Mimik. Der EU AI Act hat das in bestimmten Kontexten verboten; wir haben es von Anfang an ausgeschlossen.
Kein Training mit deinen Daten. Die Interviewinhalte fließen nicht ins Training der KI-Modelle. Wir haben mit allen KI-Anbietern Auftragsverarbeitungsverträge abgeschlossen, die eine Verwendung von API-Daten für Modelltraining ausschließen.
Keine Datenweitergabe für Marketing. Deine Forschungsdaten bleiben Forschungsdaten. Wir verkaufen sie nicht, teilen sie nicht, nutzen sie nicht für Werbezwecke. Die einzigen, die deine Projektdaten sehen, bist du und dein Team.
Keine automatischen Entscheidungen über Menschen. Die KI analysiert Aussagen, aber sie bewertet keine Menschen. Kein Teilnehmer wird aussortiert, weil eine KI ihn als „nicht relevant" eingestuft hat. Alle Interpretationen und Entscheidungen liegen bei dir.
Häufig gestellte Fragen
Was bedeutet Human-in-the-Loop konkret?
Human-in-the-Loop bedeutet, dass immer ein Mensch die finalen Entscheidungen trifft. Die KI liefert Analysen, Vorschläge und Muster. Du entscheidest, was relevant ist, welche Empfehlungen du daraus ableitest und wie du die Ergebnisse interpretierst. Die KI ersetzt nicht dein Urteilsvermögen; sie gibt dir mehr Zeit, es einzusetzen.
Werden meine Daten für KI-Training verwendet?
Nein. Wir haben mit allen KI-Anbietern Auftragsverarbeitungsverträge abgeschlossen, die eine Verwendung von API-Daten für Modelltraining explizit ausschließen.
Kann ich meine Rohdaten exportieren?
Ja. Du kannst jederzeit alle Transkripte, Analysen und Projektdaten exportieren. Verfügbare Formate: Excel, CSV, JSON und PDF.
Wie funktioniert der KI-gestützte Support?
Drei Ebenen: Der Live-Chat beantwortet allgemeine Fragen anhand unserer Wissensdatenbank. Die First-Level-Support-KI bearbeitet Erstanfragen über das Supportformular, kategorisiert Tickets und erstellt Antwortvorschläge. Der technische Support-Agent analysiert Bug-Reports und durchsucht die Codebase. Bei allen drei gilt: KI arbeitet vor, Menschen entscheiden und prüfen.
Wie kann KI DSGVO-konform sein, wenn sie von US-Anbietern kommt?
Durch vertragliche und technische Absicherung. Wir haben mit allen Anbietern Auftragsverarbeitungsverträge abgeschlossen, die regeln, dass Daten nicht für Training verwendet werden und nach der Verarbeitung gelöscht werden. Zusätzlich gilt seit 2023 das EU-US Data Privacy Framework. Technisch minimieren wir die übertragenen Daten und verschlüsseln alles; die Rohdaten bleiben auf deutschen Servern.
Warum sind deutsche Server wichtig?
Deutsche Server unterliegen deutschem und europäischem Datenschutzrecht. Der US CLOUD Act, der amerikanischen Behörden theoretisch Zugriff auf Daten bei US-Unternehmen erlaubt, greift hier nicht. Für sensible Forschungsdaten ist das oft ein Compliance-Erfordernis.
Selbst erleben
Du willst sehen, wie sich ein KI-geführtes Interview anfühlt? Starte ein Testinterview und erlebe selbst, wie die KI Fragen stellt, nachhakt und das Gespräch führt. Danach kannst du die Analyse und den Analysechat ausprobieren. Dauert insgesamt etwa 30 Minuten.


