Les produits IA ont un problème de confiance. Beaucoup n'expliquent pas ce qui se passe en arrière-plan. Les données circulent quelque part, les algorithmes font quelque chose, et finalement un résultat sort. Pour la recherche qualitative, où les gens partagent des informations sensibles, ce n'est pas acceptable.
Chez QUALLEE, nous avons choisi une voie différente dès le départ. Cet article explique où et comment l'IA est utilisée, quelles limites nous avons fixées et ce que cela signifie concrètement pour votre recherche.
Aperçu
- Notre stratégie de gouvernance IA
- Human-in-the-Loop : L'IA comme soutien
- Le chat d'analyse
- Bases de données vectorielles et graphes
- Privacy by Design et chiffrement
- Le support : IA avec supervision humaine
- Pourquoi les serveurs allemands ne sont pas négociables
- IA et RGPD : Comment concilier les deux ?
- Quels systèmes IA nous utilisons
- Ce que l'IA ne fait pas chez nous
- Questions fréquentes
Notre stratégie de gouvernance IA
La gouvernance IA n'est pas un buzzword que nous collons sur notre produit. C'est un cadre de principes et de processus qui guide le développement et l'exploitation de QUALLEE. Nous nous sommes orientés vers le NIST AI Risk Management Framework et les exigences du AI Act européen.
Quatre piliers soutiennent notre stratégie : Transparence, Contrôlabilité, Responsabilité et Intégrité des données.
Transparence
Vous savez toujours où l'IA travaille et où elle ne travaille pas. Pas d'utilisation cachée, pas de surprises. Quand l'IA joue un rôle, nous le disons. Quand ce n'est pas le cas, nous le disons aussi.
Contrôlabilité
Vous gardez le contrôle sur vos données et l'interprétation des résultats. L'IA fournit des suggestions et des analyses ; vous décidez ce qu'il en advient.
Responsabilité
Nous documentons quels systèmes sont déployés, comment ils sont configurés et quelles mesures de sécurité sont en place. Nous pouvons fournir des informations sur demande.
Intégrité des données
La base de chaque analyse IA est des données fiables. Nous enregistrons qui a donné quel consentement et quand. Nous suivons où vont les données. Nous supprimons selon des délais définis.
Ces principes ne sont pas des déclarations d'intention qui prennent la poussière dans un PDF. Ils sont intégrés dans l'architecture du produit.
Human-in-the-Loop : L'IA comme soutien, pas comme remplacement
La plus grande idée fausse sur l'IA dans la recherche est qu'elle remplacerait les chercheurs. C'est le contraire qui est vrai. Nous appliquons systématiquement le principe Human-in-the-Loop : l'IA assiste, les humains décident.
Chez QUALLEE, l'IA gère les tâches chronophages et répétitives : mener des entretiens, transcrire les réponses, regrouper les thèmes, identifier les patterns. Ce sont des activités qui peuvent consommer des heures et des jours. Des heures et des jours qui vous manquent ensuite pour le travail vraiment important.
Le travail vraiment important est ce que seuls les humains peuvent faire : comprendre des connexions qui ne ressortent pas des données seules. Élaborer des recommandations qui tiennent compte du contexte de l'entreprise. Convaincre les parties prenantes, fixer des priorités, prendre des décisions stratégiques.
Un exemple concret. Vous menez un projet de recherche avec 25 entretiens. Sans support IA, vous passez environ 15 heures à élaborer le guide, 35 heures à préparer et mener les conversations, 8 heures à transcrire et encore 15 heures au clustering initial et à l'analyse thématique. C'est presque huit jours avant même de commencer à développer des recommandations.
Avec QUALLEE, l'IA mène les entretiens, transcrit automatiquement et livre une première structure thématique. Vous investissez peut-être deux heures en contrôle qualité et ajustements. Les 7,5 jours restants appartiennent maintenant à l'analyse, à l'interprétation, au travail stratégique.
Ce n'est pas un remplacement, c'est une libération.
Le chat d'analyse : Trouver l'aiguille dans la botte de foin
25 entretiens deviennent rapidement 200 pages de transcription. Quelque part là-dedans se trouve la déclaration qui résume tout votre projet. Mais où ?
Le chat d'analyse est votre accès aux données. Vous posez des questions en langage naturel ; l'IA parcourt toutes les transcriptions et trouve les passages pertinents. Nous utilisons des bases de données vectorielles et graphes qui reconnaissent les similarités sémantiques. Vous demandez « frustration au checkout », et le système trouve aussi des déclarations comme « J'étais toujours énervé et j'abandonnais » ou « C'était juste trop compliqué ».
Vous pouvez questionner les réponses de l'IA. D'où vient cette interprétation ? Quelles déclarations la soutiennent ? L'IA vous montre les citations originales, participant par participant. Vous décidez si la conclusion tient ou si vous devez creuser plus profond.
La particularité : Vous n'avez pas à faire confiance aveuglément à l'IA. Vous pouvez télécharger toutes les transcriptions et données brutes en export à tout moment – Excel, CSV, JSON, PDF. Ainsi vous gardez le contrôle total et pouvez mener vos propres analyses si le système ne livre pas ce dont vous avez besoin.
Bases de données vectorielles et graphes : Moins d'hallucination, plus de précision
Un problème courant avec les systèmes IA est l'hallucination : l'IA invente des déclarations qui n'ont jamais été faites, ou mélange des informations de différentes sources. Dans la recherche, c'est fatal.
Nous déployons des technologies qui minimisent ce risque. Les bases de données vectorielles stockent les déclarations comme des représentations mathématiques de leur signification. Quand vous posez une question, le système cherche des déclarations avec une signification similaire, pas des mots identiques. C'est plus précis qu'une simple recherche plein texte.
Les bases de données graphes cartographient les relations. Quel participant a fait quelle déclaration ? Dans quel contexte ? À quelle question ? Ces connexions garantissent que les déclarations ne sont pas sorties de leur contexte.
L'effet : Quand l'IA vous donne une réponse, elle est ancrée dans les données réelles. Vous pouvez retracer chaque étape, de la transcription originale à l'interprétation.
Cette architecture permet aussi d'analyser de très grandes quantités de données en toute sécurité. 50 entretiens, 100 entretiens – le système évolue sans perdre en précision.
Privacy by Design et chiffrement
QUALLEE a été développé dès le départ selon le principe Privacy by Design. Cela signifie : La protection des données n'est pas une réflexion après coup, mais a influencé chaque décision architecturale.
Toutes les données sont fortement chiffrées, tant pendant la transmission que le stockage. Cela s'applique non seulement aux données personnelles comme les adresses email et mots de passe, mais aussi à votre contenu de recherche : entretiens, questionnaires, transcriptions, analyses. Même si quelqu'un avait un accès physique à nos serveurs, il ne pourrait rien faire avec les données chiffrées.
La gestion du consentement est granulaire et traçable. Nous enregistrons non seulement si un consentement a été donné, mais aussi quand, avec quelle adresse IP, quel navigateur et quelle version exacte du texte de consentement. Quand quelqu'un révoque son consentement, nous documentons cela aussi.
Les durées de conservation sont définies et automatiquement appliquées. Notre outil de confidentialité vérifie quotidiennement quelles données ont dépassé la durée de conservation et les supprime. Pas de données qui traînent éternellement.
Le self-service pour les droits des personnes concernées vous permet d'exporter vos données, de révoquer vos consentements et de supprimer votre compte. Sans ticket, sans attente.
Le support : IA avec supervision humaine
Notre support utilise l'IA à trois niveaux, tous avec des limites claires et le principe Human-in-the-Loop.
Le chat de support en direct est un assistant IA qui accède à notre base de connaissances. Il peut répondre aux questions sur les fonctionnalités, aider à la navigation et donner des conseils. Quand une question est en dehors de ses connaissances, il le dit honnêtement et renvoie au support humain.
Pour les demandes initiales via le formulaire de support, nous avons développé une IA de support de premier niveau. Elle analyse les tickets entrants, les catégorise et crée un premier brouillon de réponse. Elle répond directement aux questions courantes ; les demandes plus complexes sont transmises avec un résumé à l'équipe de support humain. Ainsi vous obtenez un retour initial plus rapide, et notre équipe peut se concentrer sur les cas qui nécessitent vraiment une attention humaine.
Pour les problèmes techniques qui vont au niveau du code, nous avons développé un agent de support semi-autonome. Il analyse les rapports de bugs, recherche dans la codebase les emplacements pertinents et livre des analyses structurées avec des suggestions concrètes. L'agent n'a qu'un accès en lecture ; il ne peut rien modifier ni supprimer. Et chaque analyse est revue par un humain avant de devenir une solution.
Les trois systèmes suivent le principe : l'IA accélère le travail, un humain prend les décisions.
Pourquoi les serveurs allemands ne sont pas négociables
Notre infrastructure est située en Allemagne. Ce n'est pas une affirmation marketing mais une décision délibérée avec des conséquences concrètes.
Les centres de données allemands sont soumis au droit allemand et européen de la protection des données. Le RGPD s'applique ici non seulement sur le papier, mais est activement appliqué par les autorités de contrôle. Cela vous donne, à vous et à vos participants, une sécurité juridique.
Le CLOUD Act américain permet théoriquement aux autorités américaines d'accéder aux données traitées par des entreprises américaines – même quand les serveurs sont en Europe. En utilisant des fournisseurs européens, nous évitons complètement ce risque.
Pour les données de recherche sensibles, surtout en B2B, c'est souvent un critère éliminatoire. Beaucoup d'entreprises ne sont pas autorisées pour des raisons de conformité à donner des données à des systèmes qui pourraient relever de la juridiction américaine. Avec QUALLEE, vous n'avez pas ce problème.
IA et RGPD : Comment concilier les deux ?
Une question qui revient sans cesse : Comment l'IA peut-elle être conforme au RGPD quand les modèles viennent d'entreprises américaines ?
La réponse courte : Par des garanties contractuelles et techniques appropriées.
La réponse détaillée commence par distinguer les bases juridiques. Selon l'article 6 du RGPD, il existe plusieurs façons de légitimer le traitement des données. Chez QUALLEE, nous nous appuyons principalement sur l'exécution du contrat : Vous concluez un contrat avec nous, et l'analyse assistée par IA fait partie du service convenu. Pour ce traitement, nous n'avons pas besoin d'un consentement séparé ; une information transparente suffit.
C'est différent quand des données de tiers entrent en jeu, comme avec les participants aux entretiens. Ici nous obtenons un consentement explicite et le stockons de manière auditable.
Pour la collaboration avec les fournisseurs d'IA, nous avons conclu des Contrats de Sous-Traitance (CST). Ces contrats, comme requis par l'article 28 du RGPD, réglementent précisément ce que le fournisseur peut et ne peut pas faire avec les données. Concrètement : pas d'utilisation pour l'entraînement des modèles, pas de transmission à des tiers, suppression après traitement.
Depuis juillet 2023, le cadre EU-US Data Privacy Framework (DPF) est en vigueur, une décision d'adéquation de la Commission européenne pour les transferts de données vers les États-Unis. En septembre 2025, la Cour de l'UE a rejeté un recours contre celui-ci, apportant une sécurité juridique supplémentaire. De plus, nous utilisons les Clauses Contractuelles Types (CCT), qui fournissent un cadre juridique supplémentaire.
Mais les contrats seuls ne suffisent pas. D'où les mesures techniques : chiffrement pendant la transmission et le stockage, minimisation des données transmises, pas de stockage permanent chez les fournisseurs. Les données brutes restent sur nos serveurs allemands ; seul le contenu textuel nécessaire pour chaque tâche va aux API IA.
Quels systèmes IA nous utilisons
Transparence signifie aussi être concret. Voici les composants IA qui travaillent chez QUALLEE.
Opus 4.5 mène les entretiens. C'est un Large Language Model qui peut tenir des conversations naturelles. Il pose des questions, écoute, approfondit. Pas de script rigide, mais une gestion de conversation adaptative qui s'adapte aux réponses.
La transcription automatique convertit la parole en texte. Moins de 4 pour cent de taux d'erreur, même avec des accents et du bruit de fond. Vous parlez, le système écrit.
L'analyse thématique regroupe les déclarations par similarité de contenu. Le système reconnaît quelles déclarations vont ensemble, même quand des mots différents sont utilisés.
La modération de contenu protège la plateforme contre les abus. Détection automatique de contenu problématique, sans que vous remarquiez quoi que ce soit.
Tous ces systèmes fonctionnent selon les principes que j'ai décrits ci-dessus : transparents, contrôlables, sur des serveurs allemands.
Ce que l'IA ne fait pas chez nous
C'est la partie la plus importante. Voici les limites que nous avons tracées.
Pas de profilage. L'IA ne crée pas de profils de vous ou de vos participants. Elle ne se souvient pas de qui a dit quoi dans les entretiens précédents. Chaque conversation est autonome. Pas d'analyse comportementale croisée, pas de modèles de personnalité, pas de systèmes de scoring.
Pas d'analyse biométrique. Nous n'évaluons pas la vidéo ou l'audio de manière biométrique. Pas de reconnaissance faciale, pas de reconnaissance d'émotion à partir de la voix ou des expressions faciales. Le AI Act européen l'a interdit dans certains contextes ; nous l'avons exclu dès le départ.
Pas d'entraînement avec vos données. Le contenu des entretiens ne sert pas à l'entraînement des modèles IA. Nous avons conclu des Contrats de Sous-Traitance avec tous les fournisseurs d'IA qui excluent l'utilisation des données API pour l'entraînement des modèles.
Pas de partage de données pour le marketing. Vos données de recherche restent des données de recherche. Nous ne les vendons pas, ne les partageons pas, ne les utilisons pas à des fins publicitaires. Les seuls qui voient vos données de projet sont vous et votre équipe.
Pas de décisions automatisées sur les personnes. L'IA analyse les déclarations, mais elle n'évalue pas les personnes. Aucun participant n'est filtré parce qu'une IA l'a classé comme « non pertinent ». Toutes les interprétations et décisions vous appartiennent.
Questions fréquentes
Que signifie Human-in-the-Loop concrètement ?
Human-in-the-Loop signifie qu'un humain prend toujours les décisions finales. L'IA fournit des analyses, des suggestions et des patterns. Vous décidez ce qui est pertinent, quelles recommandations vous en tirez et comment vous interprétez les résultats. L'IA ne remplace pas votre jugement ; elle vous donne plus de temps pour l'utiliser.
Mes données sont-elles utilisées pour l'entraînement de l'IA ?
Non. Nous avons conclu des Contrats de Sous-Traitance avec tous les fournisseurs d'IA qui excluent explicitement l'utilisation des données API pour l'entraînement des modèles.
Puis-je exporter mes données brutes ?
Oui. Vous pouvez exporter toutes les transcriptions, analyses et données de projet à tout moment. Formats disponibles : Excel, CSV, JSON et PDF.
Comment fonctionne le support assisté par IA ?
Trois niveaux : Le chat en direct répond aux questions générales en utilisant notre base de connaissances. L'IA de support de premier niveau traite les demandes initiales via le formulaire de support, catégorise les tickets et crée des brouillons de réponse. L'agent de support technique analyse les rapports de bugs et recherche dans la codebase. Pour tous les trois : l'IA travaille en amont, les humains décident et vérifient.
Comment l'IA peut-elle être conforme au RGPD si elle vient de fournisseurs américains ?
Par des garanties contractuelles et techniques. Nous avons conclu des Contrats de Sous-Traitance avec tous les fournisseurs qui réglementent que les données ne sont pas utilisées pour l'entraînement et sont supprimées après traitement. De plus, le EU-US Data Privacy Framework est en vigueur depuis 2023. Techniquement, nous minimisons les données transmises et chiffrons tout ; les données brutes restent sur les serveurs allemands.
Pourquoi les serveurs allemands sont-ils importants ?
Les serveurs allemands sont soumis au droit allemand et européen de la protection des données. Le CLOUD Act américain, qui permet théoriquement aux autorités américaines d'accéder aux données chez les entreprises américaines, ne s'applique pas ici. Pour les données de recherche sensibles, c'est souvent une exigence de conformité.
Vivez l'expérience vous-même
Vous voulez voir ce que ressent un entretien mené par l'IA ? Lancez un entretien test et découvrez par vous-même comment l'IA pose des questions, approfondit et guide la conversation. Ensuite, vous pourrez essayer l'analyse et le chat d'analyse. Environ 30 minutes au total.


