Retour au blog
Enjeux & Rentabilité17 avril 20268 min de lecturePar l'équipe Mission IA

Comment vos données sont protégées dans nos agents IA (et ce que personne ne peut garantir à 100 %)

Où vont vos données quand un agent IA traite vos emails ou vos candidatures ? Est-ce qu'elles servent à entraîner des modèles ? Voici une réponse franche, technique et sans langue de bois — parce que vous méritez mieux qu'une politique de confidentialité de 40 pages.

Partager
Protection des données dans les agents IA

Quand vous nous confiez vos processus — emails, candidatures, réservations, relation client — une question revient toujours en filigrane : où vont mes données ? Est-ce qu'elles servent à entraîner des IA ? Qui peut y accéder ? C'est une question légitime, et vous méritez une réponse claire, technique et sans détour.

Dans cet article, nous détaillons précisément ce qui est sécurisé dans nos workflows IA et comment, ce qui dépend de tiers, et ce que même les meilleurs acteurs du marché ne peuvent pas garantir à 100 %.

1. Le parcours réel de vos données

Quand un agent IA traite un email entrant, analyse une candidature ou génère une réponse client, les données ne disparaissent pas dans un nuage anonyme. Elles suivent un chemin précis, avec des étapes identifiables — et à chaque étape, un niveau de contrôle différent s'applique.

Prenons un workflow typique : un email arrive dans Outlook ou Gmail, n8n le récupère, en extrait le texte pertinent, l'envoie à Claude pour analyse, puis inscrit le résultat dans un fichier Excel (OneDrive) ou Google Sheets (Google Drive). Ce workflow fait intervenir quatre briques distinctes : votre instance n8n (hébergée sur VPS, sur n8n Cloud, ou sur votre propre infrastructure), vos outils Microsoft ou Google, le fournisseur de LLM via API, et vos logiciels métier.

Comprendre qui contrôle quoi à chaque étape, c'est la première condition pour évaluer sereinement les risques — et pour répondre honnêtement à vos propres clients si vous êtes soumis à des obligations de confidentialité (LPD, RGPD, NDA sectoriel).

2. Ce que vous contrôlez vraiment

Commençons par les bonnes nouvelles : la grande majorité de l'infrastructure est sous contrôle direct.

01

Infrastructure n8n — entièrement sous votre responsabilité

n8n propose trois modes d'hébergement : un VPS dédié (Infomaniak, Hetzner, AWS…), n8n Cloud — le service hébergé directement par n8n — ou votre propre infrastructure on-premise. Chaque option a ses implications en matière de contrôle et de localisation des données. Sur VPS ou on-premise, vous avez la main totale : accès SSH, pare-feu, chiffrement disque, sauvegardes, mises à jour. Sur n8n Cloud, c'est n8n qui gère l'infrastructure — pratique, mais avec moins de maîtrise directe. Nous recommandons un VPS dédié chez Infomaniak pour les clients soumis à la LPD suisse (données hébergées en Suisse garanties).

02

Credentials et connexions API

Les clés API (Microsoft, Google, Anthropic, OpenAI…) sont stockées chiffrées dans n8n. Nous configurons des comptes de service dédiés avec des permissions minimales — un compte Outlook ou Gmail limité à un seul dossier, un accès OneDrive ou Google Drive restreint à un répertoire précis. Aucun accès en écriture là où ce n'est pas nécessaire.

03

Flux de données entre services

Toutes les communications entre les services utilisent TLS — les données ne circulent pas en clair. Nous configurons systématiquement un filtre de nettoyage : avant d'envoyer quoi que ce soit à un LLM, les données sont écrémées. Seul le texte utile est transmis : signatures, pièces jointes et données personnelles non nécessaires sont supprimées en amont.

Bien maîtrisable

  • n8n sur VPS dédié ou on-premise (contrôle total)
  • Accès et permissions Microsoft 365 / Google Workspace
  • Flux chiffrés TLS entre services
  • Nettoyage des données avant envoi au LLM
  • Comptes techniques dédiés à droits minimaux

Partiellement maîtrisable

  • n8n Cloud (infrastructure gérée par n8n)
  • Stockage cloud Microsoft (OneDrive, Excel) ou Google (Drive, Sheets)
  • Logs applicatifs des services tiers
  • Sauvegardes VPS

Hors contrôle direct

  • Traitement exact chez les fournisseurs LLM
  • Infrastructure physique (Anthropic → Google/AWS, OpenAI → Azure)
  • Obligations légales locales (réquisitions)
  • Comportement des expéditeurs externes

3. Anthropic, OpenAI et Google Gemini : ce que les API garantissent

C'est le point qui concentre le plus d'interrogations — et le plus souvent le plus mal compris. Quand votre agent IA "réfléchit", il envoie du texte à un serveur externe. Ce qui se passe de l'autre côté dépend du fournisseur et, surtout, du mode d'utilisation. Nous utilisons principalement Claude d'Anthropic — dont nous avons détaillé les forces dans notre comparatif des meilleurs LLMs — mais les mêmes garanties existent chez OpenAI et Google Gemini via Vertex AI.

Chez Anthropic, OpenAI et Google (via Vertex AI), les données transmises via API ne sont pas utilisées pour l'entraînement des modèles — par défaut et sans exception. C'est une politique claire, contractuellement engagée depuis mars 2023 pour OpenAI et sans interruption pour Anthropic et Google Vertex AI.

Anthropic va encore plus loin depuis septembre 2025 : la rétention standard par API est passée de 30 à 7 jours. Et pour les clients qui en ont besoin, une option Zero Data Retention (ZDR) existe — les données sont traitées en mémoire uniquement, sans aucune conservation après la réponse. Cette option nécessite un accord contractuel spécifique directement avec Anthropic.

PointAnthropic ClaudeOpenAI GPTGoogle Gemini
Entraînement par défautNonNonNon (Vertex AI)
Rétention standard30j → 7j (sept. 2025)30 jours48h – 30j (Vertex AI)
Zero Data Retention (ZDR)Oui (contrat)Oui (contrat)Oui (Vertex AI)
Chiffrement au reposOuiAES-256AES-256
Conformité RGPD / LPD(usage API)(usage API)(Vertex AI)
Contrôle technique totalImpossibleImpossibleImpossible

4. API vs interface grand public : la différence qui change tout

Cette distinction est fondamentale et mérite qu'on s'y arrête. Un collaborateur qui utilise Claude.ai ou ChatGPT directement depuis son navigateur ne bénéficie pas des mêmes protections qu'un workflow via API.

Ce qu'il se passe via les interfaces grand public : les conversations peuvent être stockées jusqu'à 30 jours. Depuis août 2025 chez Anthropic, un opt-in à l'entraînement est activé par défaut, avec une rétention possible jusqu'à 5 ans si l'utilisateur ne désactive pas manuellement cette option. Ce mode est incompatible avec une conformité stricte LPD/RGPD sans gouvernance forte côté employeur.

La règle est simple : n'utilisez jamais des données clients sensibles via une interface grand public. Réservez ces usages à des workflows via API, encadrés par un contrat en bonne et due forme. C'est précisément ce que nous configurons pour vous.

5. Ce que personne ne peut garantir à 100 %

Soyons transparents. Même avec une infrastructure soignée et des contrats robustes, certaines choses restent hors de portée de n'importe quel prestataire — y compris nous.

Anthropic fait tourner Claude sur les infrastructures Google Cloud et AWS. OpenAI s'appuie sur Microsoft Azure. Ni l'un ni l'autre ne possède ses propres datacenters pour la production API — ce sont donc les conditions d'hébergement de ces tiers qui s'appliquent en dernier ressort. Infomaniak, lui, gère ses propres datacenters en Suisse, ce qui offre une traçabilité physique réelle. Mais même dans ce cas, les obligations légales locales restent hors de contrôle : une réquisition judiciaire s'applique indépendamment de toute politique de confidentialité. Les métadonnées — volumes de requêtes, timestamps, identifiants techniques — circulent également même si le contenu est filtré.

Un autre risque souvent oublié : le contenu des emails entrants. Un expéditeur externe peut vous envoyer des données sensibles que vous n'attendiez pas — et que l'agent traitera involontairement. La conception du workflow doit prévoir ce cas, via des règles de filtrage à l'entrée et une politique claire d'exclusion des contenus sensibles.

Nous sécurisons l'infrastructure, les accès et la circulation de vos données. Le seul point de dépendance externe est le fournisseur de LLM, encadré contractuellement — mais non contrôlable techniquement à 100 %.

6. Notre approche chez Mission IA

Quand nous déployons un agent IA, nous documentons systématiquement les flux de données : qui passe par quoi, avec quel niveau de rétention, sous quelle juridiction. Ce document peut être remis à votre DPO ou intégré à votre registre de traitements.

Notre principe de base : n'envoyer au LLM que le strict nécessaire. Plus les données transmises sont épurées, plus la surface de risque est réduite — indépendamment des garanties du fournisseur.

Pour les clients soumis à des obligations strictes (santé, finance, juridique), nous pouvons configurer la rétention ZDR et adapter les workflows pour que les données les plus sensibles ne quittent jamais votre infrastructure.

Suisse

Infrastructure n8n hébergée chez Infomaniak, VPS dédié

TLS

Chiffrement de toutes les communications entre services

ZDR

Option Zero Data Retention disponible sur demande via API

En résumé

  • L'infrastructure n8n est sous votre contrôle direct — que vous optiez pour un VPS (Infomaniak ou autre), n8n Cloud ou un serveur on-premise.
  • Via API, Anthropic, OpenAI et Google Gemini ne s'entraînent pas sur vos données. Rétention limitée à 7–30 jours, ZDR disponible pour Anthropic.
  • Les interfaces grand public (Claude.ai, ChatGPT, Gemini) n'offrent pas les mêmes garanties — à éviter pour les données sensibles.
  • Personne ne contrôle à 100 % l'infrastructure physique, les réquisitions judiciaires ou les métadonnées.
  • Nous documentons tous les flux de données pour vous donner une visibilité complète sur les traitements.

Vos données méritent une architecture claire.

Nous analysons vos flux et vous remettons une documentation complète des traitements.

Demander un audit gratuit