Les agents IA ne se contentent pas de generer du texte. Ils consultent des dossiers clients, traitent des documents, interrogent des bases de donnees et executent des actions dans les systemes metier. Cela signifie qu’ils traitent des donnees personnelles — souvent a grande echelle, souvent de maniere automatique, et souvent d’une facon pour laquelle les cadres traditionnels de protection des donnees n’ont pas ete concus.
Les reglementations sur la protection des donnees s’appliquent toujours — qu’il s’agisse du RGPD en Europe, du CCPA/CPRA en Californie, de la LPRPDE au Canada, de la LGPD au Bresil ou de regles sectorielles comme HIPAA. Le defi consiste a transposer leurs principes a des systemes fondamentalement differents des applications web et des bases de donnees pour lesquelles ces reglementations ont ete redigees. Ce guide couvre les decisions d’ingenierie qui rendent les systemes d’agents conformes par conception, et non a posteriori.
Ceci est un guide technique, pas un avis juridique. Consultez votre delegue a la protection des donnees et votre equipe juridique pour votre situation specifique.
Minimisation des donnees : ne transmettez que ce dont l’agent a besoin
La minimisation des donnees est un principe fondamental de toutes les reglementations sur la protection des donnees — ne traitez que les donnees personnelles necessaires a l’objectif specifique. Pour les agents, cela se traduit directement dans la conception du contexte.
Cadrez vos fenetres de contexte. Ne versez pas l’integralite d’un dossier client dans le prompt de l’agent lorsqu’il n’a besoin que d’un nom et d’un numero de compte. Chaque donnee personnelle presente dans le contexte est une donnee traitee. Concevez votre couche de recuperation pour ne selectionner que les champs dont l’agent a besoin pour la tache en cours.
Filtrez avant la recuperation. Si votre agent utilise le RAG (generation augmentee par la recuperation) pour extraire des informations d’un magasin de documents, filtrez les resultats avant qu’ils n’atteignent le modele. Supprimez les donnees personnelles des fragments recuperes lorsqu’elles ne sont pas pertinentes pour la requete. Il s’agit d’un controle technique qui impose la minimisation au niveau du systeme, plutot que de s’appuyer sur des instructions dans le prompt.
Anonymisez lorsque c’est possible. Pour les taches ou l’agent doit raisonner sur un dossier mais n’a pas besoin de voir les identifiants specifiques, remplacez les donnees personnelles par des jetons anonymises. L’agent peut faire reference a “Client_A” sans jamais voir le nom ou l’adresse reels.
Limitation des finalites : controlez ce a quoi les agents peuvent acceder
Chaque agent doit avoir un perimetre defini — quelles donnees il peut consulter et dans quel but. Cela correspond directement au principe de limitation des finalites present dans les reglementations du monde entier.
Implementez des politiques d’acces aux donnees par agent. Un agent qui traite les demandes de facturation ne doit pas avoir acces aux dossiers medicaux, meme si les deux existent dans la meme plateforme de donnees. Definissez des perimetres d’acces aux donnees explicites pour chaque role d’agent et appliquez-les au niveau de l’infrastructure, pas par des instructions dans le prompt.
Separez les roles des agents par fonction. Plutot que de construire un agent omnipotent, concevez des agents specialises avec des perimetres restreints. Un agent de support client, un agent de traitement documentaire et un agent de reporting accedent chacun uniquement a ce dont ils ont besoin. C’est le principe du moindre privilege applique aux systemes d’IA.
Tracez les acces, pas seulement les actions. Enregistrez les sources de donnees auxquelles chaque agent accede pendant l’execution, et pas seulement les actions qu’il entreprend. Cela cree la piste d’audit necessaire pour demontrer la limitation des finalites aupres des regulateurs.
Droit a l’explication : maintenez des pistes d’audit
Lorsqu’un agent prend une decision qui affecte une personne — approuver une demande, signaler un compte, orienter une requete — cette personne peut avoir le droit de comprendre comment la decision a ete prise. Le droit a l’explication du RGPD est l’exemple le plus connu, mais des exigences de transparence similaires existent dans d’autres cadres reglementaires. Cela signifie que votre systeme d’agents doit produire des chaines de decisions explicables.
Tracez l’integralite du raisonnement. Capturez les entrees que l’agent a recues, les etapes de raisonnement qu’il a suivies, les outils qu’il a appeles et les resultats qu’il a produits. Stockez cela dans un journal d’audit immuable. Lorsque quelqu’un demande “pourquoi le systeme a-t-il pris cette decision me concernant ?”, vous devez etre en mesure de reconstituer la reponse.
Rendez les appels d’outils explicites. Chaque action externe de l’agent — interroger une base de donnees, appeler une API, mettre a jour un enregistrement — doit etre tracee avec horodatage, parametres et resultats. C’est a la fois une exigence de conformite et une necessite operationnelle.
Concevez pour la revue humaine. Creez des interfaces qui permettent aux equipes de conformite de passer en revue les chaines de decisions des agents dans un format lisible. Les fichiers de logs bruts ne suffisent pas. Investissez dans des outils qui presentent le raisonnement de l’agent d’une maniere comprehensible pour un reviseur non technique.
Accords de traitement des donnees et hebergement de modeles
Si votre systeme d’agents utilise une API de modele tierce, chaque prompt que vous envoyez constitue un traitement de donnees par un tiers. En vertu de la plupart des reglementations sur la protection des donnees, cela necessite un accord de traitement des donnees (DPA) qui specifie comment ces donnees sont traitees, stockees et protegees.
Lisez attentivement le DPA. Tous les fournisseurs de modeles n’offrent pas les memes garanties. Certains conservent les prompts a des fins d’entrainement. Certains enregistrent les entrees pour la surveillance des abus. Comprenez exactement ce qu’il advient de vos donnees apres leur envoi.
Evaluez les implications des transferts transfrontaliers. Si l’API du modele est hebergee dans une autre juridiction, vous pourriez avoir besoin d’un mecanisme de transfert valide. Les regles de transfert transfrontalier de donnees varient selon les reglementations, mais le risque de non-conformite est reel chaque fois que des donnees personnelles quittent votre juridiction.
L’argument en faveur de l’auto-hebergement. Lorsque vous executez des modeles a poids ouverts sur une infrastructure souveraine et auto-hebergee, la question du DPA disparait. Il n’y a pas de sous-traitant tiers. Les donnees restent au sein de votre infrastructure, sous votre controle, soumises a vos propres politiques de protection des donnees. Pour les agents qui traitent des volumes importants de donnees personnelles, l’auto-hebergement est la voie la plus directe vers la conformite.
Politiques de conservation pour la memoire et les logs des agents
Les agents accumulent des donnees — historiques de conversations, magasins de memoire, journaux d’execution. Les reglementations sur la protection des donnees exigent que les donnees personnelles ne soient pas conservees plus longtemps que necessaire pour leur finalite.
Definissez des durees de conservation pour les donnees de conversation. Les interactions des agents contenant des donnees personnelles doivent etre soumises aux memes politiques de conservation que toute autre activite de traitement des donnees. Definissez combien de temps les journaux de conversation sont conserves et mettez en place une suppression automatisee.
Gerez deliberement la memoire des agents. Si votre agent dispose d’une memoire persistante — un contexte qui se maintient d’une session a l’autre — cette memoire peut contenir des donnees personnelles. Implementez des mecanismes pour purger les donnees personnelles de la memoire de l’agent lorsqu’elles ne sont plus necessaires ou lorsqu’une personne concernee exerce son droit a l’effacement (en vertu du RGPD) ou son droit a la suppression (en vertu du CCPA et de cadres similaires).
Traitez les logs comme un traitement de donnees personnelles. Les journaux d’audit contenant des donnees personnelles sont eux-memes soumis a la reglementation sur la protection des donnees. Equilibrez le besoin de pistes d’audit avec le principe de limitation du stockage. Conservez les journaux suffisamment longtemps pour satisfaire aux exigences reglementaires, puis supprimez-les.
Concevez pour la conformite des le premier jour
Adapter la conformite en matiere de protection des donnees a un systeme d’agents existant est penible et couteux. Les decisions d’ingenierie qui comptent — cadrage du contexte, controles d’acces aux donnees, journalisation d’audit, automatisation de la conservation — sont architecturales. Elles sont bien plus faciles a integrer des le depart qu’a ajouter apres coup.
Les entreprises qui traitent la conformite comme une contrainte de conception plutot que comme une case a cocher juridique construiront des systemes d’agents qui sont non seulement licites, mais aussi plus robustes, plus securises et plus dignes de confiance. Dans un marche ou la confiance est un facteur de differenciation, c’est un avantage concurrentiel.