top of page

Prompts et confidentialité : ce que vous confiez à l'IA ne disparaît pas toujours dans le vide

  • Photo du rédacteur: Stéphane Guy
    Stéphane Guy
  • il y a 6 jours
  • 10 min de lecture

Des millions d'utilisateurs font glisser chaque jour dans ChatGPT, Claude ou Gemini leurs e-mails professionnels, leurs contrats en cours de négociation, leurs bilans médicaux, ou parfois même leurs identifiants de connexion. Et ce, souvent sans avoir lu la moindre ligne des conditions générales, et presque toujours sans s'interroger sur la trajectoire réelle de ces données après validation. La réponse, quand on la cherche vraiment, dérange : vos requêtes peuvent nourrir l'entraînement des modèles, se retrouver exposées via des failles techniques bien documentées, ou devenir la matière première d'attaques ciblées que l'OWASP classe désormais comme risque numéro un pour les systèmes LLM. Ce guide dresse un état des lieux des risques concrets et détaille les gestes qui permettent, sans renoncer à l'IA, de maîtriser ce que vous lui confiez.


Une personne sur un ordinateur portable
Photo de Thomas Lefebvre sur Unsplash

En bref


  • Par défaut, tout ce que vous saisissez dans un prompt peut être réutilisé pour entraîner le modèle : une option désactivable manuellement dans les paramètres, que la quasi-totalité des utilisateurs ne connaît pas.

  • L'OWASP classe les attaques par injection de prompt au premier rang des risques de sécurité pour les applications LLM dans son rapport 2025.

  • Selon l'AI Index Report 2025 de l'Université de Stanford, les incidents de confidentialité liés à l'IA ont progressé de 56,4 % en l'espace d'une seule année.

  • Des secrets industriels de premier plan, codes sources, comptes rendus de direction, brevets en cours, ont déjà fuité via de simples échanges avec des chatbots grand public.

  • Anonymiser ses requêtes, désactiver la mémoire persistante, migrer vers des versions professionnelles des plateformes : trois réflexes qui réduisent significativement l'exposition sans entraver l'usage quotidien.


Vos prompts ne sont pas une conversation privée


Une idée tenace, et franchement compréhensible, s'installe sans qu'on la formule clairement : parler à une IA ressemble à se parler à soi-même ou à un assistant personnel. Sur les grandes plateformes, on trouve une interface épurée, un espace blanc, et une machine qui répond avec une fluidité déconcertante. L'illusion de la confidence opère presque naturellement, tant cet espace numérique semble encadré.


Sauf que le système, lui, n'entretient pas cette illusion. Il la subit, ou plutôt la capitalise. Le gouvernement français l'indique sans détour dans sa fiche pratique dédiée à l'usage responsable de l'intelligence artificielle : tout ce que vous entrez dans vos requêtes ou partagez avec une IA en ligne grand public pourra potentiellement être utilisé comme donnée d'entraînement.* Pas comme une mise en garde alarmiste, mais comme un fait technique inscrit dans le fonctionnement ordinaire des plateformes.



OpenAI, dans sa propre documentation, recommande explicitement aux utilisateurs de s'abstenir de partager des informations personnelles identifiables ou des données confidentielles lors de leurs échanges avec le modèle. Le problème fondamental n'est pas (ici) la mauvaise foi des plateformes : c'est l'écart vertigineux entre ce que les utilisateurs croient faire, interroger un outil, et ce qu'ils font réellement : alimenter un système qui collecte, traite et retient l'information à une échelle industrielle.


Si certains concepts techniques vous semblent encore flous, notre article consacré aux mots à connaître pour mieux comprendre l'IA peut constituer un point d'entrée utile avant d'aller plus loin.


La bannière musicale de l'album cybernetic chronicles

Des chiffres qui rendent difficile tout optimisme naïf


Les données récentes ne laissent guère de place au doute. Elles dessinent un tableau cohérent, dans lequel la montée en puissance des usages précède systématiquement la mise en place des protections.


L'AI Index Report 2025 de l'Université de Stanford recense 233 incidents liés à l'IA signalés au cours de l'année 2024, soit une progression de 56,4 % sur douze mois.* Ces incidents englobent les violations de données, les défaillances algorithmiques ayant compromis des informations sensibles, mais aussi les biais documentés et les campagnes de désinformation coordonnées.



Si ce pourcentage paraît élevé, il faut également le remettre dans le contexte du boom de l'IA auquel nous sommes en train d'assister. En effet, depuis l'arrivée de ChatGPT en 2022, l'IA s'est largement démocratisée auprès du grand public, mais également dans les entreprises et les institutions. Il en résulte une utilisation croissante de l'intelligence artificielle, ce qui peut favoriser tout naturellement une augmentation des risques et incidents liés à cette technologie.


En France, le panorama n'est guère plus rassurant. La CNIL a enregistré 5 629 notifications de violations de données au cours de la même période, soit une hausse de 20 % par rapport à l'exercice précédent.*



Les sanctions judiciaires, elles, commencent à prendre de l'épaisseur. En décembre 2024, l'autorité italienne de protection des données a infligé à OpenAI une amende de 15 millions d'euros pour violation du RGPD, notamment pour un défaut de transparence et des garanties insuffisantes autour des données sensibles des utilisateurs.* Un signal fort, qui confirme que le cadre réglementaire européen est bien plus qu'une déclaration d'intention.



Trois vecteurs d'exposition, et un seul angle mort : l'utilisateur


Pour saisir l'ampleur des risques, il faut comprendre par où les données fuitent concrètement, sans verser dans une technicité qui ferait perdre de vue l'essentiel.


Les données que vous entrez peuvent servir au réentraînement du modèle


C'est le vecteur le moins spectaculaire, et probablement le plus sous-estimé. Lorsqu'un employé soumet à un LLM grand public un compte rendu de réunion, des lignes de code propriétaires ou un document contractuel pour en obtenir une synthèse, ces informations peuvent, selon les conditions d'utilisation de la plateforme, alimenter les futurs cycles d'entraînement du modèle. Ce que vous confiez à la machine ne s'évapore pas : il peut être réutilisé, réorganisé, redistribué à travers les réponses futures du système.


C'est exactement ce scénario qui a conduit Samsung, en 2023, à interdire purement et simplement l'usage de ChatGPT en interne, après avoir constaté des usages “abusifs” de l’IA, sans donner plus de détails.* L'entreprise ne disposait d'aucune preuve que les données avaient effectivement fuité, mais le risque avait été jugé suffisant pour justifier l'interdiction totale. Un cas d'école qui reste d'une actualité brûlante.



La mémoire persistante


Depuis septembre 2024, ChatGPT propose une fonctionnalité de mémoire à long terme : le modèle retient des informations d'une session à l'autre pour personnaliser l'expérience. Une commodité réelle, et un nouveau vecteur de risque. Car cette mémoire accumulée constitue un profil détaillé de l'utilisateur, exploitable par un attaquant qui parviendrait à en prendre le contrôle.


Les intégrations tierces


Connecter ChatGPT à votre messagerie, à vos fichiers Google Drive ou à votre CRM via un plugin élargit considérablement le périmètre d'exposition. Les failles les plus courantes dans ces environnements hybrides concernent des paramètres de sécurité mal configurés, des mécanismes d'authentification insuffisants et des fuites potentielles lors de la transmission des données entre systèmes.


Une personne sur ChatGPT via son smartphone
Photo de Solen Feyissa sur Unsplash

L'injection de prompt : la menace que les utilisateurs ne voient pas venir


Dans les cercles de cybersécurité, le sujet mobilise une attention croissante. Dans le grand public, il reste presque totalement inconnu. C'est précisément ce décalage qui en fait un danger.

L'OWASP, l'organisation de référence mondiale en matière de sécurité applicative, classe les attaques par injection de prompt au premier rang des risques pour les applications LLM dans son rapport 2025.* Devant les hallucinations, devant la fuite de données directe, devant les problèmes de permission excessive.



Le mécanisme est déconcertant de simplicité. Imaginez : vous demandez à votre assistant IA de résumer un e-mail professionnel reçu dans la matinée. Cet e-mail contient, en bas de page, des instructions invisibles à vos yeux mais parfaitement lisibles pour le modèle. En quelques secondes, sans que vous ayez rien vu venir, votre agent IA exfiltre des données confidentielles vers un destinataire tiers, ou modifie des paramètres critiques de votre système.


Deux formes d'attaque coexistent. 


  • L'injection directe : l'utilisateur malveillant rédige lui-même les instructions détournées dans le prompt.

  • L'injection indirecte, nettement plus sournoise : les instructions malveillantes sont dissimulées dans un contenu que l'IA va lire automatiquement, une page web, un document Word reçu par e-mail, voire une image. Le modèle ne distingue pas l'instruction légitime de l'instruction piégée. Il exécute.


Pour les organisations, les conséquences potentielles s'étendent des messages privés aux secrets industriels, en passant par les codes sources constitutifs de la propriété intellectuelle. Sur le plan réglementaire, une exfiltration de ce type peut déclencher des violations du RGPD et de l'HIPAA, exposant les structures concernées à des sanctions financières substantielles.


Le shadow AI : quand le risque vient de l'intérieur


Il existe un angle mort dans presque toutes les discussions sur la sécurité des IA : le comportement des utilisateurs eux-mêmes. Rarement malveillants. Presque jamais formés. 55 % des salariés déclarent avoir déjà utilisé l’IA dans le cadre de leur travail, sans en informer leur supérieur.* Ce phénomène, désormais désigné sous le terme de « shadow AI », représente selon les experts la principale menace cyber dans l'usage professionnel de l'intelligence artificielle aujourd'hui.



Ce phénomène s'inscrit dans une dynamique plus large que nous avons analysée en détail dans notre dossier sur les dangers invisibles de l'IA générative : l'accélération des usages y devance systématiquement la mise en place de garde-fous organisationnels ou techniques. Le shadow AI en est peut-être l'illustration la plus concrète.


Ce que le droit dit, et ce qu'il ne résout pas encore


Le cadre juridique européen avance. Mais il court toujours, un peu, derrière la réalité technique. Adopté en juin 2024, l'AI Act constitue le premier cadre juridique dédié à l'intelligence artificielle au monde.


Le RGPD, lui, s'applique déjà, mais son interprétation dans le contexte des LLMs reste un chantier juridique ouvert. La CNIL a engagé un travail de fond sur le sujet en adoptant une série de recommandations pour le développement responsable de systèmes d'IA. L'institution cherche explicitement à sécuriser les acteurs pour favoriser l'innovation tout en garantissant le respect des droits fondamentaux.


Mais entre la publication d'une recommandation et son application effective dans une PME qui utilise ChatGPT pour rédiger ses contrats commerciaux, le gouffre reste immense. C'est là que se joue la vraie bataille : non pas dans les textes, mais dans les pratiques quotidiennes.


Six réflexes concrets pour protéger ses données sans renoncer à l'IA


Inutile de sur-dramatiser. L'IA générative demeure un outil remarquablement puissant pour qui sait s'en servir avec lucidité. La question n'est pas de l'abandonner, elle est d'apprendre à doser ce qu'on lui confie. Si vous souhaitez approfondir les fondements techniques de ces outils avant d'aller plus loin, notre guide complet pour débuter en IA offre un panorama pédagogique solide.


  1. N'entrez jamais de données personnelles identifiables dans un prompt public. Les catégories à exclure systématiquement : nom, adresse, numéro de sécurité sociale, identifiants, mots de passe, documents juridiques en cours, contenus soumis au secret professionnel, coordonnées bancaires.

  2. Anonymisez vos requêtes avec méthode. Remplacez les noms de personnes par des alias, désignez votre entreprise par un secteur générique, substituez les montants réels par des ordres de grandeur. La perte d'information est minime ; le gain en sécurité, lui, est substantiel.

  3. Désactivez l'utilisation de vos données pour l'entraînement. Cette option existe sur la quasi-totalité des plateformes grand public, dans les paramètres de confidentialité, elle n'est jamais activée par défaut. Sur ChatGPT : Paramètres › Contrôles des données › « Améliorer le modèle pour tout le monde ».

  4. Traitez avec prudence les documents tiers que vous soumettez à une IA. Un fichier Word reçu d'un expéditeur inconnu, une page web résumée par un agent autonome : autant de vecteurs potentiels d'injection indirecte. En contexte professionnel, auditez systématiquement les documents avant toute intégration dans un système IA, et isolez les tâches critiques dans des environnements sandbox.

  5. En contexte professionnel, basculez vers les versions entreprise des plateformes. ChatGPT Teams et ChatGPT Enterprise garantissent contractuellement qu'aucune donnée utilisateur n'est réutilisée à des fins d'entraînement et se conforment aux normes SOC-2. Des équivalents existent chez Anthropic (Claude for Work) et Google (Gemini for Workspace).

  6. Vérifiez régulièrement les journaux d'activité de vos agents IA. Les plateformes sérieuses fournissent des logs détaillés des actions effectuées. En entreprise, ces données doivent être centralisées et analysées par les équipes de sécurité, non laissées à la discrétion de chaque collaborateur.


Vers une culture du prompt responsable


Il serait trop commode de conclure que tout cela relève uniquement de la responsabilité des utilisateurs. Les plateformes portent une part indéniable dans la mise en place de paramètres par défaut protecteurs, d'interfaces plus transparentes et d'une pédagogie intégrée au parcours utilisateur. On ne peut pas indéfiniment faire reposer la sécurité sur la lecture attentive de conditions générales que personne ne lit.


Mais dans l'attente que régulateurs, développeurs et organisations s'accordent sur des standards communs, ce que l'AI Act amorce sans encore concrétiser à 100 %, c'est bien à l'échelle individuelle que la différence se joue au quotidien. Chaque prompt est une décision. Pas dramatique. Pas irréversible. Mais une décision quand même, avec des conséquences que l'on commence tout juste à mesurer.


Ce que vous ne donnez pas à une IA, elle ne peut pas l’utiliser. C'est peut-être la règle la plus simple, et la plus difficile à intégrer dans les réflexes d'usage.


Pour aller plus loin sur les enjeux éthiques et sociétaux liés à l'automatisation des systèmes intelligents, notre analyse de l'impact de l'IA sur notre société et les risques de l'automatisation prolonge utilement cette réflexion.


Un smartphone ouvert sur une application IA
Photo de Tim Witzdam sur Unsplash

Questions fréquentes


  1. Mes conversations avec ChatGPT sont-elles conservées ?

    Oui, par défaut. OpenAI stocke l'historique des conversations, qui peut être mobilisé pour améliorer les modèles. Cette option se désactive dans Paramètres › Contrôles des données › « Améliorer le modèle pour tout le monde ». La désactivation ne supprime pas rétroactivement les données déjà collectées.


  2. Une IA peut-elle vraiment mémoriser des informations confidentielles partagées par d'autres utilisateurs ?

    Ce risque, longtemps théorique, est devenu plus tangible depuis l'introduction de la mémoire persistante fin 2024. Un utilisateur mal intentionné pourrait, en théorie, exploiter des failles pour accéder à des données mémorisées appartenant à un autre compte. OpenAI et ses concurrents ont renforcé les protections en ce sens, mais le risque zéro n'existe pas dans aucun système connecté.


  3. Qu'est-ce qu'une attaque par injection de prompt ?

    C'est une technique consistant à insérer des instructions malveillantes dans un texte soumis à une IA, directement dans le prompt, ou via un document tiers que le modèle va traiter automatiquement. L'objectif : manipuler le comportement du modèle pour lui faire révéler des données confidentielles, contourner ses règles de sécurité ou exécuter des actions non prévues par l'utilisateur légitime.


  4. Le RGPD s'applique-t-il à l'utilisation des IA génératives ?

    Oui. Si vous traitez des données personnelles de tiers via une IA, vous restez responsable du traitement au sens du RGPD, quelle que soit la plateforme utilisée. La CNIL a publié des recommandations spécifiques pour encadrer ces usages. L'AI Act viendra probablement compléter ce cadre réglementaire également.


  5. Comment savoir si une IA utilise mes données pour s'entraîner ?

    Chaque plateforme dispose de sa propre politique. Lisez les conditions d'utilisation, et surtout, explorez les paramètres de confidentialité. La règle empirique : version gratuite grand public = données potentiellement réutilisées ; version entreprise payante = données protégées contractuellement. En cas de doute, la version entreprise est toujours préférable pour des usages professionnels.


  6. Existe-t-il des IA qui ne collectent pas mes données ?

    Certaines solutions proposent un traitement entièrement local, sur votre appareil ou sur des serveurs privés dédiés. Des alternatives open-source comme Mistral, déployées dans des environnements maîtrisés, peuvent offrir un niveau de contrôle nettement supérieur. Le choix dépend du niveau de confidentialité requis et des ressources techniques disponibles, mais l'option existe, contrairement à ce que l'on croit souvent.

bottom of page