ChatGPT est devenu un réflexe pour des millions d’internautes. Poser une question, demander un résumé, générer un texte : en quelques secondes, l’outil fournit une réponse structurée et souvent très convaincante. Mais derrière cette efficacité apparente se cache une réalité plus complexe. Ce que vous lui confiez n’est pas toujours sans conséquence. Identité, santé, informations bancaires, documents professionnels… Comme le souligne le Wall Street Journal, certaines données, en apparence anodines, ne devraient jamais transiter par une interface d’intelligence artificielle, aussi performante soit-elle.
Ce qu’il faut retenir :
- Ne partagez jamais d’identifiants, mots de passe ou informations bancaires dans ChatGPT.
- Les résultats médicaux et données de santé doivent rester confidentiels.
- Les informations personnelles précises peuvent suffire à vous identifier.
- Les documents internes d’entreprise ne sont pas protégés dans cette interface.
- ChatGPT n’est pas adapté aux confidences personnelles ou psychologiques.
1. Ne communiquez jamais vos identifiants ou mots de passe
C’est l’un des réflexes les plus dangereux : entrer un mot de passe, un code de connexion ou une clé API comme si l’on s’adressait à un support technique. ChatGPT n’est pas un service sécurisé, et ne doit en aucun cas recevoir ce type d’information.
Les données que vous partagez peuvent être utilisées pour l’entraînement du modèle, ou être lues par des équipes humaines dans le cadre d’audits. Même avec les options de confidentialité activées, aucun traitement n’est garanti comme totalement confidentiel.
2. Ne transmettez jamais vos informations bancaires
Qu’il s’agisse d’un numéro de carte, d’un RIB ou d’un code de sécurité, ces données n’ont rien à faire dans une conversation avec une intelligence artificielle. Le modèle ne chiffre pas les échanges de bout en bout et n’est pas conforme aux normes en vigueur pour la sécurité des données financières.
Même si la demande semble anodine — “peux-tu relire ce mail à ma banque ?” — elle peut exposer des informations sensibles. Il est recommandé de considérer cette interface comme un espace public.
3. N’entrez pas vos résultats médicaux
L’IA peut être tentante pour obtenir un avis rapide sur une analyse sanguine ou comprendre des termes médicaux complexes. Mais en aucun cas, elle ne remplace un professionnel de santé. Elle ne connaît ni votre dossier médical, ni votre contexte personnel, et ne peut garantir l’exactitude des informations fournies.
Au-delà de l’aspect éthique, le partage de données de santé est particulièrement sensible au regard de la législation. Ces informations relèvent du champ des données sensibles selon le RGPD, et leur transmission à une IA généraliste pose un véritable problème de conformité.
4. Ne partagez pas d’informations personnelles précises
Nom, prénom, adresse, numéro de téléphone, nom d’un proche : autant de détails qui, cumulés, permettent d’identifier un individu. Même si l’outil ne conserve pas de mémoire entre les sessions, ce que vous tapez peut être utilisé pour former de futures versions du modèle.
La prudence s’impose, surtout dans le cadre de conversations fréquentes ou prolongées. Chaque détail peut sembler anodin isolément, mais devient significatif dans un contexte plus large. La règle de base, c’est donc de ne communiquer aucune information du type numéro de sécurité sociale, carte d’identité ou passeport.
5. Évitez de soumettre des données internes à votre entreprise
Beaucoup d’utilisateurs intègrent ChatGPT dans leur environnement professionnel : rédaction de notes, synthèses de réunions, préparation de présentations… Mais en partageant des documents internes, ils exposent parfois des informations confidentielles sans en avoir conscience.
Objectifs commerciaux, contrats, ressources humaines, feuilles de route stratégiques… Ces éléments ne devraient jamais être communiqués via une interface publique. Aucun contrat de confidentialité ne lie votre entreprise à l’éditeur de l’IA.
6. Ne confiez pas vos pensées intimes ou situations personnelles sensibles
Certains utilisateurs partagent spontanément des éléments très personnels : troubles émotionnels, épisodes familiaux douloureux, souffrance psychologique. Mais l’outil n’a pas été conçu pour traiter ce type de contenu. Il ne dispose d’aucune compétence clinique, et les réponses fournies peuvent être inadaptées, voire dangereuses.
Même si la conversation semble rassurante, elle repose uniquement sur des prédictions statistiques. En cas de besoin, un interlocuteur humain reste la seule réponse pertinente.
Un outil utile, mais des précautions à respecter
ChatGPT est devenu un assistant du quotidien pour de nombreux utilisateurs. Mais cette simplicité d’usage peut aussi masquer des risques bien réels. L’outil n’est ni confidentiel, ni médical, ni professionnel au sens juridique du terme.
Avant d’envoyer une information sensible, posez-vous une question simple : accepteriez-vous que cette donnée soit lue par une personne tierce ? Si la réponse est non, abstenez-vous. L’intelligence artificielle, malgré son apparente neutralité, ne garantit ni confidentialité ni oubli.
L’article “Les 6 choses qu’il ne faut (absolument) pas dire à ChatGPT” a été publié sur le site Abondance.