top of page

Secret professionnel et IA générique :une question fondamentale — mais mal posée

  • Photo du rédacteur: Fabrice Mauléon
    Fabrice Mauléon
  • 14 avr.
  • 8 min de lecture

Depuis dix-huit mois, la profession juridique française débat du bon sujet. Pas de la bonne façon. Et c’est ce glissement-là qui coûte le plus cher.


Il y a une façon très française de traiter un sujet difficile : produire des guides institutionnels impeccables, convoquer les principes déontologiques fondateurs, et laisser le praticien se débrouiller avec l’écart entre la règle et le lundi matin. C’est exactement ce qui s’est passé avec l’IA générative depuis dix-huit mois. Le CNB a publié deux guides. Le Barreau de Paris a sorti son livre blanc. Des dizaines d’articles ont reformulé les mêmes mises en garde. Et la question concrète — peut-on utiliser

Claude, ChatGPT ou Gemini sur des dossiers clients sans violer la déontologie ? — n’a pas reçu de réponse nette, parce qu’elle a été structurellement mal posée. Mais surtout : même une bonne réponse à cette question ne suffirait pas. C’est ce que cette série va démontrer, en trois épisodes.

  1. Le malentendu fondateur : traiter l’IA générique comme un objet unique


Depuis l’automne 2022, chaque fois que la profession juridique française parle d’IA générative, elle parle en réalité de la version gratuite de ChatGPT telle qu’elle existait à son lancement. C’est ce produit-là qui a alimenté les inquiétudes, construit les réflexes de méfiance, et inspiré la formulation des guides ordinaux. Le problème, c’est que ce produit n’est plus représentatif de ce que la plupart des avocats utilisent aujourd’hui — et encore moins de ce qu’ils pourraient déployer de façon structurée dans leurs cabinets.


Le CNB a posé sa règle cardinale dès septembre 2024, reconduite à l’identique en mars 2026 : il convient de « ne jamais utiliser dans l’IAG des données couvertes par le secret professionnel à des intelligences artificielles génératives, sous peine de sanctions. » Cette formulation est techniquement exacte pour la version grand public. Elle est radicalement insuffisante comme guide d’action, parce qu’elle traite comme identiques des situations juridiquement distinctes. Elle a produit une profession partagée entre deux postures également insatisfaisantes : l’interdit absolu affiché en réunion d’associés, et l’usage individuel non structuré pratiqué en silence.


Chez Magnum Legal Club, nous partons de ce travail institutionnel pour aller un cran plus loin. Les guides du CNB et du Barreau de Paris ont posé les bons principes — et c’est un acquis précieux. Notre conviction est qu’il reste un pas à franchir entre la règle posée et la décision opérationnelle que chaque cabinet doit prendre. La déontologie ne dit pas qu’on ne peut pas utiliser Claude. Elle dit qu’on ne peut pas compromettre le secret professionnel. Ce sont deux énoncés très différents, et la distance entre les deux est exactement là où se construit une politique d’usage IA sérieuse. C’est ce pas-là que cette série veut aider à franchir.


  1. Le vrai mécanisme : trois régimes, une seule question qui compte


La question qui conditionne tout n’est pas « quelle IA ? » mais « dans quel cadre contractuel, avec quelle version, pour quel type de données ? » Cette distinction produit trois régimes d’usage aux conséquences juridiques radicalement différentes — que ni le CNB ni le Barreau de Paris n’ont encore formalisés comme tels.


Le régime consommateur


Claude Free, Claude Pro, ChatGPT gratuit ou Plus souscrit à titre individuel. Le terme « Pro » crée ici une confusion structurelle : il désigne une capacité de traitement accrue, pas un niveau de protection professionnel. Dans les conditions générales d’Anthropic et d’OpenAI, ces versions appartiennent à la catégorie consommateur. Les données peuvent être utilisées pour l’entraînement des modèles. Aucun DPA n’est disponible. L’hébergement peut être situé hors Union européenne. Ces versions sont incompatibles avec tout usage impliquant des données couvertes par le secret professionnel — y compris pseudonymisées, si elles permettent une réidentification.


Le régime enterprise avec DPA


Claude for Work, Claude Enterprise, ChatGPT Enterprise : ces offres relèvent d’un cadre contractuel radicalement différent. Anthropic propose depuis 2024 un Data Processing Addendum conforme à l’article 28 du RGPD, un hébergement sur serveurs AWS en Europe (régions Frankfurt ou Paris), une garantie de non-réutilisation des données pour l’entraînement, et les certifications ISO 27001 et ISO 42001. Dans ce cadre, Anthropic devient sous-traitant au sens du RGPD ; le cabinet assume le rôle de responsable de traitement.

C’est la relation juridique correcte pour un usage professionnel. Elle est accessible, documentée, opérationnelle aujourd’hui — et la profession n’en parle presque pas.


Le régime souverain via API


Le modèle est appelé via API ; les données ne transitent pas chez le fournisseur dans les conditions habituelles. C’est techniquement le plus protecteur, le plus exigeant en maturité IT, et le seul qui permet un usage intensif sur des dossiers complexes sans exposition résiduelle. Il concerne aujourd’hui les cabinets dotés d’une DSI structurée ou accompagnés par un intégrateur spécialisé.

C’est vers ce régime que MLC accompagne ses membres les plus avancés.


Grille de lecture  —  trois régimes, trois verdicts

Autorisé

Rédaction d’un modèle de clause abstrait, structuration d’un raisonnement — version grand public, aucune donnée client

!

Risque résiduel

Analyse pseudonymisée sur version grand public — risque de réidentification si le contexte sectoriel est suffisamment précis

Conforme sous conditions

Données nominatives sur version Enterprise — DPA signé, hébergement EU vérifié, registre RGPD mis à jour, collaborateurs formés

Interdit

Toute donnée client sur version Free ou Pro individuelle — quel que soit le niveau de pseudonymisation

Non conforme RGPD

Claude via Microsoft 365 Copilot Researcher Agent — traitement sur serveurs AWS US, hors EU Data Boundary, hors périmètre du DPA Anthropic



  1. Les quatre angles morts que les textes ne règlent pas


Les guides ordinaux ont le mérite d’exister. Ils souffrent d’un défaut structurel : rédigés pour le régime consommateur sans le nommer, ils ne distinguent pas les implications pour les deux autres régimes. Il en résulte quatre angles morts que tout cabinet sérieux doit avoir en tête.


La pseudonymisation n’est pas une solution. C’est un pansement sur une question contractuelle.


Premier angle mort : la pseudonymisation.


Prescrite par le CNB comme réponse principale, elle ne fait l’objet d’aucune définition quantitative. Remplacer un nom par « Partie A » protège peu quand le prompt décrit une restructuration d’un groupe coté dans un secteur précis, avec un calendrier connu et des acteurs peu nombreux. Et surtout : une donnée pseudonymisée reste une donnée personnelle au sens du RGPD si elle est réidentifiable. La pseudonymisation ne change pas le régime contractuel applicable.


Deuxième angle mort : la chaîne de traitement.


Un cabinet peut souscrire Claude Enterprise avec hébergement EU et DPA conforme — et perdre toutes ces garanties en activant l’intégration de Claude dans Microsoft 365 Copilot. Dans cette configuration, le modèle tourne exclusivement sur des serveurs AWS américains, hors du EU Data Boundary de Microsoft, hors du périmètre du DPA habituel d’Anthropic. Ce piège est documenté, réel, invisible à l’utilisateur. Le label « Enterprise » ne suffit pas : il faut vérifier la chaîne complète, intégration par intégration.


Troisième angle mort : la durée de conservation.


La politique d’Anthropic prévoit une rétention des données pouvant aller jusqu’à cinq ans. Pour les dossiers de M&A ou d’arbitrage, dont la confidentialité s’impose bien au-delà de la clôture de la mission, cette durée est incompatible avec les obligations déontologiques post-mission si elle n’est pas contractuellement réduite. Le DPA doit expressément le prévoir.


Quatrième angle mort : l’absence de jurisprudence disciplinaire.


Aucune sanction ordinale française n’a encore été prononcée pour usage non conforme d’une IA générique. Ce vide ne protège pas — il diffère. Les premières décisions judiciaires de décembre 2025 ont commencé à construire le corpus. L’extension aux instances disciplinaires n’est qu’une question de temps et d’un premier cas emblématique.


  1. La position MLC : résoudre la question déontologique est nécessaire — pas suffisant


Voici ce que la profession n’a pas encore dit clairement, et que MLC assume de poser : le débat sur la compatibilité du secret professionnel avec les IA génériques est légitime, nécessaire, et doit être tranché. Mais il serait dangereux qu’il devienne la seule question — parce qu’il conduit à deux impasses symétriques.


La première impasse est d’attendre l’outil parfait. Celui qui serait natif du droit continental, hébergé en France, certifié par le CNB, exempt de toute hallucination et garanti sans risque de réidentification. Cet outil n’existe pas aujourd’hui. Il n’existera peut-être jamais dans cette forme. Attendre sa venue, c’est laisser deux ou trois ans de productivité sur la table pendant que d’autres avancent avec des outils imparfaits mais correctement encadrés.


La seconde impasse est plus grave encore : se concentrer uniquement sur la question du secret professionnel revient à oublier que l’IA générique sait faire énormément de choses pour un cabinet qui n’ont rien à voir avec le traitement de données confidentielles. La gestion de la connaissance interne. La formation des collaborateurs. La veille concurrentielle et réglementaire. La production de contenus de développement commercial. La structuration des processus administratifs. L’analyse de marché et de positionnement. Aucune de ces tâches ne met en jeu le secret professionnel — et toutes représentent un gisement de productivité considérable que le débat déontologique actuel rend invisible.


Ce que cet épisode établit

La question de la conformité déontologique des IA génériques est résoluble — avec une version Enterprise, un DPA signé, un hébergement EU vérifié, et une politique interne documentée. La séquence est accessible. La plupart des cabinets ne l’ont pas encore franchie non par impossibilité, mais par défaut d’analyse.


Mais résoudre cette question n’est que la condition d’entrée. Ce n’est pas la stratégie. La suite de cette série est construite sur cette distinction.


Trois trajectoires pour un cabinet qui décide d’agir

Trajectoire A — Socle minimal

Sécuriser l’existant sans investissement IT significatif

Version Enterprise + DPA signé + hébergement EU vérifié + registre RGPD mis à jour + formation documentée des collaborateurs. Accessible en quelques semaines. Couvre l’essentiel du risque disciplinaire et RGPD.

Trajectoire B — Usage éclairé

Transparence client comme signal de rigueur

Socle A + clause d’information IA dans la lettre de mission. Non encore obligatoire, mais attendue par 83 % des clients (Université Paris-Saclay). Distingue le cabinet avant que la règle ne l’impose.

Trajectoire C — Déploiement souverain

API sur infrastructure propre ou intégrateur dédié

Les données ne transitent pas chez le fournisseur. Workflows spécifiques aux pratiques du cabinet. Protection maximale, usage intensif possible. Concerne les cabinets avec maturité IT suffisante ou accompagnement MLC structuré.


Ce que l’épisode 2 va démontrer

Le bon débat sur le secret professionnel et l’IA générique est nécessaire — mais s’y enfermer, c’est rater l’essentiel.

Rester dans ce débat conduit soit à attendre l’outil parfait qui n’existera pas, soit à ignorer que l’IA sait faire pour un cabinet beaucoup plus que traiter des dossiers clients. L’épisode 2 proposera le combo opérationnel concret — ni l’outil unique, ni la LegalTech qui prétend tout résoudre — et montrera pourquoi la vraie question n’est pas « quel outil ? » mais « pour quoi faire, à quel étage du cabinet ? »

Épisode 2 : Le combo opérationnel — ni l’outil parfait, ni l’outil unique



Bibliographie sélective


CNB, Guide déontologique sur l’usage de l’IA générative, 17 mars 2026. Texte ordinal de référence — socle institutionnel de cet article.

CNB, Guide pratique IAG — 1ère édition, septembre 2024. Premier texte fondateur de la position ordinale française sur le secret professionnel et la pseudonymisation.

Barreau de Paris, Livre blanc sur l’Intelligence Artificielle, octobre 2025. Premier cadre déontologique opérationnel d’un barreau français — check-list d’évaluation des outils incluse.

P.-H. Levivier, Les hallucinations d’IA devant les juridictions françaises : premiers cas et implications déontologiques, Village de la Justice, février 2026. Analyse de doctrine sur les décisions administratives de décembre 2025.

Lexbase, L’IA générative à l’épreuve du prétoire : émergence d’une jurisprudence transversale, mars 2026. Synthèse des six décisions françaises sur les hallucinations algorithmiques.

Wolters Kluwer, Comment les cabinets d’avocats adoptent l’IA générative tout en protégeant les données, mars 2026. Analyse technique et réglementaire incluant le Guide CCBE 2025 et l’AI Act.

Gerrish Legal, Explication des mises à jour de Claude AI : confidentialité et vie privée, janvier 2026. Analyse critique des conditions Anthropic — confusion structurelle entre niveaux Pro et Enterprise.

Argus de l’Assurance, Responsabilités de l’avocat et mauvais usage de l’IA, décembre 2025. Dimension assurantielle RCP en cas d’hallucination non détectée — angle absent des guides ordinaux.

R. Heil / HanseVision, Anthropic Claude AI in Microsoft 365 Copilot — A Data Boundary Hurdle for the EU?, octobre 2025. Incompatibilité RGPD de l’intégration Claude dans Microsoft 365 Researcher Agent.

 
 
 

Commentaires


bottom of page