top of page

Pourquoi l'adoption de l'IA échoue... et comment dépasser le piège

  • Photo du rédacteur: Enke Kebede
    Enke Kebede
  • 11 févr.
  • 3 min de lecture


Dans les cabinets d’avocats et les directions juridiques, l’adoption de l’intelligence artificielle suit souvent une trajectoire prévisible : enthousiasme initial, expérimentations rapides, recherches accélérées, puis l’usage s’essouffle. Cette dynamique correspond étroitement à la Hype Cycle décrite par Gartner : un pic d’attentes élevées suivi d’un creux de désillusion. Les résultats sont jugés trop génériques, parfois erronés, et l’outil est progressivement abandonné.


Ce décrochage intervient souvent au bout de quelques semaines, lorsque les résultats paraissent génériques, peu fiables ou plus coûteux en temps que les méthodes traditionnelles. Dans la majorité des organisations, seuls 20 % des utilisateurs restent actifs, laissant 80 % des licences dormantes.


Ce phénomène ne révèle pas un échec technologique, mais une fragilité dans les conditions d’appropriation de l’outil.


Former à l’outil, oublier l’usage

Dans de nombreuses organisations juridiques, la formation à l’IA oscille entre deux extrêmes. D’un côté, des formations introductives qui présentent les outils et quelques cas d’usage génériques. De l’autre, des discours très techniques sur les API, les architectures de données ou les modèles spécialisés.


Entre les deux se situe un niveau décisif : l’IA appliquée au travail réel,  l’insérer dans un raisonnement juridique, comment en évaluer la fiabilité, jusqu’où lui déléguer une tâche sans compromettre la qualité ou la responsabilité professionnelle et comment l’intégrer finement dans le flux de travail juridique existant. C’est là que se jouent les gains de productivité, de qualité et de confiance.


Adopter des réflexes managériaux plutôt que techniques

Les utilisateurs les plus performants ne sont pas nécessairement des experts techniques. Ce sont ceux qui savent encadrer l’outil. Ils savent formuler un contexte pertinent, découper les tâches, juger la qualité des résultats et améliorer itérativement les productions. Autrement dit, ils managent l’IA comme un collaborateur compétent mais inexpérimenté.


Cette approche est d’autant plus cruciale que l’IA opère, pour l’instant, dans une zone à fiabilité différenciée. Elle peut exceller dans la reformulation, la structuration ou l’exploration d’options, tout en échouant sur des points subtils de raisonnement juridique ou d’interprétation.


Dans les contextes juridiques sensibles (contentieux, conformité, contrats stratégiques) les professionnels les plus efficaces adoptent un mode de collaboration structuré : l’humain définit le cadre, les hypothèses et les priorités, tandis que l’IA génère des pistes, des variantes ou des supports intermédiaires. La décision finale demeure humaine.


Structurer le raisonnement juridique assisté

La performance avec l’IA repose sur un ensemble de compétences managériales et cognitives, rarement formalisées dans la formation juridique traditionnelle. Savoir assembler le bon contexte, décomposer un problème complexe, détecter une hallucination ou améliorer itérativement un livrable sont devenus des savoir-faire essentiels. Plus encore, intégrer l’IA co

mme une capacité collective — et non comme un outil individuel isolé — permet de sécuriser les pratiques et d’en tirer une valeur durable.


Les organisations qui réussissent l’adoption durable de l’IA investissent donc moins dans les outils que dans le développement du jugement. Former à décider quand, comment et jusqu’où utiliser l’IA devient une compétence clé. C’est cette couche humaine, souvent négligée, qui transforme l’expérimentation en véritable avantage compétitif.


Adapter le mode de collaboration au niveau d’enjeu

Dans les pratiques juridiques avancées, deux modes de travail avec l’IA émergent :

 Le mode « Centaure », dans lequel l’humain conserve la stratégie, le raisonnement et la responsabilité, tandis que l’IA génère des options ou des supports intermédiaires. Ce mode est particulièrement adapté aux situations à forts enjeux juridiques, où la fiabilité et la traçabilité priment.


Le mode « Cyborg », plus fluide et interactif, dans lequel l’IA est intégrée de manière continue au processus de travail. Ce mode favorise l’itération rapide et la créativité, mais suppose un risque juridique plus maîtrisé.


La compétence clé ne réside pas dans le choix d’un modèle unique, mais dans la capacité à passer de l’un à l’autre en fonction de la nature du dossier, du niveau d’exposition et des exigences de qualité attendues.

 

En somme, en matière d’IA, la performance durable ne repose pas sur la technologie, mais sur l’apprentissage du bon usage. C’est une ressource à part entière et on doit apprendre à la piloter, pas seulement l’utiliser.

 
 
 

Commentaires


bottom of page