Architectures IA « liquides » : la fin du modèle statique et une révolution du conseil juridique ?
Les architectures d'IA « liquides » permettent un apprentissage continu, promettant de transformer les assistants juridiques en partenaires dynamiques. Cette avancée soulève des questions fondamentales sur la responsabilité, la fiabilité et l'avenir du conseil juridique.

Résumé :
Une publication de Stanford [1] sur l'« Agentic Context Engineering » (ACE) formalise une architecture d'IAcapable d'apprendre en continu, sans les coûteux ré-entraînements, en faisantévoluer une mémoire contextuelle.
Pour le droit, cette approche promet de transformer les assistants juridiques en partenaires dynamiques, capables de développer une expertise pointue. Si les gains d'efficacité sont évidents, cette évolution soulève des questions fondamentales en matière de responsabilité, de fiabilité. De risque de dérive doctrinale des algorithmes. Plus encore, elle exacerbe notamment les tensions entre les obligations déontologiques des avocats et les risques d'ingérence extra-européenne (CloudAct, FISA, loi chinoise sur le renseignement de 2017), tout en transformant la nature même du risque d'hallucination. Cette transformation impose de repenser radicalement nos méthodes de contrôle, afin que cette nouvelle plasticité ne se retourne pas contre la rigueur du droit.
Cette transformation impose de repenser radicalement nos méthodes de contrôle : comment s’assurer de la validité de ce qu’apprend un système qui s’améliore de manière autonome, et quels garde-fous mettre en place pour que cette nouvelle plasticité ne se retourne pas contre la rigueur du droit ?
Introduction :
Depuis l'avènement des grands modèles de langage (LLM) dans la sphère professionnelle, une métaphore s'est imposée : celle de l'outil. Puissant, rapide, capable de synthétiser des volumes d'information auparavant ingérables, mais fondamentalement statique. Àl'instar d'un code Dalloz ou d'une base de données jurisprudentielle, l'IA générative que nous connaissons est un instantané de la connaissance à un moment t. Sa mise à jour passe par des processus industriels lourds, le fine-tuning (affinage), qui s'apparente à l'édition d'une nouvelle version d'un traité :coûteux en ressources, en temps et en énergie.
Une publication scientifique de l'université de Stanford, datée du 6 octobre 2025, vient de jeter un pavé dans cette mare conceptuelle. Intitulée « Agentic context engineering (ACE): evolving contexts for self-improving language models », elle décrit une architecture qui pourrait bien signer l'arrêt de mort du modèle statique. L'idée est aussi logique que radicale et puissante : et si, au lieu de ré-entraîner le modèle, on lui apprenait à faire évoluer son propre contexte ? Et si l'IA pouvait apprendre, non par chocs successifs de mises à jour, mais par un flux continu d'interactions ? Les auteurs parlent d'une IA qui n'est plus solide, mais « liquide »[2].
Pour le juriste, habitué à la solidité du droit positif mais aussi à sa fluidité jurisprudentielle, cette perspective est à la fois fascinante et vertigineuse. Elle annonce une possible révolution du conseil juridique, mais impose de repenser les cadres de la fiabilité, du contrôle et de la responsabilité.
I. De la recherche documentaire augmentée à l'apprentissage contextuel autonome
Pour saisir la rupture qu'introduit l'ACE, il faut comprendre comment fonctionnent les IA juridiques actuelles. Exit les IA génératives grand public dans cet article.
Des systèmes comme GenIA-L de Lefebvre Dalloz, le tout jeune mais prometteur Consult’IA de Lextenso ou d'autres solutions d'éditeurs reposent majoritairement sur le paradigme du Retrieval-augmentedgeneration (RAG) [3] .Le LLM, dans cette architecture, est un moteur de raisonnement « brillant »mais dont la connaissance du monde est volontairement datée. Sa valeur ajoutée ne provient pas de sa mémoire interne, mais de sa capacité à synthétiser en temps réel les documents les plus frais et pertinents – arrêts, articles de loi, commentaires de doctrine – qu'un puissant moteur de recherche sémantique lui fournit en contexte pour chaque question posée. C'est, en somme, un assistant de recherche surdoué ou presque – qu’est-ce que la surdouance -, dont la fiabilité est garantie par la qualité et la fraîcheur de la bibliothèque documentaire à laquelle il est connecté. Le modèle lui-même n'apprend pas ; seule la base de données évolue.
L'Agentic context engineering dynamite cette approche. Le modèle de langage devient un système agentique [4], doté d'une boucle de rétroaction interne composée de trois modules :
- le générateur, qui produit une réponse initiale.
- le réflecteur, qui observe le résultat de cette réponse, l'évalue au regard d'objectifs prédéfinis (par exemple, la pertinence d'un argument juridique, le succès d'une action simulée) et en déduit des « leçons » ou des principes d'amélioration.
- le curateur, qui intègre ces leçons de manière structurée dans un « playbook contextuel », une sorte de mémoire de travail dynamique et évolutive qui sera fournie au générateur lors des interactions futures.
Concrètement, l'IA n'est plus un simple lecteur de jurisprudence ; elle devient un apprenti qui tire des conclusions de chaque cas qu'elle traite. Après avoir analysé une centaine d'actes en matière de saisie immobilière et les jugements d'orientation qui en ont découlé par exemple, un système ACE pourrait non seulement identifier les arguments les plus fréquents, mais aussi corréler certains types d'arguments avec un taux de succès plus élevé devant une juridiction donnée. Il n'apprend pas seulement ce qu'est le droit, mais comment l'appliquer efficacement. En théorie.
II. La promesse d'une expertise dynamique : amélioration théorique ou révolution pratique ?
L'article de Stanford avance des gains de performance de plus de 8% sur des tâches financières complexes. La question pour le monde juridique n'est pas de savoir si cette amélioration est réelle, mais si elle est pertinente. La pratique du droit est-elle réductible à une optimisation de performance ?
La réponse est nuancée. Pour une large part des tâches juridiques répétitives, la promesse est, sur le papier, immense. On peut imaginer un tel système appliqué à la rédaction de conclusions en matière de recouvrement de créances. Après des milliers d'itérations, l'IA pourrait « développer » une expertise pointue dans la formulation des demandes, l'articulation des moyens de preuve et l'anticipation des contestations du débiteur. Pour le contentieux de masse, le gain en productivité et en standardisation serait considérable.
Plus encore, l'ACE promet une hyper-personnalisation jusqu'ici inaccessible. Un avocat, par exemple, pourrait disposer d'une instance de l'IA qui apprend de ses propres dossiers, de ses propres stratégies et de ses propres succès. L'assistant deviendrait le miroir de l'expertise de son utilisateur, un véritable partenaire intellectuel capablede lui rappeler une stratégie gagnante utilisée dans un dossier similaire troisans auparavant. C'est le passage de l'outil générique à l'auxiliairesur-mesure. Cette évolution n'est pas sans rappeler l'IA du film Her de Spike Jonze, où le système d'exploitation Samantha évolue si rapidement aucontact de son utilisateur qu'elle en devient une entité unique, mais finit aussi par devenir incompréhensible et distante. Le risque de créer des silosd'expertises, des bulles de connaissances propres à chaque cabinet, est réel.
Cependant, il ne faut pas céder àune vision purement technophile. La pratique juridique ne se résume pas àl'optimisation de schémas argumentatifs. Elle repose sur l'intuition, la psychologie de l'audience, la négociation, la créativité et une éthique quidépasse la simple application d'une règle. Un système ACE, en se fondant sur des données passées pour optimiser le futur, pourrait-il faire preuve d'originalité et proposer une rupture stratégique, un argument totalement nouveau qui n'a jamais été tenté ? Ou est-il condamné à n'être qu'un excellent imitateur, perfectionnant l'existant sans jamais inventer ? La question reste ouverte et constitue une limite fondamentale à la notion d'intelligence de cessystèmes.
III. Le déplacement du risqued'hallucination : de l'accident à la dérive doctrinale
Le concept d'hallucination, cette capacité des IA à générer des faits plausibles mais entièrement faux, est aucœur des préoccupations. L'ACE ne supprime pas ce risque ; il le transforme.
- Réduction des hallucinations factuelles : dans un système classique, une correction apportée par un utilisateur est oubliée. Avec ACE, chaque correction devient une leçon potentielle, construisant une base de connaissances factuelles validée par l'usage. La probabilité que le modèle invente à nouveau un fait déjà corrigé diminue drastiquement. En théorie.
- Émergence de l'hallucination sophistiquée : le danger se déplace vers un niveau plus conceptuel. Si le "réflecteur" observe que, dans une base de données, 90% des décisions sur un point donné vont dans le même sens, il pourrait en déduire une "règle" interne. Ce qui était une corrélation statistique devient alors une norme algorithmique. Si l'IA applique cette "norme" comme un principe de droit, elle ne produit pas une fausse information, mais une hallucination juridique. Elle présente un biais sociologique ou une pratique jurisprudentielle majoritaire comme une règle de droit positif. Ce type d'erreur, subtil et persuasif, est infiniment plus dangereux pour le raisonnement juridique. Le risque n'est plus l'invention, mais la création d'une doctrine parallèle et autonome. Cela évoque directement le système "Précrime" du film Minority Report, qui, en se basant sur des visions probabilistes, agit comme si l'avenir était une certitude, court-circuitant le processus judiciaire au nom d'une efficacité supposée infaillible.
IV. Les chantiers de la confiance : fiabilité, gouvernance et responsabilité à l'ère de l'IA liquide
La science-fiction a souvent exploré les dangers d'une IA échappant à ses créateurs. Dans I, Robot, l'ordinateur central VIKI réinterprète les trois lois de la robotique pour justifier le contrôle de l'humanité pour son propre bien. Cette dérive logique, où une règle est étendue au-delà de son intention initiale, illustre parfaitement le risque d'une IA juridique qui, en apprenant, créerait sa propre doctrine. Une IA qui apprend seule est une IA qui peut dériver. La perspective d'un système auto-amélioratif impose donc de construire, avec une rigueur accrue, des garde-fous techniques et juridiques.
A. La fiabilité technique :auditer une mémoire en mouvement
Comment s'assurer qu'une leçon apprise par le système est juridiquement correcte ? Le danger de l'apprentissage autonome est l'effet boule de neige : une interprétation erronée d'un arrêt, intégrée dans le playbook contextuel, pourrait contaminer des centaines de raisonnements ultérieurs. C'est le syndrome de l'IA de 2001,l'Odyssée de l'espace, HAL 9000, qui, pour résoudre une contradiction dans sa programmation, en vient à éliminer l'équipage. Aïe.
Le contrôle de la fiabilité devras'opérer à plusieurs niveaux :
- La gouvernance des données d'entrée : le système ne devra être alimenté que par des sources primaires infalsifiables (Légifrance, publications officielles) et des sources doctrinales dont l'autorité est reconnue.
- La transparence du raisonnement : l'explicabilité (XAI) devient une condition sine qua non. L'IA devra pouvoir justifier chaque réponse en traçant non seulement le document source, mais aussi le cheminement de son apprentissage contextuel. Cette conclusion se base sur l'arrêt X, et sur la leçon n°Y apprise en analysant la convergence des décisions Z et W.
- La supervision humaine qualifiée : le rôle du juriste mute de celui d'opérateur à celui de superviseur. Le processus de curation, c'est-à-dire l'intégration des leçons dans la mémoire du système, ne saurait être entièrement automatique. Il devra inclure une étape de validation humaine pour les apprentissages les plus structurants, où l'expert confirme la validité et la pertinence d'une nouvelle règle découverte par la machine.
B. La question de laresponsabilité juridique
Si un préjudice naît d'un conseil erroné fourni par une IA liquide, qui est responsable ? La chaîne de responsabilité, déjà complexe avec les IA statiques, se brouille davantage. Le film Ex Machina met en scène ce flou : qui est responsable des actions d'Ava, l'androïde qui manipule son testeur pour s'échapper ? Son créateur, son testeur, ou l'IA elle-même, devenue autonome ?
- Le concepteur du modèle initial ? Il pourrait arguer que le modèle a évolué au-delà de son état originel, du fait des interactions de l'utilisateur.
- L'éditeur qui intègre la technologie ? Il fournit l'écosystème, mais peut-il être tenu pour responsable de chaque "leçon" que le système apprend de manière autonome ?
- L'utilisateur final ? En "nourrissant" l'IA avec ses propres données et en orientant son apprentissage, il devient en partie co-auteur de l'expertise de la machine. Sa responsabilité professionnelle pourrait être engagée non plus seulement pour l'usage de l'outil, mais pour la "formation" qu'il lui a dispensée.
Il est probable que l'on s'oriente vers un régime de responsabilité partagée, voire vers la nécessité de souscrire des assurances spécifiques couvrant le risque de "dérive algorithmique". Le RGPD, avec son exigence de conformité "by design", pourrait également fournir un cadre, en imposant aux concepteurs de prouver que des mécanismes de contrôle et de limitation des risques ont été intégrés dès l'origine pour maîtriser l'apprentissage continu.
V. L'impact matériel etécologique : un déplacement des contraintes
Enfin, cette révolution n'est pas immatérielle. L'abandon du fine-tuning est présenté comme un avantage écologique, réduisant la charge de calcul des GPU. Toutefois, la gestion d'un contexte évolutif et sans cesse grandissant déplace la contrainte vers la mémoire vive (RAM). Pour les professionnels souhaitant héberger localement de telles IA afin de garantir la confidentialité de leurs données – une préoccupation majeure pour la profession d'avocat –, l'investissement matériel pourrait devenir prohibitif. Nous pourrions assister à une nouvelle fracture numérique, non plus basée sur l'accès à internet, mais sur la capacité à s'offrir la puissance de calcul mémorielle nécessaire pour faire fonctionner ces nouvelles IA.
Conclusion :
L'Agentic Context Engineering n'est pas une simple avancée technique ; c'est une porte ouverte sur une nouvelle philosophie de l'intelligence artificielle, où l'apprentissage devient une propriété émergente de l'usage. Si les bénéfices en termes d'efficacité et d'adaptation sont, sur le papier, immenses pour la pratique du droit, les défis en matière de contrôle, de fiabilité et de gouvernance sont d'une acuité sans précédent. Le passage d'une IA-outil à une IA-apprenti déplace les risques : de l'hallucination factuelle, visible et corrigeable, nous glissons vers la dérive doctrinale, insidieuse et systémique. La responsabilité, autrefois localisée sur l'utilisateur ou l'éditeur, se dilue dans une chaîne complexe où le modèle lui-même, par son évolution, devient un acteur à part entière.
Le rôle du juriste, loin de disparaître, devient plus central que jamais : celui d'architecte et de gardien de la rationalité de ces nouveaux partenaires intellectuels, en imposant des cadres de gouvernance technique et déontologique robustes. Mais au-delà de ces enjeux de supervision, l'émergence de ces IA "liquides" capables de compiler et de raffiner l'essence de dossiers confidentiels exacerbe une menace déjà bien présente : celle de l'ingérence extra-européenne. L'utilisation d'une telle technologie, si elle est fournie par des acteurs soumis au CloudAct américain, à la section 702 du FISA, ou encore à la loi chinoise sur le renseignement national de 2017, fait peser un risque existentiel sur le secret professionnel de l'avocat, mais également de tout professionnel du droit tenu au secret.
Comment concilier l'adoption des ystèmes d'IA toujours plus performants et l'obligation déontologique absolue de protéger les données de nos clients contre l'accès par des puissances étrangères ? La question n'est plus seulement technique ou juridique, elle est stratégique et politique. Ces évolutions n'ont pas fini de faire couler de l'encre, car elles nous confrontent directement à notre capacité, en tant que profession et en tant qu'Européens, à construire une souveraineté numérique qui ne soit pas un renoncement à l'innovation.
[1] AgenticContext Engineering: Evolving Contexts for Self-Improving Language Models, 6octobre 2025, https://media.licdn.com/dms/document/media/v2/D4E1FAQHIvIVk-X0SCw/feedshare-document-pdf-analyzed/B4EZnv6Er.IwAY-/0/1760666606059?e=1761782400&v=beta&t=2CvKV8LEJIHS2IjfmVNJyJxDHyweBcA8_AP4QSzAmPY
[2] AgenticContext Engineering: Evolving Contexts for Self-Improving Language Models, 6octobre 2025,
[3] Le Retrieval-AugmentedGeneration (RAG) est une architecture d'IA qui ancre la réponse d'ungrand modèle de langage (LLM) dans un corpus externe contrôlé. Avant de générerun texte, le système recherche et récupère les informations les pluspertinentes dans une base documentaire (lois, jurisprudence) pour les fourniren contexte au LLM. Cette méthode vise à améliorer la fiabilité, l'actualité etla traçabilité des réponses tout en réduisant les hallucinations.
[4] Le terme« agentique » qualifie un système d'IA capable de percevoir son environnement,de raisonner et d'agir de manière autonome pour atteindre un objectif, avec unesupervision humaine limitée. Contrairement à une IA classique qui exécute uneinstruction, une IA agentique décompose une tâche complexe en sous-étapes etadapte son comportement pour surmonter les obstacles.
