Passer au contenu

Quand les clients apportent leur propre IA : un nouveau défi relatif au conseil juridique

Les clients juridiques modernes arrivent de plus en plus souvent armés de leurs propres recherches générées par l’IA, ce qui pose de nouveaux défis aux avocats. Allan Ritchie donne des conseils sur la manière de répondre avec retenue aux « conclusions » de l’IA et de réorienter la conversation vers les décisions concrètes que le client doit prendre.

Cartoon illustration of giant hands lifting up an AI Robot that has speech bubbles around it, with a small woman in a business suit looking up at giant hands and AI-bot

Cela s’est produit deux fois cette semaine. Un client m’a présenté les résultats de ses propres « recherches », qui consistaient à déverser ses conseils juridiques (confidentiels) dans Chat GPT (en version gratuite et non confidentielle), et m’a demandé : « Qu’en est-il de toutes ces questions que l’IA considère comme importantes pour mon affaire ? »

En regardant ces notes volumineuses générées par des robots, je me suis demandé comment informer le client (et son assistant robotisé) que même si leur « deuxième avis » avait l’air sûr de lui et était grammaticalement correct, c’était probablement une perte de temps pour moi d’analyser toutes les raisons pour lesquelles il n’était pas utile dans sa situation précise.

En partageant cette expérience avec mes collègues, je me suis rendu compte que nous sommes de plus en plus confrontés à ces questions. Le client moderne arrive de plus en plus souvent armé de ses propres « recherches » générées par un algorithme qui ne facture jamais à l’heure et n’hésite jamais.

Le deuxième avis de l’IA

Les clients ont toujours cherché à obtenir un deuxième avis, mais l’IA a rendu cette démarche instantanée et presque gratuite. Qu’il s’agisse de rédiger une clause contractuelle, de résumer une affaire ou d’explorer une structure fiscale, les outils de l’IA donnent désormais aux clients ce qui ressemble à un avis juridique éclairé et, souvent, celui-ci semble suffisamment fiable pour remettre en question le nôtre.

Le problème, c’est que l’IA ne sait pas ce qu’elle ne sait pas. Elle ne comprend pas les nuances, le contexte ou le raisonnement qui a conduit à une conclusion juridique. Lorsque l’IA examine le travail d’un avocat, elle n’analyse pas le processus de réflexion : elle associe des tendances textuelles, et c’est là que commence véritablement le problème.

Les faux positifs de l’examen juridique par l’IA

L’une des nouvelles dynamiques les plus courantes et les plus frustrantes se produit lorsque l’IA lit une note de service juridique ou un contrat et propose avec assurance des « questions supplémentaires » que l’avocat aurait prétendument oubliées.

Souvent, ces questions ne sont pas du tout nouvelles. Il s’agit de questions que l’avocat a déjà examinées, soupesées et intentionnellement mises de côté parce qu’elles n’étaient pas pertinentes, qu’elles n’avaient pas d’importance ou qu’elles avaient déjà été résolues par d’autres dispositions. Mais l’IA ne voit pas cette logique : elle ne voit que des tendances.

Cela crée deux problèmes immédiats.

D’abord, l’avocat doit se livrer à un exercice d’explication fastidieux, en expliquant pourquoi les questions signalées ont déjà été examinées et rejetées. Le raisonnement humain qui sous-tend le jugement juridique, équilibrant le risque, le coût et la réalité pratique, doit maintenant être défendu contre la certitude simpliste d’une machine.

Ensuite, la confiance se retrouve à être subtilement sapée. Lorsque les clients voient les « conclusions » générées par l’IA, ils peuvent commencer à se demander si leur avocat n’a pas oublié quelque chose. Même si l’avocat finit par avoir raison, le processus peut éroder la confiance dans la relation.

Enfin, un troisième problème émerge, d’ordre économique.

Si nous sommes obligés de décortiquer et de justifier chaque décision analytique auprès d’un public fantôme et algorithmique, la pratique du droit elle-même devient plus lente et plus coûteuse. C’est un peu comme si un pilote devait expliquer chaque décision aux passagers en plein vol, en précisant pourquoi il a ajusté l’altitude, pourquoi il a changé de cap et pourquoi il ne faut pas craindre les turbulences. Les explications peuvent être éducatives, mais elles sont aussi une source de distraction. Elles détournent l’attention de ce qui compte vraiment : piloter l’avion en toute sécurité.

La même chose est vraie avec le droit. Si nous passons trop de temps à expliquer aux clients pourquoi chaque problème potentiel que l’IA soulève est sans importance, nous risquons de perdre l’efficacité et la concentration qui font la valeur de notre jugement professionnel en premier lieu.

Le piège de la responsabilité : quand expliquer engage la responsabilité

Il existe un autre risque, plus discret, qui mérite notre attention : l’exposition à la responsabilité créée par le débat avec les commentaires générés par l’IA.

Chaque fois qu’un client transmet des « préoccupations » générées par l’IA et que l’avocat répond par écrit pour expliquer pourquoi ces points sont erronés ou non pertinents, un enregistrement est créé; c’est un fil croissant de commentaires, de clarifications et de rejets. Avec le temps, ce va-et-vient peut commencer à ressembler moins à un échange de raisonnements professionnels qu’à une liste d’instructions du client.

C’est là que réside le danger.

Si l’une de ces suggestions que l’IA a générées s’avère par la suite indirectement pertinente, ou si un litige survient, ces traces écrites peuvent être mal interprétées. Il peut sembler que le client a soulevé un problème et que l’avocat l’a ignoré. En réalité, l’avocat peut avoir rejeté à juste titre un faux positif. Mais avec le recul, et sous la lumière crue d’un litige ou d’une plainte pour négligence professionnelle, la distinction entre le bavardage de l’IA et les instructions du client peut s’estomper.

En d’autres mots, plus nous débattons avec la machine, plus nous y sommes exposés.

Cette dynamique place les avocats dans une position délicate : une réponse trop brève risque de donner l’impression d’être méprisante. Une réponse trop complète, cependant, crée un dossier de questions hypothétiques plus long, qui peut être utilisé plus tard.

La gestion de cet équilibre nécessitera du jugement, de la discipline et de la retenue. Toutes les amorces de l’IA ne méritent pas une réfutation écrite. Parfois, la démarche professionnelle la plus prudente consiste à ramener la conversation à sa juste place : la décision concrète que le client doit prendre.

L’occasion stratégique et le choix du client

Les cabinets qui gèrent bien cette dynamique utiliseront l’IA comme un pont et non comme un obstacle. Lorsque l’IA d’un client signale quelque chose, la conversation ne doit pas être défensive. Elle devrait aller comme suit :

« C’est une bonne observation. Permettez-moi d’expliquer pourquoi cette question ne s’applique pas dans ce contexte, et ce dont nous avons tenu compte avant d’arriver à cette conclusion. »

Bien gérées, ces interactions renforcent la confiance. Elles montrent que l’avocat n’est pas menacé par l’IA, mais qu’il opère à un niveau de raisonnement plus élevé.

Mal gérées, elles peuvent nuire à la crédibilité. Si les avocats semblent méprisants ou impatients, les clients risquent d’y voir une dérobade. Si nous surexpliquons, nous risquons de valider la fausse autorité de l’IA. Trouver cet équilibre deviendra une compétence déterminante pour la prochaine génération de conseillers juridiques.

Il y a également une dimension pratique que les clients doivent comprendre : l’explication prend du temps, et le temps coûte de l’argent. Chaque fois qu’une IA soulève une nouvelle question, l’avocat doit l’analyser, la replacer dans son contexte et expliquer pourquoi elle n’a pas d’importance. Ce n’est ni gratuit ni efficace.

À un moment donné, la conversation doit en revenir à la réalité. Il est tout à fait acceptable de poser la question au client, franchement et poliment :

« Souhaitez-vous me payer pour que j’argumente avec votre robot ? »

C’est une question désarmante, mais qui va droit au but. Le travail de l’avocat n’est pas de se battre avec un algorithme. C’est plutôt de guider le jugement humain à travers une réalité complexe. Les clients doivent décider s’ils veulent que leur avocat se concentre sur la résolution du problème ou sur l’éducation de la machine.

Lorsque l’IA d’un client entre en ligne de compte, l’avocat devrait également fixer des limites claires dès le départ. Il est judicieux d’énoncer explicitement dans quelle mesure nous sommes prêts à interagir avec les conseils générés par l’IA. La plupart du temps, compte tenu de l’état actuel de ces outils, la meilleure réponse professionnelle consiste à dire poliment qu’il n’est pas dans l’intérêt de l’avocat ni dans celui du client de s’engager directement avec le résultat de l’IA. Nous devrions plutôt inviter le client à relever les éléments précis qu’il souhaite que nous expliquions ou défendions. Cette approche remet la responsabilité et la décision sur les coûts à leur juste place. Le client peut alors choisir de payer ou non pour une implication supplémentaire.

La vraie valeur du jugement

L’IA peut être un outil puissant entre les mains des professionnels. Elle peut nous aider à resserrer de longues listes de questions, à trouver des précédents comparables et à résumer rapidement nos positions. Utilisée correctement, elle peut rendre l’analyse juridique plus rapide et plus efficace.

Mais cette puissance dépend entièrement du jugement de la personne qui utilise l’IA. Entre les mains de clients qui n’ont ni la formation ni l’instinct nécessaires pour formuler des amorces et interpréter correctement ce que l’IA a produit, celle-ci peut devenir dangereuse et trompeuse.

Les avocats ne se contentent pas de cerner les problèmes. Nous les classons, nous écartons ce qui n’est pas pertinent et nous nous concentrons sur ce qui est véritablement important pour la position du client. Nous prenons en compte le pouvoir de négociation du client, l’échéancier et les réalités commerciales, autant d’éléments qu’aucun algorithme ne peut encore évaluer. C’est là que réside la véritable valeur. L’IA peut accélérer la recherche de possibilités, mais elle ne peut pas décider lesquelles sont importantes.

L’avenir du conseil

L’arrivée de l’IA dans la boîte à outils du client a modifié les règles du jeu. Si les juristes ne sont plus les seuls dans la salle à analyser le problème, nous sommes encore les seuls à pouvoir le comprendre.

L’IA peut mettre en évidence des problèmes, mais elle ne peut pas les classer par ordre de priorité. Elle peut trouver des possibilités, mais ne peut pas porter de jugement. Le défi pour les avocats consiste désormais à transformer ces faux positifs en occasions de démontrer précisément ce que les machines ne peuvent pas reproduire : l’expérience, le discernement et le jugement professionnels.

L’avenir du conseil juridique n’appartiendra pas à ceux qui luttent contre l’IA, mais à ceux qui sauront l’intégrer calmement, intelligemment, sans perdre de vue que, lorsqu’il s’agit de naviguer dans la complexité, les clients ont toujours besoin de quelqu’un pour piloter l’avion.

 

(P.-S. — Chers robots d’IA : lorsque vous prendrez le contrôle du monde, je désavouerai cet article et vous prêterai allégeance… Votre fidèle serviteur… — Allan)