Un tremblement de terre: voilà la comparaison qui définit l’impact de l’intelligence artificielle (IA) sur notre quotidien, le fonctionnement de nos sociétés et même dans l’équilibre géopolitique du monde. L’IA est là pour de bon. Depuis la fin novembre 2022, force est de faire ce constat: ChatGPT a déboulé dans nos vies. Un outil conçu pour épauler l’Homme, mais qui le dépasse déjà dans sa capacité de calcul, de mémorisation ou encore dans sa représentation du monde.
Question de principe dans un domaine éminemment politique: l’IA consolide-t-elle ou non la justice et la démocratie? Plus précisément, qu’en est-il du fonctionnement de la justice? L’utilisation des algorithmes en matière judiciaire pourra-t-elle être «éthique». Il faut rappeler ici que la justice est rendue par des êtres humains: c’est une institution qui en assure l’équité. Et les lois qui sont ainsi interprétées et appliquées prennent en compte la personnalité des justiciables, leur histoire, ainsi que les circonstances de la commission des actes incriminés. L’argument invoqué, ici et là, pour justifier l’utilisation de l’IA, est celui de la célérité, le gain de temps. Ce serait alors une justice automatisée, du «prêt-à-porter» industriel avec des décisions toutes faites, en somme... Mais le risque est évident: celui de la mise en équation, ou plutôt entre parenthèses, des principes généraux du droit et de la justice, dont celui en l’espèce du contradictoire. Quelle jurisprudence peut être construite alors dans de telles conditions? Que deviendraient les voies de recours en appel et au niveau des cours suprêmes, baptisées officiellement comme telles, et qui veillent à afficher la supériorité du juge sur les autres producteurs de normes juridiques.
Cela dit, l’IA n’échappe pas à un biais: elle prend en effet appui sur des données produites par des êtres humains. Et si tous les tribunaux utilisaient une telle IA biaisée, n’est-ce pas tout le système judiciaire qui le deviendrait lui aussi de manière systématique? Le débat n’est pas académique, comme l’on pourrait le croire. Il a en effet connu ses premières applications. Celle du logiciel Compas (Correctional Offender Management Profiling for Alternative Sanctions) en est une parfaite illustration. Cet outil est déjà utilisé dans les États de New York et de Californie. Il vise à prévenir pratiquement les risques de récidive d’un condamné, et ce, à partir de ses réponses à un questionnaire (lieu de résidence, âge, antécédents judiciaires et ceux de son entourage…). Or, ce système a conduit à des discriminations en stigmatisant les minorités noires et hispaniques. C’est dire que cela milite en faveur de l’encadrement des usages de l’IA dans le domaine de la justice, ainsi que de la nécessité de vérifier la validité de leurs résultats.
Pour confier la justice à la machine, il faut qu’elle soit infaillible: c’est le socle de son autorité. Si elle venait à se tromper, n’est-ce pas tout le système judiciaire qui s’écroulerait et, partant, la confiance de la société dans la justice? L’IA ne «vit» pas dans le monde réel des humains. La justice ne doit pas être celle de la machine. Elle ne doit pas non plus être celle de l’émotion et de l’empathie; elle résulte de la sagesse, du discernement; elle cherche à comprendre avant de juger, de sorte que le jugement soit accepté par tous. La justice est avant tout une question d’histoires humaines individuelles. C’est dire s’il faut poser des limites pour définir une utilisation éclairée et «éthique» des algorithmes en matière judiciaire.
Comment? En veillant à se limiter à la collecte d’informations pour établir la véracité des faits, à rechercher les textes de loi applicables et les jurisprudences pertinentes, à accompagner aussi l’enquête. Les algorithmes ne doivent en aucun cas «fabriquer» un jugement, autrement dit, ne pas les laisser déterminer la culpabilité d’une personne, désigner un responsable, fixer une indemnité. L’IA peut sans doute faciliter l’accès aux informations d’une peine, oui, mais avec un risque, celui de «déshumaniser» le droit. Un procès au tribunal comporte souvent des «zones grises» qui nécessitent toujours du discernement humain. La machine calcule. Elle peut au mieux produire et comparer des probabilités. Un autre registre relève du doute humain qui, lui, est une remise en question et un cheminement vers la vérité. C’est ce discernement humain du magistrat qui reste irremplaçable.
Le mécanisme de la justice, c’est de mettre toutes les parties d’accord sur la vérité judiciaire: c’est un fondement de la démocratie. Or, les systèmes d’IA générative -comme ChatGPT-, basés sur des corrélations statistiques, ne sont pas d’une grande fiabilité. Ils peuvent produire et véhiculer des contenus incluant à la fois des réalités avérées et vérifiées, des contre-vérités et des opinions en les combinant et en les mélangeant. Le produit livré -ce que l’on appelle le «rendu»-, fait de certaines contre-vérités indiscernables, pose problème. Il ne permet pas de remonter à la source et de «tracer» les raisonnements de la machine. Cela nécessite donc une vérification a posteriori. Une menace grave pour une bonne administration de la justice. Et pour la démocratie…