Justice prédictive : la fin de l’aventure ?

·

·

Justice prédictive : la fin de l’aventure ?

La place accordée aux algorithmes dans le secteur juridique, notamment sur la fonction « prédictive » de ces outils fait débat. Certains pays membres de l’Organisation de coopération et de développement économiques (OCDE), tels que la Finlande ou les États-Unis, ont de plus en plus recours à des algorithmes dans leurs systèmes de justice. A titre d’exemple, le logiciel américain COMPAS, mesure le risque de récidive des prévenus mais s’est révélé peu précis et peu efficace.  Comme illustré par les propos d’un ancien vice-président du Conseil d’État, bien que les algorithmes dans le droit constituent « une opportunité », il est nécessaire de les utiliser « en sachant faire preuve d’une grande vigilance sur l’intangibilité d’une justice indépendante, impartiale, transparente, humaine et équilibrée » afin de garantir à tous les citoyens un égal accès à la force du droit.

Position du Ministre de la justice

Le Ministre de la justice a eu l’opportunité de prendre
position sur la question. Les nouvelles technologies de l’information et de la
communication contribuent à dessiner un nouvel environnement judiciaire
permettant, entre autres, la dématérialisation de l’accès au droit et à la
justice, la création de plateformes de résolutions à l’amiable des litiges ou
encore l’accès à de nouvelles modalités de saisine des juridictions, notamment
civiles. Parmi ces évolutions, les outils algorithmiques dits « d’intelligence
artificielle » se proposent notamment de contribuer à réduire l’aléa judiciaire
par l’analyse statistique du risque judiciaire encouru par le justiciable.

Touchant au cœur de l’action du magistrat, ces outils
pourraient modifier en profondeur la pratique du droit : ils suscitent donc
d’importants débats. Parmi les deux cents entreprises répertoriées en 2018
comme Legaltech, seules 3% des start-ups « legaltech » feraient du
développement d’un algorithme d’intelligence artificielle leur cœur de métier.
Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il
importe d’évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas
d’usage et d’expérimentations, en France comme dans d’autres pays, justifient
une première analyse nuancée des algorithmes de prédiction de l’aléa juridique.
En France, l’expérimentation d’un logiciel aux visées prédictives dans le
ressort des cours d’appel de Douai et Rennes au printemps 2017 a été conclue
par le constat partagé entre magistrats et avocats d’une inadéquation par
rapport aux besoins exprimés.

Au Royaume-Uni, l’expérimentation HART, conduite en 2016
par des chercheurs de l’université de Londres, et qui avait comme objectif de
reproduire les processus de décision du juge européen, n’est pas parvenue à
descendre en dessous des 20% de réponses erronées, ce qui est un taux
trop important pour un outil d’aide à la décision.

Il appartient à la puissance publique de fixer le cadre
et d’orienter le justiciable dans cet univers en pleine mutation. A ce titre,
la principale garantie contre une justice intégralement algorithmique tient à
l’article 47 de la loi n°78-17 du 6janvier1978 relative à
l’informatique, aux fichiers et aux libertés, qui dispose qu’« aucune décision
de justice impliquant une appréciation sur le comportement d’une personne ne
peut avoir pour fondement un traitement automatisé de données à caractère
personnel destiné à évaluer certains aspects de la personnalité de cette
personne. (…) ». La loi n°2016-1321 du 7octobre2016 dite « République
numérique » impose la transparence des algorithmes publics, offrant ainsi une
garantie supplémentaire contre un éventuel phénomène de « boîte noire » en
matière d’usages judiciaires de l’intelligence artificielle. En outre, la loi
de programmation 2018-2022 et de réforme pour la justice prévoit que la
réutilisation de données de magistrats ou de greffiers « ayant pour objet ou
pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques
professionnelles réelles ou supposées » est un délit (article 33).

Question de la certification

La certification facultative des plateformes en ligne de
résolution amiable des litiges, y compris celles dont le service en ligne est
proposé à l’aide d’un traitement algorithmique ou automatisé de données à
caractère personnel, constitue une étape supplémentaire dans la construction du
cadre juridique en la matière. Il s’agit d’accompagner le développement des
legaltech tout en sécurisant le cadre juridique et instaurant un climat de
confiance pour le justiciable qui recourt à ces outils numériques. La
certification sera accordée dès lors que les plateformes respectent les règles
de protection des données à caractère personnel et les exigences d’indépendance
et d’impartialité. La certification ne pourra pas être accordée à des
plateformes qui auraient pour seul fondement un traitement algorithmique ou
automatisé de données. Cette accréditation a été pensée non comme une
obligation mais comme une faculté et doit aider au développement de ces
entreprises innovantes tout en informant pleinement le justiciable.

Parallèlement, le plan de transformation numérique du
ministère de la justice doit permettre de mettre en œuvre les dispositions de
la loi de programmation 2018-2022 et de réforme pour la justice sur l’open data
des décisions de justice. Les données qui seront libérées dans ce cadre
permettront ainsi de sécuriser l’entraînement des algorithmes en mettant à
disposition des données complètes et non biaisées, aspect essentiel de la
construction de solutions algorithmiques fiables. Dans la ligne des engagements
souhaités par le président de la République quant au positionnement de la
France comme actrice majeure de l’intelligence artificielle, le ministère de la
justice soutient plusieurs projets aux fins d’expérimentation de l’intelligence
artificielle appliquée à la matière judiciaire, en partenariat avec la mission
Etalab : les projets DataJust et OpenJustice.

En outre, le ministère participe à l’élaboration d’outils
internationaux permettant d’inscrire la France dans une perspective européenne
en la matière. Ainsi, la charte éthique européenne sur l’utilisation de l’IA
dans les systèmes judiciaires a été adoptée lors de la 31ème réunion plénière
de la Commission européenne pour l’efficacité de la justice. Elle dégage
notamment cinq grands « principes » de l’intelligence artificielle vertueuse,
que sont le principe de respect des droits fondamentaux, le principe de
non-discrimination, le principe de qualité et de sécurité, le principe de
transparence, de neutralité et d’intégrité intellectuelle, ainsi que le
principe de maîtrise par l’utilisateur. Le ministère de la justice suit
également les travaux de la Commission ainsi que ceux qui seront entrepris dans
le cadre du comité ad hoc sur l’intelligence artificielle crée par le Conseil
de l’Europe.

Questions / Réponses juridiques

Quel est le rôle des algorithmes dans le secteur juridique ?

Les algorithmes jouent un rôle de plus en plus important dans le secteur juridique, notamment grâce à leur fonction prédictive. Des pays comme la Finlande et les États-Unis utilisent ces outils pour améliorer leurs systèmes de justice.

Par exemple, le logiciel COMPAS, utilisé aux États-Unis, évalue le risque de récidive des prévenus. Cependant, il a été critiqué pour son manque de précision et d’efficacité.

Un ancien vice-président du Conseil d’État a souligné que, bien que les algorithmes représentent une opportunité, leur utilisation doit être accompagnée d’une vigilance pour préserver l’indépendance et l’impartialité de la justice.

Cela est essentiel pour garantir un accès équitable à la justice pour tous les citoyens.

Quelle est la position du Ministre de la justice sur l’utilisation des algorithmes ?

Le Ministre de la justice a exprimé que les nouvelles technologies, y compris les algorithmes, transforment l’environnement judiciaire. Ces outils peuvent faciliter l’accès au droit et à la justice, notamment par la dématérialisation et la création de plateformes de résolution amiable des litiges.

Les algorithmes d’intelligence artificielle visent à réduire l’aléa judiciaire en analysant statistiquement le risque encouru par les justiciables. Cependant, leur impact sur la pratique du droit suscite des débats importants.

En 2018, seulement 3% des start-ups legaltech se concentraient sur le développement d’algorithmes d’intelligence artificielle. Des expérimentations en France et au Royaume-Uni ont montré des résultats mitigés, soulignant la nécessité d’une évaluation objective de ces outils.

Quels sont les défis liés à l’expérimentation des algorithmes dans le domaine judiciaire ?

Les expérimentations d’algorithmes dans le domaine judiciaire ont révélé plusieurs défis. En France, un logiciel prédictif testé dans les cours d’appel de Douai et Rennes a été jugé inadéquat par les magistrats et avocats.

Au Royaume-Uni, l’expérimentation HART, qui visait à reproduire les décisions des juges européens, a échoué à atteindre un taux d’erreur inférieur à 20%.

Ces résultats soulignent les limites des algorithmes en tant qu’outils d’aide à la décision. Il est déterminant que la puissance publique établisse un cadre réglementaire pour orienter les justiciables dans ce domaine en mutation.

Quelles sont les garanties légales concernant l’utilisation des algorithmes dans la justice ?

La loi n°78-17 du 6 janvier 1978 protège les citoyens en stipulant qu’aucune décision de justice ne peut être fondée sur un traitement automatisé de données personnelles qui évalue le comportement d’une personne.

De plus, la loi n°2016-1321, dite « République numérique », impose la transparence des algorithmes publics, ce qui est essentiel pour éviter le phénomène de « boîte noire » dans les décisions judiciaires.

La loi de programmation 2018-2022 interdit également la réutilisation des données des magistrats pour évaluer leurs pratiques professionnelles, renforçant ainsi la protection des justiciables.

Quel est le rôle de la certification dans les plateformes de résolution amiable des litiges ?

La certification des plateformes en ligne de résolution amiable des litiges est une étape importante pour établir un cadre juridique sécurisé. Elle vise à accompagner le développement des legaltech tout en instaurant un climat de confiance pour les justiciables.

La certification sera accordée si les plateformes respectent les règles de protection des données et les exigences d’indépendance et d’impartialité.

Cependant, elle ne sera pas accordée aux plateformes qui reposent uniquement sur un traitement algorithmique. Cette démarche est facultative et vise à encourager l’innovation tout en garantissant la sécurité des utilisateurs.

Comment le ministère de la justice soutient-il l’intelligence artificielle dans le domaine judiciaire ?

Le ministère de la justice met en œuvre un plan de transformation numérique pour faciliter l’accès aux décisions de justice via l’open data. Cela permettra de fournir des données complètes et non biaisées, essentielles pour entraîner des algorithmes fiables.

Le ministère soutient également des projets d’expérimentation de l’intelligence artificielle, tels que DataJust et OpenJustice, en collaboration avec la mission Etalab.

En outre, il participe à l’élaboration d’outils internationaux et suit les travaux de la Commission européenne sur l’utilisation éthique de l’IA dans les systèmes judiciaires, promouvant ainsi des principes fondamentaux tels que le respect des droits et la transparence.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Chat Icon