La Chancellerie renonce à DATAJUST
Publié le 20/01/2022 dans les catégories Justice
Patrick Hetzel note avec satisfaction que la Chancellerie vient de renoncer à son algorithme DATAJUST mais regrette la gabegie budgétaire.
Alors que la France entière était confinée pour éviter la propagation du covid-19, la Chancellerie avait publié au journal officiel, le dimanche 29 mars 2020, un décret (n° 2020-356) portant création d’un traitement automatisé de données à caractère personnel dénommé DataJust. Ce décret prévoyait, pour une durée de deux ans, le développement d’un algorithme destiné à permettre « l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges ». Sur le site d’Etalab, l’équipe chargée du projet indiquait alors qu’avec DataJust, les victimes « pourraient comparer en pleine connaissance de cause les offres d’indemnisation des assureurs et les montants qu’elles pourraient obtenir devant les tribunaux ; les avocats disposeraient d’informations fiables leur permettant de conseiller leurs clients ; les magistrats auraient un outil d’aide au chiffrage des préjudices grâce à un accès facilité à des jurisprudences finement ciblées ».
Bien que présenté par la Chancellerie comme un « outil de qualité », ce projet était très controversé dès son origine car il posait de nombreuses questions. Patrick Hetzel avait alors pris l’initiative, soutenu par plusieurs dizaines de ses collègues députés, de déposer une proposition de résolution dans laquelle il développait justement ces interrogations :
Va-t-on arriver à la disparition progressive des avocats ? Avance-t-on vers une société de « juges-robots » ? Peut-on laisser aux algorithmes le pouvoir de juger ? La machine est-elle en voie de remplacer le juge ? Est-ce la fin programmée des décisions individualisées ? Va-t-on vers l’automatisation de la justice ? Lorsque les avocats y recourent pour préparer leur défense ou mettre en place les bases d’une négociation, comment s’assurer que le socle jurisprudentiel sur lequel s’appuient les résultats est fiable et exhaustif ? Quelle garantie a-t-on que le raisonnement qui a conduit à la prédiction judiciaire est incontestable ? Si la justice prédictive repose sur le postulat que peut être anticipé le résultat d’une procédure, grâce à la puissance de calcul de solutions informatisées agrégeant des milliers de décisions de tribunaux et cours combinées avec les paramètres spécifiques d’une affaire, arrivera-t-on à des jugements prédéterminés en fonction du lieu ? Peut-on préserver l’anonymat des personnes citées dans un jugement tout en diffusant l’essentiel du contenu d’un jugement anonymisé ? Ne court-on pas le risque d’une réidentification des personnes simplement en croisant ces données avec d’autres sources ? Est-ce que toute vie « judiciaire » civile ou pénale, tout auteur ou toute victime, doit être sur la place publique d’Internet ? Comment s’assurer que les données dérivant des décisions juridictionnelles proviennent de sources certifiées et ne puissent pas être altérées jusqu’à leur utilisation effective par l’algorithme ? Comment prévoir l’instauration d’un barème en matière de réparation des préjudices corporels et de création d’un fichier comportant des données personnelles hors le cadre du règlement général sur la protection des données (RGPD) ? Comment encadrer les sociétés qui contribuent à la réalisation d’une fonction régalienne qu’est la justice ? Comment maîtriser la transparence de la méthodologie utilisée ? Comment éviter une commercialisation des données ? Comment mettre en place une éthique pour les « fabricants » d’algorithmes ? Est-il prévu une autorité de régulation des algorithmes ?
Face à toutes ces interrogations, cette résolution parlementaire rappelait que l’interprétation de la règle et du droit devait rester une prérogative strictement humaine. Le Conseil national des barreaux avait d’ailleurs lui aussi alerté et déposé un recours devant le Conseil d’État.
Il est donc heureux de voir que le Ministère de la Justice, deux ans après, reconnaît que cette direction, cherchant à développer une justice prédictive, via DATAJUST, n’était pas la bonne. Il est toutefois regrettable de voir que des moyens financiers, humains et publics ont été investis inutilement dans l’ensemble de cette opération dont l’issue était hautement prévisible.