Partager

2 min
2 min

Exclusif : le ministère de la Justice renonce à son algorithme DataJust

Selon nos informations, le ministère de la Justice a acté, jeudi 13 janvier, l’abandon du développement en interne de son algorithme DataJust, face à la complexité du chantier. Ce traitement de données devait servir à établir un référentiel fiable et officiel de l’indemnisation des victimes de préjudices corporels.
 

Pas de prolongation, et encore moins de généralisation pour DataJust. Alors que le Conseil d’État venait tout juste de donner tort aux opposants au projet, le ministère de la Justice a mis un terme au développement de son algorithme “DataJust”. Son expérimentation, prévue pour une durée de deux ans, avait démarré début 2020 pour passer au crible la jurisprudence en matière de préjudices corporels afin d’établir un référentiel de l’indemnisation à laquelle les victimes peuvent prétendre.

De tels référentiels et simulateurs circulent déjà de manière officieuse, fondés sur des analyses partielles. Tout l’enjeu était donc de s’appuyer sur la puissance supposée de l’intelligence artificielle pour en construire un officiel et fiable – mais uniquement indicatif – à partir des décisions de justice, dont l’accès, malgré la politique d’open data, est encore très limité pour les chercheurs et les entreprises spécialisées. Le ministère de la Justice poursuivait aussi, avec ce référentiel, un objectif de désengorgement des tribunaux en espérant qu’il favoriserait le règlement à l’amiable des litiges.

Pour entraîner l’algorithme DataJust, le ministère était autorisé à aspirer une large palette de données personnelles issues de ces décisions de justice, à l’exclusion des noms des parties : lieux de résidence, dates de naissance, genre, situations professionnelle et financière, condamnations pénales, nature et ampleur de l’atteinte à l’intégrité, à la dignité ou à l’intimité, dépenses de santé, avis des experts médicaux… Autant de données sensibles mais utiles à l’algorithme d’apprentissage automatique pour caractériser le lien entre le montant de l’indemnité et le préjudice corporel et en tirer des “règles” récurrentes.

Base de données incomplète

Mais tout ne s’est pas passé comme pouvait l’espérer l’équipe de développement. Non seulement le projet a été accueilli pour le moins froidement par les professionnels du droit, mais la base de données sur laquelle l’algorithme était entraîné était biaisée car incomplète, en l’absence des décisions de première instance notamment. Surtout, “le préjudice corporel est lui-même intrinsèquement très compliqué, avec 40 dimensions à prendre en compte, et la mobilisation de moyens [notamment pour étudier et prévenir les biais algorithmiques, ndlr] était trop conséquente pour atteindre un niveau de performance indiscutable”, souffle une source aux faits du dossier. Pour toutes ces raisons, un comité stratégique a scellé le sort de DataJust, ce jeudi 13 janvier. Contacté, le ministère de la Justice a simplement indiqué qu’un bilan de l’expérimentation était en cours, mais n’a pas voulu confirmer l’arrêt du développement.

Toute la question, désormais, pour le ministère, est de trouver une voie de sortie honorable, ou à tout le moins d’offrir une seconde vie aux travaux initiés en 2019 par la direction des affaires civiles et du sceau avec le programme “Entrepreneurs d’intérêt général”, pour tester l’approche et commencer à structurer les données issues des décisions de justice. Le ministère réfléchit donc à un moyen légal de sauver les données collectées dans le cadre de l’expérimentation – plutôt que de les supprimer, comme l’exige le décret de création – et d’en ouvrir l’accès sous conditions à des chercheurs pour qu’ils poursuivent ou mènent leurs propres travaux. La “justice prédictive” n’est pas encore pour demain…

Partager cet article

Club des acteurs publics

Votre navigateur est désuet!

Mettez à jour votre navigateur pour afficher correctement ce site Web. Mettre à jour maintenant

×