L’intelligence artificielle (IA), cet outil révolutionnaire qui pose tant de questions, est au cœur d’un récent rapport de l’UNESCO, publié en décembre 2025, intitulé Guidelines for the use of AI systems in courts and tribunals.
Nous évoluons dans un contexte de numérisation où l’IA est de plus en plus incorporée dans divers aspects de la vie en société, y compris dans la transformation des systèmes judiciaires. Cette technologie offre de nouvelles avenues pour améliorer l’accès à la justice, optimiser la gestion des dossiers et faciliter la prise de décision, mais pose aussi des défis complexes en matière d’éthique et de respect des droits humains. Ainsi, ces lignes directrices de l’UNESCO visent à fournir des orientations pratiques aux juges, aux administrateurs de la justice et aux décideurs politiques qui envisagent d’adopter l’IA.
Rappelons que l’UNESCO est l’organe des Nations Unies en charge de l’Éducation, la Science et la Culture et que, par conséquent, ces recommandations ne sont pas anodines. Ce rapport repose sur le travail d’experts venus de 160 pays différents et, au total, plus de 36 000 acteurs du système judiciaire ont contribué à son élaboration. Ce travail colossal s’intègre dans le projet « Supporting Member States in Implementing UNESCO’s Recommendation on the Ethics of AI through Innovative Tools », financé par la Commission Européenne. De la panoplie d’autres rapports produits par diverses instances et organisations au cours des dernières années, celui-ci se distingue en étant le premier cadre éthique et opérationnel à vocation mondiale pour l’IA dans les contextes judiciaires.
Depuis les dernières années, les juridictions à travers le monde intègrent l’IA dans leur quotidien afin d’améliorer la qualité et l’accès à la justice. C’est le cas par exemple en Chine (à laquelle nous avions dédié un billet de blogue dernièrement), mais également au Brésil, en Inde ou encore au sein de l’Union Européenne (UE). Face à ces changements d’envergure au sein de nombreuses juridictions, il est important de formuler des réglementations et recommandations appropriées afin d’éviter, ou du moins de réduire, les risques liés à l’utilisation de l’IA, surtout dans un domaine aussi sensible que la Justice. De plus, comme le précise l’UNESCO sur son site web, des erreurs ont parfois lieu à cause de l’usage de l’IA, nécessitant donc une réglementation générale en la matière.
Conçues sur la base de 15 principes universels, les recommandations de l’UNESCO préconisent l’IA comme un outil d’assistance, et non de substitution, utilisé de manière responsable et toujours sous supervision humaine. Le rapport est divisé en quatre catégories :
- Les principes généraux ;
- Les recommandations aux organisations judiciaires ;
- Les recommandations aux membres individuels du système judiciaire ; et
- Les cas d’utilisation de l’IA générative.
Les principes généraux
L’UNESCO énonce 15 principes que l’on dira généraux et universels :
- Protection des droits humains : faire en sorte de respecter certains principes fondamentaux, tels que la non-discrimination, l’égalité, une procédure juste et équitable, le droit au respect de la vie privée et des données personnelles, et enfin de liberté et de sécurité.
- Proportionnalité : adopter, déployer et utiliser l’IA pour atteindre des objectifs légitimes et proportionnés dans le contexte de leur utilisation.
- Faisabilité des avantages : les organismes judiciaires doivent évaluer les avantages que procureraient l’utilisation de l’IA au sein de leurs services.
- Sécurité : avoir recours à des systèmes d’IA qui ne causent pas de dommages aux parties, aux juridictions ou à la réputation des institutions.
- Sécurité de l’information : les données confidentielles doivent être respectées au regard des standards internationaux en la matière.
- Exactitude et fiabilité : les résultats fournis par les systèmes d’IA doivent être pertinents, utiles et corrects.
- Explicabilité : les résultats de l’IA doivent être intelligibles et compréhensibles pour un opérateur humain.
- Auditabilité : faire en sorte que les systèmes d’AI puissent faire l’objet d’audit lors de leur fonctionnement.
- Transparence : informer sur le développement, le fonctionnement, le traitement des données, les limites, les capacités et les buts de ces systèmes. Les utilisateurs doivent être informés des enjeux que comprend l’utilisation des systèmes IA.
- Sensibilisation et utilisation éclairée : comprendre et connaître les systèmes IA dans leur ensemble (limites, risques…).
- Responsabilité : il incombe aux individus et organisations qui déploient ces systèmes d’en assumer la responsabilité.
- Responsabilité et contestabilité : il est nécessaire de clarifier pourquoi les systèmes d’IA sont déployés et utilisés, et de mettre en place des mécanismes de contestation des décisions rendues par l’IA.
- Supervision/contrôle humain dans les décisions : les juges doivent contrôler les décisions rendues par l’IA, afin d’éviter une procédure complètement automatisée.
- Conception centrée sur l’humain et fondée sur la participation : la conception de ces systèmes doit impliquer des acteurs judiciaires, mais aussi être centrés sur l’humain afin d’être la plus inclusive possible.
- Gouvernance multipartie : il est important que les organismes judiciaires consultent et ouvrent des discussions pour ainsi éviter des pratiques discriminatoires.
Le respect de ces principes permet de développer une pratique et un usage sécurisés de l’IA, tout en respectant les droits des individus. On retrouve des principes clefs du droit, tels que la proportionnalité, ou la protection des droits humains, mais également la transparence de la justice. On remarque que les préoccupations que l’on retrouve dans la littérature sont prises en compte (notamment la crainte d’un manque d’intervention humaine en cas d’utilisation de l’IA).
Les recommandations aux organisations judiciaires
Mettre en place des lignes directrices spécialement pour les tribunaux est essentiel, puisque ce sont les lieux où le changement sera le plus grand (moins d’interactions avec le public, réorganisation des tâches, peut-être la création de pôles dédiés à l’IA…). Le rapport de l’UNESCO divise en trois catégories les recommandations aux juridictions :
1. le développement, l’acquisition, l’utilisation et l’évaluation des systèmes d’IA
L’objectif ici est de réguler les différentes étapes de la vie des systèmes IA, du développement à l’utilisation de ces outils. L’UNESCO dresse donc un arsenal de recommandations visant à encadrer le plus largement possible l’intégration de l’IA au sein des juridictions.
Par exemple, cette catégorie de recommandations inclut les mesures à prendre afin de respecter l’indépendance et l’impartialité de la justice (recommandation 2.1.1), mais également la nécessité d’élaborer des règles internes sur l’utilisation des systèmes IA (incluant notamment les enjeux liés à la responsabilité) (recommandation 2.1.9). Enfin, on y recommande d’arrêter toute utilisation des outils IA si leur fonctionnement porte atteinte aux droits fondamentaux (recommandation 2.1.13).
2. Le facteur humain
À travers cette catégorie de recommandations, l’UNESCO se concentre sur les mesures que les juridictions doivent prendre concernant les utilisateurs de l’IA. En effet, les juridictions sont responsables de l’utilisation de l’IA développé en leur sein. Par conséquent, il est primordial pour ces institutions de mettre en œuvre des stratégies et des règlements internes afin que l’usage de l’IA se fasse dans le meilleur cadre possible.
L’UNESCO recommande donc d’apporter des modifications au niveau de l’apprentissage (recommandation 2.2.1), mais aussi de former le personnel judiciaire face à de tels outils (2.2.2). À cela, l’UNESCO ajoute une recommandation relative aux procédures internes relatives aux ressources humaines (recrutement, évaluation…) (recommandation 2.2.4).
3. L’IA générative
Le rapport de l’UNESCO dresse une série de recommandations relatives à l’IA générative (IAG), et à son usage au sein des juridictions. En effet, ces outils peuvent s’avérer très puissants, et il est donc important d’en encadrer l’usage. L’idée ici est de faire en sorte que l’IAG soit comprise, et ainsi proprement utilisée.
Il est recommandé pour les juridictions de sensibiliser leur personnel aux fonctionnalités de l’IA, sans oublier ses limites (recommandation 2.3.1), mais aussi de vérifier que les résultats fournis par l’IA sont authentiques et intègres (recommandation 2.3.2). Pour finir, une dernière recommandation est listée concernant le non-recours à l’IA dans certains cas. Assurément, l’IA est un outil fantastique qui permet de faciliter le travail, mais il est parfois préférable de ne pas y recourir dans certains cas, notamment dans des domaines d’expertise qui peuvent s’avérer être trop sensibles.
Les recommandations aux membres individuels du système judiciaire
C’est au tour des membres des institutions de faire l’objet de recommandations. Ils sont les acteurs du monde judiciaire, au cœur de l’utilisation de l’IA, et donc de son contrôle. Cette dernière série de recommandations s’adresse directement aux membres des institutions judiciaires, et à comment l’IA doit être utilisée. Ici aussi, le rapport de l’UNESCO procède en trois temps, cette fois-ci de façon plus chronologique puisque l’on va d’abord s’intéresser aux étapes antérieures à l’utilisation de l’IA, puis à son utilisation, et enfin à l’utilisation de l’IAG par les membres des juridictions.
1. Ce qu’il faut faire avant d’utiliser les outils IA
Pour l’UNESCO, il est important que les utilisateurs des outils IA sachent comment utiliser ces systèmes. Il est donc primordial de se former en la matière. C’est pourquoi il est recommandé de prendre connaissance de tous les enjeux relatifs à l’usage de l’IA (risques, limites d’utilisation…) (recommandation 3.1.1).
2. L’utilisation de l’IA
Utiliser l’IA n’est pas à prendre à la légère, plusieurs mesures et précautions doivent être prises afin de garantir un usage sécurisé. L’UNESCO recommande donc de mentionner l’utilisation de l’IA, le cas échéant (recommandation 3.2.4), ou encore de se conformer aux termes d’utilisations des systèmes IA (recommandation 3.2.2). De plus, il est important de ne pas trop se reposer sur l’IA dans le cadre de prise de décision (recommandation 3.2.1).
3. L’IA GÉNÉRATIVE
Cette dernière catégorie de recommandations se concentre sur l’IAG, et les mesures à prendre par les utilisateurs. Ainsi, il est recommandé par l’UNESCO de ne pas fournir d’informations confidentielles et personnelles dans les systèmes d’IAG (recommandation 3.3.1). L’importance de vérifier les réponses fournies par les systèmes d’IA est rappelée, notamment dans le cadre des interactions avec des grands modèles de langage (LLM) (recommandation 3.3.2). En effet, la vérification humaine est primordiale, encore plus dans un milieu aussi sensible et délicat que la justice. Enfin, il est toujours bon de rappeler les principes de transparence (recommandation 3.3.7), d’intégrité (recommandation 3.3.8) et de responsabilité (3.3.9).
Les cas d’utilisation de l’IAG
Le rapport de L’UNESCO présente enfin les cas spécifiques où il pourrait être approprié d’avoir recours à l’IAG. Les cas d’utilisation énoncés par l’UNESCO sont les suivants (traduction) :
1. Corriger ou améliorer les premières ébauches de rapports administratifs, procès-verbaux de réunions, courriels, notes d’allocution, décisions judiciaires et jugements. Exemples d’utilisation :
- Améliorer la grammaire, l’orthographe et la structure des textes.
- Modifier le ton du texte, par exemple en le rendant plus accessible à différents publics cibles ou en utilisant un langage simple.
- Préparer des projets de traduction de passages.
2. Réorganiser les références selon un système de citation des sources donné.
3. Comparer des textes et des sources.
4. Concevoir des présentations et créer des visualisations.
5. Générer et ajuster du code informatique.
6. Effectuer des recherches préliminaires sur des sujets et poursuivre les étapes de recherche ultérieures à partir de sources fiables.
7. Réfléchir à des idées.
8. Structurer des arguments.
9. Explorer des explications alternatives ou critiques sur des points de droit.
10. Générer des résumés : toujours vérifier l’exactitude du résultat. »
Plusieurs de ces recommandations font écho à des rapports établis par d’autres organisations, nationales ou internationales. C’est le cas par exemple des Lignes directrices pour l’utilisation de l’intelligence artificielle dans les tribunaux, publiées par le Conseil canadien de la magistrature, dans lequel l’usage de l’IA dans les tribunaux canadiens est analysé et encadré. On y retrouve ainsi les questions éthiques, d’indépendance de la justice, mais aussi de la formation du personnel face aux outils d’IA. Ainsi, on observe une convergence d’objectifs entre les recommandations internationales et nationales.
Enfin, la prise en compte de ces lignes directrices et de ces recommandations est plus que nécessaire afin d’éviter les abus et les erreurs, mais également pour faciliter la transition vers un mode de travail facilité par l’intelligence artificielle. Ce rapport de l’UNESCO constitue donc un mode d’emploi de l’IA au sein des juridictions et guide instructif pour les professionnels du monde judiciaire.
Ce contenu a été mis à jour le 2 février 2026 à 15 h 47 min.

