Sommaire des conseils pratiques provisoires aux tribunaux sur l’expérimentation des outils d’intelligence artificielle (IA), fourni par the National Center for State Courts (NCSC)

Ce contenu n'est pas disponible dans la langue sélectionnée.

Par Hugo Lagache            Auxiliaire de recherche  Laboratoire de Cyberjustice

Le Laboratoire de cyberjustice a le plaisir de vous présenter un sommaire des conseils pratiques provisoires aux tribunaux sur l’expérimentation des outils d’intelligence artificielle (IA), fourni par the National Center for State Courts (NCSC).

 

Les conseils de la NCSC sont décomposés en deux volets. Le premier volet de conseils concerne les débuts de l’utilisation de l’IA générative par les cours. Le deuxième volet s’axe sur la mise en garde de cette utilisation.

 

Le premier volet comporte 6 conseils permettant aux juridictions de commencer l’utilisation de l’IA tout en minimisant les risques.

  1. Sélectionner les tâches simples utilisant exclusivement des données publiques, telles que la synthèse de documents longs ou la rédaction préliminaire de documents internes.
  2. Avoir une vérification humaine des inférences. Les résultats de l’IA ne doivent pas être considérés comme fiables tant qu’un expert ne les a pas vérifiés. En fonction de l’utilisation de l’IA, une vérification périodique devrait être considérée.
  3. S’assurer que l’organisation et les responsables sont à l’aise avec les tâches pour lesquelles l’IA sera utilisée. S’assurer aussi qu’ils acceptent les termes et conditions d’utilisation. Pour cela, une politique interne permettant l’utilisation de la technologie de l’IA est recommandée.
  4. Former le personnel et les juges à utiliser l’IA générative comme ChatGPT, Bard, DeepL ou Copilot.
  5. Complexifier les tâches au fur et à mesure que le personnel s’acclimate aux utilisations de l’IA.
  6. Partager les expérimentations et leçons apprises entre tribunaux

Le deuxième volet souligne l’importance pour les tribunaux de comprendre les outils d’IA, en mettant l’accent sur la sensibilité des données utilisées et générées, ainsi que sur la compréhension de qui peut accéder à ces données et à quelles fins elles seront utilisées.

Il est essentiel pour les cours de passer en revue et de comprendre attentivement toutes les modalités contractuelles en ce qui concerne :

  • Le « prompt » : savoir et comprendre les sollicitations de l’utilisateur guidant la génération de contenu par l’IA, y compris les paramètres contrôlant ces sollicitations.
  • Le contenu généré.
  • Les données d’entrainement de l’IA.
  • La méthode d’entrainement de l’IA.
  • Qui a accès aux « prompts » ou contenu généré (utilisateurs, fournisseur de l’IA, tierces parties, etc.) et comment cela est conservé et utilisé à des fins d’amélioration de l’IA.

La NCSC, conseille également de prendre en compte l’avis de tous les acteurs : des représentants des TI, des conseillers juridiques, de la magistrature et des affaires et des opérations pour comprendre et utiliser l’IA.

Finalement, la NCSC, invite les cours à être attentives à tous les éléments entourant l’utilisation de certains services d’IA : comme la nécessité de s’inscrire ou de créer un compte pour utiliser l’IA ; et la modification des conditions d’utilisation après avoir implanté la technologie. Les cours doivent également prendre en considération la tendance de certains produits à être commercialisés en prétendant utiliser l’intelligence artificielle or, cette utilisation peut être minime ou absente. Il est crucial d’évaluer attentivement un produit pour déterminer s’il possède véritablement des capacités d’IA, car celles-ci peuvent parfois être cachées ou exagérées à des fins de marketing.

 

Guides complets

 

 

Ce contenu a été mis à jour le 30 avril 2024 à 13 h 53 min.