L’implantation et l’utilisation des outils d’intelligence artificielle dans l’administration publique

Par Sylvain Longhais  – Auxiliaire de recherche au Laboratoire de Cyberjustice

La création et l’utilisation des algorithmes explosent dans de nombreux secteurs d’activités tertiaires divers et variés. L’administration publique et ses nombreuses composantes n’échappent pas à cette déferlante et on voit fleurir un peu partout dans le monde, des initiatives de modernisation des organes gouvernementaux par le développement d’outils d’intelligence artificielle. En 2021, le Conseil du trésor du Québec a consigné dans un rapport, sa « stratégie d’intégration de l’intelligence artificielle dans l’administration publique » qui s’étale selon un plan quinquennal. Il y est question du potentiel de l’intelligence artificielle dans le cadre de l’administration publique, des opportunités d’une telle intégration et bien évidemment des défis qui s’y attachent. Brièvement, la stratégie est axée sur cinq principes recoupant successivement des aspects comme les bienfaits pour les citoyens, les considérations éthiques, notamment attenantes à la vie privée, et la volonté d’impliquer les acteurs « made in Québec » dans l’implantation de ces outils d’intelligence artificielle. Le chemin jusqu’à la réussite de cette stratégie est jalonné d’objectifs juridiques, économiques et technologiques, à atteindre. L’exemple québécois dont nous avons dressé un bref état des lieux est intéressant en ce qu’il constitue un aperçu de comment se conçoivent les stratégies d’intégration de l’IA dans les administrations publiques. Considérant la recrudescence de l’utilisation de ces outils dans nos sociétés démocratiques à travers le monde, il est important d’avoir une idée des enjeux pris en compte.

La recrudescence des outils d’intelligence artificielle dans l’administration publique est illustrée par un document de travail du Laboratoire de Cyberjustice au sujet de l’utilisation d’algorithmes par les administrations publiques dans les rapports entre administration et administré. L’étude portait en effet sur pas moins de 91 outils algorithmiques répartis dans quatre pays différents : le Canada, la France, les États-Unis et le Royaume-Uni. La majorité des outils inventoriés était implantée au sein de l’administration centrale bien que les initiatives locale et régionale ne soient pas en reste, puisque se partageant à quasi-égalité les 50 % restants. Il est assez édifiant de constater que c’est dans le domaine de l’ordre et de la sécurité publique que la plupart de ces outils algorithmiques sont utilisés, mais qu’ils sont également très présents dans le secteur de l’administration fiscale. Toutefois, l’utilisation des outils algorithmiques n’a pas qu’une fonction de police si l’on en croit leur forte utilisation dans le domaine de la protection sociale. La mise en exergue de ces deux secteurs n’est pas anodine puisque la plupart des outils à l’étude servent soit à augmenter les capacités d’inspection que l’on retrouve dans les services de police, soit à l’aide à la décision, utilisation que l’on retrouve dans des domaines plus sociaux de l’administration. Ces outils d’intelligence artificielles au service de l’administration publique remplissent des fonctions très utiles mais sont parfois controversés.

Sur l’aide à la décision particulièrement, un outil à l’étude a particulièrement défrayé la chronique en France et continue de faire couler de l’encre, si bien qu’il soit remis en question chaque année. Il s’agit de « Parcoursup ». En France, Parcoursup est le portail sur lequel vont se faire les affectations dans les programmes d’études supérieures des futurs bacheliers, c’est-à-dire les finissants du lycée. Lors de la phase de sélections des dossiers par les établissements d’études supérieures, Parcoursup fournit un outil d’aide à la décision qui consiste en un fichier qui aide les établissements à établir un classement des candidats. Selon un rapport de la Cour des comptes datant de 2020, 33 %, soit un tiers des établissements utilisaient l’outil d’aide à la décision de Parcoursup. Sur le total des candidatures en France cependant, c’était 66 % d’entre elles qui étaient traitées par l’outil d’aide à la décision. Bien que les établissements ne soient pas tenus d’utiliser l’outil d’aide à la décision, la Cour avait relevé que de plus en plus de commissions d’établissements se fondaient sur cet outil pour préclasser les candidats. Dès lors, elle préconisait la publication d’algorithmes utilisés pour effectuer ce premier classement. Il est également intéressant de savoir que les filières ont une possibilité de paramétrer l’outil d’aide à la décision selon les matières qu’elles souhaitent mettre de l’avant dans l’établissement du classement. Cela nous amène à un autre problème provenant des critères de sélections par l’outil algorithmique, parfois discutables et souvent discutés. Par exemple, afin de compenser la disparité des notes des étudiants entre les établissements réputés sévères et les établissements réputés plus souples, il était introduit dans l’outil, un critère du lycée d’origine sans qu’aucune garantie quant à la fiabilité du critère et ipso facto du résultat n’ait été prise. Dès lors, l’utilisation de l’algorithme de présélection pouvait entraîner des discriminations entre les élèves fondées sur le lycée d’origine sans qu’aucun contrôle humain ne soit effectué en amont. De la même façon, l’introduction de critères relatifs à la situation sociale de l’étudiant visant à une diversification sociale dans les établissements a eu que très peu d’effets. Devant l’opacité des critères et sur la base d’une question prioritaire de constitutionnalité, le Conseil constitutionnel avait tranché en faveur d’une communication des critères et des modalités d’examens des candidatures sur le fondement de l’article 15 de la Déclaration des droits de l’homme et du citoyen qui dispose que : « la société a le droit de demander compte à tout agent public de son administration ». Cependant, cette décision des Sages revêtait une portée générale et n’était pas seulement relative à l’utilisation de l’outil algorithmique d’aide à la décision. De plus, elle ouvre un droit a posteriori seulement, soit après les délibérations par les jurys et le recours à l’outil d’aide à la décision. La plus grosse crainte de l’utilisation d’un tel outil dans la sélection par les filières des futurs bacheliers est évidemment celle relative aux possibles discriminations. Depuis 2019, soit un an après sa sortie, certains progrès ont été faits concernant les critères. Ainsi, le nom, le genre et l’adresse des candidats ne sont plus communiqués aux établissements afin de ne pas créer de biais à ce niveau sur la sélection. Pour autant, il semble que la suppression de ces critères ne soit pas de nature à faire cesser les discriminations issues du classement effectuées par l’aide à l’outil algorithmique. Par conséquent, on ne déplorera pas tant l’utilisation d’un outil d’aide à la décision dans le secteur de l’éducation, que l’opacité qui l’entoure ; à savoir, les critères retenus par les établissements lors du préclassement par l’outil algorithmique et l’absence de publication d’algorithmes dits « locaux », au sein même des filières. Quoiqu’il en soit, Parcoursup et son outil d’aide à la décision souffrent de reproches communs à l’utilisation de ce type d’outils d’intelligence artificielle. La question n’est alors pas de savoir si leur utilisation se justifie ou non, au regard de l’affluence toujours plus importante de bacheliers dans des filières d’enseignement supérieur, mais plutôt de savoir comment éviter les biais et les discriminations qui peuvent en découler. Pour la sociologue Agnès van Zanten dans un entretien à Le Monde, c’est l’absence de contrôle scientifique dans le choix des critères et de pondération qui est le plus problématique.

Mais, certaines expériences passées ont démontré que les dérives peuvent être encore plus exacerbées pour peu que l’on soit en présence d’un outil algorithmique qui n’est plus seulement un outil d’aide à la décision, mais bien un outil menant à une décision automatisée sans intervention humaine. C’est notamment l’histoire de MiDAS, un outil algorithmique mis en opération par le Michigan Unemployment Insurance Agency et qui va sévir un peu moins de deux ans. Les objectifs de cet outil étaient les suivants : contrôler le fait que seuls les bénéficiaires d’un chèque de l’assurance chômage puissent les recevoir, traiter de manière plus efficace le traitement des demandes d’assurance-emploi et les réponses à ces demandes et enfin réduire les effectifs en personnel pour réduire les coûts opérationnels. Après avoir licencié 400 employés normalement chargés du contrôle des fraudes, l’UIA les a remplacés par l’outil algorithmique en question. Ce dernier n’a malheureusement pas comblé toutes les attentes fondées sur son utilisation. Au total, l’outil s’est prononcé sans intervention ni supervision humaines, sur plus de 40 000 dossiers. Sur ces 40 000 dossiers, 85 % des décisions automatiques ont constitué une accusation erronée. Les conséquences pour les individus concernés par la décision automatique prise à leur encontre ont été catastrophiques, menant jusqu’à des faillites personnelles.

Dès lors, constatant de telles dérives, certaines interrogations subsistent sur l’utilisation des outils d’intelligence artificielle dans l’administration publique. Force est de constater que lorsqu’il s’agit de prendre une décision automatisée à l’encontre d’une personne qui peut potentiellement affecter son existence à court, moyen et long terme, il s’agit d’être précautionneux. Il en est de même lorsqu’on utilise des outils d’intelligence artificielle à des fins de profilage et notamment dans les services de police. Les biais racistes dans les algorithmes sont à ce titre un enjeu majeur. Certains biais racistes se sont d’ailleurs retrouvés dans des outils de prédiction de la récidive pour des personnes déjà condamnées. Ainsi, entre deux individus arrêtés et condamnés pour les mêmes méfaits, la personne noire se retrouvait avec un haut risque de récidive tandis que la personne blanche, elle, avait une prédiction de récidive beaucoup moins élevée, sans qu’aucune explication autre qu’un biais raciste dans le système d’intelligence artificielle ne puisse être avancée.

Il ne convient cependant pas de refuser en bloc les outils d’intelligence artificielle sur le seul fondement de ces dérives, et beaucoup d’entre eux peuvent se révéler très utiles dans l’administration publique. De manière générale, selon un rapport de l’Université Laval, portant sur l’intelligence artificielle dans l’administration publique au Québec, les effets positifs de l’intelligence artificielle dans les administrations publiques se traduisent par l’amélioration de la qualité du rapport entre l’organisation publique et les usagers. La célérité des procédures semble être le premier effet bénéfique de l’implantation de ces outils d’intelligence artificielle. À cet égard, là où le traitement manuel d’une demande par un administré peut prendre beaucoup de temps, une solution d’IA permet de répondre à la demande de manière quasi instantanée. On ne retrouve pas seulement ce gain de temps pour ce qui est des outils permettant d’automatiser le traitement des demandes (à ne pas confondre avec l’automatisation d’une décision faite à l’égard de quelqu’un), on le retrouve également dans les outils permettant d’aider les employés qui traitent les demandes des administrés. Selon le même rapport, des outils de transcriptions automatiques des conversations téléphoniques avec les usagers permettent de réduire la durée de l’appel puisque l’agent n’a plus à se concentrer sur la prise de notes pendant l’appel. Cette réduction du temps de l’appel permet en conséquence de traiter plus de demandes et réduire les délais de traitement. De plus, les bénéfices de l’implantation d’outils d’intelligence artificielle dépassent le simple cadre des relations entre les administrations et les administrés. En effet, cela a également un réel impact sur l’amélioration des relations de travail au sein des administrations publiques. La meilleure supervision et la personnalisation du suivi des employés sont à cet égard deux facteurs pour lesquels l’implantation d’outils d’intelligence artificielle dans les administrations publiques pourrait produire des effets positifs intéressants.

L’accès à certains services généralement gérés par l’administration publique devrait également être amélioré grâce aux outils d’intelligence artificielle. Il ne s’agit plus ici de savoir, si la qualité du service fourni par l’administration est de bonne qualité, mais plutôt de savoir si dans ses domaines régaliens, l’administration publique, modernisée avec des outils d’IA, peut répondre adéquatement aux enjeux d’intérêt public que représentent certains secteurs clés. C’est notamment le cas du secteur de la santé. Des outils d’intelligence artificielle, dont certains font partie de l’étude qui a été menée par le Laboratoire de Cyberjustice, répondent à ces enjeux propres aux domaines de l’administration publique. On pense par exemple à l’outil Score Cœur implanté en France qui permet d’établir une prédiction du risque de mortalité des patients qui sont inscrits sur une liste d’attente de transplantation cardiaque. Une fois, cette prédiction effectuée, un classement en fonction de la gravité de la situation est établi afin de prioriser les transplantations les plus urgentes. Cependant, le classement peut tout à fait être modifié, eu égard à une situation particulière ou bien en considération d’un avis médical formulé par un médecin. En conséquence, nous ne sommes pas dans la situation ou la décision de prioriser telle ou telle transplantation est décidée par un algorithme étant donné que l’intervention humaine reste prééminente. Mais cela permet de mieux compiler les données sur ces patients et d’avoir un suivi plus précis sur ces questions. In fine, cet outil d’intelligence artificielle permet à l’administration publique des hôpitaux en France d’avoir une gestion plus efficace et un meilleur suivi des transplantations cardiaques. La même chose existe pour les greffes de reins depuis 2015 sous le nom de Score Rein. Dans le domaine médical alors, les outils d’intelligence artificielle venant soutenir l’administration publique peuvent s’avérer très efficaces.

Ces outils d’intelligence artificielle qui viennent littéralement épauler l’administration publique dans la gestion de ses domaines régaliens sont une avancée importante, en ce qu’ils permettent d’assurer une meilleure traçabilité des problématiques, une connaissance plus précise de la situation globale, et l’apport de réponses plus adaptées. On retrouve d’ailleurs ces initiatives dans une multitude de domaines allant jusqu’à l’attribution de places en crèche, secteur éminemment social. Tous les domaines et tous les niveaux de l’administration publique sont dès lors concernés par l’intégration d’outils d’intelligence artificielle. La composante-bénéfices/risques et des garanties concernant les algorithmes devraient être systématiquement étudiées, comme nous l’aurons constaté avec les problèmes posés par l’outil Parcoursup. De plus, les outils d’intelligence artificielle menant à une décision automatisée ou un profilage trop invasif devraient être limités et réglementés, au risque d’arriver à des conséquences dramatiques comme le cas MiDas. Pour autant, les apports de l’intelligence artificielle, pour répondre aux défis auxquels l’administration publique est confrontée, sont prometteurs. Il semble par conséquent important de considérer l’intelligence artificielle comme une aide non négligeable aux administrations, tout en encadrant ses pratiques pour limiter aux maximums les risques qui y sont associés.

Ce contenu a été mis à jour le 21 juin 2022 à 12 h 02 min.