<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=3878452268881693&amp;ev=PageView&amp;noscript=1">

Le rôle du juge face aux décisions administratives algorithmiques

25 février 2020

6 min

Claire Aguilon Interview Predictice
Entretien avec Claire Aguilon, docteur en droit et membre de l’Association Française des Docteurs en Droit, évoque les conséquences du développement de l'IA sur l'office du juge administratif.

A l’occasion du partenariat entre Predictice et l’AFDD, nous vous proposons une série consacrée aux contributions des docteurs en droit co-rédacteurs de l’ouvrage “Droit en mutation II”. (3/8)

 

Pourquoi avez-vous choisi de traiter ce sujet?

Le développement des algorithmes d’apprentissage profond durant ces dernières années rend possible une prise de décision automatisée efficace et autonome dans de nombreux domaines (prêt bancaire, assurances, orientation universitaire…).

 

Cette évolution technique a entraîné une intervention du législateur européen et national par l’admission, sous conditions, des décisions administratives individuelles automatisées.

 

Tout administré peut désormais voir sa situation personnelle affectée par une prise de décision algorithmique (octroi d’aides sociales, domaine fiscal, contravention routière…).

 

L’interdiction absolue de la prise de décision administrative individuelle automatisée par la loi informatique et liberté dans sa version de 1978 visait à éviter toute menace pour les droits et libertés. Le secteur public est en effet soumis à des exigences particulières vis-à-vis du public.

 

Parmi les conditions encadrant les décisions algorithmiques, l’explicabilité est capitale, car elle garantie le droit des administrés de contester en justice une décision les concernant car elle leur permet d’obtenir des explications sur les erreurs ou les biais que pourraient comporter ces décisions en ayant accès à ses fondements juridiques et factuels. Or l’interprétation de cette notion, indéterminée, pourrait être au cœur de nombreux litiges.

 

Les juristes, afin d’éviter le recul de l’état de droit que causerait l’incapacité des administrés à contester les décisions les concernant, sont donc amenés à préciser comment experts et juristes participent à l’interprétation des conditions encadrant l’adoption de décisions automatisée et en particulier celle d’explicabilité.

 

Dans cette perspective, le rapport parlementaire de 2019 sur l’intelligence artificielle, s’interrogeant sur les enjeux éthiques de cette dernière, soulignait la nécessité de soutenir la recherche sur l’explicabilité des modèles, avec une volonté «d’ouvrir la boîte noire de l’intelligence artificielle».

 

Sur un plan théorique, les progrès techniques de «l’intelligence artificielle» rappellent l’importance d’un questionnement sur les pouvoirs du juge : réception par le droit de normes déontologiques et techniques, prise en compte des destinataires d’une décision, influence du contexte sur l’interprétation du droit.

 

Quelles conditions doit respecter une décision administrative individuelle prise exclusivement sur le fondement d’un algorithme?

L‘adoption d’une décision administrative algorithmique est possible (Règlement Général sur la Protection des Données, article 22):

  • si la personne concernée a explicitement donné son consentement au traitement ou ce traitement est nécessaire à la conclusion ou à l’exécution d’un contrat la liant au responsable de traitement. Le responsable de traitement est alors tenu d’adopter les mesures nécessaires à la défense des droits et libertés et des intérêts de la personne concernée;
  • ou si l’autorisation d’une décision automatisée par le droit de l’UE ou le droit national auquel est soumis le responsable de traitement constitue une seconde exception. Dans cette hypothèse, il revient au droit national d’encadrer ce traitement pour assurer la défense des droits et libertés et des intérêts de la personne concernée.

En France, le décret du 14 mars 2017, précise que doivent être fournies, à la demande de l’intéressé :

 

  • le « degré et le mode de contribution » du traitement algorithmique à la prise de décision,
  • les données traitées et leurs sources,
  • les « paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé »,
  • les opérations effectuées par le traitement.

D’autres mentions doivent figurer en ligne, précisant en particulier les finalités du traitement (code des relations entre le public et l’administration, art. R311–3–1–1).

 

La personne faisant l’objet d’une décision individuelle algorithmique est en droit (RGPD, art 22 et cons. 71):

 

  • d’être informée de l’existence d’une décision la visant,
  • de recevoir des explications sur la décision et la méthode employée par l’algorithme,
  • de contester la décision et d’exprimer son point de vue,
  • d’obtenir une intervention humaine pour examiner la décision prise.

En outre, les décisions individuelles algorithmiques visant certaines catégories de données à caractère personnel, par exemple révélant l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques, sont interdites, sauf exceptions prévues par le RGPD (art 22 et art 9).

 

Enfin, le responsable de traitement devrait prévenir tout effet discriminatoire à l’égard des personnes concernées (RGPD, cons. 71).

 

Pouvez-vous nous parler de l’impératif d’explicatibilité de l’algorithme ?

L’explicabilité d’une décision (RGPD, art. 22 et cons. 71), impose au responsable de traitement de se trouver en mesure de rendre compte d’une décision, c’est-à-dire de comprendre quels sont les critères qui fondent la décision sans forcément comprendre tout le mécanisme de sa construction.

 

Il s’agit en premier lieu de déterminer dans quelle mesure l’explication donnée doit être intelligible pour l’administré. Le droit de l’Union européenne (RGPD, art. 58 et 60) impose l’intelligibilité d’une décision administrative automatisée..

Le droit français (Article R311–3–1–2 du code des relations entre le public et l’administration comme le droit de l’Union européenne (RGPD, art. 58 et 60) imposent l’intelligibilité d’une décision administrative automatisée.

 

Le droit pour l’administré à une intervention humaine du responsable de traitement constitue un moyen d’assurer l’intelligibilité de la décision rendue. Le Conseil constitutionnel, dans sa décision de juin 2018, confirme le droit de l’intéressé à une explication détaillée et intelligible, ce qui implique la maîtrise par le responsable du traitement algorithmique et de ses évolutions et justifie la prohibition des logiciels parfois qualifiés d’«auto-apprenants».

 

Le RGPD et le droit français ne précisent pas comment concilier la précision de l’explication et son intelligibilité. La jurisprudence administrative recherche déjà un compromis entre clarté pour l’administré de l’explication d’une décision et exactitude de l’explication. La nature de l’explication exigée pourrait dépendre du secteur concerné par la décision algorithmique. Ainsi, une décision défavorable du secteur public pourrait se trouver soumise à une obligation de motivation renforcée.

 

La notion d’explicabilité une fois définie, il reste à déterminer comment la concilier avec d’autres impératifs, comme la qualité prédictive de l’algorithme. Les algorithmes les plus performants reposent sur des méthodes pouvant les rendre opaques.

 

En quoi l’admission des décisions prises sur le fondement d’un algorithme induit une mutation du contrôle des décisions administratives individuelles par le juge ?

Si par sa nature, la question de la prise en compte d’avis d’experts et de textes techniques par le juge pour interpréter une règle de droit n’est pas nouvelle, elle se pose avec une ampleur sans précédent dans le domaine des décisions algorithmiques. Les frontières se brouillent entre règles de droit et règles algorithmiques fondant ce type de décision.

 

Le juge, en contrôlant des décisions administratives individuelles automatisées, est amené à interpréter des notions comme celle de discrimination ou d’explicabilité, qui sont à la fois définies par les juristes et par les informaticiens.

 

Un différend sémantique peut se trouver à l’origine du différend juridique. Le juge pourrait, par exemple, avoir à trancher entre le sens donné à l’explicabilité par le responsable de traitement et celui privilégié d’ordinaire par les juristes au travers de la jurisprudence et des règles de droit générales ne s’appliquant pas spécifiquement à la protection des données personnelles.

 

Le juge pourrait être amené, à déterminer dans quel cas des méthodes d’apprentissages sont «explicables». Lorsqu’une méthode d’apprentissage est fondée sur un modèle explicite, il pourrait avoir à préciser à partir de quelle quantité de paramètres la condition d’explicabilité est satisfaite. Lorsqu’un algorithme est fondé sur une «boîte noire», il pourrait avoir à identifier des indicateurs et des variables, permettant de satisfaire à cette condition.

 

Il s’agit également d’établir si le juge, pour rechercher si la condition d’explicabilité est satisfaite, pourrait avoir à prendre en compte la maîtrise le langage informatique par l’administré visé par une décision algorithmique.

 

Enfin, la question se pose de l’impact des pouvoirs du juge sur les techniques informatiques auxquelles peut recourir l’administration à des fins décisionnelles.

 

La conciliation par la jurisprudence entre la précision de l’explication donnée, son intelligibilité et l’efficacité de l’algorithme est susceptible d’avoir des répercutions sur les choix adoptés lors de la conception d’algorithmes, permettant de trancher entre les deux voies envisageables pour améliorer leur explicabilité : «inférer des règles explicables de plus en plus complexes jusqu’à la limite de l’inexplicable ou simplifier les réseaux de neurones jusqu’à un semblant d’interprétabilité, au détriment de leur performance».

 

Pour lire d'autres interviews d'auteurs de l'ouvrage Droits en mutation II, cliquez ici : https://blog.predictice.com/droits-en-mutation-ii-docteurs-en-droit.

Picture of Julia Boccabella
Julia Boccabella

Diplômée en droit, Julia est en charge de la formation et de l'accompagnement des utilisateurs de Predictice.

Accueil  ›   Actualités juridiques  ›  Le rôle du juge face aux décisions administratives algorithmiques

Chaque mois, retrouvez l’essentiel de l’actualité juridique analysée par les meilleurs experts !