/home/lecreumo/public html/wp content/uploads/2020/04/singapour

Les enjeux éthiques des applications anti-pandémie

La pandémie de coronavirus fait éclore différents projets mobilisant les données massives et des techniques d’intelligence artificielle (IA). Ceux-ci cherchent à connaître et à réduire l’impact du virus à l’aide d’applications pour téléphones cellulaires ou directement, à partir des données de géolocalisation récoltées par les opérateurs téléphoniques. Parmi les objectifs évoqués on peut citer le traçage des rencontres avec des personnes infectées, l’évaluation du risque d’être soi-même infecté, l’optimisation des mesures de distanciation sociale, l’identification des comportements de mobilité de la population, le contrôle du confinement des personnes infectées et de la population en général ou encore une compréhension plus précise de l’épidémie et de son évolution. 

Certains de ces projets pourraient contribuer à “aplanir la courbe” de manière significative. Cependant, ils soulèvent aussi plusieurs enjeux éthiques importants. En particulier, ils risquent de conduire à stigmatiser certaines personnes ou certaines zones géographiques et de mener à des bris de vie privée conséquents en raison de la quantité importante de données personnelles collectées. De telles applications pourraient même paver la voie vers une société de surveillance et de contrôle de masse. Les risques d’erreurs sont aussi à redouter, tout comme le faux sentiment de sécurité et le non-respect du consentement libre et éclairé des utilisateurs. Enfin, il importe que ces projets soient réalisés en concertation étroite avec les autorités sanitaires et gouvernementales, et validées par un comité d’éthique. 

Des chercheur.se.s du CRÉ et des collaborateurs externes se sont penchés sur les questions éthiques que soulèvent les applications anti-pandémie. Voici le résultat de leur réflexion (disponible ici en .pdf).

(English version can be found here)

Propositions de projets et applications

Il existe plusieurs projets et modèles d’applications anti-pandémie avec des objectifs variés :

1. Recueillir des données à large échelle sur la pandémie incluant :

    • Les cas et les contacts entre patients infectés ou non,
    • Certains paramètres épidémiologiques de la pandémie comme le taux de reproduction de base (R0) du virus, le taux de létalité, etc., afin d’améliorer les modèles. 
    • La distribution spatiale des cas.
    • Les conditions qui favorisent la transmission du virus (distance et durée des rencontres, par exemple, utilisation ou pas de masques, conditions dans les lieux de travail, etc).

2. Informer les autorités gouvernementales sur l’évolution de la pandémie de façon à pouvoir prendre les meilleures décisions pour minimiser les dégâts.

3. Informer les usagers de l’application :

    • De leur degré d’exposition au virus ou leur risque de contracter la maladie,
    • Des meilleurs comportements à adopter, selon leur niveau de risque,
    • De la distribution spatiale des cas de la maladie ou de la densité de personnes à différents endroits,
    • De manière générale sur la pandémie et sur la COVID-19.

4. Changer le comportement de la population en encourageant de bonnes pratiques d’isolement (ex: pratiques de type “nudge”).

Différentes applications peuvent être développées dans le but d’atteindre certains ou plusieurs de ces objectifs. Une motivation importante derrière le développement de ces applications est de réduire le nombre de cas de la COVID-19 et leur sévérité dans un premier temps, ainsi que de faciliter un retour à la normale et la reprise des activités économiques par la suite. 

Sept enjeux: 

1- Éviter la stigmatisation des personnes à risque.  

  • Les personnes infectées et les personnes à risque de l’être pourraient facilement être stigmatisées et rejetées socialement, en particulier si l’application partage le score de risques avec d’autres personnes. D’une part, il est moralement problématique de blâmer des personnes pour avoir attrapé le virus. D’autre part cela peut avoir pour conséquence de compliquer la vie des personnes les plus vulnérables ou qui sont, de par leur travail, en contact avec des malades. 
  • Par exemple, une application qui permettrait d’identifier en direct le niveau de risque d’une personne croisée risque de renforcer la stigmatisation. 
  • De même, une application permettant de déduire indirectement le niveau de risque des personnes rencontrées dans la journée ou la semaine serait, à cet égard, problématique. Ceci est particulièrement vrai dans un contexte de distanciation sociale où le nombre de personnes rencontrées chaque jour est en général relativement faible.
  • Il faut éviter que l’application n’engendre des attitudes irrationnelles de méfiances mutuelles ou de paranoïa. 
  • La stigmatisation pouvant aussi être spatiale, il faut être particulièrement vigilant et circonspect dans la diffusion de cartes suggérant que des commerces ou des quartiers seraient des hot spots. La stigmatisation spatiale (ex. quartier juif) peut facilement déboucher sur celle de groupes qui deviendraient alors autant de boucs-émissaires. 
  • Il faut enfin éviter la stigmatisation des personnes qui ne voudraient pas (ex. troubles mentaux) ou ne pourraient pas (ex. fracture numérique) utiliser l’application.  

2- Ne pas créer un précédent (effet cliquet) qui faciliterait la surveillance et de contrôle de masse. 

  • Il devrait y avoir des critères clairs pour déterminer quel type de situation peut permettre d’adopter ce genre de mesure technologique: caractère exceptionnel, raisons de santé publique, conséquences économiques extrêmes, etc.  
  • Il faut garder en tête que les personnes les plus vulnérables sont souvent les premières victimes des mesures de contrôle et de surveillance. 
  • Bien sûr une application peut se désinstaller et son caractère temporaire ou exceptionnel est rassurant. Cependant, la question du devenir des données collectées et de leur usage potentiellement hors du cadre originellement prévu est un risque important.
  • De plus dans la mesure où la menace de nouveau virus sera toujours présente, ces applications pourraient devenir la norme et leur utilisation (potentiellement obligatoire) pourrait être réactivée facilement. Il importe alors de se méfier des dépendances au sentier qu’on pourrait créer avec les premières tentatives. 
  • On note également que l’usage de telles applications pourraient être généralisés par la suite pour suivre d’autres virus moins invasifs, comme celui de la grippe saisonnière – et susciter les mêmes espoirs et les mêmes réserves.  

3- Instaurer un consentement libre et éclairé des usagers. 

  • Il s’agit d’une condition moralement et légalement nécessaire au déploiement de l’application.
  • Aussi, il se pourrait que la pression sociale pousse les gens à installer l’application. On peut imaginer des cas où cela devient problématique, par exemple si un employeur demande à ses employés de télécharger l’application et d’avoir toujours leur téléphone sur eux ou encore si une loi rend obligatoire l’installation de cette application chez les personnes faisant partie de populations vulnérables. 
  • Le design du système devrait tenir compte du fait qu’une partie importante de la population peut avoir du mal à comprendre les statistiques, les probabilités, l’incertitude ou la nuance. Il faudrait donc s’assurer que l’information soit présentée d’une manière qui soit compréhensible pour le plus grand nombre. 

4- S’assurer d’un haut niveau de protection de la vie privée par conception (notion de privacy-by-design).

  • La collecte et le traitement de grandes masses de données telles que les mouvements ou les contacts de citoyens pour une longue période créent des risques importants en termes de vie privée, par exemple dans le cas d’une fuite de données potentielles comme celle que nous avons connue dans les dernières années. 
  • Les données collectées par l’application devraient être celles qui sont nécessaires pour la finalité choisie et il ne faudrait pas chercher à en collecter plus (notion de minimisation des données).
  • Il convient d’être transparent envers l’utilisateur sur les données collectées, le traitement effectué sur ces données ainsi que l’objectif final et offrir un maximum de contrôle à l’utilisateur sur l’usage et la dissémination de ces données. 
  • Par défaut les réglages de vie privée devraient être mis sur une protection importante pour l’utilisateur (notion de privacy-by-default).
  • Afin de minimiser les risques pour la vie privée, l’idéal serait de se baser sur une architecture décentralisée, où les données seraient par exemple stockées localement sur les appareils des individus de manière chiffrée et ne serait remontées que lors de la détection d’un cas de COVID avant le consentement de l’utilisateur.
  • L’application devrait enfin être autant que possible sécurisé avec les meilleures pratiques de l’état-de-l’art afin d’être à l’épreuve de détournements malveillants par des hackers. 
  • La protection de la vie privée est un enjeu relativement transversal qui rejoint aussi les autres enjeux comme le point 2 (surveillance) et le point 3 (consentement éclairé).

5- S’assurer de la fiabilité des prédictions et des recommandations, ainsi que des conclusions scientifiques qui sont inférées à partir des données collectées. 

  • Plusieurs facteurs doivent nous rendre particulièrement vigilants: la pression pour un développement et un déploiement rapide, le peu de certitude scientifique sur la propagation du virus ou sur les données scientifiques qui sont nécessaires pour pouvoir la modéliser, la complexité des modèles épidémiologiques et les simplifications choisies (souvent basées sur les rencontres et la proximité ou encore la géolocalisation, indépendamment de mesures de protection individuelles, par exemple). 
  • Ainsi pour donner un exemple concret, une infirmière protégée qui voit 1000 patients par jour pourrait être moins à risque qu’un caissier qui rencontre 100 clients sans garder ses distances ni se laver les mains durant la journée. 
  • Quoi qu’il en soit, le décalage entre les prédictions du système et la réalité peut avoir des effets délétères. Il faut aussi garder à l’esprit que le système peut se tromper de deux manières, avec des faux positifs (soit que des personnes à risque se pensent en sécurité) et des faux négatifs (soit que des personnes en sécurité se pensent à risque). L’impact de ses deux erreurs sera sûrement très différent et il faudrait en tenir compte avant de chercher à déployer à tout prix une solution technique.
  • Il faut aussi faire attention aux risques de prophéties auto-réalisatrices et boucles de rétroaction que pourrait engendrer le déploiement et l’utilisation de l’application, qui pourraient indirectement servir à justifier son succès a posteriori.
  • Dans un premier temps lorsqu’on connaît mal la fiabilité du système, il faudrait être transparent avec les utilisateurs en les mettant tout particulièrement en garde contre l’incertitude des mesures. Ainsi, le paramétrage par défaut devrait tenir compte de cette incertitude. Il pourrait aussi être opportun de commencer avec une application aux fonctionnalités volontairement réduites. 

6- Prévenir le faux sentiment de sécurité que pourrait engendrer l’application. 

  • En contexte de turbulence et d’incertitude, l’application pourrait donner à penser que tout est sous contrôle et que l’IA veille sur nous. Cela pourrait par exemple amener certains individus à se déresponsabiliser s’ils comptent principalement sur les conseils de l’application, plutôt que leur bon sens, pour savoir comment se comporter par rapport au COVID-19.  
  • Attention aussi au retour de bâton, si jamais on devient infecté alors que l’application nous prédisait un risque faible ou inexistant. Ainsi, le “code vert” ne devrait pas être compris comme “sans risque”, mais plutôt comme risque plus faible (on pourrait aussi éviter un code vert, ou le rendre très rare). 
  • À l’inverse l’application ne devrait pas augmenter inutilement l’angoisse, en particulier pour les personnes qui souffrent de troubles mentaux. En particulier, elle ne devrait surtout pas engendrer de panique.  

7- S’assurer d’une étroite concertation avec les autorités gouvernementales et sanitaires. 

  • De part son caractère intrusif et ses nombreux enjeux éthiques, une application anti-pandémie devrait être validée en continu par une autorité gouvernementale légitime. Elle devrait aussi faire l’objet d’un contrôle et d’une surveillance par d’autres organismes pouvant jouer le rôle de garde-fou, tels qu’une autorité de protection des données comme la Commission d’Accès à l’Information au Québec, voire des associations représentantes de la société civile.
  • Les équipes développant des applications anti-pandémie devraient pouvoir se placer à la disposition de cette autorité gouvernementale et répondre à ses questions et interrogations.
  • Ce type d’application peut soulever encore d’autres enjeux éthiques si elle est déployée par des gouvernements ne possédant pas la légitimité démocratique nécessaire. 

On notera enfin que la valeur d’une telle application dépend largement de la comparaison avec une situation sans elle. Il convient de définir a priori les critères qui permettront de quantifier son succès, plutôt que de chercher à justifier ce dernier a posteriori en définissant ces métriques après la fin du projet. On évitera ainsi de céder trop facilement aux sirènes du solutionnisme technologique.  

Martin Gibert, chercheur en éthique, IVADO et CRÉ. 
Contact: martin.gibert@umontreal.ca, Centre de recherche en éthique, 2910, Boul. Édouard-Montpetit, Montréal (Québec) H3T 1J7.  

Guillaume Chicoisne, conseiller scientifique, IVADO. 
Ryoa Chung, professeure, département de philosophie, UdM.
Peter Dietsch, professeur, département de philosophie, UdM.
Sébastien Gambs, professeur, département d’informatique, UQAM.
Jocelyn Maclure, professeur, département de philosophie, U.Laval. 
Dominic Martin, professeur, école de gestion, UQAM.
Christine Tappolet, professeure, département de philosophie, UdM.
Daniel Weinstock, professeur, faculté de droit, McGill.