Fwd: [Gisti-info] « Les algorithmes et l’intelligence artificielle contre les étrangers en Europe », un article du Plein Droit 140

miladyrenoirmiladyrenoir
2024-6-24 16:31

———- Forwarded message ———

De : Gisti gisti@gisti.org

Date: lun. 24 juin 2024, 15:39

Subject: [Gisti-info] « Les algorithmes et l’intelligence artificielle

contre les étrangers en Europe », un article du Plein Droit 140

To: gisti-info@rezo.net

Article extrait du Plein droit n° 140 Les algorithmes et l’intelligence

artificielle contre les étrangers en Europe

*Gabrielle du Boucher * *Chargée de mission numérique, droits et libertés à

la direction de la promotion de l’égalité et de l’accès aux droits – Le

Défenseur des droits*

pour des situations mettant en cause l’usage des algorithmes et des

systèmes de l’intelligence artificielle (IA), cette autorité administrative

indépendante est toutefois attentive à leurs développements en France,

comme au sein de l’Union européenne. Dans le sillage de la numérisation des

services publics, le développement de l’IA à des fins de contrôle et de

surveillance des personnes étrangères laisse, selon lui, craindre une

fragilisation accrue de leurs droits fondamentaux contre laquelle la future

législation européenne n’apportera visiblement pas toutes les garanties

nécessaires. *

Le Défenseur des droits (DDD) est préoccupé par le déploiement des

algorithmes et de l’intelligence artificielle (IA)*. L’institution s’est

intéressée aux conséquences de la mise en place des nouvelles technologies,

en particulier depuis 2018, en approfondissant les effets de la

dématérialisation* des services publics sur les usagers. Plusieurs

rapports, avis [1 https://www.gisti.org/spip.php?article7245#nb1] et

décisions [2 https://www.gisti.org/spip.php?article7245#nb2] du DDD ont

été l’occasion de relever que les étrangers ont constitué l’un des premiers

publics en France pour lequel la dématérialisation des démarches

préfectorales a été mise en place de manière radicale et aveugle et ce,

alors même que ces personnes se trouvent, la plupart du temps, dans des

situations où elles cumulent les difficultés. En 2022, le Conseil d’État a

exigé de l’administration qu’elle rétablisse, en parallèle du service

proposé en ligne, un accueil physique pour la procédure de demande de titre

de séjour, au regard du caractère particulièrement « complexe » et

« sensible » de cette démarche. Il a considéré tout d’abord, que les

usagers qui ne disposent pas d’un accès aux outils numériques, ou qui

rencontrent des difficultés dans leur utilisation, doivent pouvoir être

accompagnés. Ensuite, s’il apparaît que certains usagers sont dans

l’impossibilité, malgré cet accompagnement, de recourir au téléservice,

pour des raisons tenant à sa conception ou à son mode de fonctionnement,

l’administration doit leur garantir une solution de substitution [3

https://www.gisti.org/spip.php?article7245#nb3]. Ces conditions visent à

prendre en compte les caractéristiques et situations particulières des

étrangers demandant un titre de séjour, qui pourraient perdre le droit de

se maintenir sur le territoire si leur demande n’était pas enregistrée.

Force est de constater que la dématérialisation ne s’est pas faite au

bénéfice des usagers.

S’agissant du développement des algorithmes et des systèmes apprenants, on

peut craindre que la technologie vienne fragiliser un peu plus les droits

fondamentaux des étrangers, compte tenu du contexte européen et français de

durcissement des politiques en matière d’asile, d’immigration et

d’intégration [4 https://www.gisti.org/spip.php?article7245#nb4]. À cet

égard, on peut déjà relever que les personnes étrangères sont la cible de

divers projets d’IA présentés comme toujours plus sophistiqués et

systématiquement testés et déployés à des fins de contrôle et de

surveillance.

Algorithmes : des biais discriminatoires systématisés ?

Peu de réclamations adressées au DDD visent ces nouveaux systèmes, opaques

et encore rarement mis en cause, y compris au niveau européen.

L’institution, en lien avec ses homologues européens membres du réseau

Equinet et des partenaires nationaux dont la Commission nationale

consultative des droits de l’Homme, se montre néanmoins attentive à leurs

développements et à leurs risques inhérents.

Des risques importants existent, liés aux biais discriminatoires* des

algorithmes et au potentiel de systématisation des discriminations, du fait

de l’usage grandissant de ces technologies.

Les données mobilisées pour entraîner les systèmes algorithmiques peuvent

en effet être biaisées lorsqu’elles sont la traduction mathématique des

pratiques et comportements discriminatoires. Le risque d’amplifier, pour

certains groupes sociaux, les discriminations systémiques opérant au sein

de la société est avéré s’agissant des technologies biométriques [5

https://www.gisti.org/spip.php?article7245#nb5]. En effet, elles ciblent

le plus souvent les caractéristiques des individus qui les exposent à des

discriminations (origine, sexe, identité de genre, apparence physique, état

de santé, handicap, âge, etc.).

Expérimentations aux frontières de l’Union européenne

Dans le domaine des migrations, l’Union européenne (UE) finance, depuis

2016, un projet appelé iBorderCtrl, qui consiste à « *tester de nouvelles

technologies destinées à accroître l’efficacité de la gestion des contrôles

aux frontières extérieures de l’Union* [6

https://www.gisti.org/spip.php?article7245#nb6] ». L’un des modules

expérimentés a concentré les critiques : un détecteur de mensonges basé sur

les émotions interprétées par une IA. Un douanier virtuel devait poser des

questions et identifier les signaux non verbaux d’un mensonge en analysant

les micro-expressions faciales du répondant. Selon les résultats,

l’individu était redirigé soit vers les files d’attente rapides soit vers

des contrôles poussés. Ce système a été testé aux frontières terrestres de

l’UE en Hongrie, en Lettonie et en Grèce, et de nombreuses associations ont

dénoncé une technologie hautement expérimentale visant des personnes en

situation de grande vulnérabilité, ainsi que son manque de fiabilité (le

système était crédité, en 2018, d’un taux de réussite autour de 75 %, ce

qui revient à considérer un quart des personnes concernées comme

soupçonnées de mentir alors que ce n’est pas le cas) [7

https://www.gisti.org/spip.php?article7245#nb7]. Dans la lignée des

constats dressés s’agissant de la dématérialisation des services publics,

on relève que ce sont là aussi des étrangers qui, sans être en situation de

contester des procédures auxquelles ils doivent se soumettre, font l’objet

du déploiement de technologies mises au service d’une politique et d’une

rhétorique particulièrement dures.

Biométrie : des droits fondamentaux fragilisés

Dans son rapport *Technologies biométriques : l’impératif respect des

droits fondamentaux* [8 https://www.gisti.org/spip.php?article7245#nb8],

le DDD a relevé les risques considérables d’atteintes aux droits et

libertés que fait peser l’utilisation des systèmes automatisés reposant sur

la biométrie, à commencer par le droit au respect de la vie privée et à la

protection des données – questions qui relèvent en premier lieu du

périmètre des compétences de la Commission nationale de l’informatique et

des libertés (Cnil), avec laquelle l’institution collabore notamment sur

les enjeux d’IA. En Italie, des technologies biométriques d’identification

à distance ont été utilisées dans le cadre de la lutte contre l’immigration

illégale : le système de reconnaissance faciale* SARI était déployé en

temps réel pour identifier sur la voie publique les étrangers en situation

irrégulière. Son utilisation a été interdite en 2021 par l’autorité

italienne de protection des données [9

https://www.gisti.org/spip.php?article7245#nb9].

L’utilisation des technologies biométriques d’identification peut également

avoir un effet dissuasif sur l’exercice de droits fondamentaux comme la

liberté d’expression, celle d’aller et venir, la liberté d’association et

plus largement l’accès aux droits. Le fait que ces technologies

fonctionnent souvent à l’insu des personnes concernées tend à dissuader ces

dernières d’exercer leurs droits, et cela indépendamment du niveau de

déploiement, la crainte de la surveillance suffisant pour affecter notre

comportement. Dans le domaine des migrations, l’effet dissuasif des

technologies biométriques se traduit également par un risque d’exclusion,

en particulier pour les personnes issues de groupes particulièrement

discriminés. L’utilisation de technologies biométriques, de par leur effet

dissuasif [10 https://www.gisti.org/spip.php?article7245#nb10], peut

priver les réfugiés et demandeurs d’asile de l’accès aux services de base

essentiels.

Les dangers des décisions administratives générées par l’IA

Un autre risque identifié est lié à l’automatisation, explicite ou de fait,

des décisions administratives individuelles. Le cadre légal, à savoir la

loi « informatique et libertés » et le code des relations entre le public

et l’administration, autorise, par exception et en dehors de la sphère

pénale, l’automatisation intégrale tout en l’encadrant. Par principe, la

réglementation relative à la protection des données personnelles exclut

qu’une personne physique puisse faire l’objet d’une décision entièrement

automatisée qui « produit des effets juridiques » ou l’affecte « *de

manière significative* ». Des exceptions existent néanmoins. Dès lors,

quand la décision est prise de façon entièrement automatisée, les garanties

prévues sont-elles réellement appliquées ? Et quand la décision ne peut

pas, légalement, reposer sur un procédé entièrement automatisé, quelle est

réellement la substance de l’intervention humaine dans un contexte de

traitement en masse des dossiers par algorithmes ? Ces questions font écho

aux enjeux de la motivation de ces décisions et de l’effectivité du droit

au recours.

À l’heure de la numérisation et de l’« *algorithmisation de

l’administration* [11 https://www.gisti.org/spip.php?article7245#nb11] »,

ces problématiques irriguent, en France, les différentes sphères

administratives, telle l’éducation, avec par exemple Affelnet et

Parcoursup, et la gestion des prestations sociales et le contrôle des

allocataires par la Caisse nationale des allocations familiales (Cnaf).

Elles touchent aussi les personnes étrangères.

Au Royaume-Uni, le Home Office, le ministère de l’intérieur britannique,

était mis en cause en 2023 pour son utilisation, depuis 2019, d’un

algorithme de détection des faux dans les demandes de mariage impliquant

une personne non britannique et n’ayant pas de statut établi suffisant ou

de visa valide, et ce, afin d’accélérer les enquêtes et de réduire les coûts

[12 https://www.gisti.org/spip.php?article7245#nb12]. L’évaluation des

couples se fondait sur huit facteurs, dont la différence d’âge au sein du

couple. Ceux signalés par l’algorithme faisaient l’objet d’une enquête

approfondie, pouvant conduire les autorités à demander des documents

prouvant l’authenticité de la relation. Selon le Home Office, la

nationalité n’était pas prise en compte par l’algorithme, mais une

évaluation, communiquée à l’association Public Law Project, montre que les

personnes de nationalités bulgare, grecque, roumaine et albanaise étaient

plus susceptibles d’être identifiées par l’algorithme. Ce dernier se révèle

donc indirectement discriminatoire à l’égard des personnes sur la base de

la nationalité.

En France, un fonctionnaire du ministère de l’intérieur a utilisé un outil

d’IA générative* pour examiner une demande de visa déposée par une jeune

femme afghane se trouvant en Iran [13

https://www.gisti.org/spip.php?article7245#nb13]. Il s’agissait a priori

d’une initiative personnelle, donc hors du cadre de l’expérimentation

gouvernementale sur « *l’intelligence artificielle au service de

l’amélioration de la qualité des services publics* », lancée à l’automne

2023, qui prévoit bien l’usage de l’IA dite « générative » (qui produit par

exemple du texte) en matière d’aide à la rédaction de réponses aux avis des

usagers sur la plateforme Services Publics +. Les prolongements de cette

expérimentation devront être scrutés de près en tant qu’ils concernent les

droits des usagers du service public et d’éventuelles discriminations.

Le projet de règlement de l’UE sur l’IA

Au regard des risques identifiés, le DDD est intervenu à plusieurs reprises

dans le cadre de l’élaboration du projet de règlement sur l’IA porté par

l’UE pour appeler à la nécessaire prise en compte des droits fondamentaux

et du principe de non-discrimination.

Schématiquement, ce futur « AI Act » est conçu selon une approche par les

risques. Sont interdits les systèmes d’IA présentant un risque

inacceptable, tel le « score social » par lequel un système d’IA est

utilisé pour « *classer les personnes physiques en fonction de leur

comportement, de leur statut économique, de leurs caractéristiques

personnelles » avec, à la clef, un traitement préjudiciable ou défavorable*

[14 https://www.gisti.org/spip.php?article7245#nb14]. Le futur règlement

vise aussi à imposer des contraintes aux fournisseurs et utilisateurs de

systèmes d’IA « à haut risque » et à ne soumettre les autres systèmes qu’à

des obligations d’information. Dans ce cadre, certains systèmes d’IA

utilisés pour la gestion de la migration, de l’asile et des contrôles aux

frontières ont été inscrits dans la catégorie « à haut risque » dans les

projets de réglementation. On y trouve notamment « *les systèmes d’IA

destinés à être utilisés par les autorités publiques compétentes* […] *pour

les assister dans l’examen des demandes d’asile, de visa et de permis de

séjour ainsi que les réclamations connexes, dans le but de vérifier

l’éligibilité des personnes physiques qui demandent un statut, y compris

pour évaluer la fiabilité des preuves* » ou « *les systèmes d’IA destinés à

être utilisés par les autorités publiques compétentes pour évaluer des

risques, y compris un risque de sécurité, un risque de migration

irrégulière* […] *posé par une personne physique qui a l’intention d’entrer

ou qui est entrée sur le territoire d’un État membre* [15

https://www.gisti.org/spip.php?article7245#nb15] ».

L’enjeu de la catégorisation dans les systèmes d’IA « à haut risque »

réside dans le respect d’obligations telles que d’assurer un système de

gestion des risques, de contrôler la qualité des données, de respecter la

transparence et fournir l’information aux utilisateurs, de prévoir une

surveillance humaine, ou encore de garantir la précision, la robustesse, la

conformité et la sécurité du système ainsi que les actions correctrices

nécessaires.

Certaines des demandes formulées par le DDD [16

https://www.gisti.org/spip.php?article7245#nb16] avec ses homologues

européens et nationaux, et soutenues par plusieurs organisations de la

société civile, ont été prises en compte, en particulier la possibilité

pour toute personne physique ou morale considérant que ladite

réglementation a été violée, de déposer une plainte auprès de l’autorité

nationale chargée de son application. D’autres, en revanche, n’ont pas été

suivies d’effet : de larges exceptions sont ainsi prévues concernant

l’utilisation de systèmes biométriques pour identifier des personnes en

temps réel dans l’espace public, ce qui exigera nécessairement une

attention particulière au moment du déploiement de ces systèmes, au regard

des risques exposés.

Il convient de relever enfin que ce futur « AI Act » et les garanties

qu’il offrira, ne s’appliqueront qu’à certains systèmes d’IA mis sur le

marché, en service, ou dont les résultats sont utilisés dans le territoire

de l’UE. Or des systèmes de reconnaissance faciale et d’autres systèmes de

surveillance de masse ont été développés et vendus par des entreprises

installées dans l’UE (et en particulier en France, en Suède et aux

Pays-Bas), et déployés dans des lieux comme les territoires palestiniens

occupés ou la Chine, où ils ont été utilisés pour opprimer davantage des

groupes et communautés déjà marginalisés [17

https://www.gisti.org/spip.php?article7245#nb17]. Il serait, en outre,

difficile de conclure sans mentionner que les « travailleurs et

travailleuses du clic », chaînon indispensable à la fabrication des

systèmes d’IA [18 https://www.gisti.org/spip.php?article7245#nb18] dans

l’UE (pour l’annotation des données, par exemple), dont la rémunération à

la tâche est très faible [19

https://www.gisti.org/spip.php?article7245#nb19], font l’objet d’une

sous-traitance et d’une externalisation massive dans certains pays pauvres.

** Les termes suivis d’un astérisque (*) sont explicités dans le lexique,

p. 7-10.*

https://www.gisti.org/spip.php?article7241 »*

Publication papier

https://boutique.gisti.org/publications/la-revue-plein-droit/plein-droit-le-techno-controle-des-migrations,

12€ / ISBN 978-2-38287-192-8

ebook PDF

https://boutique.gisti.org/publications/la-revue-plein-droit/plein-droit-le-techno-controle-des-migrations-ebook,

10€ / ISBN 978-2-38287-193-5

Cairn https://www.cairn.info/revue-plein-droit-2024-1.htm, 20241

https://boutique.gisti.org/publications/la-revue-plein-droit/plein-droit-le-techno-controle-des-migrations

ou l’ebook

https://boutique.gisti.org/publications/la-revue-plein-droit/plein-droit-le-techno-controle-des-migrations-ebook

*

(règlement par chèque, carte bancaire ou virement)

https://boutique.gisti.org/publications/la-revue-plein-droit?orderby=reference&orderway=desc&id_category=214&n=175

*Plein droit, la revue du Gisti www.gisti.org/pleindroit

http://www.gisti.org/pleindroit*

[ Articles à l’unité http://www.cairn.info/revue-plein-droit.htm /

Abonnements http://www.gisti.org/abonnement / Librairies

http://www.gisti.org/diffusion ]

www.gisti.org/article7245

[image: La newsletter Gisti-info] https://www.gisti.org/article49 [image:

Les fils RSS du Gisti] https://www.gisti.org/article1089 [image: Blog du

Gisti sur Médiapart] https://blogs.mediapart.fr/association-gisti/blog

http://www.gisti.org [image: Page Facebook du Gisti]

http://www.facebook.com/pages/Gisti/179469575398244#%21/pages/Gisti/179469575398244?v=wall

[image:

Page Twitter du Gisti] https://twitter.com/legisti [image: La page

Mastodon du Gisti] https://piaille.fr/@gisti

https://www.gisti.org/don

faveur des droits des étrangers. L’autofinancement de ses activités,

garantie de son indépendance, demeure un objectif prioritaire. À ce titre,

votre soutien est essentiel. Pour soutenir notre action, n’hésitez pas à

faire un don https://www.gisti.org/don ! (déductible à 66%)*

Vous êtes abonné⋅e à la liste de diffusion Gisti-info:

→ Vous désabonner ? Envoyez simplement un mail à gisti-info-off@rezo.net

→ Abonner une nouvelle adresse ? Écrivez à gisti-info-on@rezo.net