La loi européenne sur l'Intelligence artificielle doit protéger les personnes en déplacement

 

Aux côtés de 191 organisations et individus, la FIACAT signe une déclaration appelant les autorités européennes à protéger les droits des personnes en mouvement alors qu'un projet de Loi européenne sur l'intelligence artificielle (AI ACT) vient d'être présenté :

 

[Version traduite de l'anglais]

La loi européenne sur l'intelligence artificielle (AI Act) réglementera le développement et l'utilisation de l'IA " à haut risque ", et vise à promouvoir l'adoption d'une " IA digne de confiance " tout en protégeant les droits des personnes affectées par les systèmes d'IA.

Cependant, dans sa proposition initiale, la loi européenne sur l'IA ne traite pas de manière adéquate et ne prévient pas les préjudices découlant de l'utilisation de l'IA dans le contexte de la migration. Alors que les États et les institutions font souvent la promotion de l'IA en termes d'avantages pour la société au sens large, pour les communautés marginalisées et les personnes en mouvement (à savoir les migrants, les demandeurs d'asile et les réfugiés), les technologies d'IA s'intègrent dans des systèmes plus larges de sursurveillance, de criminalisation, de discrimination structurelle et de violence.

Il est essentiel que la loi européenne sur l'IA protège toutes les personnes contre les utilisations nuisibles des systèmes d'IA, quel que soit leur statut migratoire. Nous, les organisations et personnes soussignées, demandons au Parlement européen, à la Commission européenne, au Conseil de l'Union européenne et aux États membres de l'UE de veiller à ce que la loi européenne sur l'intelligence artificielle protège les droits de toutes les personnes, y compris les personnes en déplacement.

Nous recommandons les amendements suivants à la loi sur l'intelligence artificielle :

1. Interdire les utilisations inacceptables des systèmes d'IA dans le contexte de la migration

Certains systèmes d'IA posent un " risque inacceptable " pour nos droits fondamentaux, qui ne pourra jamais être réglé par des moyens techniques ou des garanties procédurales. Alors que la proposition de loi sur l'IA interdit certaines utilisations de l'IA, elle n'empêche pas certaines des utilisations les plus néfastes de l'IA dans le cadre de la migration et du contrôle des frontières, malgré le potentiel de dommages irréversibles.La loi sur l'IA doit être modifiée pour inclure les éléments suivants en tant que "pratiques interdites" :

  • Les systèmes d'analyse prédictive lorsqu'ils sont utilisés pour interdire, freiner et empêcher la migration. Ces systèmes génèrent des prédictions quant aux endroits où il existe un risque de "migration irrégulière" et sontp otentiellement utilisés pour faciliter les réponses préventives visant à interdire ou à stopper les mouvements, souvent menées par des pays tiers enrôlés comme gardiens des frontières de l'Europe. Ces systèmes risquent d'être utilisés pour des politiques de contrôle des frontières punitives et abusives qui empêchent les personnes de demander l'asile, les exposent à un risque de refoulement, violent leurs droits à la libre circulation et présentent des risques pour le droit à la vie, à la liberté et à la sécurité de la personne.
  • Les systèmes automatisés d'évaluation des risques et de profilage. Ces systèmes impliquent l'utilisation de l'IA pour évaluer si les personnes en déplacement présentent un " risque " d'activité illégale ou de menace pour la sécurité. Ces systèmes sont intrinsèquement discriminatoires, car ils préjugent les personnes sur la base de facteurs indépendants de leur volonté, ou de déductions discriminatoires fondées sur leurs caractéristiques personnelles. Ces pratiques violent donc le droit à l'égalité et à la non-discrimination, la présomption d'innocence et la dignité humaine. Elles peuvent également entraîner des atteintes injustes aux droits au travail, à la liberté (par le biais de la détention illégale), à un procès équitable, à la protection sociale ou à la santé.
  • Les systèmes de reconnaissance des émotions et de catégorisation biométrique. Des systèmes tels que les "détecteurs de mensonges" de l'IA sont des technologies pseudo-scientifiques prétendant déduire des émotions sur la base de données biométriques, tandis que l'analyse comportementale est utilisée pour détecter des individus "suspects" sur la base de leur apparence. Leur utilisation renforce un processus de suspicion racialisée à l'égard des personnes en mouvement, et peut automatiser les hypothèses discriminatoires.
  • L'identification biométrique à distance (IBR) aux frontières et dans et autour des centres de détention. Une interdiction de l'identification biométrique à distance (comme l'utilisation de la reconnaissance faciale) est nécessaire pour empêcher le scénario dystopique dans lequel les technologies sont utilisées pour scanner les zones frontalières à des fins de dissuasion et dans le cadre d'un régime d'interdiction plus large, empêchant les personnes de demander l'asile et portant atteinte aux obligations des États membres en vertu du droit international, en particulier le respect du droit au non-refoulement.

2. Étendre la liste des systèmes à haut risque utilisés dans le cadre des migrations

Si la proposition énumère déjà à l'annexe III les utilisations de systèmes d'IA " à haut risque " dans le cadre de la migration et du contrôle des frontières, elle n'englobe pas tous les systèmes basés sur l'IA qui affectent les droits des personnes et qui devraient faire l'objet de mesures de surveillance et de transparence.Afin de garantir que tous les systèmes d'IA utilisés dans le cadre de la migration soient réglementés, l'annexe III doit être modifiée pour inclure les systèmes suivants comme " à haut risque " :

  • Les systèmes d'identification biométrique. Les systèmes d'identification biométriques (tels que les scanners mobiles d'empreintes digitales) sont de plus en plus utilisés pour effectuer des contrôles d'identité, tant aux frontières de l'UE qu'à l'intérieur de celles-ci. Ces systèmes facilitent et augmentent la pratique illégale et préjudiciable du profilage racial, la race, l'origine ethnique ou la couleur de la peau servant d'indicateur du statut migratoire d'une personne. En raison des risques graves de discrimination qui accompagnent l'utilisation de ces systèmes, les législateurs doivent veiller à ce que la loi européenne sur l'IA réglemente leur utilisation.
  • Les systèmes d'IA pour le contrôle et la surveillance des frontières. En l'absence de voies d'accès sûres et régulières au territoire de l'UE, les personnes franchiront les frontières européennes par des moyens irréguliers. Les autorités utilisent de plus en plus les systèmes d'IA pour une surveillance généralisée et sans discernement aux frontières, comme les drones de balayage ou les caméras thermiques. L'utilisation de ces technologies peut exacerber la violence aux frontières et faciliter les expulsions collectives ou les refoulements illégaux. Compte tenu des risques élevés et des injustices structurelles plus larges, les législateurs devraient inclure tous les systèmes d'IA utilisés pour la surveillance des frontières dans le champ d'application de la loi sur l'IA.
  • Les systèmes d'analyse prédictive utilisés dans le cadre de la migration, de l'asile et du contrôle des frontières. Les systèmes utilisés pour générer des prédictions quant aux flux migratoires peuvent avoir de vastes conséquences sur les droits fondamentaux et l'accès aux procédures de protection internationale. Souvent, ces systèmes influencent la manière dont les ressources sont évaluées et allouées dans les contextes de contrôle des migrations et de protection internationale. Des évaluations erronées des tendances migratoires et des besoins d'accueil auront des conséquences importantes sur l'état de préparation des États membres, mais aussi sur la probabilité que les individus puissent accéder à la protection internationale et à de nombreux autres droits fondamentaux. En tant que tels, les systèmes prédictifs doivent être considérés comme "à haut risque" lorsqu'ils sont déployés dans le contexte de la migration.

3. Veiller à ce que la loi sur l'IA s'applique à tous les systèmes à haut risque en migration, y compris ceux qui sont utilisés dans le cadre des systèmes informatiques de l'UE.

L'article 83 de la loi sur l'IA définit les règles applicables aux systèmes d'IA déjà sur le marché au moment de l'entrée en vigueur de la législation. L'article 83 prévoit une dérogation pour les systèmes d'IA qui font partie des systèmes informatiques à grande échelle de l'UE utilisés dans le domaine de la migration, tels qu'Eurodac, le système d'information Schengen et ETIAS (1). Tous ces systèmes informatiques à grande échelle - qui prévoient une capacité de plus de 300 millions d'enregistrements - impliquent le traitement automatisé de données personnelles et sensibles, des systèmes automatisés d'évaluation des risques ou l'utilisation de technologies d'identification biométrique. Par exemple, l'UE prévoit de soumettre, au cours des prochaines années, toutes les bases de données relatives aux visas et 1 et autres bases de données migratoires de l'UE, comme indiqué à l'annexe IX de la loi sur l'intelligence artificielle. les demandeurs d'"autorisations de voyage" à des technologies automatisées de profilage des risques. En outre, les institutions de l'UE envisagent actuellement une mise à jour d'Eurodac afin d'inclure le traitement des images faciales dans les bases de données des demandeurs d'asile.

L'exclusion de ces bases de données signifierait que les garanties prévues par la loi européenne sur l'IA ne s'appliquent pas. Cette exemption générale ne servira qu'à réduire la responsabilité, la transparence et la surveillance des systèmes d'IA utilisés dans le contrôle de la migration de l'UE, et à diminuer la protection des personnes touchées par les systèmes d'IA dans le cadre des systèmes informatiques à grande échelle de l'UE. En raison de l'exemption de l'examen réglementaire de ces systèmes, la loi sur l'IA de l'UE conduirait à une double norme lorsqu'il s'agit de protéger les droits fondamentaux des personnes, en fonction de leur statut migratoire.

La loi européenne sur l'IA devrait être modifiée afin de garantir que l'art. 83 applique les mêmes règles de conformité pour tous les systèmes à haut risque et protège les droits fondamentaux de chaque personne, quel que soit son statut migratoire.

 

4. Garantir l'application de mesures de transparence et de surveillance
Les personnes concernées par les systèmes d'IA à haut risque doivent être en mesure de comprendre, de contester et de demander des réparations lorsque ces systèmes violent leurs droits. Dans le contexte de la migration, cette exigence est à la fois urgente et nécessaire étant donné l'écrasant déséquilibre de pouvoir entre ceux qui déploient les systèmes d'IA et ceux qui y sont soumis.

La loi européenne sur l'IA doit prévenir les dommages causés par les systèmes d'IA utilisés dans le cadre de la migration et du contrôle des frontières, garantir la transparence publique et permettre aux personnes de demander justice. La loi de l'UE sur l'IA doit être modifiée pour :

  • Inclure l'obligation pour les utilisateurs de systèmes d'IA à haut risque de réaliser et de publier une évaluation d'impact sur les droits fondamentaux (FRIA) avant de déployer tout système d'IA à haut risque, ainsi que pendant son cycle de vie.
  • Garantir l'obligation pour les autorités d'enregistrer l'utilisation des systèmes à haut risque - et toutes les utilisations publiques - de l'IA pour la migration, l'asile et la gestion des frontières dans la base de données de l'UE. La transparence publique est essentielle pour une surveillance efficace, en particulier dans les domaines à haut risque de la migration où un certain nombre de droits fondamentaux sont en jeu. Il est crucial que la loi sur l'IA ne permette pas de déroger aux mesures de transparence en matière d'application de la loi et de migration.
  • Inclure des droits et des mécanismes de recours pour permettre aux personnes et aux groupes de comprendre, de demander des explications, de se plaindre et d'obtenir des réparations lorsque les systèmes d'IA violent leurs droits. La loi sur l'IA doit offrir des voies efficaces aux personnes concernées, ou aux organisations d'intérêt public agissant en leur nom, pour contester les systèmes d'IA entrant dans son champ d'application s'ils ne sont pas conformes ou violent les droits fondamentaux.

 

(1) Et d'autres bases de données migratoires de l'UE, comme indiqué à l'annexe IX de la loi sur l'intelligence artificielle.

 

Rédigé par : Access Now, European Digital Rights (EDRi), Platform for International Cooperation on Undocumented Migrants (PICUM), and the Refugee Law Lab. With the support of: Amnesty International, Avaaz, Border Violence Monitoring Network (BVMN), EuroMed Rights, European Center for Not-for-Profit Law (ECNL), European Network Against Racism (ENAR), Homo Digitalis, Privacy International, Statewatch, Dr Derya Ozkul, Dr. Jan Tobias and Dr Niovi Vavoula.

Signé par :
1. Access Now, International
2. Albanian Media Council, Albania
3. AlgoRace, Spain
4. Algorights, Spain
5. AlgorithmWatch, Germany
6. All Faiths And None, United Kingdom
7. Àltera APS, Italy
8. Alternatif Bilisim (Alternative Informatics Association), Turkey
9. Amnesty International, International
10. ARCI, Italy
11. Are You Syrious, European
12.ARSIS Asociation for the Social Support of Youth, Greece
13.Asociación Nacional Presencia Gitana, Spain
14.Asociación Por Ti Mujer, Spain
15.Aspiration, USA/International
16.Association for Integration and Migration, Czech Republic
17. Association for Juridical Studies on Immigration (ASGI), Italy
18.ASTI Luxembourg - Association de soutien aux travailleurs immigrés, Luxembourg
19.AsyLex, Switzerland
20. Avaaz, International
21.Baladre, Spain
22. Bits of Freedom, Netherlands
23. Blindspots, Germany
24. Border Criminologies, United Kingdom
25. Border Violence Monitoring Network, Europe
26. Bürgerrechte & Polizei/ CILIP, Germany
27. C.N.C.A. Coordinamento nazionale comunità accoglienti, Italy
28. Catalina Quiroz-Niño, Spain
29. CEDA - Center for Muslim Rights in Denmark, Denmark
30. Center for AI and Digital Policy (CAIDP), International
31.Center for Muslim Rights in Denmark (CEDA), Denmark
32. Centre for Democracy & Technology, International
33. Centre for Information Technology and Development (CITAD), Nigeria
34. Centre for Peace Studies, Croatia
35. Civil Liberties Union for Europe, European36. CNCD-11.11.11, Belgium
37. Collective Aid, Bosnia Herzegovina
38. Comisión Española de Ayuda al Refugiado (CEAR), Spain
39. Comisión Legal Sol, Spain
40. Comitato per i Diritti Civili delle Prostitute APS, Italy
41. Comite de Apoyo a las Trabajadoras del sexo CATS, Spain
42. Consortium for Refugees and Migrants in South Africa, South Africa
43. Corporate Europe Observatory, Belgium
44. Czech Helsinki Committee, Czech Republic
45. D64 - Zentrum für Digitalen Fortschritt e. V., Germany
46. Derechos Digitales, Latin America
47. Digital Society, Switzerland
48. Digitalcourage, Germany
49. Diotima - Centre for gender rights & equality, Greece
50. Državljan D / Citizen D, Slovenia
51.Electronic Frontier Finland, Finland/European
52. Elektronisk Forpost Norge (EFN), Norway
53. Equipo del Decenio Afrodescendiente, Spain
54. Erletxe, Spain
55. Estonian Human Rights Centre, Estonia
56. EuroMed Rights, Regional (Europe/Middle East/North Africa)
57. European Anti poverty Network, European
58. European Center for Human Rights, European
59. European Center for Not-for-Profit Law (ECNL), Europe
60. European Civic Forum, European
61.European Council on Refugees and Exiles (ECRE), European
62. European Digital Rights (EDRi), European
63. European Federation of National Organisations Working with the Homeless (FEANTSA),
European
64. European Muslim Initiative for Social Cohesion, Denmark
65. European Network Against Racism (ENAR), European
66. European Network for the Promotion of Rights and Health among Migrant Sex Workers
(TAMPEP), Netherlands
67. European Network On Religion and Belief (ENORB), European
68. European Network on Statelessness, European
69. European Race and Imagery Foundation, Netherlands/Switzerland/Germany
70. European Sex Workers’ Rights Alliance (ESWA), Europe/Central Asia71.Fair Trials, International
72. FAIRWORK Belgium, Belgium
73. Fem-R, Finland
74. Feminist Autonomous Centre for Research, Athens, Greece
75. Generation 2.0 for Rights, Equality & Diversity, Greece
76. Glitch, United Kingdom
77.Global Data Justice project (Tilburg Institute for Law, Technology and Society), Netherlands
78. Greek Forum of Migrants, Greece
79. Hacklab-ferro, Spain
80. Haringey Welcome, United Kingdom
81.Health Action International, Netherlands
82. Hermes Center, Italy
83. Homo Digitalis, Greece
84. HumanRights360, Greece
85. I Have Rights, Greece
86. In-Exile and Refugees Solidarity movement, International
87. Institute Circle, Slovenia
88. Institute for Strategic Dialogue (ISD), UK / Germany / International
89. International Detention Coalition, International
90. International Federation For Human Rights (FIDH), International
91.International Federation of ACAT (FIACAT), France
92. International Women* Space Berlin, Germany/European
93. IRIDIA Cener of Defense of Human Rights, Spain
94. Irish Council for Civil Liberties (ICCL), Ireland
95. IT-Pol, Denmark
96. Iuridicum Remedium, Czech Republic
97. Ivorian Community of Greece, Greece
98. Kif Kif vzw, Belgium
99. KISA - Equality, Support, Antiracism, Cyprus
100. Koapanang Africa Against Xenophobia {KAAX], South Africa/International
101. KOK - German NGO Network against Trafficking in Human Beings, Germany
102. La Strada International, Netherlands
103. Lafede.cat, Spain
104. Lassane Ouedraogo - Africa Solidarity Centre Ireland, Ireland
105. Lawyers for Human RIghts, South Africa/International
106. Legal Centre Lesvos, Greece
107. Ligue Des Droits De L’Homme, France108. Ligue des Droits Humains, Belgium
109. Migrant Tales, Finland
110. Migrant Women Association Malta, Malta
111. Migrants Organise, United Kingdom
112. Migration-Controle.info, Germany/International
113. Migreurop, France
114. Mobile Info Team, Greece
115. Moje Państwo Foundation, Poland
116. Movement of Asylum Seekers in Ireland (MASI), Ireland
117. NGO Legis, Republic of North Macedonia
118. Novact, Spain
119. Open Rights Group, United Kingdom
120. Open Society Foundations, International
121. Panoptykon Foundation, Poland
122. Platform for International Cooperation on Undocumented Migrants (PICUM), International
123. Politiscope, Croatia
124. Privacy International, International
125. Privacy Network, Italy
126. Prostitution Information Center (PIC), Netherlands
127. R3D: Red en Defensa de los Derechos Digitales, Mexico
128. Racism and Technology Center, Netherlands
129. Red de Mujeres Latinoamericanas y del Caribe, Spain
130. R3D: Red en Defensa de los Derechos Digitales
131. Red Española De Inmigración Y Ayuda Al Refugiado, Spain
132. Red Umbrella Athens, Greece
133. Red Umbrella Sweden, Sweden
134. Refugee Law Lab, York University, International
135. Refugee Legal Support (RLS), Greece/United Kingdom/France
136. Refugees International, United States
137. Revibra Europe, European
138. Salud por Derecho, Spain
139. Samos Volunteers, Greece
140. Sea-Watch, Germany/European
141. Sekswerkexpertise, Dutch Platform for the advancement of sex workers rights,
Netherlands
142. Sex Workers’ Empowerment Network, Greece
143. SHARE Foundation, Serbia/South East Europe144. SOS Malta, Malta
145. SOS Racismo Gipuzkoa, Spain
146. STAR-STAR Skopje, North Macedonia
147. Statewatch, European
148. Stichting LOS, Netherlands
149. Still I Rise, International
150. StraLi for Strategic Litigation , Italy
151. Subjective Values Foundation, Hungary
152. SUPERRR Lab, Germany
153. SW Digitaal, Netherlands
154. Symbiosis - School of Political Studies in Greece, Greece
155. Tamkeen for Legal aid and Human Rights, Jordan
156. Taraaz, International
157. The App Drivers and Couriers Union, United Kingdom
158. The Joint Council for the Welfare of Immigrants, United Kingdom
159. Today is a New Day, Institute for Other Studies, Slovenia
160. Trans United Europe/BPOC Trans network, Netherlands
161. Utrecht University, Digital Migration Special Interest Group, Netherlands
162. Waterford Integration Services, Ireland
163. Yoga and Sport With Refugees , Greece

Personnes :
1. Angela Daly, Professor of Law & Technology, Leverhulme Research Centre for Forensic
Science, Dundee Law School and International Research Fellow, Information Society Law
Center, University of Milan, Italy
2. Asli Telli, Research Associate at WISER, The Social and Economic Research Institute at Wits
University
3. Chiara De Capitani, PhD researcher in International Law at the Università di Napoli L'Orientale
4. Claudia Aradau, Professor of International Politics, Department of War Studies and Principal
Investigator of the ERC Consolidator Grant Security Flows, King’s College London
5. Cristina Del Biaggio
6. Douwe Korff, Emeritus Professor of International Law, London Metropolitan University and
Associate, Oxford Martin School, University of Oxford
7. Dr Arjumand Bano Kazmi
8. Dr Derya Ozkul, Senior Research Fellow, Refugee Studies Centre, University of Oxford9. Dr Grace S. Thomson
10. Dr Koen Leurs, Associate Professor , Department of Media and Culture, Utrecht University
11. Dr Niovi Vavoula, Lecturer (Assistant Professor) in Migration and Security at Queen Mary
University of London
12. Dr Philipp Seuferling, LSE Fellow, Department of Media and Communications, London School
of Economics and Political Science
13. Dr Sarah Perret, Research Associate, Department of War Studies, King’s College London
14. Dr. Jan Tobias Muehlberg imec-DistriNet, KU Leuven, Belgium
15. Edward Hasbrouck
16. Elisa Elhadj, PhD Candidate KU Leuven & Research Fellow at the Center for AI and Digital Policy
17. Francesca Meloni, Lecturer in Social Justice at the School of Education, Communication &
Society, King’s College London
18. Judith Membrives i Llorens, Universitat Oberta de Catalunya
19. Luis H. Porras, Universidad Complutense de Madrid
20. Marc Bria Rmírez, Universitat Autònoma de Barcelona
21. Mary Gitahi, RLO study Uganda Lead Researcher, Refugee Studies Centre, University of Oxford
22. Mirjam Twigt, Postdoctoral Fellow IKRS, Faculty of Law, University of Oslo
23. Nabila Hamza
24. Prof. Markus Krebsz, The Human-AI.Institute
25. Senior Research Associate’ in the Department of Anthropology & Development Studies at the
University of Johannesburg
26. Theodora Christou, Queen Mary University of London
27. Trivik Verma, Assistant Professor, Faculty of Technology, Policy and Management in Delft
University of Technology
28. Victoria Canning, Associate Professor of Criminology, University of Bristol
29. Yassine Boubou

 

Photo de Maxim Hopman sur Unsplash