Responsables politiques de l'UE : réglementez les technologies policières !
115 organisations de la société civile, dont la FIACAT, demande à l'UE de fixer des limites aux technologies de surveillance dans la loi sur l'intelligence artificielle. Voici une version traduite de leur déclaration :
Alors que les systèmes d'intelligence artificielle sont de plus en plus utilisés par les autorités chargées de l'application de la loi, du contrôle des migrations et de la sécurité nationale, la loi européenne sur l'intelligence artificielle (loi sur l'IA) est une occasion urgente de prévenir les dommages, de protéger les personnes contre les violations des droits et de fournir des limites juridiques aux autorités pour qu'elles utilisent l'IA dans les limites de l'État de droit.
De plus en plus, en Europe et dans le monde, des systèmes d'IA sont développés et déployés pour des formes de surveillance étatique préjudiciables et discriminatoires. Qu'il s'agisse de l'utilisation de la biométrie pour l'identification, la reconnaissance et la catégorisation, ou de systèmes prédictifs dans diverses capacités de prise de décision et d'affectation des ressources, l'IA dans l'application de la loi cible de manière disproportionnée des communautés déjà marginalisées, porte atteinte aux droits légaux et procéduraux, et permet une surveillance de masse.
Lorsque les systèmes d'IA sont déployés dans des contextes de maintien de l'ordre, de sécurité et de contrôle des migrations (y compris la surveillance de la sécurité sociale), le déséquilibre des pouvoirs entre les autorités et les personnes surveillées est encore plus profond. Cela signifie qu'il existe un risque encore plus grand de préjudice et de violation des droits fondamentaux et de l'État de droit.
Cette déclaration souligne le besoin urgent de réglementer l'utilisation des systèmes d'intelligence artificielle par les autorités chargées de l'application de la loi, du contrôle des migrations et de la sécurité nationale dans toute l'Europe.
Nous soulignons les dangers spécifiques pour la liberté de réunion, la liberté, le droit d'asile, la protection de la vie privée et des données, le droit à la protection sociale et la non-discrimination lorsque cette technologie est déployée par ces autorités.
Les organisations de la société civile demandent une loi sur l'IA qui empêche les formes incontrôlées de surveillance discriminatoire et de masse. Afin de faire respecter les droits de l'homme et de prévenir les dommages liés à l'utilisation de l'IA dans les domaines du maintien de l'ordre, du contrôle des migrations et de la sécurité nationale, la loi européenne sur l'IA doit
1. Inclure des limites juridiques interdisant l'utilisation de l'IA pour des usages qui posent un risque inacceptable pour les droits fondamentaux. Cela inclut une interdiction légale des différentes formes de surveillance biométrique, de la police prédictive et des utilisations préjudiciables de l'IA dans le contexte migratoire.
2. Assurer la transparence et le contrôle publics lorsque la police, les services d'immigration et les agences de sécurité nationale utilisent l'IA "à haut risque", en imposant à ces autorités le même devoir d'enregistrer les utilisations à haut risque dans la base de données de l'UE sur l'IA.
3. Veiller à ce que la loi sur l'IA réglemente correctement les utilisations de l'IA dans les domaines de la police, de l'immigration et de la sécurité nationale qui présentent un risque pour les droits de l'homme, en particulier la liste complète de l'IA dans le contrôle de l'immigration, et en veillant à ce que la sécurité nationale ne soit pas exclue du champ d'application de la loi.
Pourquoi la loi européenne sur l'IA doit-elle réglementer l'utilisation de l'IA dans les domaines du maintien de l'ordre, de l'immigration et de la sécurité nationale ?
- Le contrôle des pouvoirs de l'État et de la police est essentiel au fonctionnement d'une société démocratique fondée sur les droits. La loi sur l'IA vise à reconnaître et à réglementer les utilisations à haut risque de l'IA et, le cas échéant, à les interdire lorsque la menace pour les droits fondamentaux est trop importante. Les utilisations de l'IA par les autorités publiques dans les domaines du maintien de l'ordre, de l'immigration et de la sécurité nationale figurent parmi les cas d'utilisation les plus risqués, parce qu'elles ont un impact très important sur les droits fondamentaux, notamment la liberté de réunion et d'expression, le droit à un procès équitable, la présomption d'innocence, la non-discrimination et le droit de demander l'asile. Le travail des autorités de police, d'immigration et de sécurité régit l'accès à l'espace public, les résultats dans les secteurs de la justice pénale et de l'immigration, ainsi que divers autres domaines de la vie qui ont le plus d'impact sur les droits fondamentaux. En tant que telle, l'utilisation de l'IA par ces autorités exige la plus grande surveillance et la plus grande transparence, ainsi que les limites les plus claires afin de respecter les principes démocratiques fondamentaux.
- L'utilisation de l'IA dans les domaines de la police, de la sécurité et de la migration amplifie la discrimination structurelle à l'encontre de communautés déjà marginalisées et sur-surveillées, telles que les personnes racialisées, les migrants et de nombreux autres groupes discriminés. Des preuves de plus en plus nombreuses démontrent que ces systèmes d'IA renforcent la surpolice, la surveillance disproportionnée, la détention et l'emprisonnement de groupes structurellement discriminés. Les données utilisées pour créer et faire fonctionner ces systèmes reflètent la discrimination historique, systémique, institutionnelle et sociétale. Cette discrimination est tellement fondamentale et enracinée que tous ces systèmes renforceront ces résultats. Des interdictions, une transparence publique et des cadres de responsabilité sont nécessaires pour prévenir les préjudices et donner aux gens les moyens de les contester.
- L'utilisation de l'IA dans les domaines de la police, de la sécurité et des migrations invite le secteur privé à s'immiscer dans des aspects essentiels de la gouvernance publique, ce qui nécessite une surveillance encore plus étroite et des limites juridiques afin de garantir le respect des droits des personnes. Étant donné que ces domaines relèvent de la compétence des pouvoirs publics, il est essentiel que la loi sur l'IA garantisse que le développement de l'IA par le secteur privé dans ces domaines fasse l'objet d'une transparence publique. Les systèmes d'IA, lorsqu'ils sont déployés dans les domaines du maintien de l'ordre, de l'immigration et de la sécurité nationale, doivent avant tout répondre des normes en matière de droits fondamentaux et de l'État de droit, plutôt que d'être motivés par le profit. À ce titre, des garanties, une surveillance et des limites juridiques doivent être appliquées.
Des recommandations détaillées sur la manière dont la loi européenne sur l'IA doit être modifiée dans ces domaines figurent dans le fichier attaché ci-dessous.
Organisations signataires :
- European Digital Rights (EDRi)
- Access Now
- AlgoRace
- Algorights
- AlgorithmWatch
- All Out
- Àltera
- AMERA International
- Amnesty International
- Angela Daly - Professor of Law, University of Dundee, Scotland, UK
- Anita Okoro
- ApTI - Asociația pentru Tehnologie și Internet
- Asia Indigenous Peoples Pact
- Aspiration
- Association for Legal Studies on Immigration (ASGI)
- Association Konekt
- Association of citizens for promotion and protection of cultural and spiritual values Legis Skopje
- ASTI asbl - Association de soutien aux travailleurs immigrés
- AsyLex
- Bits of Freedom
- Bridget Anderson - University of Bristol
- Bulgarian center for Not-for-Profit Law (BCNL)
- Centre for Information Technology and Development (CITAD)
- Centre for Peace Studies
- Chaos Computer Club e.V.
- Chiara De Capitani (PhD, Università degli Studi di Napoli "L'Orientale")
- Civil Liberties Union for Europe
- Comisión General de Justicia y Paz de España
- Controle Alt Delete
- Corporate Europe Observatory (CEO)
- D64 - Zentrum für Digitalen Fortschritt e. V.
- Danes je nov dan, Inštitut za druga vprašanja
- Democracy Development Foundation
- Digital Ethics Center / Skaitmenines etikos centras
- Digitalcourage
- Digitale Gesellschaft
- Digitale Gesellschaft
- Dr Derya Ozkul
- Ekō
- Electronic Frontier Finland
- Elektronisk Forpost Norge (EFN)
- Elisa Elhadj
- works
- Equipo Decenio Afrodescendiente
- Ermioni Xanthopoulou
- Eticas
- EuroMed Rights
- European Anti-Poverty Network (EAPN)
- European Center for Not-for-Profit Law
- European Civic Forum
- European Movement Italy
- European Sex Workers' Rights Alliance (ESWA)
- Exploring Womanhood Foundation
- Fair Trials
- Fair Vote UK
- Francesca Palmiotto Hertie School
- Fundación Cepaim
- German NGO Network against Trafficking in Human Beings - KOK
- Gernot Klantschnig, University of Bristol
- Glitch
- Greek Forum of Migrants
- Homo Digitalis
- Human Rights Association (İHD)
- I Have Rights
- IDAY Liberia Coalition Inc
- Instituto de Asuntos Culturales
- International Commission of Jurists
- International Women* Space e.V
- Irish Council for Civil Liberties (ICCL)
- King's College London
- KISA - Equality, Support, Antiracism
- La Quadrature du Net
- Legal Center for the Protection of Human Rights and the Environment (PIC)
- Legal Centre Lesvos
- Liberty
- Ligue algérienne pour la défense des droits de l'homme
- Ligue des droits de l'Homme (France)
- Ligue des droits humains (Belgium)
- LOAD e.V.
- Lorenzo Vianelli (University of Bologna)
- Mallika Balakrishnan, Migrants Organise
- Migrant Tales
- Mirjam Twigt
- Moje Państwo Foundation
- Mujeres Supervivientes
- Novact
- Open Knowledge Foundation Germany
- Organisation International Federation of ACAT (FIACAT)
- Panoptykon Foundation
- Partners Albania for Change and Development
- Platform for International Cooperation on Undocumented Migrants (PICUM)
- Politiscope
- Privacy First
- Privacy International
- Privacy Network
- Dr. Lorenz Boellinger, University of Bremen
- Jan Tobias Muehlberg (Universite Libre de Bruxelles)
- Promo-LEX Association
- Prostitution information center
- REFUGEE LEGAL SUPPORT
- REPONGAC Réseau des Plateformes Nationales d'ONG d'Afrique Centrale
- Ryan Lutz, University of Bristol
- Sea-Watch
- SOLIDAR & SOLIDAR Foundation
- Statewatch
- Stichting Landelijk Ongedocumenteerden Steunpunt
- SUDS - Associació Internacional de Solidaritat i Cooperació
- Superbloom (previously known as Simply Secure)
- SUPERRR Lab
- Symbiosis - Council of Europe School for Political Studies in Greece
- Taraaz
- Michael Ellison, University of Bristol
- Vicki Squire, University of Warwick
- Victoria Canning - University of Bristol
- Volonteurope