FRONTEX

La implantación de la Inteligencia Artificial en frontera y la vulneración de derechos

Pacifistapp
militarización de fronterasflujos migratorios
Inteligencia Artificial en frontera y vulneración de derechos humanos

Recientemente ha aparecido en prensa la noticia sobre la voluntad del gobierno español de aplicar la llamada «frontera inteligente» en los pasos fronterizos de Ceuta y Melilla con el fin de ejercer un mayor control de seguridad mediante el uso de inteligencia artificial a través de la recogida de datos biométricos (reconocimiento facial, huellas dactilares…). Frente a esta noticia, las abajo firmantes manifestamos nuestra preocupación y creemos necesario alertar de los peligros asociados a este tipo de decisiones políticas que conlleva el uso de la inteligencia artificial.

Los duros controles fronterizos son espacios de potencial vulneración de derechos:

Vulneración de derechos fundamentales: el impacto en los derechos básicos que puede tener en un futuro la recopilación de datos biométricos como ya ocurre en aplicación del Convenio de Dublín. Los traslados de personas solicitantes de asilo de un estado miembro a otro en contra de su voluntad, en aumento en los últimos años, han sido, en parte, propiciadas por la recopilación de datos biométricos, como sus huellas dactilares.

Violación de la privacidad: los datos biométricos son datos intrínsecos a las personas. La recopilación de datos biométricos en personas sin pasaporte europeo no cumple con el principio de proporcionalidad. Estas personas se encuentran a menudo en situación de vulnerabilidad y no se tienen en cuenta las consecuencias no deseadas de disponer de unos datos biométricos de personas que no cuentan con mecanismos de protección, garantía, y reparación adecuados.

Discriminación y criminalización: La aplicación de la “frontera inteligente” como un elemento de lucha contra el terrorismo supone un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español. Las políticas antiterroristas a menudo han resultado una herramienta de propagación de la islamofobia, que han tenido como consecuencia un rechazo generalizado hacia la población migrante y racializada. Es de sobra conocido que los algoritmos de reconocimiento facial suelen arrojar falsos positivos y falsos negativos en rostros no caucásicos, lo cual, en este contexto concreto, podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas. La utilización de IA para el control fronterizo profundizaría la estigmatización y criminalización de grupos de personas que ya se encuentran en una gran situación de vulnerabilidad y/o exclusión.

Transparencia y auditabilidad: El procedimiento adolece de una falta de transparencia tanto en la forma, como en el fondo. Tampoco se menciona la auditabilidad y publicidad de los algoritmos. Por las informaciones conocidas, no se habla de que los algoritmos que se empleen sean auditables y/o explicables, tampoco de mecanismos de trazabilidad que permitan supervisión humana ni de políticas de protección de datos.

Mecanismos de control y revisión: Resulta imprescindible incorporar mecanismos de control y revisión de los procedimientos algorítmicos que permitan enmendar errores de manera ágil por grupos de personas independientes en los que han de poder participar entidades en defensa de los derechos humanos y antirracistas. El uso de estos sistemas de reconocimiento facial supone una doble securitización del proceso, que estigmatiza pero también diluye la responsabilidad humana y política ante los daños, efectos indeseados o consecuencias negativas de su uso.

Por todo ello, la aplicación de mecanismos de inteligencia artificial en el control fronterizo supone un peligro de vulneración de derechos humanos, discriminación, criminalización y violación de la privacidad.

Por ello exigimos:

  • La aplicación de la regulación de la IA y protección de datos elaborada por la Comisión Europea también a contextos y situaciones que se consideran de tipo “securitario”, no puede haber vacío legal en este ámbito.

  • La derogación del Reglamento UE 2017/2226 del Parlamento Europeo y del Consejo 30/11 /17 que permite el reconocimiento facial.

  • La necesidad de información y consentimiento informado ante el uso de estos sistemas, incluso si se llegan a aplicar y desplegar.

  • La incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera.

  • La aplicación de tecnologías explicables y auditables, auditoría y control externo de las tecnologías aplicadas, los datos e imágenes almacenadas.

  • Para que la tarea de fiscalización y control por parte de la sociedad civil se pueda llevar a cabo de manera rigurosa, los procesos de diseño y pruebas de los sistemas, incluyendo las bases de datos utilizadas para calibrar los algoritmos, deben ponerse a disposición de auditorías independientes y personas afectadas.


Contenido relacionado

Acogida refugiados Ucrania

Vías legales y seguras y acogida digna para todas

no a la guerraflujos migratoriosucrania
No más muertes por migrar

No más muertes por migrar

militarización de fronterasflujos migratorios
La guardia costera de Trinidad y Tobago disparó contra una embarcación venezolana y causó la muerte a un menor de edad

La guardia costera de Trinidad y Tobago disparó contra una embarcación venezolana y causó la muerte a un menor de edad

antimilitarismomilitarización de fronterasflujos migratorios
Manifestación desplazamiento forzado en Colombia

El desplazamiento forzado aumenta en Colombia

flujos migratorios
Manifestación Ongi Etorri Errefugiatuak

«Lo que la mar nos trae» 2021

militarización de fronterasflujos migratorios
Llegada a Canarias de la Caravana Abriendo Fronteras

Semana de protestas de la Caravana Abriendo Fronteras en contra de la militarización de fronteras y las políticas migratorias españolas y de la UE

Caravana Abriendo Fronterasmilitarización de fronterasflujos migratorios