España, laboratorio europeo de una frontera algorítmica cada vez más opaca

España, laboratorio europeo de una frontera algorítmica cada vez más opaca
La nueva investigación de la Fundación porCausa y el Centre Delàs de Estudios por la Paz alerta de que las denominadas fronteras “inteligentes” están configurando en España una infraestructura de control migratorio profundamente opaca, automatizada y cada vez más privatizada, que no solo afecta a las personas migrantes, sino que también erosiona la calidad democrática.

El informe titulado Fronteras “inteligentes”, democracias negligentes, sostiene que la inteligencia artificial y la biometría prometen objetividad, pero acaban produciendo automatización del sesgo, privatización de la soberanía y una menor rendición de cuentas.

La investigación arranca con un símbolo contundente: la valla de Melilla. Pese al despliegue de alambradas, sensores, cámaras térmicas, drones y torres de vigilancia que convierten este enclave en una de las fronteras más vigiladas del mundo, la tragedia del 24 de junio de 2022 —con 37 personas fallecidas, 70 desaparecidas y cientos de devoluciones en caliente— no ha servido para cuestionar el modelo. Al contrario, el episodio ha impulsado nuevas fases de digitalización del control fronterizo.

Desde octubre de 2025 funciona en Beni Enzar un sistema de reconocimiento biométrico de huellas que se completará con un modelo automatizado de gestión de visados. Para los autores, la inteligencia de la frontera termina siendo la negligencia de la política.

Segregar por categoría de personas

El informe explica que este modelo se inscribe en tres generaciones de control migratorio: la del muro físico, la de la tecnificación externa con radares y sensores, y la actual, marcada por algoritmos, grandes bases de datos biométricas, sistemas de perfilado automatizado y proyectos piloto que ensayan desde la detección de microexpresiones hasta el uso de drones autónomos. Según el documento, la frontera “se ha desmaterializado”: ya no separa territorios, sino categorías de personas.

España aparece en el estudio como uno de los principales laboratorios europeos de esta evolución. Entre 2018 y 2025 se adjudicaron casi 700 contratos públicos vinculados a tecnología fronteriza, por un total de 541 millones de euros. Cerca de la mitad del gasto corresponde directamente al control fronterizo y un tercio se dirige a sistemas de vigilancia y detección como el Sistema Integrado de Vigilancia Exterior (SIVE) o las nuevas fronteras digitalizadas.

El 44% del presupuesto se adjudica mediante procedimientos negociados sin publicidad, y la mayor parte del gasto se concentra en unas pocas empresas tecnológicas y de defensa.

A partir de estos datos, los autores describen una arquitectura moral de la frontera basada en tres pilares: opacidad, privatización y homogeneidad ideológica. Señalan que muchos algoritmos empleados en frontera se tratan como secretos de Estado o propiedad privada, lo que impide conocer sus tasas de error y sesgos.

Responsabilidades diluidas

Al mismo tiempo, corporaciones tecnológicas codiseñan y explotan las infraestructuras, difuminando la responsabilidad en casos de discriminación o fallos. Todo ello se sostiene, según el informe, sobre un consenso político que equipara seguridad con control tecnológico.

También puedes leer —  Presentación de una guía para docentes y centros educativos para proteger la infancia ante los desahucios en Cataluña

El resultado es un sistema sin rostro ni control democrático pleno: la frontera ya no está solo en las vallas, sino en bases de datos y algoritmos que pueden decidir una entrada, una alerta o una expulsión.

Cuando un sistema automatizado falla, no hay un responsable político directo, y las personas migrantes se convierten en sujetos de experimentación de tecnologías que pueden producir nuevas formas de exclusión.

El informe dedica especial atención al AI Act europeo, que cataloga los sistemas de inteligencia artificial usados en fronteras como de alto riesgo. Aunque lo considera un avance al exigir documentación, explicabilidad y evaluaciones de impacto, advierte que resulta insuficiente y vulnerable a presiones desreguladoras. La clave, señalan, no es renunciar a la tecnología, sino gobernarla con criterios democráticos.

Finalmente, los autores proponen un decálogo de principios para humanizar la frontera digital: control humano significativo, derecho a conocer los motivos de una decisión automatizada, evaluaciones de impacto en derechos humanos, auditorías independientes, mecanismos efectivos de recurso y reparación, un registro público de algoritmos, limitación del reconocimiento facial en movimiento y planes de contingencia cuando un sistema vulnere derechos.

En sus conclusiones, el informe advierte de que la eficiencia tecnológica está reemplazando al juicio humano y que la sospecha se expresa hoy en forma de estadística. Reclama repolitizar la tecnología, recordar que los algoritmos son productos humanos y asumir la responsabilidad última de sus decisiones. Lo que está en juego, concluye, no es solo la movilidad de las personas, sino la integridad moral de las sociedades que las reciben.

Apoya y cuida Noticias Obreras
Tu aportación hace posible un periodismo comprometido con la dignidad del trabajo, la justicia social y la esperanza. Puedes colaborar también a través de Bizum al 13744. Cualquier aportación, por pequeña que sea, suma y nos ayuda a seguir construyendo, día a día, esta mirada compartida al servicio del bien común