Utilizan algoritmo para clasificar solicitantes de visa

Utilizan algoritmo para clasificar solicitantes de visa

Escrito el 22/06/2019
María Victoria Cristancho


El Ministerio del Interior británico  ha sido acusado de usar algoritmos informáticos discriminatorios para determinar si las personas que migran al Reino Unido pueden permanecer en el país.

De acuerdo con el Financial Times, los algoritmos secretos utilizados por el departamento de gobierno podrían estar afectando las solicitudes de visa en función de la edad del solicitante o el país en el que nacieron.

Pero mientras la dependencia de los algoritmos para completar las tareas administrativas crece, también lo hace la oportunidad de discriminación y error.

Utilizado en ciencias de la computación, un algoritmo es una especificación inequívoca de cómo resolver una clase de problemas.

A través de su uso reportado en el Ministerio del Interior, se utiliza un algoritmo para determinar las cualidades de los criterios que cumple el ciudadano británico ideal.

En este caso, según se informa, el algoritmo clasifica a los solicitantes viables a través de un sistema de semáforo verde, ámbar y rojo.

El Ministerio del Interior negó al Financial Times que la tecnología rechace a los solicitantes por motivos de nacionalidad y dijo que se asigna un asistente social a cada solicitud individual procesada por la computadora. También negó que se emitiera "sobre la base de la raza".

Pero las preocupaciones sobre una dependencia excesiva del algoritmo han sido planteadas por organismos independientes y abogados.


Advertencias tecnológicas
El inspector jefe de fronteras e inmigración advirtió contra el uso de la herramienta en 2017, según el informe, que afirma que “existe el riesgo de que la herramienta de transmisión se convierta en una herramienta de toma de decisiones de facto”.

La tecnología fue criticada por un grupo de abogados a quienes se les mostró el proceso de transmisión durante una visita reciente a un centro de procesamiento de visas en Sheffield, incluida la presidenta de la Sociedad de Derecho, Christina Blacklaws.

El presidente de la sociedad de abogados dijo al Financial Times que el software "bien podría poner en desventaja a ciertos grupos de personas en función de marcadores genéricos como la edad, el país de origen o si han viajado antes".

The Home Office se negó a ofrecer más detalles sobre su proceso de solicitud, lo que generó preguntas sobre la transparencia de la tecnología falible.

Una historia de fracasos
Al otro lado del Atlántico, Estados Unidos ha utilizado algoritmos para informar a sus sistemas judiciales y ha sido acusado de atacar a grupos vulnerables en el proceso.

En 2016, se demostró que los tribunales de América del Norte estaban utilizando algoritmos para determinar el riesgo de que una persona condenada reincidiera.

También se mostró que los sesgos arraigados en juicios humanos estaban presentes en el sistema.

(Con información de ExpressNews  http://www.expressnews.uk.com