Identificación y biometría en Lanbide

Aníbal Monasterio Astobiza

07/10/2018

En la actualidad discurre, bajo el mantra y ethos del solucionismo tecnológico, una presunción que mantienen múltiples gobiernos y administraciones en todo el mundo: la tecnología agiliza, es más eficiente, y puede resolver los asuntos burocráticos. Pero esta presunción debe ser objeto de una reflexión y análisis detallado porque debemos tomarnos muy en serio la ética de la tecnología.  El 22 de Marzo del año 2017 la consejera de Empleo y Políticas sociales de la Comunidad Autónoma Vasca (CAV) anunció el deseo de poner en marcha medidas destinadas a la mejora de la gestión y agilización de procesos y trámites en Lanbide (el Servicio Vasco de Empleo). Entre una de estas medidas se encontraba la implementación de un sistema de identificación electrónica que afectaría a los usuarios de Lanbide. La motivación para implementar esta tecnología biométrica era, presuntamente, atajar irregularidades y actuaciones fraudulentas en la percepción de la RGI y de paso hacer más eficiente los procesos de Lanbide.

La RGI (Renta de Garantía de Ingresos) es la denominación que reciben las ayudas económicas a quienes tienen ingresos mensuales inferiores a 650 euros que el Gobierno Vasco concede a través de Lanbide. La RGI, a fecha de Agosto del 2018, tiene 56.800 titulares y entre unos 106.000 perceptores aproximadamente, de acuerdo con las estadísticas del propio Lanbide. Pero pongamos las cosas en su debido contexto. Como bien nos recuerda Tinixara Guanche, parlamentaria de Elkarrekin/Podemos, el fraude fiscal es 460 veces mayor que el fraude en la RGI. En 2017 Lanbide detectó un total de 442 casos de entre 60.405 titulares, un 0,73% del total. Con estos datos hay una cosa clara: no se puede decir que exista un fraude extendido y generalizado. Por utilizar el lenguaje de la estadística clínica o médica: ¿un falso positivo por cuántos falsos negativos?, es decir: ¿ante una mínima representación del fraude se hace necesaria la aplicación de tecnología biométrica que contrae importantes costos logísticos? Desde un punto de vista ético, esta visión de la tecnología como más eficiente a la hora de servir un objetivo funcional y en este caso de la tecnología biométrica como medio para ahorrar tiempo en la gestión (taylorismo administrativo), tampoco tiene que aceptarse de manera acrítica. A pesar de lo que diga el solucionismo tecnológico, la biometría no es la panacea. Varias consideraciones éticas nos muestran los riesgos y retos del uso de la biometría, pero dos son extremadamente relevantes: la exclusión social y la privacidad. La biometría significa etimológicamente “medir la vida” y el tipo de biometría que quiere llevar a cabo Lanbide consiste en la identificación computacional de una persona a partir de sus características físicas únicas de la huella dactilar o digital. En primer lugar, la investigación ha demostrado que siempre existirán individuos o grupos a los que no se podrá identificar su biometría de manera fiable y consistente. Las contraseñas que utilizamos para autentificarnos en el acceso a nuestras cuentas de correo, plataformas digitales (redes sociales) etc. son binarias: coinciden o no. La persona inicia sesión o no. Sin embargo, la autentificación con la biometría no es un proceso binario. La biometría ofrece niveles de confianza acerca de cómo los datos físicos o fisiológicos recogidos se corresponden con la muestra. Pero siempre habrá factores que pueden interferir como cambios en el propio individuo debido a una lesión, edad, fallos en el equipo, o una lectura parcial y pobre. Este es un aspecto de la exclusión social: el hecho de que es posible que un porcentaje considerable de individuos sean rechazados o no reconocidos por el sistema biométrico. Pero también existe otro tipo de exclusión social: discriminación y estigmatización manifiesta. El uso de la biometría en ciertas aplicaciones puede ser una ventaja: abrir puertas, iniciar sesión en computadoras… pero por lo general conlleva una asociación mental implícita con el crimen. La huella dactilar es el procedimiento por el cual los cuerpos de seguridad y policías de muchos países registran a los criminales y si no es por obligación no todo mundo se enrolaría voluntariamente en un programa biométrico con tales connotaciones. Objeciones de conciencia y/o religiosas también se pueden dar que a su vez excluyan a ciertos grupos, porque así lo deseen ellos mismos. Varias denominaciones cristianas en los EE.UU. rechazan enrolarse en programas biométricos porque lo consideran “La marca de la bestia” (Apocalipsis 13:16–18). Personas con diagnóstico de trastornos o problemas mentales (personas con depresiones o ilusiones paranoides) pueden sentir aversión al uso de sistemas biométricos porque su suspicacia les hace creer que les vigilan y controlan con efectos potenciales negativos para el pronóstico de la remisión de su condición.

El 25 de mayo del 2018 entró en vigor el Reglamento General de Protección de Datos (RGPD) con potenciales sanciones para aquellos que no la cumplan. Las sanciones pueden variar de entre 20.000.000 euros o el 4% de la facturación mundial anual del año fiscal anterior en caso de ser una compañía multinacional, sanción que es incluso mayor (Artículo 83 § 5 y 6, RGPD). Y esto nos lleva directamente a la segunda consideración de relevancia ética: la privacidad. Los datos biométricos, como la huella dactilar, son una categoría especial de datos altamente sensibles, o en el lenguaje del legislador español, datos “especialmente protegidos” cuyo tratamiento quedaba expresamente prohibido en la legislación anterior a no ser que haya consentimiento explicito, específico, informado e inequívoco. De hecho, según el Artículo 9 (1) del RGPD, el procesamiento de los datos biométricos está prohibido incluso con el consentimiento del afectado, a menos que se dé una de las condiciones recogidas en el Artículo 9 (2). Pero aun así la implementación de sistemas biométricos puede limitarse aún más porque el Artículo 9 (4) permite a los estados miembros poner restricciones al procesamiento de datos biométricos. Por otra parte, de acuerdo con el Artículo 35 este tipo de medida, implantar por parte de Lanbide un sistema biométrico de identificación, requiere una evaluación de impacto sobre la privacidad. En primer lugar, porque el proceso de recopilación de los datos biométricos puede conducir a un doble uso de los mismos más allá del propósito original por los que se obtuvieron. Un uso abusivo de los datos biométricos es un temor real porque Lanbide va a recurrir a los servicios de una empresa, Izenpe, que aunque impulsada inicialmente por el Gobierno Vasco, comercializa sus servicios de certificación digital. El RGPD declara de manera clara que los datos biométricos no deben ser meramente para un propósito identificativo y si es este el caso se deben adherir a la legislación de manera estricta y aplicar el Principio de Minimización, Artículo 25 (2): “El responsable del tratamiento aplicará las medidas técnicas y organizativas apropiadas con miras a garantizar que, por defecto, solo sean objeto de tratamiento los datos personales que sean necesarios para cada uno de los fines específicos del tratamiento. Esta obligación se aplicará a la cantidad de datos personales recogidos, a la extensión de su tratamiento, a su plazo de conservación y a su accesibilidad” Una pregunta inevitable, si algún día se aplicara este sistema de identificación biométrico en Lanbide, es cómo de seguros estarían los datos.

En el mundo digital es fundamental la ciberseguridad y las noticias constantes de los medios de comunicación generalistas sobre filtraciones de datos en compañías tecnológicas dan que pensar. Los controladores de datos como los proveedores deben garantizar que la tecnología sea segura y esto no es posible del todo. La práctica imposibilidad de proteger al cien por cien los datos tiene consecuencias económicas, sociales, éticas y legales serias, pero son incluso graves cuando los datos comprometidos son los de colectivos vulnerables como los interesados de Lanbide. No hay que ceder los datos biométricos a las autoridades con poca conciencia de los derechos que nos protegen. Debemos exigir transparencia y responsabilidad en el uso de la tecnología biométrica por parte de las administraciones.

Investigador posdoctoral del Gobierno Vasco, visitante académico en el Oxford-Uehiro Center for Practical Ethics de la Universidad de Oxford e investigador posdoctoral en el Center for Bioethics de la Universidad de Harvard. Aníbal es Licenciado en Filosofía por la Universidad de Deusto y Doctor en Ciencias Cognitivas y Humanidades por la Universidad del País Vasco/Euskal Herriko Unibertsitatea.
Fuente:
www.sinpermiso.info, 7-10-18