Tecnología y DDHH

Controles biométricos, vigilancia y espionaje: ¿nuestros datos en riesgo?

La introducción de la biometría en tecnologías que utilizamos a diario cobró un salto exponencial en los últimos años. Las preocupaciones respecto a la vigilancia masiva y la protección de la identidad volvieron a ponerse en relieve a partir del espionaje del gobierno porteño a opositores y otras personalidades.


La Justicia porteña suspendió el martes último el sistema de reconocimiento facial de prófugos del Gobierno de la Ciudad de Buenos Aires. Fue luego de detectar un uso ilegal que permitió acceder a datos biométricos de millones de personas que no estaban siendo buscadas. Entre ellas, dirigentes políticos, sociales, sindicales y de derechos humanos, como también jueces, empresarios y periodistas.

El hallazgo judicial renovó la controversia sobre el almacenamiento de datos biométricos para su aplicación en seguridad, y sobre el monitoreo y vigilancia a la que está sometida la sociedad mediante estas herramientas.

Algunas claves para entender:

¿Qué es la biometría?

Desde que Juan Vucetich introdujo la dactiloscopía (el conocimiento de la identidad física humana a través de las huellas digitales) en nuestro país en la década de 1890 y realizó las primeras fichas con huellas digitales de personas acusadas de delitos, nuestras características particulares forman parte de los recursos disponibles para identificar y validar nuestra identidad. Los avances en la  tecnología biométrica permiten utilizar las características físicas y de comportamiento únicas de cada persona y, de manera automatizada, reconocer, autenticar o identificar, a uno o múltiples individuos.

¿Cómo funciona el reconocimiento facial y dónde se utiliza?

El reconocimiento facial es una tecnología biométrica que permite reconocer e identificar a las personas mediante los rasgos de su rostro. Si bien hay ciertas aplicaciones del reconocimiento facial que son útiles, esta tecnología se extiende cada vez más en Argentina y el mundo como una herramienta de vigilancia y control. 

El reconocimiento facial funciona mediante un software alimentado por un algoritmo (una fórmula) que está entrenado para reconocer rostros e individualizar sus rasgos. Una vez que se realiza el mapeo de los rasgos faciales, el software genera una plantilla con la representación matemática para ese rostro único. Esa plantilla  puede ser leída por una computadora y contrastada con una base de datos que previamente almacenó todo un conjunto de rostros.

¿Qué riesgos trae su utilización?

Los datos biométricos brindan información sobre la intimidad del cuerpo humano y, el carácter permanente de esta información impide que, en caso de ser divulgados de manera ilegítima, el daño pueda ser reparado. Es que, a diferencia de una contraseña, no es posible volver a configurar nuestra huella digital o la imagen de nuestro rostro.

Otros riesgos incluyen las filtraciones o hackeos a la base de datos por una pobre o nula implementación de medidas de seguridad, abusos a partir de su uso en tiempo real o utilización de fotografías o videos que hayan sido capturadas o grabados en el pasado. Es decir, todas aquellas posibilidades de individualizar y realizar un seguimiento preciso de cada persona. 

¿Facilita la vigilancia masiva?

El reconocimiento facial permite la vigilancia de forma automatizada: los algoritmos deben necesariamente detectar todos los rostros que registran las cámaras en donde están implementados. Por más que el nombre de una persona no esté vinculado a su rostro, el software igualmente lo estará reconociendo. Esto implica que es fácil abusar y distorsionar el uso de la herramienta. Por ejemplo, organizaciones de derechos humanos de Ecuador denunciaron que durante el gobierno de Lenin Moreno, el estado hizo uso de un software de reconocimiento facial para seguir y vigilar a disidentes políticos. 

¿Qué pasa con la discriminación?

Como demuestran varios estudios, la tecnología es imprecisa y arroja un alto porcentaje de falsos positivos contra personas de tez no blanca y mujeres (además de otras comunidades en situación de vulnerabilidad). En 2020, el Observatorio del Derecho Informático en la Argentina (ODIA),  inició una acción de amparo en la que puso en discusión la constitucionalidad y convencionalidad de las normas que implementaron el sistema de reconocimiento facial en la CABA. La presentación señalaba que ese sistema funciona con programas que realizan una comparación de características biométricas de dos rostros y que la mayoría de ellos “presentan sesgos en cuanto discriminan por raza, color y etnia”.

¿Qué leyes rigen su uso?

En nuestro país, la instauración de este tipo de sistemas de vigilancia no se llevan a cabo a través de cambios legislativos, sino de actualizaciones tecnológicas por decreto, lo que también coarta la posibilidad de debatirlas.Si bien en materia de protección de datos personales el marco legal argentino puede considerarse uno de los mejores de la región (con una garantía constitucional en el artículo 43), la Ley 25.326 de Protección de Datos Personales presenta dos debilidades estructurales: por un lado, un órgano de control débil y dependiente del Poder Ejecutivo, y por otro “una excesiva permisividad hacia el Estado en relación al almacenamiento, tratamiento y cesión de datos personales”. Una modificación de la norma duerme en el Congreso.

En CABA, en 2020, la Legislatura incorporó el sistema de reconocimiento facial a la ley de seguridad pública. A pesar de las recomendaciones de organizaciones de derechos humanos, el poder legislativo convalidó la iniciativa del gobierno porteño. La nueva regulación no ofrece garantías o mecanismos de control suficientes para prevenir abusos.

¿Cómo podemos proteger  nuestros datos?

La utilización encubierta de los datos biométricos trae a luz los problemas relacionados con el consentimiento de los ciudadanos. En el caso de los datos que facilitamos al Estado, no hay una obligación gubernamental a informarnos sobre su uso, y eso representa afectaciones a nuestra intimidad. Para protegernos, es indispensable que los gobiernos movilicen acciones concretas.

A raíz de esas preocupaciones, organizaciones de derechos humanos y de derecho a la privacidad efectuaron una serie de llamados a la acción a entidades privadas y públicas.

Entre ellos, convocan a que hagan compromisos públicos para cesar la creación, desarrollo, venta y uso de tecnologías de reconocimiento y reconocimiento biométrico remoto que permiten vigilancia y vigilancia dirigida discriminatoria.

También exigen la eliminación de  cualquier dato biométrico adquirido ilegítimamente utilizado para construir bases de datos y cualquier modelo o producto creado a partir de dichos datos.

Una de las mayores preocupaciones es la transparencia, por eso demandan que los entes emitan  informes de transparencia que detallen todos sus contratos públicos para el suministro de estas tecnologías.

A nivel ciudadano, existen numerosas asociaciones civiles que protegen los derechos de las personas afectadas por las consecuencias negativas de la vigilancia masiva y su uso ilegal.