miércoles, 21 febrero, 2024
InicioSin categoríaNo al reconocimiento facial No de nuevo!

No al reconocimiento facial No de nuevo!

Fundación Vía Libre (*)

La actual ministra de Seguridad de la Nación, Patricia Bullrich, preparó un protocolo antipiquetes y el 18 de diciembre, en una entrevista con LN+ respecto a este tema, dijo: “Vamos a identificar a las personas. Vamos a tener cámaras, vamos a tener drones y vamos a tener distintas formas de identificarlas. Sólo por detenerla no significa que deje de cobrar el plan, puede ser que se la identifique y también va a dejar de cobrar”, en línea a lo que tituló el actual presidente Javier Milei: “El que corta, no cobra”, en referencia a la amenaza de que quienes manifiestan en la calle serían perjudicados con la interrupción de planes sociales otorgados por el gobierno.

¿Cómo se pretende identificar sin detención en el momento? La ministra, está hablando de utilizar el sistema de reconocimiento facial para implementar su protocolo.

En esta nota, no vamos a hablar de la gravedad de la promoción de un protocolo prohibiendo el derecho a manifestarse. Para eso, compartimos la denuncia del Centro de Estudios Legales y Sociales (Cels) junto a 1700 firmas de organizaciones.

El objetivo aquí es poner en discusión, una vez más, la promoción de normalizar la vigilancia. Mientras en muchos países del mundo, se están prohibiendo y reglamentando. En riesgo de perder la privacidad en espacios públicos, ¿dónde queda el derecho a la libertad de expresión?

Frente a este contexto, compartimos algunas preguntas y posibles respuestas.

1) ¿Qué es el Sistema de Reconocimiento Facial (SRF)?

Un sistema de reconocimiento facial es un software que busca identificar a determinadas personas por ejemplo, a través de una cámara de vigilancia, y luego lo contrasta con una base de datos biométricos previa.

Para entrenar esta tecnología: se le brinda información de un gran número de rostros de diferentes personas. Información que fue previamente cargada por trabajadores de Inteligencia Artificial (IA), muchas veces invisibilizados, que son quienes definen, por ejemplo, subir una imagen y reconocerla como «hombre»”.

Al software de reconocimiento facial se le cargan las cámaras de vigilancia y es entrenado para comparar automáticamente con una carga de datos que se le proporciona en función del objetivo de aplicación del sistema. Esta tecnología está programada para tomar puntos de identificación y llevar una probabilidad estimada para realizar asociaciones.

2) ¿Cuáles son los usos de los sistemas de reconocimiento facial?

El reconocimiento facial tiene distintas aplicaciones, por ejemplo, para desbloquear el teléfono (conocido como face ID), etiquetar personas en redes sociales, comercializar a través de internet, para identificarse en bancos, videojuegos, etc. Pero también, se vislumbra su utilización mayoritariamente en sistemas de vigilancia implementados en el espacio público.

Por ejemplo, en 2019 se puso en práctica el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la Ciudad Autónoma de Buenos Aires que tenía como objetivo identificar personas con orden de detención de la Justicia.

No siempre existe la transparencia para saber de dónde vienen esos datos. En aquel entonces, el Gobierno de la Ciudad aseguró que los datos con los que se contrastaba el sistema eran de la Base de Datos de Consulta Nacional de Rebeldías y Capturas (Conarc) y de la base de datos del Registro Nacional de Personas (Renaper) y del Ministerio del Interior.

¿Pueden acaso el Estado o el privado compartir esos datos? En Argentina, existe la Ley de protección de datos personales. “La ley de protección de datos personales y el principio de hábeas data con rango constitucional te protege si tus datos de identidad, de salud o de crédito son usados sin tu consentimiento”.

Así lo resume el gobierno en su sitio web. El sistema de vigilancia y los datos biométricos son incluidos como datos personales.

Además, un dato anexo y no menor, que la ley de Identificación, Registro y Clasificación del Potencial Humano Nacional, donde se registran nuestros datos personales, nuestras huellas dactilares, y ahora se incorporan registros de datos biométricos con el nuevo DNI, data de la dictadura militar de 1968, cuando Juan Carlos Onganía sancionó la ley 17671.

3) ¿Existe desigualdad algorítmica?

Estas inteligencias artificiales tienen un porcentaje significativo de lo que llamamos falsos positivos. A continuación algunos ejemplos interesantes. (Varios de estos ejemplos están recopilados en el libro: “Te están mirando, resistencias frente a las vulnerabilidades de derechos por sistemas de reconocimiento facial en el mundo”.

En la final de la Champions League de la UEFA del 2017, se utilizó el reconocimiento facial buscando identificar a quienes tenían prohibido el ingreso. Hubo 173 alertas positivas y 2297 de falsos positivos. En 2018, el estudio Gender Shades de MIT y la Universidad de Stanford evaluó y encontró errores de más del 20 por ciento en caras de mujeres de piel oscura, mientras que el error en hombres con piel clara fue del uno por ciento. En Estados Unidos el Instituto Nacional de Estándares y Tecnologías encontró pruebas que determinados proveedores de reconocimiento facial tienen un sesgo significativo en casos de personas con ascendencia africana y asiática. Robert Williams, de Detroit, fue arrestado cuando llegaba a su casa en enero del 2020, porque el algoritmo lo identificó con otra persona que era buscada. Estos algoritmos pueden no solo tener errores, sino que también pueden amplificar la discriminación.

Para conocer más sobre la discriminación algorírtimica en sistemas de reconocimiento facial recomendamos el documental “Coded Bias”.

4) ¿Casos de estudio?

En la Ciudad de Buenos Aires, nuestros colegas y amigos del Observatorio de Derecho Informático Argentino (Odia) iniciaron un proceso judicial para detener la implementación del Sistema de Reconocimiento Facial de Prófugos de la Ciudad Autónoma de Buenos Aires, anteriormente mencionada, y desde Vía Libre nos sumamos como amigos del tribunal.

En septiembre de 2022, la jueza en lo Contencioso Administrativo de la Ciudad, Elena Amanda Liberatori, declaró la inconstitucionalidad del Sistema de Reconocimiento Facial de Prófugos (SRFP) implementado por el Gobierno porteño. Podés informarte más al respecto en la declaración que compartió Cels.

5) ¿El uso del sistema de reconocimiento facial para desincentivar las manifestaciones?

Argentina está queriendo utilizar el sistema de reconocimiento facial para desincentivar las manifestaciones. No es el primer caso mundial. En Rusia, el activista Vladimir Milov y la activista social Alyona Popova denunciaron frente al Tribunal Europeo de Derechos Humanos sobre el uso del sistema de reconocimiento facial (SRF) en manifestaciones de Moscú.

También, Natalia Zviagina, directora de Amnistía Internacional de Rusia dijo: “En manos de las autoridades rusas, que ya perpetran numerosos abusos, y ante la ausencia total de transparencia y rendición de cuentas de estos sistemas, es una herramienta que probablemente se usará para llevar las represalias contra protestas pacíficas a un nivel totalmente nuevo”.

En Argentina, tenemos un nuevo gobierno hace poco. El electo presidente, en su discurso, luego de ser elegido pronunció “Dentro de la ley todo, fuera de la ley nada”.

Desde Vía Libre, venimos discutiendo al respecto hace muchos años, basta con revisar nuestro sitio web. Sabemos y hemos denunciado, que estos sistemas atentan a los derechos fundamentales de las personas. Se vulnera la protección de datos personales, la libertad de asociación y reunión, la libertad ambulatoria y la libertad de expresión.

Cada persona tiene derecho a la privacidad. Incluso en lugares públicos. Y tiene derecho a que sus datos personales se protejan. Frente a estas declaraciones, y como lo hemos hecho a lo largo de años con este tema: exigimos transparencia. Saber de dónde vienen los datos, para qué van a usar los datos que recopilan, cómo se desarrollan los SRF y contar con auditorías. Sin esa transparencia, no hay garantía de derechos.

(*) Promueve y defiende derechos fundamentales en entornos mediados por tecnologías de información y comunicación, con especial énfasis en el seguimiento y desarrollo de políticas públicas. La FVL comparte los contenidos de su página web (https://www.vialibre.org.ar/) por medio de una licencia de Creative Commons 2.5 Argentina (https://creativecommons.org/licenses/by/2.5/ar/).

Más Noticias