La implementación de programas que condicionan el acceso a servicios básicos a la vigilancia estatal y privada agudizan la inequidad imperante en el continente.
Este artículo fue publicado originalmente en derechosdigitales.org el 10 de octubre de 2019.
La implementación de programas que condicionan el acceso a servicios básicos por medio de vigilancia estatal y privada agudizan la inequidad imperante en el continente.
Mientras la brecha entre ricos y pobres se incrementa en el mundo, América Latina sigue siendo la región donde la riqueza se distribuye de forma más desigual. Según la Comisión Económica para la América Latina y el Caribe (CEPAL), existen marcados desequilibrios territoriales entre los distintos niveles socioeconómicos en aspectos como la esperanza de vida, la mortalidad infantil, la tasa de analfabetismo y el acceso a agua al interior de las viviendas. Así, la altísima inequidad que asola al continente influye directamente en el bienestar de sus habitantes, sus posibilidades de desarrollo y en el ejercicio de sus derechos fundamentales.
La implementación de programas que condicionan el acceso a servicios básicos a la vigilancia estatal y privada ejemplifican de manera clara no solamente el hecho de que las tecnologías no son neutras, sino que impactan de forma diferenciada a distintos grupos humanos, de acuerdo a su género, al color de su piel y a su clase social.
Aprovechándose de las deficiencias de nuestros sistemas legales y explotando sus áreas grises, la industria ha impulsado agresivamente un tecnosolucionismo chauvinista, abrazado irresponsablemente por una clase política con ganas de figurar a la sombra de una idea tristemente reducida de progreso. Así, el negocio se transforma en la promesa de un beneficio acotado, que se consigue a costa de los derechos de quienes no tienen más opción que someterse al escrutinio constante, a la vigilancia, al control, a la discriminación. Hablar de desigualdad en América Latina es hablar de la ponderación que se hace entre los derechos de quienes pueden acceder a otras posibilidades y quienes no.
La inequidad se esconde hoy tras una serie de muletillas de significado impreciso – big data, decisiones algorítmicas, inteligencia artificial – que en nombre de la eficiencia intentan naturalizar los sesgos bajo los cuales operan, haciendo inescrutables los sistemas que los procesan y la forma en que son usados para regular el acceso a programas sociales, el uso del transporte público o la asistencia a eventos populares.
Ejemplos no faltan. En Argentina, la provincia de Salta firmó en 2017 un acuerdo con Microsoft para utilizar inteligencia artificial en la prevención del embarazo adolescente y la deserción escolar. Según la empresa, a partir de datos recolectados por medio de encuestas a sectores vulnerables de la sociedad “los algoritmos inteligentes permiten identificar características en las personas que podrían derivar en alguno de estos problemas y advierten al gobierno para que puedan trabajar en la prevención de los mismos”. Los datos recabados son procesados por servidores de Microsoft distribuidos alrededor del mundo y el resultado de ese procesamiento apunta específicamente a las adolescentes identificadas como personas bajo riesgo, afectando no solamente su privacidad, sino también su autonomía y generando amplio potencial de discriminación. Se trata, finalmente, de un mecanismo dirigido de control sobre personas en situación de vulnerabilidad que son expuestas a intervenciones sin su consentimiento, reforzando la vulnerabilidad de las personas que son privadas incluso de la posibilidad para decidir sobre esas intervenciones.
Aunque se argumente que los datos utilizados para la proyección son entregados voluntariamente, es cuestionable la idea de que las niñas y adolescentes afectadas por estas medidas -o sus responsables- puedan prestar un consentimiento activo y realmente consciente sobre las implicaciones de entregar información específica sobre sus hábitos sexuales y potencial embarazo. Cabe señalar que Salta fue la última provincia argentina que dejó de impartir educación religiosa en las escuelas públicas después de un fallo de la Corte Suprema, reconociendo la existencia de violaciones a los derechos a la igualdad y a la no discriminación, así como a la privacidad de los ciudadanos y ciudadanas. El uso tecnológico descrito no es sino expresión de problemas más amplios para comprender los ámbitos de autonomía y privacidad de las personas, con un propósito político.
En Brasil, el Ministerio de Ciudadanía firmó un acuerdo con el gobierno de Salta y Microsoft para implementar un programa similar. En este caso, además de la prevención del embarazo adolescente y la deserción escolar, se pretende anticipar cuestiones como la desnutrición y enfermedades en la primera infancia. El país sería el quinto en la región en compartir la experiencia argentina. Además de dudas sobre el consentimiento informado y el acceso del Estado a informaciones sensibles sobre poblaciones vulnerables, quedan sin respuesta algunas preguntas sobre qué otros usos u previsiones se pueden extraer de esos datos y cuáles son los límites para su tratamiento por parte de Microsoft y los gobiernos involucrados en el programa.
Por su parte, Chile inició en 2019 la implantación piloto de una herramienta que busca detectar a niños, niñas y adolescentes en situación de riesgo. Según el Ministerio de Desarrollo Social y Familia, Alerta Niñez es un instrumento preventivo que “identifica el conjunto de condiciones individuales, familiares, del entorno y de los pares de los niños y niñas y adolescentes, que tienden a presentarse cuando existe un riesgo de vulneración de derechos de niños, niñas y adolescentes”. El sistema se basa en el procesamiento estadístico de grandes cantidades de datos provenientes de organismos públicos para calificar a la población menor de 18 años, ordenando a las personas según su probabilidad de sufrir vulneraciones.
Aunque en este caso el sistema haya sido desarrollado por una universidad privada local, nuevamente se trata de una iniciativa invasiva de recolección de datos sensibles de menores de edad que conlleva gran riesgo de profundizar situaciones de prejuicio y estigmatización hacia grupos históricamente vulnerables. Además, estos procesos implican la transferencia de datos personales a terceros y la posibilidad de que esos datos sean usados para fines distintos a los que permitieron su recolección; sin bases legales ni garantías de que la información generada no será utilizada a futuro con otros propósitos, como iniciativas de policiamiento predictivo por ejemplo.
Dado que cuestiones como embarazo adolescente, evasión escolar y desnutrición son problemas estructurales en la región, es extremadamente cuestionable que las políticas asociadas sean mediadas o condicionadas a la recolección de grandes cantidades de datos. Que no exista a su vez una preocupación por los derechos de niños, niñas y adolescentes, concordante con instrumentos vigentes en toda la región, da cuenta de un problema más profundo.
Vigilancia, control y exclusión
En Chile, la implementación de sistemas de identificación biométrica en el sistema nacional de salud preocupa por las posibles limitaciones que podría generar a poblaciones marginadas y empobrecidas -e incluso a personas mayores, por la pérdida de legibilidad en rasgos como las huellas digitales- para su acceso a servicios básicos de salud.
La implementación del llamado “Sistema Biométrico para la Seguridad Alimentaria” en Venezuela, a través del cual se exige a los ciudadanos la verificación de su identidad a través de la huella digital para adquirir productos categorizados como de “primera necesidad” (productos alimentarios, de higiene y medicinas), ha generado denuncias por discriminación hacia personas extranjeras -documentadas e indocumentadas- y personas transgénero. La situación es particularmente preocupante dada la situación de escasez de bienes esenciales y la crisis humanitaria que se agrava en el país, principalmente afectando los derechos a la alimentación y salud de las poblaciones más vulnerables.
En São Paulo se implementó hace dos años el uso de cámaras de reconocimiento facial en el sistema de transporte público, con la justificación de que ayudarían a evitar el fraude en el uso de beneficios sociales asociados al transporte, como descuentos a adultos mayores, estudiantes y personas con discapacidad. En estos dos años el sistema ha bloqueado más de 300 mil tarjetas supuestamente usadas indebidamente, o sea, no por sus titulares. Para impedir ese tipo de fraudes y restringir el acceso de personas no registradas -como personas sin techo e inmigrantes- al servicio, se ha anunciado la suspensión total las tarjetas anónimas. Además, a municipalidad también ha implementado medidas para obligar el registro de las tarjetas con datos de identificación únicos y residenciales. En una ciudad de las dimensiones de São Paulo, las tarjetas que permiten la integración con descuento a distintos tipos de transporte son fundamentales para la locomoción de gran parte de la población al trabajo, escuela y actividades culturales. El bloqueo o imposibilidad de acceso a medios de transporte puede tener un gran impacto en la vida y el desarrollo de las personas.
Además de crear limitaciones al acceso a servicios públicos para grupos históricamente marginados de la población, los sistemas de identificación obligatoria y biométricos implican una “sobrevigilancia” hacia esos grupos. No se sabe cómo son utilizados, agregados y compartidos los datos recolectados de esos grupos, ni parece proporcional exigir un nivel tan alto de información para la entrega de beneficios limitados o condicionados. En el caso venezolano las bases de datos biométricas provienen del sistema electoral, para ser utilizadas tanto por operadores estatales -incluyendo funcionarios de migración y policías- como por cajeros de supermercados y farmacias, sin ningún tipo de requisito legal previo. En São Paulo, el gobierno municipal llegó a anunciar la venta de las bases de datos de las tarjetas utilizadas en el transporte pero, bajo presión pública y después de la aprobación de una ley de protección de datos en Brasil, cambió su posición.
No está demás reiterar que solamente se someten a esos sistemas a los usuarios de sistemas públicos de salud, asistencia social y transporte que, en general, no incluyen las élites locales que pueden prescindir de ellos y recurrir a prestadores privados; manteniendo mayor control sobre su información y preservando su privacidad.
Desigualdad, discriminación y pobreza
Que los mecanismos de vigilancia sean implementados de manera diferencial hacia los grupos más vulnerables no es novedad, esto remonta a procesos de control social y precarización que han estado en la base de la construcción de muchas de nuestras sociedades para asegurar tanto la dominancia de las clases sociales y económicas más privilegiadas como la explotación de los más vulnerables. Aún hoy, con las posibilidades ofrecidas por las tecnologías para optimizar la entrega de servicios de toda clase, vemos que esas tecnologías son usadas para mantener esa estructura social desigual. Con asistencia de la tecnología, la vulnerabilidad es castigada con vigilancia.
No tiene por qué ser así. La promesa de la tecnología es la mejora de nuestras vidas. Esa promesa debería ser transversal a toda la sociedad y no estar reservada para aquellas personas que puedan costear las mejoras, o que puedan pagar el precio de no tener que someterse a aplicaciones abusivas de la tecnología. Estos desarrollos y despliegues tecnológicos no deberían resultar en una nueva forma de discriminación que profundice otras desigualdades como un daño colateral que debemos asumir en favor de un supuesto bien mayoritario.
Una aproximación de derechos fundamentales con una comprensión interseccional de los distintos tipos de exclusiones que las tecnologías promueven y clausuran es la única manera de hacer frente a la desigualdad a la que millones de personas están siendo sometidas en el continente. Solo así, las nuevas tecnologías quizás puedan convertirse en un factor que ayude al cierre de las brechas que enfrentamos ahora.