Sin límites claros definidos desde el Estado, la IA puede "llevar a decisiones automatizadas sesgadas que afectan aspectos cruciales de la vida de las personas, perpetuando la discriminación y las desigualdades."
Este artículo fue publicado originalmente en observacom.org el 15 de noviembre de 2024.
La falta de regulación integral sobre inteligencia artificial en América Latina abre la puerta a diversos riesgos desde la perpetuación de desigualdades hasta la vulneración de derechos humanos por vigilancia masiva y desinformación. Sin marcos claros, la tecnología avanza sin protección efectiva para la ciudadanía, lo que podría consolidar prácticas lesivas para la democracia en la región. Desde el consorcio de organizaciones sociales AlSur analizaron los casos de Brasil, Colombia, México y Perú en un reciente trabajo denominado Caminos regulatorios para la IA en América Latina.
En Latinoamérica, el despliegue de los sistemas de inteligencia artificial se ha promocionado desde una mirada de desarrollo económico y social y esta mirada es la que ha guiado las discusiones y debates sobre cómo regular una tecnología que atraviesa todas las esferas de la vida cotidiana de la ciudadanía. “Los escenarios de regulación de estos países son ejemplos de una reactividad legislativa sin un marco legal integral, así como un desconocimiento de la realidad material y de las necesidades particulares de cada país”, es algo que se repite en cada caso, señala el informe de AlSur.
La necesidad de una regulación adecuada radica en que, sin límites claros definidos desde el Estado -y en diálogo con la sociedad civil, la academia y la comunidad técnica-, la IA puede “llevar a decisiones automatizadas sesgadas que afectan aspectos cruciales de la vida de las personas, perpetuando la discriminación y las desigualdades en acceso a servicios de salud, educación y empleo”. Sin directrices claras, existe también el riesgo de que se realice “un uso abusivo de esta tecnología para la vigilancia masiva, vulnerando la privacidad y la libertad individual” en casos como los que involucran sistemas de reconocimiento facial.
En el campo de la información y la comunicación se ha comprobado que los sistemas de IA pueden utilizarse “para difundir información falsa o sesgada, afectando la opinión pública y la democracia”. La regulación es necesaria en estos casos por tratarse de prácticas que desestabilizan la confianza en las instituciones esenciales de toda sociedad democrática.
Finalmente, sin la supervisión adecuada existe el riesgo de exclusión por las brechas digitales entre quienes desarrollan y tienen acceso y aquellas “comunidades vulnerables que no tienen acceso a la tecnología o a la educación necesaria para beneficiarse de ella”.
Entre los distintos riesgos que se presentan, se destaca la falta de transparencia por la opacidad de los algoritmos que impulsan los sistemas de IA. Esto dificulta que las personas comprendan los criterios y procesos con los que se toman las decisiones automatizadas que les afectan. Esta falta de transparencia también impide que los gobiernos puedan auditar y supervisar que el funcionamiento de los mismos sea compatible con el marco del cumplimiento de los estándares del Sistema Interamericano de Derechos Humanos.
Algo a destacar como riesgo de una regulación insuficiente es el de Brasil, donde es posible observar que “mientras no se apruebe una ley integral, aparecen proyectos de ley dirigidos a usos específicos de un determinado tipo de inteligencia artificial en función de los casos de usos cuestionables que salen a la luz”. Un ejemplo de esto es lo sucedido a partir del escándalo de los deep fakes producidos por estudiantes universitarios que ilustraban a colegas en escenas de desnudos. Sólo en 2023, se presentaron al menos 25 proyectos de ley sobre esta problemática.
En el informe se destaca cómo la regulación se adapta a “las necesidades de proyectos tecnosolucionistas” a partir de la influencia de legislación internacional, como surge del análisis del caso de Brasil. El problema es que no se tienen en cuenta problemáticas específicas del país y su población.
En la experiencia de México, que tiene una regulación genérica de la IA que busca replicar el modelo de riesgos de la Ley de Inteligencia Artificial de la Unión Europea, uno de los problemas es que “se centra en riesgos que aún no existen y quita la mirada de temas específicos como la vigilancia biométrica masiva bajo premisas de ‘seguridad nacional’”
Por otro lado, en el caso de Perú se destaca que se han creado distintas instituciones para promover el aprovechamiento ético de diversas tecnologías, incluida la IA, pero “se ha dejado de lado el análisis de los riesgos relacionados al uso de la IA y cómo el Estado debería hacerles frente”.
En Colombia, a pesar de que hay marcos éticos y mecanismos de regulación para una adopción “ética y sostenible de la IA”, no existe una interlocución con normativas ya existentes como la ley de protección de datos personales o la legislación en derechos de autor.
Para lograr una mejor regulación, que contemple las diversas problemáticas y escenarios, resulta indispensable la participación de la sociedad civil, la academia y la comunidad técnica en instancias públicas de discusión. En los casos de Perú, México y Colombia, “la participación efectiva de la sociedad civil en la construcción de los marcos legales de la IA ha sido nula, generando una constante desconfianza sobre la garantía de los derechos humanos”, aseguran desde AlSur.