Aunque el afán por regular las nuevas tecnologías es comprensible, a veces puede tener consecuencias imprevistas y adversas. Las medidas poco discutidas pueden vulnerar los derechos civiles o no resolver los problemas que se pretendía resolver en un principio.
Este artículo fue publicado originalmente en es.globalvoices.org el 3 de junio de 2024.
En Brasil y en India habrá elecciones en 2024
Al pasar la presidencia del G20 de India a Brasil en diciembre de 2023, la digitalización se ha convertido en un punto central para ambos países, con las grandes tecnologías y la inteligencia artificial (IA) en el centro de las conversaciones y deliberaciones, tanto por sus beneficios como por sus regulaciones. Pero ¿este entusiasmo por aprovechar los beneficios de la IA para sus economías y garantizar el control sobre los usos emergentes de la IA eclipsa algo más?
Brasil e India son dos destacadas economías de los países desarrollado y fuerte miembros de BRICS, y ambos celebrarán elecciones en 2024. India está terminado su proceso electoral nacional y Brasil votará a sus representantes municipales en octubre. Ambas naciones muestran un gran interés por ser pioneras de marcos normativos para las nuevas tecnologías, especialmente la IA, lo que puede reflejar el deseo de inspirar a otros países de la mayoría global.
Aunque el afán por regular las nuevas tecnologías es comprensible, a veces puede tener consecuencias imprevistas y adversas. Las medidas poco discutidas pueden vulnerar los derechos civiles o no resolver los problemas que se pretendía resolver en un principio. Los procesos electorales de Brasil e India en 2024 ejemplifican esta tensión, ya que ambos países han aprobado normas aplicables, aunque no leyes formales, destinadas a regular el uso de la inteligencia artificial en las elecciones.
Brasil: Preocupación por la libertad de expresión
El Tribunal Superior Electoral de Brasil emitió 12 resoluciones a principios de marzo, que implantaron nuevas normas electorales ya aplicables a las próximas elecciones de 2024. Las elecciones se celebrarán en octubre, solo a nivel municipal, para elegir alcaldes y concejales de más de 5570 ciudades del país.
El Tribunal Superior Electoral aprobó varias disposiciones relativas a la IA y al régimen de responsabilidad de las plataformas del país en los casos de propaganda electoral. Según el sitio web oficial del tribunal, entre las medidas dirigidas a partidos políticos y empresas de redes sociales destacan la prohibición de ultrafalsos (deepfakes), la obligación de informar sobre uso de IA en propaganda electoral y las restricciones al uso de bots para captar votantes. También hay una disposición que responsabiliza a las grandes empresas tecnológicas por no eliminar rápidamente durante el periodo electoral contenido que se considere que plantean riesgos electorales, como desinformación (incluidos ultrafalsos), incitación al odio y contenido antidemocrático.
Aunque las normas específicas relativas al uso de IA durante las elecciones tienen algunas ramificaciones positivas, la resolución ha alertado sobre la libertad de expresión entre la sociedad civil brasileña. Desafía directamente el régimen de responsabilidad de plataformas establecido en la legislación brasileña, regido principalmente por el Marco Civil de Internet, promulgado como Ley n.º 12.965/2014. En el momento de su aprobación, la ley era muy valorada por importantes actores de los derechos civiles digitales en todo el mundo. En virtud de este marco, como norma general, las plataformas tienen responsabilidad como intermediario, lo que las protege de la responsabilidad por los contenidos generados por los usuarios a menos que incumplan una orden judicial que ordene retirar material ilegal específico, como se indica en el artículo 19.
Sin embargo, las nuevas disposiciones del Tribunal Superior Electoral podrían imponer a las plataformas la carga de supervisar y filtrar contenido generado por los usuarios, lo que modificaría directamente el régimen de responsabilidad del país. El incumplimiento podría acarrear consecuencias legales, lo que puede incentivar a las plataformas a exagerar precauciones y eliminar con excesivo celo contenido potencialmente legítimo para evitar responsabilidades.
Se desconoce cómo definió el Tribunal Superior Electoral estas normas. Organizaciones que defienden los derechos de los usuarios en Brasil, como la Coalición Derechos en Red, sugieren que el Tribunal Superior Electoral debata las graves consecuencias de esta disposición y hable con la sociedad civil y expertos para encontrar formas de reparar los efectos indeseables que la nueva resolución podría tener en la sociedad, como el retiro masivo de contenido legítimo.
Sin embargo, no es el único acontecimiento reciente que arroja dudas sobre la estabilidad del régimen de responsabilidad de Brasil. Las impugnaciones a la constitucionalidad del artículo 19 son cada vez más numerosas y el Supremo Tribunal Federal está a punto de abordar la cuestión en los próximos meses. Además, el Congreso deliberó durante cuatro años sobre el proyecto de ley 2630/2020, conocido coloquialmente como la «DSA brasileña» (en referencia a la Ley de Servicios Digitales europea), que pretendía renovar la regulación de las plataformas y aumentar las responsabilidades de los principales operadores tecnológicos. Aunque el proyecto de ley pueda parecer muerto tras los acontecimientos de abril de 2024, pronto se presentará otro proyecto de ley, y el escenario sugiere que el cambio está en camino.
India: Abordar el sesgo político en la regulación de la IA
En India, lo que empezó como un frenesí por el video falso de IA de un actor indio publicado en noviembre de 2023 pronto se convirtió en un tema candente por la preocupación que suscitaba el uso de IA y ultrafalsos para difundir desinformación durante las elecciones indias. Es más, el primer ministro, Narendra Modi, del partido Bhartiya Janta (BJP), lamentó en un discurso público los ultrafalsos como una amenaza emergente a la que hay que poner freno urgentemente con una regulación global de la IA. Sin embargo, la investigación en curso del Observatorio de Gobernabilidad de Datos descubrió que la narrativa en torno al uso de la IA y ultrafalsos de actores antinacionales y partidos opositores se utilizó para reforzar la urgencia de regular el uso de la IA y los ultrafalsos, y describir los daños derivados de ese contenido.
Durante las elecciones legislativas estatales de Rajastán, Madhya Pradesh y Tamil Nadu, circuló un video ultrafalso de un dirigente político del BJP que entonces era ministro principal de Madhya Pradesh. En el video, se veía al líder del BJP alabando al Congreso Nacional Indio (INC), principal oposición al BJP. El informe de un canal de noticias en horario de máxima audiencia sobre el «armamentismo de la IA y los ultrafalsos durante las elecciones» presentó el video del líder del BJP para subrayar que son necesarias normativas estrictas para regular el uso de ultrafalsos de IA. Los debates sobre noticias utilizaron el video de ultrafalsos del líder del BJP para ilustrar el uso malicioso de ultrafalsos que hacen partidos opositores, como el INC. Por un lado, se señala indirectamente a los partidos opositores por el uso indebido de ultrafalsos. Sin embargo, la cobertura informativa mostró el enfoque positivo del primer ministro hacia la IA. El debate informativo, aunque no afirma directamente que la IA y los ultrafalsos los utilizan los partidos opositores, a través de sobreponer el video falso del líder del BJP y el enfoque positivo del primer ministro hacia la IA, presenta la narrativa de que los ultrafalsos los utilizan los partidos opositores y no el BJP.
Mientras que los partidos opositores se convirtieron en un símbolo para describir el uso malintencionado de la IA, las agencias y empresas implicadas en la creación de videos ultrafalsos y las plataformas que alojan videos ultrafalsos se consideraron la causa del problema. Las agencias que hacen ultrafalsos con IA para uso malicioso y las plataformas que no eliminan la desinformación de IA tienen responsabilidad, pero ¿son la única fuente y causa de la amenaza de desinformación de IA? Los partidos políticos que emplean a estas agencias y los líderes políticos que transmiten desinformación al momento de las elecciones también deberían compartir la responsabilidad.
Para abordar el problema de la desinformación sobre IA, el Gobierno indio emitió un aviso sobre ultrafalsos e IA. La advertencia obliga a las plataformas a informar claramente a los usuarios que publicar ultrafalsos puede dar lugar a acciones penales. Junto con la advertencia, el Gobierno advirtió que pronto elaboraría normas más estrictas. Tras el aviso sobre ultrafalsos, el Gobierno también publicó dos versiones de un aviso sobre IA. En el primer borrador, la advertencia obligaba a todos los programadores y plataformas de IA a pedir autorización al Gobierno antes de presentar un nuevo modelo de IA en India. Después, se modificó y se suprimió la obligación de obtener el permiso del Gobierno. En su lugar, se introdujo un enfoque autorregulador en el que las plataformas deben autoetiquetar contenido generado por IA. El Gobierno también tiene la intención de presentar entre junio y julio una normativa adecuada sobre IA, cuyo objetivo es aprovechar el potencial económico de la IA y, al mismo tiempo, frenar los posibles riesgos y daños.
El análisis del Observatorio de la Gobernanza de Datos muestra que la sociedad civil y las alianzas empresariales han calificado de reactivo el planteamiento del Gobierno. Afirman que acabar con los ultrafalsos y aplicar restricciones es una medida provisional que no tiene debidamente en cuenta su impacto en la innovación y que tampoco reconoce el papel de los partidos políticos. Durante las elecciones, los partidos políticos son más responsables, y organismos como la Comisión Electoral de India podrían presionarlos para garantizar mayor transparencia en torno a los ultrafalsos. Los actores de la sociedad civil afirman que, si bien los ultrafalsos y la IA no son más que otra herramienta para difundir desinformación, el problema mayor de enfrentar un sistema de medios débil y un ambiente polarizado se cierne sobre India. Por eso, incluso cuando el Gobierno emite avisos a las plataformas tecnológicas para que retiren los ultrafalsos, la falta de consultas claras sobre la capacidad de las plataformas tecnológicas para abordar el problema de los ultrafalsos y el papel de organismos como la Comisión Electoral de India hace que los avisos sean una solución provisional.
Mientras dentro del país, la regulación de la IA y los ultrafalsos sigue siendo confusa y no tiene una consulta adecuada, en foros internacionales como el G20, el Gobierno se ha presentado como protector de sus ciudadanos y pionero entre la mayoría global de países para una digitalización inclusiva y transparente con un enfoque bien pensado hacia la regulación. Si bien esto hace que se elogie a India en los foros internacionales, lo cierto es que el enfoque actual no tiene una consulta política eficaz y transparente que pueda abordar el sesgo político y aclarar el papel de los partidos políticos a la hora de abordar el uso de la IA durante las elecciones.
¿Cuáles son los siguientes pasos?
Mientras la comunidad internacional se centra en Brasil e India como centros de innovación tecnológica, las regulaciones a medias a la IA y la responsabilidad arrastran cuestiones de libertad de expresión, refuerzan el sesgo político preexistente y carecen de una consulta adecuada. En India, el ecosistema de los medios está cada vez más polarizado y, con el gobierno actual, la disconformidad y el debate sobre las normativas han disminuido, lo que está ocurriendo ahora con las normativas sobre IA. A menos que se consulte adecuadamente a las partes interesadas y se incluyan sus puntos de vista, es posible que la normativa sobre IA no sea eficaz. Por otro lado, Brasil, aunque está bajo un gobierno de izquierda, también enfrenta una gran polarización política, y la agenda digital, especialmente sobre regulación de las plataformas y la IA, es uno de los puntos críticos del debate. Por lo tanto, las cuestiones en torno a las regulaciones de IA son específicamente problemáticas para ambos países, ya que, mientras India ya está en la fase electoral y Brasil pronto entrará en elecciones, un ambiente políticamente cargado solo aumentará la gravedad de estas preocupaciones.
En medio de la falta de consulta, las narrativas sobre regulaciones electorales en el ámbito digital solo dan una imagen parcial de las preocupaciones que plantean la IA y las grandes tecnologías. Sin embargo, tienen el poder de influir en el público en general y en la percepción de la comunidad internacional, que mira a India y Brasil como favoritos en la carrera de la nueva regulación tecnológica.
Los esfuerzos de las naciones de mayoría global por crear sus propias soluciones adecuadas a sus realidades sin inspirarse únicamente en los planteamientos europeos y estadounidenses son positivos y merecen elogio. Sin embargo, esto no puede hacerse a expensas de los derechos fundamentales de la población de estos países. Aunque estas normas son urgentes y necesarias, es igualmente importante que aborden correctamente los problemas que pretenden resolver. Unas normas elaboradas a toda prisa pueden crear nuevos problemas y complicar aún más el ya de por sí complejo escenario políticamente dividido de estos países.
Escrito por Shubhangi Heda
Escrito por Alice Lana