No es posible regular los discursos de odio solo con buena voluntad y una mirada parcial de las cosas. Tampoco es admisible un concepto absolutista de la libertad de expresión sin barrera alguna.
Este artículo fue publicado originalmente en derechosdigitales.org el 16 de diciembre de 2022.
POR: BELÉN ROCA
No es posible regular los discursos de odio solo con buena voluntad y una mirada parcial de las cosas. Tampoco es admisible un concepto absolutista de la libertad de expresión sin barrera alguna, y se vuelva un instrumento que vulnere los derechos humanos.
Recientemente, el Consejo Nacional de Televisión (CNTV) de Chile dio a conocer un estudio titulado “Televisión y Derechos Humanos”, en el marco de las actividades de conmemoración del Día Internacional de los Derechos Humanos, celebrado el 10 de diciembre. La investigación comprende una consulta a quienes han realizado reportes ante esta institución, denunciando contenido inapropiado en televisión. La metodología incluyó preguntas sobre el tratamiento a grupos minoritarios, expresiones del negacionismo y discursos de odio.
Sin embargo, algunas de preguntas incluidas en la consulta no se circunscriben específicamente a la televisión. Por ejemplo, frente a la pregunta sobre en cuáles medios es más frecuente encontrar discursos de odio o negacionismo, las alternativas contemplan televisión, radio y redes sociales, con un 69,3% de la muestra (N = 2.004 personas) de preferencia por esta última opción. Hemos argumentado anteriormente que la idea de que las redes sociales constituyen medios contraviene el principio de no responsabilidad de los intermediarios de internet, con una serie de problemas asociados a la defensa de la libertad de expresión. Al margen de este aspecto, tampoco es posible desconocer que, a pesar de los litros de tinta y caracteres derramados en tono ominoso anunciando su fin inminente, las redes sociales gozan de buena salud y siguen marcando la pauta de la conversación cotidiana. Lo que sucede ahí sin duda que tiene efectos en cómo percibimos y juzgamos lo que nos rodea.
Un ejemplo de ello sucedió hace algunas semanas en Chile: los dichos emitidos por una animadora de televisión sobre tallas de prendas de vestir desataron una ola de críticas, algunas acusándola de proferir discursos de odio, y el asunto culminó con ella pidiendo disculpas públicas. Señalamos en la prensa que la libertad de expresión “protege los discursos desagradables”, siendo el límite la incitación a la violencia y las amenazas, mientras sean creíbles y revistan gravedad. Es decir, este derecho garantiza tanto los dichos en cuestión como la reacción desatada en redes.
El mismo estudio mencionado al inicio indica que un 53% del universo muestral (2.037 personas) considera imprescindible que los discursos de odio estén sujetos a regulación, mientras que un 23,5% cree que esta medida es necesaria, pero equilibrándola con el resguardo a la libertad de expresión. Si aceptamos que las redes sociales no equivalen a medios de comunicación, la pregunta entonces es qué tipo de regulación es necesaria.
Nos enfrentamos, entonces, a un doble dilema: el límite de la libertad de expresión, por un lado, y el riesgo de que la sanción al discurso de odio devenga en obligaciones que puedan degenerar en censura, por otro. Encontrar el equilibrio perfecto entre ambas garantías reviste una especial dificultad, considerando el debate que se ha dado en torno a las directrices comunitarias de algunas plataformas, las condiciones laborales de quienes están a cargo de implementarlas, el carácter de interés público que puede revestir la discusión en plataformas que están administradas por empresas privadas, y la falta de transparencia respecto del modo en que se toman las decisiones de moderación de contenido. En última instancia, la pregunta es respecto a quién decide y bajo cuáles criterios.
En condiciones ideales, y mientras no impliquen la comisión de un delito, los discursos en línea deberían ser tratados al amparo de la igualdad en la participación de la palabra. Alguna vez fue así: los foros solían estructurarse de modo que la moderación del contenido inapropiado rotaba entre sus participantes. No obstante, pretender volver a ese estado prístino de internet ciertamente no es posible y los desafíos del presente requieren de una imaginación colectiva para resolver este nudo discursivo. Ni cegarnos ante el contenido desagradable evitará su crecimiento, ni combatir el fuego con fuego no hará que este amaine.
En los últimos años, no obstante, solo se acrecientan las dudas y los desacuerdos. La Comisión Interamericana de los Derechos Humanos y el Centro de Estudios en Libertad de Expresión y Acceso a la Información advirtieron este problema en 2019, apuntando a que la concentración de poder en el Big Tech, el crecimiento tecnológico sin precedentes y la automatización de procesos han contribuido a este confuso panorama; y, lamentablemente, las herramientas legales, aunque existentes, no han resultado suficientes. La única herramienta que contempla la restricción a la libertad de expresión, considerando en primera instancia la importancia que este derecho tiene para la vida democrática, es el test tripartito.
Sin duda es urgente volver a traer este tema a la mesa y discutirlo con altura de miras y teniendo siempre presente que, en los entornos digitales, sus reglas y tiempos tienen características propias que requieren una mayor prolijidad en el diseño de una arquitectura legal y técnica que asegure que tengamos derecho a expresarnos. Uno de los avances interesantes en esta materia es el trabajo desarrollado por Observacom en el reporte “Transparencia de la moderación privada de contenidos – una mirada de las propuestas de sociedad civil y legisladores de América Latina”, donde se repasan propuestas y directrices necesarias a considerar en esta materia.
No es posible regular los discursos de odio solo con buena voluntad y una mirada parcial de las cosas. Tampoco es admisible un concepto absolutista de la libertad de expresión sin barrera alguna, y se vuelva un instrumento que vulnere los derechos humanos.