Público
Público

Libertad de expresión Los "contenidos terroristas": otra peligrosa excusa para intentar censurar la red en la UE 

La masacre ocurrida recientemente en Nueva Zelanda, retransmitida en vivo por las redes sociales, ha impulsado el debate sobre qué hacer con los contenidos terroristas, cómo restringirlos o incluso eliminarlos. Lo que pasa es que la UE, en su intento por regular este asunto, plantea en un proyecto de reglamento un importante riesgo para la libertad de expresión.

Imagen de archivo del Pleno del Parlamento Europeo. | REUTERS

El control de los mensajes en las redes es, desde hace décadas (especialmente desde los ataques a EEUU del 11S en 2001), una de las principales aspiraciones de los gobiernos, democráticos o no. Y el terrorismo siempre ha sido una excusa recurrente. Ahora, un 'silencioso' proyecto de reglamento europeo plantea medidas que, por ejemplo, obligarían a retirar contenidos relacionados con el tema en 60 minutos y sin necesidad de autorización judicial. Ya hay protestas en Europa contra lo que parece el enésimo intento de la UE por legitimar la vigilancia y la censura de los gobiernos.

El texto del borrador señala que la finalidad del reglamento sería "evitar el uso indebido de los servicios de alojamiento de datos para la difusión de contenidos terroristas en línea". El proyecto fue propuesto en septiembre del año pasado y ahora se encuentra en la parrilla de salida para su tramitación parlamentaria con una cierta prisa.

Este borrador sobre "contenidos terrorista", que podría ser aprobado antes de las elecciones del 26 de mayo, plantea la eliminación exprés las redes de contenidos relacionados con el terrorismo que, de aprobarse sin modificaciones, serían aquellos que la "autoridad competente" en cada país así lo estime. Las multas para quien no cumpla podrían ascender al 4% del beneficio total anual de las plataformas sancionadas.

Existen algunos problemas que han suscitado las críticas incluso de una buena parte de expertos y personalidades históricas de la red, como Tim Berners-Lee (inventor de la WWW), Vinton Cerf (uno de los padres de internet), Jimmy Wales (fundador de la Wikipedia) y Mitchell Bake (actual responsable de Mozilla Foundation), entre muchos otros.

Varias disposiciones que recoge el proyecto pueden suponer una seria amenaza para la libertad de expresión en la red:

¿"Contenidos terroristas"?

Una gran parte de las críticas al texto es, precisamente, la relativamente amplia definición del objeto de esta normativa. Así, un "contenido terrorista" sería aquél que incluya, literalmente, "uno o más" de estos elementos:

(a) "Los que inciten a la comisión de delitos de terrorismo o los defiendan, incluidos los que hagan apología de ellos, provocando con ello un peligro de comisión de dichos actos".

(b) "Los que fomenten la contribución a delitos de terrorismo".

(c) "Los que promuevan las actividades de un grupo terrorista, en particular fomentando la participación en un grupo terrorista o el apoyo al mismo, en el sentido del artículo 2, apartado 3, de la Directiva (UE) 2017/541".

(d) "Los que instruyan sobre métodos o técnicas para la comisión de delitos de terrorismo".

Así, en una carta abierta, los mencionados 'históricos' de la red de redes alertan que de que "la definición de 'contenido terrorista' es extremadamente amplia, e no incluye ninguna exención clara para fines educativos, periodísticos o de investigación". Una crítica que comparte la eurodiputada del Partido Pirata Julia Reda, quien como ya sucedió con la controvertida directiva del 'copyright' es una de las caras más visibles de la protesta contra este proyecto.

Es más, Martin Scheinin, abogado finés y primer Relator Especial de las Naciones Unidas sobre derechos humanos y lucha contra el terrorismo (hasta 2011), considera que una gran parte de esta definición "no tiene que ver con el contenido, sino con la intención, el contexto o las consecuencias".

"Muchos tipos de información sobre armas, sustancias químicas peligrosas o explosivos también son perfectamente legítimos, a menos que uno pueda demostrar su intención de instruir a alguien para que cometa actos de terrorismo", apunta Scheinin. Esto es, con esta definición sería necesaria una evaluación contextual caso por caso. Y, como veremos enseguida, esto será un problema importantísimo para poder aplicar la norma.

¿Quién decide aquí?

Este punto también es controvertido, desde el momento en el que el texto se refiere a la "autoridad competente" como aquélla que tiene que dirimir en cada país si un contenido es "terrorista". En una carta conjunta, los relatores especiales de la ONU David Kaye (libertad de expresión), Joseph Cannataci (derecho a la privacidad) y Fionnuala Ní Aoláin (derechos humanos frente al terrorismo) llaman la atención sobre la ausencia de la figura del juez en el articulado.

"La propuesta no especifica si las autoridades competentes designadas por los Estados miembros se beneficiarían de cualquier nivel de independencia institucional y sustantiva del Ejecutivo, o si deberían respetar las normas de imparcialidad y el debido proceso", afirman en su informe, e instan "a los Estados a garantizar que las eliminaciones de contenido se realicen de conformidad con una orden de una autoridad judicial independiente e imparcial". El mismo argumento lo aporta también la propia Agencia de los Derechos Fundamentales (FRA) de la UE, entre otros.

"Subrayamos que la propuesta no hace referencia a ningún requisito de que aquellos que deciden sobre órdenes de retirada tengan la experiencia necesaria en el área de derechos humanos y libertades fundamentales que permita una evaluación significativa de las implicaciones de las acciones tomadas", afirman, y añaden: "Esto crea importantes preocupaciones de cumplimiento de los derechos humanos".

Imagen de archivo del exterior de la sede de la Eurocámara en Estrasburgo (Francia). | REUTERS

Imagen de archivo del exterior de la sede de la Eurocámara en Estrasburgo (Francia). | REUTERS

Además, como recuerdan tanto estos expertos como la eurodiputada Julia Reda, el texto plantea que las plataformas identifiquen, con 'ayuda' de Europol y los cuerpos de seguridad de cada país, el contenido terrorista de acuerdo con sus propios términos de servicio. "Exigir a las autoridades públicas que ayuden a las plataformas a hacer cumplir estas reglas privadas es una inversión extraña del estado de derecho, en donde las plataformas son jueces, jurados y verdugos", afirma Reda.

"Mi posición es clara", agrega la eurodiputada:"Si una autoridad pública encuentra contenido terrorista sospechoso en línea, debe ser responsabilidad de ella, no de las plataformas privadas, determinar si es ilegal; cualquier otra cosa es arbitraria, y socava la seguridad jurídica y el estado de derecho".

"Llevamos mucho tiempo luchando para contrarrestar este "nuevo" enfoque de censura y control adaptado a la era digital: la idea que grandes empresas privadas sustituya la policía y la justicia tal y como la deberíamos entender en un estado democrático", comenta a Público Simona Levi, fundadora del colectivo Xnet. "Las corporaciones harán de policia y jueces en juicios exprés, sumarísimos y llevado a cabo por algoritmos o personal explotado y precarizado; desde 2010 con la batalla del telecom pack estamos denunciando esta línea de legislación".

Deprisa, deprisa

Si bien es cierto que la velocidad de actuación contra determinados contenidos es clave para evitar su viralización, las prisas impuestas nunca fueron buenas consejeras. Para la Comisión Europea, la propuesta de reglamento mantiene como medida estrella "un plazo legalmente vinculante de una hora para eliminar el contenido siguiendo una orden de retirada de las autoridades nacionales competentes".

Es decir, unos contenidos que "la autoridad competente" tache de "terrorista" según la amplia definición propuesta deberán ser bloqueados en 60 minutos como máximo una vez comunicado a la plataforma en cuestión (YouTube, Facebook, Twitter, la que sea).

"La obligación de borrar contenidos terroristas en sólo 60 minutos dará lugar a un exceso de bloqueos de contenido legal"

Todos los críticos con esta propuesta ponen de manifiesto que en tan poco tiempo, a veces no será posible comprobar si lo que se ordena retirar es realmente un "contenido terrorista", una noticia legítima o incluso una parodia.

"La obligación de eliminar contenido en solo 60 minutos a partir de la notificación probablemente dará lugar a un exceso significativo de bloqueos de contenido legal", auguran los 'padres de internet', y añaden: "Además, colocará un carga catastrófica sobre las pequeñas y medianas empresas que ofrecen servicios dentro de Europa [la gran parte de las cuales, por cierto, no suelen ser plataforma de distribución de información para los grupos terroristas], mientras que favorecerá enormemente a las grandes multinacionales".

Eso sí, el texto prevé que los proveedores de servicios tengan "mecanismos de queja efectivos" para cuando el contenido se haya eliminado injustificadamente, de modo que lo restablezca antes posible. Las autoridades nacionales también proporcionarán recursos judiciales efectivos, y las plataformas y los proveedores de contenido tendrán derecho a impugnar una orden de expulsión.

A vueltas con la 'censura algorítmica'

Tal y como ha sucedido con la directiva de 'copyright', existe un temor fundado a que las plataformas, para curarse en salud, establezcan filtros automáticos para moderar los posibles contenidos terroristas a gran escala. De hecho, el borrador inicial confiaba en los filtros como una solución a este problema, como 'medida proactiva', y otorgaba a las agencias gubernamentales el poder de determinar cómo diseñar y aplicar dichos filtros de carga y otras medidas proactivas.

En el último borrador, aparentemente se ha eliminado la obligación de establecer esos filtros, que entrañan un doble peligro: por un lado, fallan (especialmente cuando lo que tienen que detectar tiene una definición amplia): es decir, ¿cómo van a distinguir sin género de dudas ciertos contenidos que son de indudable interés público, como las noticias sobre atentados terroristas, conflictos armados?  Incluso esta misma información que está usted leyendo, que contiene la palabra "terrorista" repetida una y otra vez... ¿Pasaría un filtro automático que ha de trabajar en tiempo récord?

Por otro, sólo un puñado escaso de compañías pueden desarrollar tecnologías de este tipo que sean efectivas, lo que daría más ventajas competitivas a los gigantes de la red.

¿Tiene sentido?

Ya existen iniciativas en marcha para instar a los europarlamentarios a rechazar esta normativa que se encuentra a examen en la Comisión de Libertades, Justicia e Interior (LIBE). El grupo activista fracés La Quadrature Du Net, junto a varias organizaciones afines como Xnet en España, han lanzado un completo sitio en el que se anima a los ciudadanos a presionar a los cargos electos en este sentido.

"En Internet, cualquier ley de censura puede ser evadida por personas motivadas que desean acceder a contenido censurado"

En declaraciones a este diario, Simona Levi, fundadora de Xnet, ironiza: "El terrorismo y la pedarastia son los argumentos que nunca fallan como excusas para aplicar medidas que extralimitan la intención real de mejorar la seguridad". Algo que, con esta normativa, quizá ni se logre.

Para los activistas de La Quadrature, "este reglamento 'antiterrorista' ni siquiera proporcionará los medios para alcanzar la meta establecida: evitar que grupos como ISIS o Al Qaeda difundan su propaganda a personas que ya se han visto atraídas por su horrible retórica".

"En Internet, cualquier ley de censura puede ser evadida por personas motivadas que desean acceder a contenido censurado", recuerdan, y añaden: "Como consecuencia, el único efecto que tendrá esta ley será su daño colateral: el público en general quizá no estará tan expuesto a contenido terrorista, pero tampoco estará en condiciones de saber qué información se está ocultando, como inevitablemente sucederá".

¿Te ha resultado interesante esta noticia?

Más noticias