Remoción de contenidos en Internet, censura contra medios y periodistas en las Américas

Por Priscilla Ruiz (ARTICLE 19)

Desde diversas organizaciones en México y América Latina han sido críticas y han evidenciado cómo se remueven contenidos protegidos por el marco de libertad de expresión de manera ilegítima con la finalidad de censurarlos y evitar la crítica pública respecto de su actuación. Si bien la libertad de expresión no es absoluta y establece excepciones como son los casos de pornografía infantil, las acciones de propaganda de la guerra y la apología del odio que incluya incitación a la violencia y la incitación directa y pública al genocidio, los Estados han retomado estos criterios con el fin de eliminar contenido ilegal como lo han establecido en precedentes los Tribunales y Cortes que han resuelto sobre libertad de expresión en el marco de derechos humanos.

Ahora bien, la moderación de contenidos[1] se inserta en un sistema complejo y multidimensional.[2] Involucra, en primer lugar, las acciones y decisiones en la distribución de contenido a partir de las reglas establecidas en los términos y condiciones de los servicios prestados así como por la imposición de las normas comunitarias por parte de las empresas privadas, en entornos digitales que cada vez moldean más la esfera pública. En segundo lugar, involucra la creación e implementación de leyes[3] que pretenden reglamentar los modelos de regulación que genera el Estado para intentar controlar el entorno en que se realiza esta moderación.

A lo largo de 2 años se ha evidenciado cómo esta práctica ilegítima ocurre, por un lado, cuando las plataformas de redes sociales suprimen contenido a través de sus términos y condiciones o políticas, algunas de las cuales resultan incompatibles con los principios y estándares internacionales de derechos humanos.[4] Por otro lado, en caso de los gobiernos, bajo leyes locales o valiéndose de los mecanismos establecidos por las mismas plataformas, solicitan la eliminación de cualquier contenido sin ningún control judicial previo que pueda determinar la procedencia de la solicitud, dejando en un completo estado de indefensión a quien ejerce su libertad de expresión en entornos digitales. Lo anterior genera el  bloqueo, destrucción o eliminación de imágenes, artículos periodísticos, audios o videos de cualquier tipo; es decir, una interrupción ilegítima del derecho a informar y la libertad de expresión, sin mediar la aplicación de los mecanismos legales correspondientes, obviando el estudio de ponderación o sin agotar la aplicación del examen de proporcionalidad en cuanto a los derechos de libertad de expresión y los derechos de autor[5].

Es relevante señalar que, derivado de la moderación de contenidos en plataformas digitales se genera un efecto inhibidor cuando se ejercen acciones como la remoción de contenidos[6] que impiden comprender plenamente las razones legales de fondo por las cuales se está solicitando dicha remoción. Dicho efecto inhibidor se ejerza previamente sin cumplir con un debido proceso, apelación y transparencia de la solicitud. Es importante establecer que la remoción de contenidos ejercida de manera arbitraria, no sólo está violentando el ejercicio de la libertad de expresión derivada del actuar periodístico y de la ciudadanía, sino que al mismo tiempo está vulnerando esos mismos derechos de autor, que son inherentes a sus autores.  Estos derechos son concebidos al momento de crear una obra a través de la manifestación de las ideas y la expresión de autoría en una nota periodística respecto de un hecho noticioso de carácter público, violentando derechos morales y patrimoniales a quien se le remueve el contenido, al no permitirle ejercer dichos derechos.[7]

Cuando los actores de Estado o entes privados tales como los servicios de alojamiento web o las plataformas de redes sociales eliminan contenido, sin apego al marco legal internacional de los derechos humanos, están coartando y restringiendo el derecho a la libertad de expresión en el entorno digital, limitando el flujo de información de interés público de una sociedad democrática. Lamentablemente, y contrario a principios internacionales sobre la libertad de expresión, en los últimos años los términos y condiciones de servicios, políticas y/o normas comunitarias tanto de las plataformas de redes sociales, canales audiovisuales y servicios de alojamiento de páginas web (web hosts), entre otros, han endurecido su regulación interna con la justificación de proteger los intereses de titulares de derechos de propiedad intelectual e incluso de derechos vinculados a la privacidad y protección de datos personales.

La extensa y ambigua normatividad interna de las plataformas de redes sociales y servicios de alojamiento web, así como su aplicación de manera intransigente, ha orillado a que las y los usuarios no cuenten con un claro proceso de cómo y en dónde defender sus derechos digitales ante mecanismos que pueden ser arbitrarios y contrarios a los estándares internacionales de derechos humanos.

En los últimos años, organizaciones en defensa de derechos digitales como ARTICLE 19 ha sabido de más periodistas, activistas y otros actores de la sociedad civil cuya importante labor informativa fue suprimida de la Internet a través de un mecanismo conocido como “notificación y eliminación” (“notice and takedown”). Tales son los casos en  que se aplicó la Ley de Derechos de Autor de la Era Digital (Digital Millennium Copyright Act o DMCA) contra el medio Página 66[2], al periodista Pedro Canché y a diversos sitios de noticias de San Luis Potosí que derivaron en eliminaciones de contenido que supuestamente violaban los derechos de autor de terceros. En la mayoría de los casos, el contenido pertenecía en plena autoría al trabajo original del periodista que recibió el aviso de eliminación, suprimiendo el ejercicio de la libertad de expresión no solo en su calidad como autora o autor, sino también como ciudadana o ciudadano.

Estas notificaciones referían a una ley de derechos de autor estadounidense conocida como la DMCA, aunque realmente ninguno de los periodistas se encontraba en el supuesto de infracciones o violaciones a los derechos de autor así establecidos en la misma. Lamentablemente esta ley afecta de forma desproporcionada pues permite a los titulares de los derechos de autor a enviar un simple aviso al proveedor de servicios cuando su contenido había sido publicado sin su permiso, para que el contenido se retirara de forma inmediata, en ocasiones sin siquiera pasar por un proceso legal de revisión del contenido sino a través de sistemas automatizados.

El mecanismo activado concluye con decisiones internas que toman las plataformas de redes sociales o los servicios de alojamiento web a partir del mecanismo conocido como “notificación y eliminación” que lejos de proteger los derechos de autor actúa de manera ilegítima, arbitraria y contraria a estándares internacionales en materia de derechos humanos. Las decisiones que se toman por las plataformas digitales cuentan con una falta de mecanismos jurisdiccionales que inician desde la aplicación de presupuestos formales y materiales de admisibilidad y procedencia. Lo anterior incluye (i) el derecho a un debido proceso breve y transparente, (ii) la aplicación de medidas preventivas adecuadas y (iii) proporcionales a las decisiones hasta la posibilidad de realizar la apelación contras las decisiones tomadas por las plataformas digitales. Sin embargo, los usuarios no contamos con estos procedimientos y con esto llevaría al siguiente paso, preguntarnos ¿si debe permitirse que el Estado regule este mecanismo o dejar que las plataformas digitales adopten un estado de auto-regulación bajo un enfoque de derechos humanos? Este es el principio de una discusión amplia donde deberán participar las múltiples partes interesadas.


[1] La moderación de contenidos “se refiere a las decisiones y las acciones que las empresas llevan a cabo para determinar qué información se permite en sus plataformas […] en caso de que determinen que algún contenido viola sus leyes, normas comunitarias, políticas y/o términos y condiciones, se puede recurrir a la remoción de contenidos, al bloqueo de cuentas de usuarios/as o a otra medida”. Naciones Unidas, Asamblea General, Consejo de Derechos Humanos, Informe del Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y expresión, 6 de abril de 2018, pág. 3, https://documents-dds-ny.un.org/doc/UNDOC/GEN/G18/096/75/PDF/G1809675.pdf?OpenElement

[2] “La moderación de contenidos es una herramienta empleada con el fin de excluir o impedir el acceso a contenido específico dentro de una plataforma o servicio web. Esta prerrogativa suele ser empleada de forma discrecional por las empresas a través de sus políticas de uso o términos del servicio, pero a veces también vienen impuestas por leyes y, en algunos casos, se ejercen por causa de la presión de los gobiernos”. Guerrero, Carlos, “Políticas de Moderación de Contenidos”, Hiperderecho, 25 de febrero de 2020, https://hiperderecho.org/2020/02/politicas-de-moderacion-de-contenidos/

[3] Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE) y La Iniciativa por la Libertad de Expresión en Internet, Las llaves del ama de llaves: la estrategia de los intermediarios en internet y el impacto en el entorno digital, https://www.palermo.edu/cele/pdf/LasLlavesDelAmaDeLlaves.pdf

[4] ARTICLE19. “Facebook community standards”, June 2018, https://www.article19.org/wp-content/uploads/2018/08/Facebook-Community-Standards-June-2018.pdf

[5] Article 19 Oficina México y Centroamérica, #LibertadNoDisponible: Censura y remoción… ob. cit.

[6] La remoción de contenido se entiende como la práctica para eliminar o restringir la circulación de información en Internet, valiéndose de marcos jurídicos y mecanismos privados que limitan su acceso y que se utilizan de forma ilegítima e irresponsable para censurar información de interés público que debe circular y permanecer accesible.  Esta práctica se origina a través de tres vías principales: (i) La primera, mediante solicitudes de remoción de contenidos a las plataformas digitales, realizadas por parte del Estado, personas de interés público o de actores privados; (ii) La segunda, mediante la comunicación directa de estos mismos actores con periodistas o medios de comunicación para exigir la eliminación de contenidos en sus sitios web o páginas de redes sociales; (iii) La tercera, mediante la aplicación de los términos y condiciones del servicio o normas comunitarias de las plataformas digitales.

[7] La Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos en su informe titulado Estándares para una Internet libre, abierta e incluyente, ha determinado que la “remoción de contenidos en Internet tiene un impacto evidente en el derecho a la libertad de expresión, tanto en su dimensión individual como social, y en el derecho de acceso a la información por parte del público. La información removida no circula, lo que afecta el derecho de las personas a expresarse y difundir sus opiniones e ideas y el derecho de la comunidad a recibir informaciones e ideas de toda índole”. Relatoría Especial para la Libertad de Expresión, “Estándares para una Internet libre, abierta e incluyente”, Comisión Interamericana de Derechos Humanos, 15 de marzo 2017, párrafo 133, p. 54, http://www.oas.org/es/cidh/expresion/docs/publicaciones/ internet_2016_esp.pdf