La decisión de Facebook de eliminar videos que muestran a personas decapitadas ha generado un intenso debate sobre si la red social debe o no imponer una política más amplia de censura de determinados contenidos.

En un principio la red social rechazó las peticiones de usuarios de eliminar los clips, argumentando que quería “preservar el derecho de las personas a describir, representar y comentar sobre el mundo”.

Pero después de que la BBC reveló que uno de sus consejeros de seguridad criticó esa decisión, la empresa cambió de opinión y anunció que eliminaría los videos que expusieran decapitaciones, al tiempo que dijo que estaba reevaluando sus reglas.

Sin embargo, la idea de imponer controles más estrictos también ha generado muchas críticas.

Antes de su muerte, el defensor de la libertad en la red, Aaron Swartz, advirtió del peligro que implica que en ciertos espacios privados de la red se limite lo que se publica. Lo denominó “tiranía corporativa” y mencionó a Facebook como ejemplo.

La red social no ha confirmado la fecha en que planea terminar la revisión de sus reglas y hacer públicos los cambios que introducirá. Las siguientes opiniones de expertos consultados por la BBC sugieren que no le será nada fácil complacer a todo el mundo.

[sws_divider_line]

[sws_red_box box_size=”630″]Jeremie Zimmermann, La Quadrature du Net [/sws_red_box]

Cualquier intervención de Facebook para eliminar o bloquear el acceso a su contenido -teniendo en cuenta el respeto a los derechos fundamentales y el principio de proporcionalidad- implicaría una censura privatizada y a nadie le interesa que eso ocurra.

Una de las principales preocupaciones al respecto es qué criterio se utilizaría para decidir qué censurar. La censura haría que cada gobierno intente presionar a Facebook para que aplique sus propios criterios, ya sea por razones políticas, religiosas o de otro tipo.

Bajo estas condiciones podemos estar seguros de que no se respetará el derecho a la libertad de expresión o a un juicio justo.

Así como no podemos confiar en las grandes empresas centralizadas para defender nuestras libertades fundamentales, no podemos pedirles que decidan qué información debe ser compartida en línea.

Proteger a los niños en la red es responsabilidad de los padres, no de Facebook.

Lo que sí puede hacer la red social es utilizar toda la información a la que tiene acceso para identificar a sus miembros menores de edad. De esta manera, cuando estos se expongan a contenidos clasificados como no aptos, puede mandarles un mensaje de advertencia.

Así, los usuarios tendrían la libertad de decidir si quieren tomar ese consejo o acceder al contenido.

[sws_divider_line]

[sws_red_box box_size=”630″]Dr Lynne Jordan, Sociedad Británica de Psicología [/sws_red_box]

Mi principal preocupación como psicóloga con experiencia en los efectos de la violencia, es la violación del derecho a la elección.

Diariamente e indiscriminadamente se publican contenidos en Facebook y, a través del “me gusta”, se difunden sin tener en consideración los derechos de los menores de edad y de otras personas que no quieren verlos.
Jóvenes o viejos pueden verse afectados negativamente al observar episodios violentos, ya sea en pantalla o en la vida realidad.

Los efectos incluyen respuestas traumáticas, como la reproducción mental de las imágenes, tener miedo y sentirse vulnerable, avergonzado, invadido, violentado y confundido, así como enojado e impotente.

El hecho de que las redes sociales no estén obligadas a proteger a sus usuarios del contenido al que están expuestos es un problema.

El material que se difunde muchas veces tiene la intención de hacer campaña en contra de la delincuencia o de la violencia, pero en la práctica puede generar el efecto contrario y contribuir a que la violencia escale.

Controlar el contenido es similar a la prohibición de fumar en lugares públicos, que busca proteger a quienes se pueden ver afectados sin haber dado su consentimiento.

En ese caso se trata de un problema de salud física, y en éste, de salud mental.

[sws_divider_line]

[sws_red_box box_size=”630″] Andrew McDiarmid, Centro para la Democracia y la Tecnología [/sws_red_box]

La controversia sobre los videos de decapitaciones en Facebook es un claro ejemplo de la enorme complejidad de promover el respeto a los derechos humanos en la red.

Miles de millones de personas dependen de las plataformas de internet para hablar y acceder a la información pública, pero estas plataformas están controladas por empresas privadas, cuyas condiciones de servicio, en gran parte, definen los contornos de la libertad de expresión.

De cierto modo, los operadores de las plataformas también son altavoces y tienen el derecho a determinar sus propias políticas.

Pero también tienen la responsabilidad, sobre todo a medida que crecen y se convierten en redes de referencia, de considerar el impacto de sus políticas y de reducir al mínimo sus restricciones a la libertad de expresión.

Debido a esta complejidad, los sistemas de evaluación de contenidos requieren actualizaciones constantes para asegurarse de que los derechos fundamentales estén protegidos.

Es una labor complicada y un sistema propenso a los errores, pero la alternativa -establecer políticas obligatorias de contenido y que los gobiernos compitan por el control de la red- es insostenible y pone en mayor riesgo la libertad de expresión.