Viernes, 23 de febrero, 2018

En 2017 vimos a políticos de todo el mundo utilizar las redes sociales para promover agendas cargadas de odio. Como pusieron de manifiesto desde declaraciones discriminatorias y xenófobas de políticos contra las personas LGBTI y la comunidad romaní en Bulgaria hasta comentarios contra la población rohingya compartidos en Facebook por altos mandos militares y portavoces gubernamentales en Myanmar 


Los retuits de Donald Trump de comentarios islamófobos de un grupo marginal de extrema derecha británico fueron sólo la punta del iceberg. Desde Myanmar hasta Estados Unidos, en 2017 una avalancha de comentarios online controvertidos suscitaron un debate en gran escala sobre cómo pueden utilizarse las redes sociales para incitar al odio y la discriminación.

Pero estas controversias son sólo la muestra más reciente de un debate que es tan viejo como Internet: ¿quién debe decidir dónde está el límite de la libertad de expresión en la red y cómo debe hacerlo?

Ha llovido mucho desde los tiempos en que se aclamaba a Facebook, YouTube y Twitter por su utilidad para potenciar la libertad de expresión y la democracia. Es innegable que este tipo de plataformas tuvieron un efecto transformador en la democratización de la esfera pública. Cualquier particular puede acumular decenas de miles de seguidores y conseguir millones de visitas a sus contenidos sin depender de medios de comunicación, agencias de relaciones públicas ni gobiernos. Quienes hacen activismo pueden organizarse, difundir información y movilizar a otras personas con más eficacia que nunca.

Prueba del poder de las redes sociales es que muchos gobiernos están imponiendo medidas de control más estrictas, e incluso bloqueando por completo el acceso a ellas. Debemos tener estos aspectos positivos en cuenta al determinar cómo abordar la otra cara de la moneda: la rápida proliferación de los abusos, los insultos y el odio en Internet, documentada en el último informe anual de Amnistía Internacional sobre la situación de los derechos humanos.

En 2017 vimos a políticos de todo el mundo utilizar las redes sociales para promover agendas cargadas de odio. Como pusieron de manifiesto desde declaraciones discriminatorias y xenófobas de políticos contra las personas LGBTI y la comunidad romaní en Bulgaria hasta comentarios contra la población rohingya compartidos en Facebook por altos mandos militares y portavoces gubernamentales en Myanmar y el uso de redes de troles contra las personas críticas con el gobierno en Filipinas, quienes están en el poder están cayendo en la cuenta de que pueden utilizar las redes sociales como un medio más de represión.

Son muchos los dilemas que se plantean. ¿Hasta qué punto tienen culpa sitios de redes sociales como Facebook y Twitter, que tanto han tardado en responder al torrente de “noticias falsas” y discurso de odio? ¿Deben los gobiernos tomar medidas? ¿Qué podemos hacer para conservar lo bueno de las redes sociales a la vez que contrarrestamos sus efectos más corrosivos?

No hay respuestas sencillas. El derecho a la libertad de expresión es aplicable a ideas que a muchas personas pueden parecerles ofensivas. Hay muchos casos de material racista, sexista, xenófobo o representativo de otras formas de odio que no están prohibidos por el derecho de los derechos humanos.

No obstante, el derecho a la libertad de expresión comporta siempre responsabilidades, y hay casos previstos en el derecho de los derechos humanos –como la incitación a la violencia o las imágenes de abusos sexuales a menores– en los que es legítimo restringirlo La complejidad tiende a aumentar, porque la definición de “ofensivo” siempre es subjetiva: la libertad de expresión de una persona es una diatriba atroz para otra.

En todo intento de regulación debe tenerse también en cuenta que el derecho a poder decir cosas a las que otras personas –incluidas las que ocupan puestos de poder– se opongan con vehemencia es uno de los fundamentos de una sociedad abierta. Si se suprime, se suprime la libertad de prensa y de todo tipo de rendición de cuentas de los gobiernos.

Frente al riesgo de abusos, los sitios de redes sociales como Facebook y Twitter ofrecen un espacio de expresión y acceso a la información que es mucho más libre que nada de lo que teníamos anteriormente. Sin embargo, este espacio es frágil; por ejemplo, la investigación de Amnistía ha mostrado cómo los abusos y la violencia contra las mujeres en Internet pueden tener consecuencias psicológicas negativas, así como el efecto de silenciarlas.

Entonces, ¿cuál es la solución? Hay tres tipos de medidas que pueden tomarse para contrarrestar el odio en las redes sociales y en Internet en general: aplicación de la ley, moderación de contenidos y educación.

Los Estados deben tener leyes que prohíban la apología del odio y tomar medidas legales sólo en los casos definidos con absoluta claridad que prevea el derecho de los derechos humanos. Se trata en concreto de aquéllos en que se muestra una clara intención de incitar a otras personas a discriminar a un determinado grupo, ser hostiles con él o cometer actos de violencia contra él.

Sin embargo, hemos visto que muchos gobiernos amenazan a empresas de redes sociales con imponer estrictas normas sobre la responsabilidad de los intermediarios, lo que supone poder considerar a las empresas responsables del contenido publicado en sus plataformas. El problema es que la responsabilidad de los intermediarios puede utilizarse fácilmente para restringir de manera indebida la libertad de expresión y obligar a las empresas a censurar en exceso a sus usuarios por temor a las consecuencias legales.

La moderación de los contenidos por las empresas es una parte importante de la solución: no necesita legislación y, por tanto, no deja la puerta abierta a restricciones injustificadas de la libertad de expresión. Todas las grandes plataformas tienen normas comunitarias y de conducta con las que responder a la apología del odio y la discriminación, que serían perfectamente válidas siempre que no entrarán en conflicto con el derecho de los derechos humanos y se aplicarán de manera coherente. Para ello es necesario dar varios pasos:

En primer lugar, reconocer que hay un problema. Facebook y, con mucha tardanza, Twitter han asumido finalmente su obligación de ocuparse de estos problemas y no pueden ya simular ser meros “conductos”.

En segundo lugar, dedicar medios suficientes a afrontar el problema. Este paso supone mejorar las herramientas de que disponen los usuarios para denunciar contenido abusivo y bloquearlo, aumentar los medios para comprobar el contenido denunciado y decidir si debe eliminarse, impartir formación adecuada a moderadores de contenido y adoptar medidas para identificar y restringir las redes de troles..

En tercer lugar, ser transparentes con respecto a los tipos de abusos y su magnitud y a las medidas tomadas, publicando, por ejemplo, informes periódicos sobre la cantidad de contenido denunciado, su tipo, etc.

Por último está la cuestión de la educación. Probablemente sea la intervención más importante; la aplicación de la ley y la moderación del contenido son formas de ocuparse de los síntomas de los abusos y la apología del odio en Internet, pero no de la causa básica.

Sea por medio de programas escolares o de campañas en las redes sociales mismas, la única forma viable de reducir a largo plazo el discurso racista, sexista y de odio es ayudar a las personas a conocer mejor sus consecuencias.

En última instancia, para que Internet cumpla sus expectativas, es a todas las personas a quienes nos corresponde abordar el racismo y la discriminación en nuestras sociedades.