22 de Marzo, 05:34 am

Finanzas.com

Recordar mis datos | ¿Olvidaste tu contraseña?

tecnología

En Facebook el terror está por todas partes

Vernon Silver / Sarah Frier

El mes pasado, Mark Zuckerberg se jactó ante el Congreso de Estados Unidos y los inversores de que los programas de inteligencia artificial de Facebook Inc. están frenando el avance de los extremismos en su sitio web. «Si hay algo de lo que me enorgullezco es de que nuestras herramientas de inteligencia artificial nos hayan ayudado a retirar el contenido relacionado con actividades terroristas del ISIS y Al Qaeda, en un 99 por ciento de los casos antes de que nadie nos alertara de su presencia», declaró el director ejecutivo en la conferencia sobre resultados de abril. Los directivos de Facebook repitieron la puesta en escena con las mismas cifras en la conferencia sobre resultados de principios de mayo. Pero estos datos solo son aplicables a las publicaciones de estos dos grupos. Muchos otros parecen estar reclutando más o menos a su antojo entre los 2.200 millones de audiencia del sitio web.

Al menos una docena de grupos declarados como terroristas en EE. UU. tienen presencia en Facebook, como indica una publicación de Bloomberg Businessweek. En este grupo se incluyen Hamas y Hezbolá en Oriente Medio; Boko Haram en África Occidental y las Fuerzas Armadas Revolucionarias de Colombia (FARC). Los grupos terroristas han recabado múltiples apoyos tanto con las espantosas imágenes de las muertes causadas por sus enemigos como con las noticias diarias sobre servicios sociales que ofrecen. Es fácil encontrar ejemplos buscando simplemente sus nombres en la barra de búsqueda de Facebook en inglés o, en algunos casos, en árabe o español. Algunos grupos también cuelgan orgullosos el enlace a sus perfiles de Facebook en sus páginas web.

Inversiones contra el terrorismo

«No hay cabida para terroristas ni para contenido terrorista en Facebook, y lo eliminamos tan pronto como tenemos conocimiento del mismo», afirmó la compañía en una declaración. «Sabemos que podemos hacer más y estamos realizando fuertes inversiones». Facebook pareció cerrar varias páginas cuando se pidió que lo hiciera, incluyendo la Brigada de Mártires de Al Aqsa y las Brigadas de Al-Qassam de Hamas. 

El canal de televisión Al-Manar de Hezbolá, una «entidad terrorista global especialmente diseñada», prohibida en EE. UU., hace gala de su uso de Facebook, con publicaciones de historias de las páginas de Hezbolá cerradas por Facebook. El pasado mes de marzo, Al-Manar alardeó de que Hezbolá había vuelto a publicar rápidamente una nueva página sobre las elecciones que Facebook había cerrado. «Los partidarios de la Resistencia la volvieron a seguir, lo que confirma que no se podrá callar la voz de la Resistencia», afirmaba una versión en inglés del artículo.

Durante años, Facebook ha tratado de cerrar páginas asociadas a grupos denominados terroristas por EE. UU. En 2014, pocas horas después de que Bloomberg Businessweek cuestionara las páginas de Hezbolá, Facebook eliminó las de Al-Manar, el sitio de noticias de Hezbolá Al-Ahed y la Resistencia Islámica en Líbano, una organización no gubernamental asociada a Hezbolá. Sin embargo, las tres volvieron rápidamente a aparecer con retoques para parecer nuevas. A finales de abril, el sitio web de Al-Ahed publicó el enlace de un sitio árabe de Facebook con más de 33.000 seguidores. El contenido de la página incluía un vídeo de francotiradores enmascarados que apuntaban a soldados israelíes. Otro sitio de Facebook de Al-Ahed tuvo más de 47.000 seguidores y otro en inglés, tuvo 5.000.

Material prohibido 

La política de Facebook prohíbe el material que apoye o fomente el terrorismo. La definición de la compañía de esta condición, publicada el mes pasado por primera vez, incluye la prohibición de las organizaciones no gubernamentales que recurran a la violencia para lograr objetivos políticos, religiosos o ideológicos. Especifica que dichos grupos incluyen extremistas religiosos, supremacistas blancos y grupos medioambientales militantes. Facebook afirma que el contenido que incumple su política «no está permitido» en el sitio web.

La compañía ha comenzado recientemente a analizar de forma más activa el contenido del Estado Islámico y al-Qaeda tras la presión de los gobiernos y está entrenando a sus sistemas de inteligencia artificial para detectar mejor las publicaciones perniciosas. Sin embargo, los periodistas e investigadores encuentran fácilmente contenido supuestamente prohibido simplemente buscándolo. Un reportaje publicado en el New York Times el pasado mes de abril mostraba cientos de cuentas falsas de Facebook e Instagram que se hacían pasar por Zuckerberg y la Jefa de Operaciones Sheryl Sandberg. Un día después, la publicación de ciencia y tecnología Motherboard publicó que algunas páginas de Facebook almacenaban datos robados que incluían números de la seguridad social.

Al preguntarles por este asunto en una conferencia de prensa, Sandberg afirmó que Facebook cierra este tipo de información cuando la detectan sus empleados. «Las publicaciones que contienen información como números de seguridad social o tarjetas de crédito no están permitidas en nuestro sitio web», afirmó.
Para eliminar el contenido más comprometido, Facebook ha contratado a más personal de revisión de contenidos. Ahora cuenta con 7.500 empleados, un 40 por ciento más que hace un año. Trabajan en cerca de 40 idiomas; la compañía prevé seguir contratando a personas con fluidez en los idiomas que requieren más atención.

Hace tiempo que el entusiasmo de los grupos terroristas por los medios sociales provoca angustia en Facebook y su competencia. Al igual que Twitter Inc. y YouTube LLC, de Google, Facebook siempre ha dejado a los usuarios la responsabilidad de informar a los moderadores sobre el contenido inapropiado.
Al cuestionarle en el Congreso sobre los errores y exigirle una respuesta rápida, Zuckerberg habló sobre los comienzos de la compañía, en su habitación de Harvard, cuando simplemente no tenía recursos para analizarlo todo. Que los usuarios hablaran sobre publicaciones inadecuadas era la forma más sencilla para vetar ese contenido. 

Excepción

Esta estrategia contaba con el apoyo del artículo 230 de la Ley sobre Decencia en las Comunicaciones, que limita la responsabilidad por las publicaciones de los usuarios. Esta protección se está debilitando cada vez más; el mes pasado, el presidente Trump aprobó una excepción que permite a la fiscalía emprender acciones contra las plataformas on line si se usan para actividades de tráfico sexual. Ahora Zuckerberg afirma que considera que la compañía sí es responsable de las publicaciones. Eso no significa necesariamente jurídicamente responsable. Más bien, la compañía está tratando de crear el marco adecuado para lavar su imagen como servicio público. 

Si bien es cierto que Facebook ha publicado sus políticas, la compañía no ha sido muy clara sobre la evolución de las mismas, y hay quien las considera abiertas a la interpretación. «Deberían ser transparentes sobre las leyes y normativas que están aplicando para sustentar sus políticas, pero por desgracia, no lo son», afirma Jillian York, director de libertad de expresión a nivel mundial de Electronic Frontier Foundation.

publicidad
publicidad