Vocento 15 años 21 de Noviembre, 22:27 pm

Finanzas.com

Recordar mis datos | ¿Olvidaste tu contraseña?

tecnología

Twitter no se toma en serio las noticias falsas

Hugo Miller

El pasado miércoles 11 de octubre, en la pared de las oficinas centrales de Twitter Inc. en San Francisco, se podía leer un mensaje de protesta: «Ban Russian Bots», o lo que es lo mismo: «Prohibición de los bots rusos». Alguien -desde la compañía se afirma que no se sabe quién- proyectó esta demanda en un lateral del edificio. Los bots, o software automáticos, se pueden programar para enviar mensajes en Internet de forma periódica. Twitter se diseñó para tratar bien a los bots, que ayudan a los anunciantes a difundir rápidamente sus mensajes y a responder a las reclamaciones de los clientes con respuestas automáticas. 

Información del tiempo y mentiras dañinas

Una investigación de la Universidad de California del Sur y de Indiana en Bloomington demuestra que entre el 9 y el 15 por ciento de los 300 millones de cuentas más activas son bots. Muchas tuitean información inocua sobre el tiempo, publicaciones de Netflix Inc. y titulares de noticias. Otras tuitean mentiras más dañinas. 

Ahora, con la audiencia del Congreso a la vuelta de la esquina el próximo 1 de noviembre, Twitter está intentando explicar por todos los medios cómo pudieron usar bots desde Rusia para afectar a las elecciones presidenciales del año pasado y cómo impedir que vuelva a ocurrir. Si bien es cierto que casi toda la polémica se ha centrado en Washington, en cómo emplearon desde Rusia anuncios de Facebook y Google para afectar a la campaña de Hillary Clinton, los bots de Twitter están empezando a captar la misma atención. Y la compañía no parece tener muchas respuestas al respecto. 

Tras las elecciones, poca gente desde la compañía dudaba de que se había usado la plataforma de forma malintencionada, afirman ciertas personas familiarizadas con este asunto. Una fuente cercana asegura que los empleados debatieron brevemente sobre la posibilidad de señalar aquellas cuentas que considerasen claramente bots, pero gran parte de los debates internos se centraron en si los tuits del presidente Trump incumplían la normativa sobre abuso y acoso de la compañía. 

Equipos especializados

Desde Twitter se afirma que han actualizado exhaustivamente sus servicios el año pasado para evitar la actividad fraudulenta y abusiva, incluyendo la creación de procesos automatizados para detectar y suspender las cuentas presuntamente dedicadas a la publicación de 'spam' o a realizar actividad maliciosa. Una persona familiarizada con este asunto afirma que los ingenieros están analizando el 'spam', los empleados están revisando la compra de anuncios desde la TV rusa y la red RT, y los directivos están en contacto frecuente con investigadores del Congreso. «Hemos aumentado de forma significativa nuestra plantilla a nivel global dedicada a estas cuestiones y seguimos actualizando nuestros productos para promover un Twitter más seguro», afirma una portavoz en una declaración por email, que no ha querido aclarar cuántos empleados están trabajando en ello. Los expertos afirman que los esfuerzos de la compañía quedan aún muy lejos incluso de los Facebook Inc, que, según afirman, contratará nada menos que a 1.000 personas para controlar los anuncios y pondrán a 250 empleados a vigilar los intentos de los usuarios de afectar a procesos electorales. 

Investigadores externos han tratado de redoblar sus esfuerzos en áreas en las que Twitter no lo ha hecho. Emilio Ferrara, profesor de informática en la USC, afirma que 400.000 bots tuitearon mensajes con contenido político durante el ciclo electoral de 2016 y un grupo de 1.600 bots que tuitearon material de extrema derecha también publicaron tuits con dicho tipo de contenido durante las elecciones francesas de la pasada primavera y las elecciones alemanas de septiembre. Un informe anterior de la compañía de ciberseguridad FireEye Inc. reveló que había miles de cuentas de bots vinculadas con Rusia que habían publicado mensajes anti-Clinton durante las elecciones estadounidenses, incluyendo un grupo de supuestos bots rusos que hicieron que lanzaron el hashtag #HillaryDown el mismo día de las elecciones. 

Respuestas automáticas incendiarias

Muchas campañas en Twitter utilizan bots que retuitean automáticamente muchos posts que provienen de ciertas cuentas o contienen ciertas palabras. Las palabras clave también se pueden configurar con bots que contestan con mensajes predefinidos. Kris Shaffer, experta en datos que investiga para el grupo de voluntarios Data for Democracy y la Universidad de Mary Washington en Fredericksburg, Va., afirma que ambos tipos de bots se emplearon de forma masiva antes de las elecciones francesas, cuando las menciones del nombre de un candidato recibieron múltiples respuestas automáticas con información denigrante. Según Shaffer, la falta de capacidad de Twitter a la hora de atajar estos problemas «supone que no son capaces de hacer lo que afirman que pueden hacer o que sí pueden pero que no están diciendo la verdad».
Algunos investigadores que han trabajado para desvelar las prácticas fraudulentas en Twitter se han convertido en objetivos. El pasado mes de agosto, Ben Nimmo, un directivo de Atlantic Council Digital Forensic Research Lab, publicó un informe en el que indicaba que los comentaristas estadounidenses de extrema derecha estaban tuiteando temas de debate sobre los brotes de violencia por supremacistas blancos en Charlottesville, con la misma forma de actuar que la empleada por los medios controlados por el Estado en Rusia. Poco tiempo después, una cuenta de Twitter que llevaba tiempo inactiva se reactivó con una imagen de perfil con la cara de Nimmo, en cuya biografía se aludía a una asociación con @KremlinRussia. Hubo otra cuenta que suplantó al director del laboratorio y tuiteó que Nimmo había fallecido. Aquel mensaje se retuiteó más de 21.000 veces, principalmente por bots, afirma Nimmo, que ya había informado previamente sobre la existencia de múltiples redes de decenas de miles de bots en Twitter con posibles vínculos con Rusia. Este tipo de inflación de retuits también es una estrategia muy habitual del Estado Islámico. Twitter canceló la mayoría de los tuits sobre su muerte, según Nimmo, cuando informó al respecto.

Twitter no colabora, ¿Por qué? 

La verdadera dimensión de la comunidad de bots de Twitter sigue sin estar del todo clara. La compañía rechaza colaborar en la investigación y compartir datos internos y critica a los investigadores académicos por falta de rigor, afirma Ferrara, profesor en la USC. Según él, si Twitter colaborara, sería más fácil confirmar quién está controlando los bots que están enviando mensajes políticos concretos. Twitter ha declinado realizar declaraciones sobre su interacción con los investigadores.
Los bots no son el único problema de Twitter en este ámbito. Las injerencias rusas concretamente están completando sus redes de bots con personas de carne y hueso a quienes se paga para tuitear mensajes similares al mismo tiempo, lo que dificulta al software de Twitter la posibilidad de distinguir los unos de los otros, según una persona familiarizada con este asunto. Pero parte de la respuesta podría ser que el hecho de tomar medidas drásticas contra los bots afectaría a Twitter en Wall Steet. Los inversores han penalizado constantemente a la compañía cada vez que se ha ralentizado la creación de usuarios, y si las cuentas de bots suponen nada menos que un 15 por ciento de su audiencia, controlarlos de forma activa podría salir caro, según Scott Tranter, socio de la compañía de consultoría tecnológica Optimus.
«Yo creo que hay razones comerciales que explican por qué Twitter no quiere hacer las cosas bien en este sentido», afirma. «Si tienes cuentas falsas y se te valora por los usuarios activos, la valoración se ajusta». Twitter ha rechazado realizar declaraciones.

publicidad
publicidad
publicidad