Las factorías de followers y el mea culpa de Jack Dorsey


Hace unos días, se hacía público el auto del fiscal Robert S. Mueller sobre la intervención de Rusia en las elecciones presidenciales de Estados Unidos que condujeron a Donald Trump a la Casa Blanca. Y sus conclusiones parecen claras: se habría orquestado una potente (y cara) maquinaria rusa a través de las redes sociales para, efectivamente, tratar de influir en el resultado del proceso electoral.

Poco antes, el New York Times destapaba, en un magnífico artículo, el negocio de las factorías de followers, la nueva economía negra 2.0: millones de dólares destinados a fraude en redes sociales que incluye cuentas y seguidores falsos, bots insaciables y robo de identidades, ante la inacción, pasividad, indiferencia o incluso complicidad de Twitter, Facebook y demás.

Devumi, una compañía que promete “acelerar tu crecimiento social” y que tiene por clientes a online influencers que van desde deportistas y cocineros a artistas y políticos, ha vendido 200 millones de seguidores en Twitter a 39.000 clientes, facturando más de seis millones de dólares. Tras el artículo del Times, el Fiscal General de Nueva York abrió una investigación sobre Devumi. Casualmente, el servicio de venta de followers de Devumi aparece como no disponible en su web (aunque sigue vendiendo suscriptores para canales de YouTube).



La realidad es que las redes sociales empezaron siendo un lugar estupendo para relacionarte con tus amigos y familiares, para dar rienda suelta inofensivamente a esa tendencia al exhibicionismo que todos tenemos, e incluso para relacionarnos con nuestros cocineros, futbolistas, cantantes o marcas favoritos. Pero, como dice María Ramírez, ahora son una máquina de propaganda y un mortal enemigo de los medios tradicionales en la captura del ingreso por el click. Sea el click que sea, eso no importa: el precio lo paga el discurso público.


Esta misma semana, el fundador y CEO de Twitter, Jack Dorsey, entonaba - ¡al fin! – un mea culpa que sonaba sincero. Dorsey dice varias cosas interesantes:

Nos encantan los mensajes y conversaciones instantáneos, públicos y globales. Eso es Twitter y por eso estamos aquí. Pero no predijimos ni comprendimos completamente las consecuencias negativas en el mundo real. Las reconocemos ahora, y estamos decididos a encontrar soluciones integrales y justas.

Hemos sido testigos de abusos, hostigamiento, ejércitos de trolls, manipulación a través de bots y humanos coordinados, campañas de desinformación y cámaras de eco cada vez más divisivas. No estamos orgullosos de cómo las personas han aprovechado nuestro servicio ni de nuestra incapacidad para abordarlo lo suficientemente rápido.

Lo que sabemos es que debemos comprometernos con un conjunto riguroso e independiente de métricas para medir la “salud” de las conversaciones públicas en Twitter. Y debemos comprometernos a compartir nuestros resultados públicamente para beneficiar a todos los que participan de la conversación.

Todo lo anterior no hace sino acentuar la crisis de la verdad en la era digital que comentábamos en un artículo anterior: la desinformación en las redes sociales es un problema muy serio. Y la independencia de los medios, otro más grave aún. Nos enfrentamos a una paradoja: la tecnología ha hecho la información instantánea, directa y ubicua… en perjuicio de la verdad.

Ya, pero ¿dónde están las raíces de este problema? Todo apunta a dos lugares. Por una parte, al comportamiento humano – limitada atención y menor criterio – en un contexto de inundación informativa.

No, no es una mera apreciación intuitiva y gratuita. Scientific American explica en este artículo cómo incluso en un mundo perfecto, donde todo el mundo quiere compartir noticias reales y es capaz de evaluar la veracidad de cada publicación, las noticias falsas todavía llegarían a miles (o incluso millones) de personas, simplemente debido a la sobrecarga de información. O, más prosaicamente:

It is often impossible to see everything that comes into one’s news feed, let alone confirm it. If you live in a world where you are bombarded with junk—even if you’re good at discriminating— […] you still may share misinformation.

El modelo matemático original se publicó en Nature bajo un título sumamente descriptivo: “Limited individual attention and online virality of low-quality information”. Sus autores sostienen que tres factores explican la incapacidad de una red para distinguir la verdad de la falsedad, incluso aunque los individuos puedan: la enorme cantidad de información que existe, la cantidad limitada de tiempo y atención que podemos dedicar a ella y la estructura de las redes sociales subyacentes. Los tres conspiran para difundir la peor información a expensas de la mejor. El modelo establece una correlación muy débil entre la calidad y la popularidad de la información; predice, además, que la información de mala calidad tiene tanta probabilidad de hacerse viral como la de buena.

La segunda causa tiene que ver con los modelos de negocio asociados al así llamado capitalismo digital, modelos que fomentan el sensacionalismo, el click por el click, la viralidad por encima de la veracidad. The Guardian – obviamente juez y parte en este dilema – publicaba hace un año un artículo demoledor contra la voracidad de los gigantes digitales, de los frightful five.

The problem is not fake news but a digital capitalism that makes it profitable to produce false but click-worthy stories

Y hasta aquí lo fácil: la descripción de la solución y el atrevimiento para intentar sentar las causas. ¿Por dónde van las soluciones, entonces?

Quizás lo más sencillo sea identificar por dónde NO van las soluciones. Desde luego, por lo antes indicado, parece que no nos podemos fiar al comportamiento humano. Y menos en un contexto en el que las redes sociales evolucionan y van ocupando paulatinamente el lugar que le correspondía a la televisión: son las encargadas de entretenernos más que de informarnos, de hacernos sentir más que de hacernos pensar.

Tampoco parece que el camino sea contratar ejércitos de humanos que, como en Google o en Facebook, se dediquen a revisar manualmente la credibilidad de las informaciones. Aunque, sin duda, sería una gran fuente de empleo: la compañía de Mark Zuckerberg ya dispone de más de 8.000 empleados dedicados a estas labores.

Y me da auténtico pánico pensar en leyes, regulación e intervención gubernamental sobre contenidos en redes sociales. Con una China y los patéticos intentos del gobierno de España para emularla ya nos llega.


Es más que probable que la solución pase por el desarrollo tecnológico, por la aplicación de inteligencia artificial y algorítmica a los contenidos, sus fuentes y sus patrones de difusión a través de Facebook o Google. El propio Jack Dorsey en su tweet hace referencia a medir algorítmicamente la “salud” de las conversaciones en Twitter, a partir de una propuesta de Cortico, una iniciativa surgida del MIT Media Lab cuya meta es precisamente esa: desarrollar métricas de salud de las conversaciones públicas mediante de big data y analítica avanzada. ¡Pero ojo con el big data y con los robots censores!

Mientras la ciencia de datos avanza en su aplicación a esta problemática, una solución transitoria y parcial puede provenir de sitios independientes que verifiquen la veracidad de las principales noticias publicadas conforme a unos principios claros y auditados; sitios como Snopes, Politifact o factcheck.org. Aunque, ¿quién vigila al vigilante? Quizás el crowdsourcing pudiera contribuir a avanzar en este terreno.

Otros proponen migrar los canales. Iniciativas como Politibot, un chatbot a través de Facebook Messenger que incluso se atreve a desafiar las cámaras de eco (por cierto, yo interactúo diariamente con él y merece mucho la pena); o tratar de solventar la mínima fricción de los formatos de las redes sociales a través de podcasts o píldoras de vídeo que ralenticen la naturaleza de la interacción por parte de los usuarios.

Y, finalmente, hay quien piensa que los dos puntos anteriores son el medicamento que suaviza los síntomas pero no ataca de raíz la enfermedad. Que la única solución es repensar los fundamentos del capitalismo digital.

We need to make online advertising – and its destructive click-and-share drive – less central to how we live, work and communicate

Suena muy bien, pero ¿cómo se definen los nuevos fundamentos? ¿quién y cómo los aplica? ¿cuánto tiempo tardará en implantarse si es que realmente se puede implantar?

Desde luego, las soluciones no son sencillas. Pero, como dice Jack Dorsey, si no reconocemos que el problema es grande y nos comprometemos a buscarlas inmediatamente, quizás dejen de ser complejas y se vuelvan inexistentes.

[Acreditación de la imagen de cabecera]