¿Qué pueden tener en común la AfD (Alternativa para Alemania), el presidente de Filipinas Rodrigo Duterte, el presidente argentino Mauricio Macri, el primer ministro indio Narendra Modi, el Partido Nacional Escocés y el presidente estadounidense Donald Trump? Todos basaron sus campañas electorales en los consejos de Mark Zuckerberg. Tomando el caso de las elecciones en la India, Shelley Kasli revela cómo Facebook manipula los procesos democráticos.
Un reciente artículo de Bloomberg ha revelado de qué manera un grupo secreto de Facebook permitió crear un ejército de troles [1] a favor de gobiernos, incluyendo en la India, como medio de propaganda tendiente a manipular las elecciones [2].
Bajo la luz de los proyectores debido al papel que ha desempeñado Facebook como plataforma de propaganda política, el cofundador de esa empresa, Mark Zuckerberg, ha respondido que su misión va más allá de las diferencias entre partidos políticos.
Pero la realidad es que Facebook no es un simple espectador en materia de política. Lo que no dice Zuckerberg es que su compañía colabora activamente con partidos y dirigentes, incluyendo a los que utilizan esa plataforma para contrarrestar la oposición –a veces con ayuda de numerosos troles que propagan información falseada («fake news») e ideologías extremistas [3].
Ese trabajo es realizado desde Washington por un equipo de Facebook extremadamente discreto, especializado en temas de política global y encabezado por Katie Harbath, la ex estratega numérica del grupo republicano que trabajó en 2008 en la campaña presidencial del ex alcalde de Nueva York, Rudy Giuliani. Katie Harbath también trabajó en las elecciones realizadas en la India en 2014.
Han pasado 3 años desde que Facebook contrató a Katie Herbath para dirigir ese grupo secreto. En esos 3 años, su equipo ha viajado por todo el mundo, incluyendo la India, y ha ayudado a ciertos dirigentes políticos, poniendo a su disposición las poderosas herramientas numéricas de la compañía, bajo la forma de un verdadero ejército de troles, con fines de propaganda.
En la India, y en muchos otros países, los empleados de ese grupo han ejercido de hecho funciones de agentes de campañas electorales. Y después de la elección del candidato, la compañía ha supervisado funcionarios o proporcionado ayuda técnica en materia de difusión numérica en encuentros oficiales entre jefes de Estados.
En Estados Unidos, empleados de ese equipo trabajaron en el terreno durante la campaña de Donald Trump. En la India, Facebook favoreció la presencia en la red del primer ministro Narendra Modi, quien hoy cuenta con más seguidores en Facebook que cualquier otro dirigente político del mundo.
Durante los mítines de campaña hay miembros del equipo de Katie Harbath junto a responsables comerciales del sector publicitario de Facebook cuyo papel consiste en ayudar a la compañía a sacar provecho financiero de la atención que las elecciones suscitan en las masas. Esos especialistas enseñan a políticos y dirigentes cómo crear una página de Facebook para su campaña –página que autentifican con una marca azul–, cómo optimizar el uso de videos para atraer a la gente y cómo seleccionar eslóganes publicitarios. Al resultar electos esos candidatos, su colaboración con Facebook permite a la compañía extender aún más su propia influencia política y mejorar sus posibilidades de evadir las leyes.
El problema se acentúa cuando Facebook se erige antidemocráticamente en pilar de la democracia. Freedom House, una seudo ONG con sede en Washington, que milita por la democracia en todo el mundo [4], reportó en noviembre de 2017 que un número creciente de Estados «manipulan las redes sociales para socavar las bases de la democracia» [5]. Eso se traduce en campañas de difamación, de acoso o de propaganda, campañas que el gobierno respalda discretamente para imponer su versión de los hechos, silenciar la disidencia y reforzar el poder.
Facebook abrió su primera oficina en Washington en 2007. La elección presidencial del año siguiente marcó el surgimiento del primer «presidente Facebook» en la persona de Barack Obama, quien –con ayuda de la plataforma– logró llevar su mensaje a millones de votantes durante las semanas que antecedieron la elección. La cantidad de usuarios de Facebook creció de forma exponencial con los acontecimientos de las «primaveras árabes» que sacudieron el Medio Oriente en 2010 y 2011, poniendo de relieve la enorme influencia que la plataforma ejerce sobre la democracia.
Durante el periodo en que Facebook escogió a Katie Harbath, la ex partidaria de Giuliani, para dirigir su grupo político, las elecciones se convertían en un tema constante en las redes sociales. Facebook comenzó a implicarse poco a poco en procesos electorales en todas partes del mundo.
Facebook se asoció a varios de los partidos políticos más controvertidos del mundo, mientras pisoteaba el principio mismo de la transparencia. Desde 2011, la compañía está reclamando a la Comisión Electoral de Estados Unidos que le otorgue una dispensa para la ley que exige transparencia en todo lo concerniente a la promoción de un partido político, lo cual le habría evitado la crisis que ahora enfrenta sobre los gastos publicitarios rusos relacionados con las elecciones de 2016.
Las relaciones entre la compañía y los gobiernos siguen siendo complicadas. La Unión Europea ha cuestionado a Facebook por haber permitido que el islamismo radical prospera a través de su red. La compañía acaba precisamente de publicar su informe de transparencia, donde explica que entregará a los gobiernos datos sobre sus usuarios sólo si el pedido está legalmente justificado. De no ser así, Facebook no vacilará en recurrir a la justicia [6].
Ejércitos de troles en la India
El mercado indio es sin dudas el más beneficioso para Facebook en este momento, por encima del estadounidense. En la India, la cantidad de usuarios crece dos veces más rápido, sin entrar a mencionar los 200 millones de indios que utilizan la mensajería WhatsApp, mucho más que en cualquier otro país del mundo.
En la época de las elecciones indias de 2014, Facebook ya había trabajado durante meses en otras campañas. Narendra Modi aprovechó a fondo el respaldo de Facebook y de WhatsApp para reclutar voluntarios que a su vez extendieron el mensaje a través de las redes sociales. A partir de la elección de Modi como primer ministro de la India, la cantidad de suscritos aumentó en 43 millones, dos veces más que en el caso de Trump.
En las semanas posteriores a la elección de Modi, Zuckerberg y la directora de operaciones de Facebook, Sheryl Sandberg, viajaron los dos a la India para desarrollar un controvertido proyecto de internet gratuito, que tuvo que ser abandonado debido a las enérgicas protestas que suscitó. Katie Harbath y su equipo también fueron a la India para impartir encuentros de formación en los que participaron más de 6 000 altos funcionarios.
A medida que aumentaba la influencia de Modi en las redes sociales, sus seguidores iniciaron una campaña de acoso contra sus rivales políticos en Facebook y WhatsApp. La India se convirtió en un nodo de desinformación, incluso con propagación de información falsa que provocó motines en los que murieron varias personas. El país se hizo además extremadamente peligroso para los partidos de oposición y los periodistas.
Pero Modi y el Partido Popular Indio (Bharatiya Janata Party, BJP) no fueron los únicos en utilizar los servicios que Facebook propone. La compañía pretende poner las mismas herramientas y servicios a la disposición de todos los candidatos, sin importar su orientación política, así como de grupos poco conocidos de la sociedad civil.
Lo interesante es que el propio Mark Zukerberg quiere ser presidente de Estados Unidos y ya contrató a David Plouffe –consejero de campaña de Barack Obama en 2008– y a Ken Mehlman –consejero de campaña de George Bush hijo en 2004. Actualmente está trabajando con Amy Dudley –ex consejera del senador Tim Kaine–, con Ben LaBolt –ex encargado de prensa de Barack Obama– y con Joel Benenson –consejero de campaña de Hillary Clinton en 2016 [7].
Facebook manipula las emociones
Un estudio publicado en 2014 bajo el título Evidencia experimental de un fenómeno de contagio emocional a gran escala a través de las redes sociales [8] analizó la proporción entre los mensajes positivos y negativos vistos por 689 000 usuarios de Facebook. El experimento, realizado entre el 11 y el 18 de enero de 2012, trató de identificar efectos de contagio emocional que modificaban el peso emocional de las informaciones enviadas a los usuarios. Los investigadores concluyen que por primera vez hallaron «la prueba de que las emociones pueden propagarse a través de una red informática, [aunque] los efectos vinculados a esas manipulaciones son limitados».
Este estudio fue criticado tanto por sus bases éticas como por la metodología utilizada. Ante la intensificación de la polémica, uno de los principales instigadores de esa investigación y miembro del equipo responsable de los datos de Facebook, Adam Kramer, defendió el estudio en un comunicado de la compañía [9]. Días después, la directora de operaciones de Facebook, Sheryl Sandberg, emitió una declaración [10], durante su estancia en la India. En una actividad organizada en Nueva Delhi por la Cámara de Comercio, Sheril Sandberg declaró: «Este estudio se realizó en el marco de las investigaciones que las empresas desarrollan para poner a prueba diferentes productos, ni más ni menos. La comunicación al respecto fue muy mala y nos excusamos por ello. No quisimos contrariarlos a ustedes.»
¿Para qué nuevo producto revolucionario realizó Facebook experimentos sicológicos tendientes a manipular las emociones de sus usuarios? Esos productos revolucionarios son los ejércitos de troles numéricos utilizados con fines propagandísticos que difunden fake news (información falsa) para ayudar a sus clientes durante las elecciones.
Poco después, el 3 de julio de 2014, USA Today reporta que el grupo EPIC, defensor del respeto a la vida privada del ciudadano, presentó a la Comisión Federal del Comercio una denuncia oficial donde estipula que Facebook violó la ley al realizar una investigación sobre las emociones de sus usuarios sin consentimiento de estos últimos, y sin tomarse siquiera el trabajo de informarlos al respecto [11].
EPIC señala en su denuncia que Facebook engañó a sus usuarios al realizar en secreto un experimento sicológico sobre sus emociones:
«En el momento del experimento, Facebook no expuso en su política sobre el uso de los datos que las informaciones sobre sus usuarios se utilizarían con fines experimentales. Facebook también omitió informar a sus usuarios que esas informaciones serían puestas a disposición de los investigadores.»
La mayoría de los conejillos de Indias utilizados en esos experimentos de manipulación de las emociones eran ciudadanos de la India [12].
La mayoría de nosotros no prestamos verdadera atención a lo que se divulga a través de las redes sociales y la mayor parte de lo que en ellas aparece es más bien inofensivo. Al menos eso parece a primera vista.
La realidad es que lo que se pone en internet tiene un impacto aterrador. Según una investigación conjunta del Laboratorio Nacional del Noroeste del Pacífico y la Universidad de Washington, el contenido de lo que se pone en las redes sociales puede ser utilizado por un programa informático para predecir acontecimientos futuros –quizás incluso para predecir quién será el próximo primer ministro de la India.
En un trabajo que acaba de publicar ArXiv [13], un equipo de investigadores descubrió que las redes sociales pueden ser utilizadas para «detectar y predecir acontecimientos en el mundo real» [14]. Analizando Twitter es posible predecir con precisión desórdenes sociales, por ejemplo, cuando las personas utilizan ciertos hashtags para intercambiar sobre determinados problemas, antes de que la cólera acabe propagándose en el mundo real.
El ejemplo más conocido de ese fenómeno tuvo lugar durante las «primaveras árabes», cuando evidentes señales de protestas y de levantamientos inminentes aparecieron en la red antes de que la gente se lanzara a la calle.
Pero también puede ser lo contrario: las redes sociales pueden generar la cólera que, luego de alcanzar un grado óptimo, puede ser encauzada para provocar acontecimientos en la vida real, como puede comprobarse en la India desde hace al menos 2 años, incluso con casos de linchamientos colectivos.
El funcionamiento de la
industria del «fake news» en la India
En la India ha surgido una gigantesca industria de la desinformación o «fake news», cuya influencia es muy superior al discurso político tradicional y que, a falta de control, puede llegar a convertirse en un problema de seguridad, como sucedió con las «primaveras árabes». En momentos en que está en su apogeo el debate sobre los linchamientos, es necesario que se entienda que ese tipo de incidentes no se habría propagado tan rápidamente sin el acceso de la juventud a Facebook, Twitter, Youtube y otras redes sociales que permiten a esa industria de la desinformación generar y propagar los montajes de videos falsos y de «fake news». El fenómeno de los linchamientos, que apareció desde hace ya varios años, es una consecuencia directa de esa industria del «fake news» o desinformación, que pasa de las redes sociales al mundo real.
Esto toma otro cariz ahora que se ha revelado que Facebook y WhatsApp conspiraron con el establishment creando «un ejército de troles» con fines de propaganda numérica y engendrando explosiones de violencia en suelo indio. Esto es un caso típico de terrorismo. Hay que recordar que el terrorismo se define como «la utilización sistemática del terror o de la violencia por parte de un individuo o un grupo con fines políticos». En el caso que nos ocupa, ese terrorismo es obra de una compañía extranjera –Facebook– en suelo indio mediante una guerra numérica de (des)información. ¿Qué estamos esperando para reaccionar contra tales actos?
Durante las elecciones presidenciales estadounidenses hubo una campaña de «fake news» o desinformación. Esta fue parte de la campaña oficial, realizada a su vez con la colaboración de empresas tecnológicas, y se afirma que hasta los rusos utilizaron sus propias redes. Ese mismo método se utilizó también para orientar el debate sobre el Brexit. Mientras escribimos este artículo, esa enorme industria del «fake news» extiende sus tentáculos sobre la India. Numerosos deportistas de renombre, «celebrities», economistas y políticos ya han sido víctimas de la diseminación de contenidos falaces. Es una peligrosa tendencia que debería ser objeto de estrecha vigilancia por parte de nuestros servicios de inteligencia en aras de prevenir futuros desastres.
Veamos, en una breve explicación, cómo funciona todo eso. Se ponen en marcha numerosos sitios y portales web de diversa legitimidad y financiamiento. Se crean contenidos específicos para diversas categorías de personas, en función de la región donde viven, de su ideología, su edad, su religión… contenidos que se mezclan con una enorme cantidad de material erótico que disimula el objetivo verdadero. Ese contenido falaz se introduce después en la red social y en grupos específicos previamente identificados mediante herramientas de análisis desarrolladas por empresas tecnológicas. A medida que se propaga, esa información falsa va adquiriendo su propia dinámica y alguien –una celebridad, algún político o incluso un periodista– acaba repitiéndola. Lo que sucede entonces ya cae en el rango de la verdadera locura.
Ya sea a propósito o por ignorancia, los medios dominantes comienzan a propagar esas mentiras, dedicando la integralidad de sus revistas de prensa al análisis de esa información falsa o «fake new»… quién dice qué y por qué lo dice, bla bla bla, en vez de tratar de verificar la autenticidad de tales afirmaciones. Dado el carácter sensacional de esas falsedades, y también porque personas influyentes las repiten, esa visión falseada del mundo va a contaminar el mundo real. ¿Testigos? Las víctimas de linchamientos. Se llega así a un momento en que es casi imposible distinguir entre lo verdadero y lo falso, diferenciar el hecho de la ficción, con toda la sociedad radicalizándose en diferentes facciones que se oponen entre sí basándose en mentiras.
Facebook y las elecciones indias
En la época de las elecciones indias de 2014 apareció en la prensa un artículo sobre el tema «¿Puede Facebook influir en el resultado de la elección india?». El título revelaba la existencia de un verdadero iceberg. Si Facebook es capaz de modificar nuestras emociones y de hacernos votar… ¿qué más puede hacer? [15].
Asombrosamente, la Comisión Electoral India no encontró nada mejor que firmar un documento asociándose con Facebook para censar a los votantes durante el proceso electoral [16]. El doctor Nasim Zaidi, jefe de la Comisión Electoral India (ECI), declaró:
«Me siento feliz de anunciar que la Comisión Electoral India va a iniciar un procedimiento especial destinado a enrolar a los no votantes y, sobre todo, a quienes nunca han votado. Esto representa un paso adelante hacia la realización de la consigna de la ECI “Ni un ciudadano olvidado”. Como parte integrante de esta campaña, Facebook divulgará un recordatorio en diferentes dialectos indios para el momento de la elección, [recordatorio destinado] a todos los usuarios de Facebook de la India. Invito a todos los ciudadanos a que se inscriban y a votar, o sea a reconocer sus derechos y asumir sus deberes. Estoy convencido de que Facebook dará una nueva envergadura a la campaña de inscripción de electores iniciada por la Comisión y estimulará futuros votantes a participar en el proceso electoral y a convertirse en ciudadanos indios responsables.»
Las 17 agencias de inteligencia de Estados Unidos emitieron serias advertencias en cuanto al impacto de este fenómeno de desinformación sobre su proceso electoral y su sociedad. Según un centro de investigación en estadística, la mayoría de los estadounidenses –un espectacular 88%– piensa que la difusión de «fake news» perjudica su percepción de la realidad cotidiana [17].
Nosotros, en la India, nos dirigimos hacia un escenario aún más catastrófico. ¿Por qué? Porque, al revés de lo que sucede en la India, el gobierno de Estados Unidos y su comunidad de inteligencia exponen públicamente el problema y han trabajado en una solución ante esa amenaza. ¿Puede la India hacer lo mismo con Facebook metiendo sus narices en los asuntos internos del país?
Se crean todo tipo de comisiones, se programan audiencias senatoriales para aclarar este asunto y se establecen nuevos equipos para contrarrestar eficazmente esta amenaza contra la sociedad. Mientras se investiga el papel de Facebook en la elección presidencial estadounidense, se presta poca atención a cómo el equipo secreto de Facebook influyó en las elecciones indias.
A la luz de estas revelaciones habría que investigar detalladamente el impacto de Facebook en las elecciones indias. Es evidente que, para hacerlo, el gobierno tiene que empezar por reconocer la existencia de esa industria del «fake news» o de la desinformación para poder después actuar contra ella.
Junto a Facebook, American Microchip Inc. y la firma japonesa Renesas, contratados para piratear el código secreto EVM (banco de datos de usuarios) [18], también deberían ser objeto de una investigación por interferir en las elecciones indias todos los que han conspirado junto a esas empresas.
Tomar esta amenaza a la ligera sería un grave error.
Fuente
Great Game India (India)
Great Game India (India)
[1] En el lenguaje de los internautas un trol es alguien que se dedica a generar polémicas, generalmente con objetivos oscuros. En un foro puede tratarse de alguien cuyos mensajes provocan constantemente debates que desvirtúan el interés en determinado asunto o desvían la discusión hacia otra cosa.
[2] “How Facebook’s Political Unit Enables the Dark Art of Digital Propaganda”, Lauren Etter, Vernon Silver y Sarah Frier, Bloomberg, 21 de diciembre de 2017.
[3] “India’s Fake News Industry & Mob Lynchings”, Great Game India News, 6 de julio de 2017.
[4] «Freedom House: cuando la “libertad” no es más que un pretexto», por Thierry Meyssan, Red Voltaire, 3 de enero de 2005.
[5] “Freedom on the Net 2017. Manipulating Social Media to Undermine Democracy”, Freedom House, 14 de noviembre de 2017.
[6] “Facebook Transparency Report 2017”, Facebook, enero de 2017.
[7] «¿Será Mark Zuckerberg el próximo presidente de Estados Unidos?», Red Voltaire, 7 de agosto de 2017.
[8] “Experimental evidence of massive-scale emotional contagion through social networks”, Adam D. I. Kramer, Jamie E. Guillory y Jeffrey T. Hancock,Proceedings of the National Academy of Sciences of the United States of America (PNSA), Vol 111, #24, 17 de julio de 2014.
[9] “The Author of a Controversial Facebook Study Says He’s ‘Sorry’”, Stephanie Burnett, Time, 30 de junio de 2014.
[10] “Facebook still won’t say ’sorry’ for mind games experiment”, David Goldman, CNN, 2 de julio de 2014.
[11] “Privacy watchdog files complaint over Facebook study”, Jessica Guynn, USA Today, 3 de julio de 2014.
[12] “Facebook apologises for psychological experiments on users”, Samuel Gibbs, The Guardian, 2 de julio de 2014.
[13] ArXiv es un archivo online de trabajos que van a publicarse en diferentes sectores de las ciencias. Nota de la Red Voltaire.
[14] “Using Social Media To Predict the Future: A Systematic Literature Review”, Lawrence Phillips, Chase Dowling, Kyle Shaffer, Nathan Hodas y Svitlana Volkova, ArXiv, 19 de junio de 2017.
[15] “If Facebook can tweak our emotions and make us vote, what else can it do?”, Charles Arthur, The Guardian, 30 de junio de 2014.
[16] “Election Commission of India partners with Facebook to launch first nationwide voter registration reminder”, Facebook, 28 de junio de 2017.
[17] “Many Americans Believe Fake News Is Sowing Confusion”, Michael Barthel, Amy Mitchell y Jesse Holcomb, Pew Research Center, 15 de diciembre de 2016.
[18] “Are Indian Elections Hacked By Foreign Companies?”, Shelley Kasli, Great Game India News, 17 de diciembre de 2017.
Publicar un comentario