The Reality Game de Samuel Woolley es importante ahora porque la tecnología de la información está teniendo un impacto cada vez mayor en nuestras vidas y en la sociedad en general.

Con la creciente polarización política, el ascenso de movimientos extremistas y la propagación de noticias falsas, es esencial entender cómo la tecnología de la información está siendo utilizada para manipular la realidad y crear divisiones en la sociedad.

The Reality Game ofrece una advertencia sobre los peligros de la tecnología de la información y una visión sobre cómo debemos abordar estos desafíos para proteger nuestra sociedad y nuestra democracia.

The Reality Game, junto con Information Warfare in the Age of Cyber Conflict (ver Guerra de información en la era del conflicto cibernético) y Pegasus: The Secret Technology that Threatens the End of Privacy and Democracy (ver Pegasus: Un espía de bolsillo amenaza la privacidad, la dignidad y la democracia) abordan diferentes aspectos de la intersección entre la tecnología y la sociedad, y cómo esta intersección puede tener implicaciones para la privacidad, la seguridad y la democracia.

  • The Reality Game se centra en cómo la tecnología, especialmente las redes sociales, puede alterar nuestra percepción de la realidad y ser utilizada para manipular opiniones y comportamientos.
  • Information Warfare in the Age of Cyber Conflict explora cómo las naciones y los actores no estatales utilizan las herramientas digitales para llevar a cabo campañas de desinformación y ciberataques, y cómo esto afecta la seguridad nacional y la estabilidad global.
  • Pegasus: The Secret Technology that Threatens the End of Privacy and Democracy examina la tecnología de espionaje Pegasus, utilizada para espiar a activistas, periodistas y otros individuos, y cómo esto amenaza los derechos civiles y la democracia.

Qué teoría o creencia desafía «The Reality Game»?

  • «The Reality Game» desafía la creencia tradicional de que la tecnología de la información es inherentemente buena y progresiva, y que siempre trae beneficios a la sociedad.
  • El libro argumenta que, mientras la tecnología de la información puede ser una herramienta poderosa para mejorar la vida de la gente y promover el bien común, también puede ser usada para fines malintencionados y causar daño.
  • Woolley desafía la idea de que la tecnología de la información es una fuerza natural e inevitable que siempre progresa hacia el bien, y muestra cómo se puede utilizar para fines perjudiciales si no se utiliza con cuidado y responsabilidad.

Principales ideas de The Reality Game de Samuel Woolley

  • Los viejos medios de comunicación ayudaron a apuntalar la fe en las instituciones; los nuevos medios lo socavan.
  • A menudo impulsadas por motivos comerciales, las noticias falsas apelan efectivamente al deseo de las personas de pensar críticamente.
  • El enfoque de no intervención de las redes sociales para monitorear el discurso es una bendición para los conspiradores.
  • El primer caso conocido de robots que interfieren en el proceso político ocurrió en Estados Unidos.
  • Los bots son tontos, pero eso no significa que no sean efectivos.
  • Las empresas de redes sociales deberían autorregularse, pero no se responsabilizan del mal uso de sus herramientas.
  • El aprendizaje automático puede ayudarnos a lidiar con la desinformación digital, pero no es suficiente por sí solo.
Samuel Woolley: How Technology Will Break the Truth | Town Hall Seattle

Los viejos medios de comunicación ayudaron a apuntalar la fe en las instituciones; los nuevos medios lo socavan.

La confianza en las instituciones democráticas está en su punto más bajo. Una encuesta de Gallup de 2018 encontró que, durante las últimas cuatro décadas y media, el número de estadounidenses que confían en el Congreso se desplomó del 43 al 11 por ciento. La confianza en los bancos se redujo a la mitad, y sólo 38 de cada 100 personas dicen confiar en establecimientos religiosos (frente a 65 a principios de los años 1970). 

Pero el problema no se limita sólo a Estados Unidos. Se han registrado tendencias similares en Brasil, Italia y Sudáfrica, países que siempre hemos considerado democráticos. Entonces, ¿qué está pasando? ¿Por qué los ciudadanos se han vuelto tan desconfiados de sus instituciones democráticas? Bueno, todo se reduce a cómo utilizamos los medios para comprender la realidad. 

Internet ha cambiado el panorama de los medios hasta dejarlo irreconocible. Antes de la era digital, la información fluía en una única dirección. Una persona habló; muchos escucharon. Piense en los presentadores de televisión o los columnistas de periódicos: personas que se dirigieron a miles de oyentes y lectores. Los presentadores de noticias y periodistas respetados se esforzaron por ser objetivos. Antes de que una opinión fuera transmitida o publicada, debía ser examinada. Por supuesto, los conspiradores eran libres de escribir al New York Times, pero el periódico también era libre de decidir si publicaba o no dichas cartas. 

Este modelo significó que millones de ciudadanos recibieran su información de las mismas fuentes. Esto ayudó a generar consenso sobre lo que era real y verdadero y, como resultado, generó confianza. 

Pero en los últimos años las cosas han cambiado. La información ahora se comparte a través de lo que se llama el paradigma «muchos a muchos». Ya no tendrá que persuadir a nadie para que imprima o difunda sus opiniones. En la web, usted es su propio editor y cualquiera puede leer lo que publica. 

Los pioneros de Internet esperaban una era dorada de libertad de expresión y participación cívica. Pero lo que no previeron fue que el panorama pasaría a estar controlado por unas pocas corporaciones gigantes de redes sociales, cada una de ellas menos responsable que las emisoras de la vieja escuela.

Hay poca o ninguna regulación en el mundo de las redes sociales, por lo que se han convertido en un caldo de cultivo para la desinformación. Y en este turbio lío de algoritmos fáciles de manipular, es difícil distinguir la realidad de la ficción. 

Una encuesta de 2018 en el Reino Unido, por ejemplo, encontró que el 64 por ciento de los británicos tenía dificultades para distinguir entre noticias reales y falsas. No es de extrañar, entonces, que la confianza esté en su punto más bajo: en este entorno, ¡a menudo es imposible saber en quién confiar!

A menudo impulsadas por motivos comerciales, las noticias falsas apelan efectivamente al deseo de las personas de pensar críticamente.

«AGENTE DEL FBI SOSPECHOSO DE FUGAS DE CORREO ELECTRÓNICO DE HILLARY HALLADO MUERTO EN APARENTE ASESINATO-SUICIDIO».

A principios de noviembre de 2016, este titular sensacionalista, impreso en mayúsculas, apareció en un sitio web llamado Denver Guardian, que se anunciaba como “la fuente de noticias más antigua de Colorado”. La historia implicaba a la candidata presidencial demócrata, Hillary Clinton, en un escandaloso encubrimiento. 

En poco tiempo, miles de personas estaban haciendo clic. En un momento, la historia fue compartida por más de 100 páginas de Facebook cada minuto. Sólo había un problema: la revelación, al igual que el periódico que la publicó, era falsa. 

Nada de esa historia del Denver Guardian era cierto. El artículo fue escrito por Jestin Coler, un empresario de California. Él era dueño del sitio web y el único propósito de su publicación era generar clics en anuncios. Coler se dio cuenta de que la forma más fácil de atraer tráfico era difundir informes falsos sobre la contienda presidencial en curso.

Era un negocio rentable. En el período previo a las elecciones de noviembre, las noticias basura le reportaron a Coler entre 10.000 y 30.000 dólares al mes. 

La gente quería oír esto”, afirmó más tarde Coler. Admitió abiertamente que había inventado cada detalle de esa historia. Todo era ficción: la ciudad que mencionó, la gente, el sheriff, el agente del FBI. Una vez que escribió el artículo, dijo Coler, su equipo de redes sociales lo colocó en foros pro-Trump. En cuestión de horas, se estaba extendiendo como la pólvora. 

Los motivos de Coler eran puramente comerciales y eso lo diferenciaba de personas que habían dirigido campañas de desinformación más conocidas. Pero su historia viral alimentó un ataque digital más amplio a la verdad. Esa ofensiva involucró anuncios falsos en Facebook –pagados por el gobierno ruso– así como historias falsas difundidas por adolescentes en Moldavia y “grupos de acción política” vinculados al bando de Trump. 

Sin embargo, Coler tenía razón: la gente quiere escuchar estas historias. ¿Por qué? Bueno, muchos todavía anhelan el tipo de noticias que alguna vez difundieron emisoras confiables. Es por eso que el Denver Guardian enfatizó su estatus como la fuente de noticias más antigua de Colorado. 

La gente también quiere llegar a la raíz de las cosas. El periodismo de investigación examinado y verificado solía responder a esta necesidad. Pero a medida que se desvaneció, pasaron a primer plano los vendedores de desinformación, que no tienen reparos en fingir la procedencia de las noticias o disfrazar especulaciones descabelladas como pensamiento crítico. 

El enfoque de no intervención de las redes sociales para monitorear el discurso es una bendición para los conspiradores.

No hay nada nuevo en las teorías de la conspiración. La gente siempre ha tratado de cuestionar a quienes la gobiernan. En todas las sociedades ha habido oscuros rumores de complots, escándalos y encubrimientos. Pero en las últimas décadas algo cambió.

En el pasado, las conspiraciones se difundieron lentamente; Los rumores sobre las malas acciones de reyes y presidentes, imposibles de confirmar, rara vez aparecían en las noticias de la noche. Pero el mundo de las redes sociales es diferente. En línea, las conspiraciones se propagan más rápido y llegan más lejos. 

Tomemos como ejemplo QAnon, una teoría de la conspiración asociada con la extrema derecha en Estados Unidos. Sus partidarios afirman que existe una camarilla de funcionarios gubernamentales no electos conocida como el “Estado profundo” que, supuestamente, está trabajando contra Donald Trump. 

Los conspiradores también creen que un patriota anónimo llamado «Q» se ha infiltrado en esta camarilla. Este apodo es una referencia al nivel más alto de autorización de seguridad disponible para los funcionarios estadounidenses. Las publicaciones firmadas por Q aparecen ocasionalmente en foros como 4chan. Q ha afirmado, por ejemplo, que los políticos liberales dirigían una red de explotación sexual infantil desde el sótano de una pizzería.

Las afirmaciones de Q se difundieron rápidamente. Grupos coordinados de activistas de extrema derecha los recogen y los distribuyen en sitios más grandes, como Reddit y Twitter. Lo hacen con la ayuda de “bots” de redes sociales, software que automatiza tareas como compartir contenido. Los bots engañan a los algoritmos para que aumenten las publicaciones cuya popularidad parece genuina. Después de un tiempo, la gente común y corriente comienza a darse cuenta de la conspiración. Esto se convierte en una historia para los medios tradicionales, lo que amplifica aún más las cosas. 

El problema es que estas conspiraciones corroen las normas democráticas. Según cuenta QAnon, los liberales están comprometidos nada menos que con subvertir los valores estadounidenses. Si se acepta esta idea, por supuesto se pensaría que no tienen derecho a gobernar el país, incluso si ganan las elecciones. 

Entonces, ¿por qué las empresas de redes sociales como Facebook y Twitter no detienen estas conspiraciones? Bueno, no creen que sea su función monitorear el discurso de sus usuarios. Y, en cualquier caso, la gente tiene derecho a la libertad de expresión, ¿no es así?

Las empresas de redes sociales también han tardado en detener el uso de bots que impulsan teorías de conspiración. ¿El resultado? Un entorno que puede ser manipulado por conspiradores marginales. Y, como veremos a continuación, los principales actores políticos también están aprendiendo a beneficiarse de ello. 

El primer caso conocido de robots que interfieren en el proceso político ocurrió en Estados Unidos.

A finales de 2013, los ucranianos salieron a las calles para protestar contra el presidente prorruso del país, Viktor Yanukovich. El gobierno ruso, que veía a Yanukovich como un aliado de larga data, respondió con una ofensiva en línea. Miles de cuentas de redes sociales y bots operados por Rusia inundaron la web. Difundieron desinformación dirigida contra los manifestantes. Posteriormente se utilizaría una estrategia similar contra Estados Unidos en las elecciones presidenciales de 2016.

En aquel momento, muchos espectadores creyeron estar presenciando el nacimiento de la propaganda computacional. Pero si bien el gobierno ruso puede haber dominado el oscuro arte de la subversión digital, no fue el primer actor político en desplegar estas tácticas. 

En 2010, los votantes de Massachusetts acudieron a las urnas para elegir un nuevo senador. En la boleta figuraban dos nombres: Scott Brown, el candidato republicano, y Martha Coakley, la demócrata. 

Coakley era un claro favorito. Massachusetts había sido un bastión liberal durante décadas. Ted Kennedy, el senador demócrata cuya muerte repentina había desencadenado la contienda, había representado al estado desde 1962. Sin embargo, de repente, la popularidad de Brown comenzó a aumentar. 

Y fue entonces cuando los informáticos de la Wesleyan University notaron algo extraño. Cuentas de Twitter de apariencia sospechosa parecían estar involucradas en un ataque coordinado contra Coakley. ¿La acusación? Que el candidato demócrata era anticatólico, una acusación grave en un estado como Massachusetts. 

Estas cuentas no tenían datos biográficos ni seguidores entre sí, y solo publicaban sobre Coakley. La atacaron a intervalos regulares de 10 segundos. Estaba claro que se trataba de robots, pero ¿quién los conducía? 

Los investigadores finalmente rastrearon las cuentas hasta un grupo de activistas conservadores expertos en tecnología con sede en Ohio, un estado que está a kilómetros de Massachusetts. Pero las personas falsas creadas por esos activistas fueron diseñadas para parecerse a lugareños preocupados. Una mirada superficial te habría dicho que los ataques procedían de gente común y corriente en el propio estado de Coakley, no de robots impulsados ​​por políticos transfronterizos. 

Lo preocupante es que esta apuesta dio sus frutos. Los robots generaron tanto ruido que los principales medios como el National Catholic Register y el National Review se dieron cuenta de los rumores de que Coakley era anticatólico. Las historias que publicaron apuntaban a la actividad de los bots en Twitter. Los periodistas confundieron el trabajo de los robots con un genuino movimiento de base. Los medios que publicaron estas historias, sin saberlo, amplificaron un escándalo fabricado. Brown logró una sorpresa. Coakley perdió la carrera.

Los bots son tontos, pero eso no significa que no sean efectivos.

Cada vez que inicias sesión en Twitter y miras publicaciones populares, es probable que encuentres cuentas de bot. Están ocupados dando me gusta, compartiendo y comentando el contenido de otros usuarios. No es difícil detectar mensajes producidos por este tipo de software. Ya sea spam o virulencia política, los bots suelen “escribir” prosa confusa con una sintaxis torpe. Sus publicaciones están sincronizadas con precisión y vienen en ráfagas como máquinas.

En otras palabras, un bot promedio no es muy sofisticado. Entonces, ¿por qué tantos periodistas dicen que los bots han “conquistado la democracia”? Una respuesta es que es más fácil centrarse en los robots que plantear la pregunta más inquietante: ¿por qué es tan fácil piratear la democracia con herramientas tan simples? Volveremos a este último tema, pero primero, echemos un vistazo más de cerca a estos bots.

Tómate un momento para retroceder hasta la contienda presidencial de 2016 entre Hillary Clinton y Donald Trump. 

Hubo mucho revuelo en torno al papel que desempeñaron los bots en esas elecciones. Cambridge Analytica (ver La trama para desestabilizar el mundo: Mindf*ck: Cambridge Analytica) prometió lanzar todo un ejército de ellos. La compañía afirmó que sus robots inteligentes se dirigirían a grupos demográficos clave con puntos de conversación centrados en pro-Trump y anti-Clinton. Para lograr esto, Cambridge Analytica iba a aprovechar lo que se llama datos «psicográficos», es decir, perfiles detallados recopilados de las páginas de las redes sociales de los votantes.

Esta herramienta es extremadamente sofisticada. Pero toda la evidencia que tenemos sugiere que nunca se usó. Sin embargo, el bando de Trump llevó a cabo una campaña digital extraordinariamente efectiva. Y eso subraya el punto más importante aquí. Cuando se trata de propaganda computacional, no es necesario ser inteligente para ganar. 

Tómalo del Proyecto de Propaganda Computacional de la Universidad de Oxford. Su investigación ha visto repetirse la misma historia una y otra vez. Desde la ofensiva digital de Rusia contra Ucrania en 2013 hasta el referéndum del Brexit y la campaña presidencial de Trump en 2016, la gran mayoría de los bots que se han utilizado para difundir desinformación han sido muy simples. De hecho, todo lo que podían hacer era dar me gusta o compartir contenido, difundir enlaces y trollear a la gente. Estos robots no eran funcionalmente conversacionales. No poseían inteligencia artificial. 

Pero lo poco que pudieron hacer fue suficiente para abrumar a sus objetivos. Sus cascadas de temas de conversación repetitivos fueron tan prolíficas que los oponentes se vieron abrumados, incapaces de responder rápida o eficazmente.

Las empresas de redes sociales deberían autorregularse, pero no se responsabilizan del mal uso de sus herramientas.

Como hemos aprendido, no se necesita tecnología sofisticada para piratear la opinión pública. Ya sea que estés dirigiendo una campaña política o simplemente vendiendo noticias basura, todo lo que necesitas para abrumar a los algoritmos de las redes sociales son robots rudimentarios y titulares en los que se puede hacer clic. 

Esto nos lleva de nuevo a la inquietante pregunta que planteamos en el último apartado: ¿Por qué la democracia es tan vulnerable a simples herramientas de piratería? Una respuesta se puede encontrar en la forma en que se regulan las empresas de redes sociales. En la vida pública, estas corporaciones ocupan ahora la posición que alguna vez ocuparon los periódicos y las emisoras. Pero las reglas que rigen su trabajo son mucho más suaves. 

Tomemos como ejemplo la Comisión Federal Electoral. Este organismo regulador hace cumplir la ley sobre financiación de campañas políticas. En 2006, la Comisión decidió que las campañas en línea no eran su responsabilidad. Para ser justos, hicieron una excepción con los anuncios políticos. Pero el aumento de las noticias falsas virales y la desinformación digital impulsada por robots nunca estuvo en el radar de la Comisión Electoral de Estados Unidos. 

Entonces esa herramienta regulatoria ya no existe. ¿Hay algo más que el gobierno federal pueda utilizar? Bueno, está la Sección 230 de la Ley de Decencia en las Comunicaciones. Este estatuto, aprobado en 1995, otorga a las corporaciones de Internet el derecho de censurar el discurso dañino. También los exime de cualquier responsabilidad si se equivocan. 

Las empresas de redes sociales en Estados Unidos utilizan la Sección 230. Les ayuda a justificar decisiones de eliminar discursos de odio obvios o violentos, como las diatribas neonazis antisemitas. Pero las corporaciones también tratan esta ley como una licencia para ignorar contenidos políticos problemáticos como la desinformación. Tal como lo ven los ejecutivos de estas empresas, el estatuto confirma su propia opinión de que no les corresponde a ellos actuar como “árbitros de la verdad”. De hecho, la Sección 230 otorga a estas empresas el poder de arbitrar contenidos, pero rara vez lo utilizan. ¿Por qué? Una posible explicación es que entra en conflicto con el espíritu libertario de Silicon Valley. 

Pero incluso si empresas como Facebook y Twitter usaran este poder, limpiar sus plataformas sería una tarea desalentadora. Estos sitios crecieron extremadamente rápido y sin mucha consideración por el diseño ético. Para evitar un uso indebido en el futuro, habría que atornillar correcciones ad hoc en una estructura que no se creó para acomodarlas. Como lo expresó un empleado de Facebook en una entrevista con el autor, el gigante de las redes sociales es como un avión que se ha puesto en marcha a pesar de estar a medio construir.

El aprendizaje automático puede ayudarnos a lidiar con la desinformación digital, pero no es suficiente por sí solo.

Hagamos una última pregunta. ¿Podríamos simplemente prohibir los bots? En 2018, la senadora estadounidense Dianne Feinstein intentó hacer precisamente eso al proponer la “Ley de Responsabilidad y Divulgación de Bots”. 

Pero el proyecto de ley se estancó en el Congreso. Es difícil implementar medidas anti-bot sin violar también el derecho constitucional a la libertad de expresión. Y hay más. Se puede legislar contra los bots, pero eso no resolverá el otro problema de la desinformación: los humanos difunden noticias falsas con la misma eficacia que los bots. El “Ejército de 50 Cent” chino, por ejemplo, es una tropa coordinada de cuentas humanas responsables de inundar la web con propaganda progubernamental. Sus actividades no estarían cubiertas por las leyes anti-bot. 

Por lo tanto, podríamos estar mejor con un enfoque diferente. Quizás nuestro objetivo no deberían ser los propios robots; en cambio, tal vez deberíamos pensar más en la información y en cómo fluye. 

Imagina un bot que utiliza aprendizaje automático. Este programa aprendería de conversaciones con personas en las redes sociales. Mejoraría constantemente al hablar con humanos reales. 

Ahora imagine que este programa comenzó a conversar con alguien y lo convenció de compartir un artículo que desdeñaba el calentamiento global. Esa conversación por sí sola generaría muchos datos. Luego, el robot analizaría los datos para determinar qué tácticas funcionaron y cuáles no. Y este análisis informaría el comportamiento futuro del robot. 

Bastante pesadilla, ¿verdad? Claro, pero esta no es una calle de sentido único. El aprendizaje automático también se puede implementar para combatir la desinformación digital. Tómelo de los investigadores del Observatorio de Redes Sociales de la Universidad de Indiana que construyeron el «Botómetro».

El Botómetro utiliza aprendizaje automático para clasificar las cuentas de Twitter como humanas o bot. Para ello, analiza más de mil características de una cuenta determinada. El software analiza a sus amigos, patrón de actividad, idioma y tono de publicaciones. Al final de este análisis, el Botómetro proporciona una «puntuación del bot» general. Les dice a los usuarios si están interactuando con un humano o un robot, destacando inmediatamente una de las fuentes más comunes de desinformación. 

Pero los algoritmos de aprendizaje automático como el Botómetro probablemente no sean suficientes por sí solos. La mayoría de los expertos predicen el surgimiento de modelos regulatorios híbridos –o “cyborg”. Por ejemplo, los humanos podrían verificar historias y se podrían emplear sistemas automatizados para identificar rápidamente a los robots que difunden noticias falsas. 

Algunas tareas, al parecer, son demasiado importantes para confiarlas a nuestros señores robots.