Tools and Weapons de Brad Smith y Carol Ann Browne explora la idea de que la tecnología puede ser un poderoso instrumento para mejorar la vida de las personas, pero también tiene el potencial de causar daño si se utiliza de forma irresponsable.
El libro examina los desafíos morales a los que se enfrenta la industria de la tecnología, incluido el uso de datos personales, la censura en línea, la competencia desleal y la responsabilidad corporativa.
Los autores argumentan que las empresas de tecnología tienen una responsabilidad moral de hacer frente a estos desafíos y sugieren que las compañías deben trabajar con los gobiernos, los consumidores y las comunidades para crear reglas y estándares éticos para la tecnología.
Qué aporta de diferente o novedoso el libro Tools and Weapons?
Aporta varios elementos diferentes o novedosos a la discusión sobre la ética y las implicaciones morales de la tecnología:
- Un enfoque de «dentro»: Los autores trabajan en Microsoft, lo que les da una perspectiva única de la industria de la tecnología y las dificultades que enfrentan las empresas para hacer frente a los desafíos ético-tecnológicos.
- Una mirada global: El libro no se limita a la industria de la tecnología en Estados Unidos, sino que analiza las implicaciones globales de las tecnologías emergentes, tales como la automatización, la inteligencia artificial y la computación cuántica.
- Un enfoque interdisciplinario: El libro incorpora perspectivas de expertos en filosofía, política, sociología y otras disciplinas para ofrecer una visión integral de los desafíos éticos de la tecnología.
Principales ideas de Tools and Weapons
- Los datos siempre han sido una parte integral de la civilización humana.
- Edward Snowden reavivó la vieja cuestión de la privacidad para el siglo XXI.
- Los ataques terroristas obligaron a las empresas de tecnología a aclarar sus políticas de privacidad.
- Las diferencias culturales e históricas afectan la forma en que los diferentes países manejan la cuestión de la privacidad de los datos.
- El mundo aún tiene que darse cuenta de todas las implicaciones de la ciberguerra.
- Las plataformas de redes sociales se han utilizado para sembrar discordia en las democracias modernas de una manera que refleja la historia.
- La IA ha planteado algunos problemas complejos.
- Las nuevas tecnologías se pueden utilizar de manera constructiva, pero se requiere un pensamiento conjunto.
Los datos siempre han sido una parte integral de la civilización humana.
Siempre hemos confiado en los datos. Todas las civilizaciones humanas han transmitido información de una generación a otra. Sin poder registrar nuestros métodos, no habríamos podido avanzar.
Sin los pergaminos de la antigüedad, nuestras grandes técnicas arquitectónicas no se habrían desarrollado a lo largo de los siglos, las soluciones matemáticas no habrían viajado de una mente a otra y las estrategias militares no habrían llegado desde los campos de batalla de César a los de Napoleón.
Luego, cuando Johannes Gutenberg inventó la imprenta, se produjo una especie de explosión de datos. A medida que más personas obtuvieron acceso a los logros de la humanidad a través de la palabra impresa, comenzó una revolución democrática. Esto tuvo consecuencias trascendentales para la religión, la política y la vida cultural.
Posteriormente, la aceleración del comercio en los siglos XIX y XX significó un aumento exponencial de la cantidad de datos en el mundo. A mediados del siglo XX, en todas las organizaciones había archivadores repletos de datos, para todos los fines imaginables.
Y hoy, gracias a la digitalización, almacenamos una cantidad de datos inconcebible en cualquier otro momento de la historia. A esta arquitectura digital la llamamos nube.
Y aunque esta palabra nos recuerda un cúmulo suave y esponjoso flotando sobre nosotros, la realidad se parece más a una fortaleza. La nube tiene una realidad física muy definida. Cada vez que buscas algo en tu dispositivo móvil, estás extrayendo información de un centro de datos gigantesco.
Estas son maravillas modernas que casi nadie llega a ver. Tomemos como ejemplo el de Quincy, una pequeña ciudad a unas 150 millas al este de Seattle. Aquí hay dos campus con más de 20 edificios enormes y anodinos. Cada edificio tiene el tamaño de un campo de fútbol y puede albergar cómodamente dos grandes aviones comerciales.
En el corazón de cada uno de estos edificios hay un centro de computación, donde miles de servidores están alineados en largos bastidores. En algún lugar, en uno de estos edificios, cada uno de nosotros tendrá su propio archivo digital. En una de estas salas cavernosas y bulliciosas, están nuestras fotografías, correos electrónicos privados y detalles de cuentas bancarias.
Aún más notable es el hecho de que cada centro de datos tiene un doble exacto, con otro conjunto de edificios, como el de Quincy, en otro lugar. De esta manera, si se produce un desastre natural o provocado por el hombre, nuestros datos (nuestros recuerdos, mensajes, detalles privados) se mantendrán seguros.
Edward Snowden reavivó la vieja cuestión de la privacidad para el siglo XXI.
El 6 de junio de 2013, el jefe del equipo de comunicaciones públicas de Microsoft, Dominic Carr, recibió un correo electrónico cuyo contenido lo conmocionaría a él y luego al mundo.
El correo electrónico, de un periodista de The Guardian, afirmaba que la Agencia de Seguridad Nacional (NSA) del gobierno de Estados Unidos había estado accediendo a datos privados de usuarios, registros telefónicos y otra información perteneciente a millones de personas, incluidos líderes extranjeros de todo el mundo.
La fuente de esta historia fue Edward Snowden, un administrador de sistemas informáticos de 29 años que trabaja en el Centro de Operaciones de Amenazas de la NSA en Hawaii. Descargó más de 1,5 millones de documentos clasificados y luego huyó a Hong Kong antes de contactar al Guardian y al Washington Post con su historia.
Lo que reveló fue que la NSA, en alianza con el gobierno británico, había estado pirateando cables submarinos de fibra óptica para copiar datos de las redes de Yahoo y Google. Microsoft, cuya propia información de usuario se vio comprometida, quedó atónita.
En ese momento, las revelaciones de Snowden provocaron un choque entre el pueblo y su gobierno que tenía raíces profundas. La cuestión de cuánta privacidad debería tener un ciudadano privado tiene una larga historia, y Snowden fue el último individuo en plantearla.
Uno de los primeros fue John Wilkes, un diputado británico del siglo XVIII. Era conocido por escribir polémicas críticas sobre la monarquía y el primer ministro de la época. Finalmente, una carta particularmente provocativa llevó al gobierno a emitir una orden de arresto contra él, permitiéndoles registrar cualquier casa sin previo aviso. La ley en la época de Wilkes ofrecía poca protección contra la invasión: los soldados del rey podían irrumpir en cualquier lugar sin sospecha razonable. Entonces, se derribaron muchas puertas, se saquearon baúles y se tomaron posesiones privadas como prueba. Arrestaron a 49 personas, casi todas inocentes, en su búsqueda de Wilkes.
Wilkes finalmente fue arrestado, pero decidió llevar su caso –y la forma en que lo persiguieron– en los tribunales. Para sorpresa del establishment, ganó.
Como parte de su caso, los tribunales dictaminaron que las autoridades deben tener una causa más probable para respaldar una búsqueda. La prensa británica elogió el fallo y declaró que “la casa de cada inglés es su castillo y no está sujeta a ser registrada”.
En muchos sentidos, el caso de Wilkes marcó el nacimiento de los derechos de privacidad modernos. Fue una cuestión que reavivó Edward Snowden en 2013, cuando volvió a revelar la antigua tendencia de los gobiernos a invadir la vida privada de sus ciudadanos.
Los ataques terroristas obligaron a las empresas de tecnología a aclarar sus políticas de privacidad.
A medida que avanzaba el siglo XXI, los ataques terroristas se convirtieron en un hecho preocupantemente frecuente.
Al principio, las implicaciones para las nuevas tecnologías digitales no eran obvias. El 11 de septiembre, por ejemplo, tuvo lugar en un mundo que aún no estaba enganchado a las redes sociales, un mundo de máquinas de fax en lugar de teléfonos inteligentes.
Pero un incidente más reciente, como el ataque a Charlie Hebdo en 2015, reveló una nueva relación entre tecnología y terrorismo. El presidente de Microsoft, Brad Smith, estaba en su oficina en Redmond, Seattle, cuando vio por primera vez la noticia desde París. Dos hermanos, afiliados a Al Qaeda, entraron en la sede de la revista satírica Charlie Hebdo y mataron a tiros a 12 personas. Como muchas personas en todo el mundo, la noticia le perturbó profundamente. Sin embargo, no previó que el ataque involucraría también a Microsoft.
Muy temprano al día siguiente, el FBI, en comunicación con las autoridades francesas, solicitó acceso a los detalles de la cuenta de correo electrónico de los terroristas, para poder rastrearlos. En 45 minutos, el equipo de Smith en Microsoft encontró los detalles de la cuenta y los entregó al FBI. Al día siguiente, los dos atacantes fueron localizados mediante diversas fuentes y direcciones IP y murieron en un tiroteo con la policía.
Un caso como el ataque a Charlie Hebdo presentó un caso claro y urgente para otorgar a las fuerzas de seguridad la información de usuario que necesitaban. Sin embargo, como habían demostrado las revelaciones de Edward Snowden, había muchos particulares y empresas que no representaban una amenaza inmediata, pero a cuyos datos se había accedido. Y después de cada nuevo ataque terrorista, la red de vigilancia estatal se hizo más estrecha: los gobiernos comenzaron a exigir más datos sobre ciudadanos que no tenían nada que ver con el terrorismo.
En Estados Unidos, el gobierno siguió pidiendo a las empresas de tecnología los detalles de las personas que estaban investigando. Mientras hacían esto, implementaron órdenes de silencio, leyes que prohibían a las empresas de tecnología informar a sus clientes sobre lo que estaba sucediendo.
Fueron necesarias continuas demandas de datos por parte del gobierno de EE. UU. para que Microsoft tomara medidas afirmativas. Dramáticamente, decidieron demandar al gobierno.
En la Corte Suprema, los jueces determinaron que Microsoft tenía un caso contra el gobierno, según el cual, según la Primera Enmienda, tenía derecho a informar a los clientes que sus datos estaban siendo utilizados. Esta victoria llevó al Departamento de Justicia a sentarse con las empresas de tecnología y discutir el futuro de manera constructiva. Decidieron que las órdenes de silencio tendrían límites.
Este fue un primer paso crucial hacia el sentido común: el equilibrio entre responsabilidad y privacidad.
Las diferencias culturales e históricas afectan la forma en que los diferentes países manejan la cuestión de la privacidad de los datos.
Muchas de las innovaciones tecnológicas del siglo XXI se desarrollaron en Silicon Valley, California. Eso significa que fueron diseñados con una cierta perspectiva cultural en un país que da por sentada la libertad. Pero ¿qué sucede cuando esto choca con diferentes perspectivas?
Un ejemplo lo ilustra bien.
Cuando estuvieron en Berlín para una serie de reuniones en 2018, los autores fueron llevados a una antigua prisión de Alemania Oriental por sus colegas alemanes de Microsoft. Allí conocieron a un ex prisionero de 75 años, Hans-Jochen Scheidler, que había estado encerrado en el lúgubre y brutal edificio durante muchos meses por entregar panfletos criticando al régimen socialista. Como muchos disidentes, había sido atrapado por la Stasi, la policía secreta.
Fue aquí donde los colegas alemanes del autor señalaron una correlación entre el pasado y el presente. La Stasi había mantenido una enorme reserva de datos sobre alemanes orientales como Scheidler, recopilados por una enorme red de espías e informantes ciudadanos. Era una de las mayores colecciones de información sobre la población de un país antes de la era digital.
Los colegas alemanes señalaron que esta era la razón por la que Alemania era mucho más cautelosa que Estados Unidos en cuanto a la recopilación masiva de datos. Por eso, como nación, consideraron las cuestiones éticas antes que los simples intereses comerciales.
Esto dejó una profunda impresión en el presidente de Microsoft. Reveló cómo el almacenamiento internacional de datos traería complicaciones internacionales. Y significó que Microsoft emprendería un análisis cuidadoso de sus políticas de datos. Tendrían que revisar dónde decidieron permitir que se construyeran centros de almacenamiento de datos.
A los países con antecedentes preocupantes en materia de derechos humanos, por ejemplo, no se les permitiría acceder a los datos de sus ciudadanos en absoluto, mientras que a aquellos con antecedentes menos autocráticos, pero aún cuestionables, se les permitiría almacenar datos secundarios (los relacionados con empresas, por ejemplo).
Los entornos ideales para las grandes empresas tecnológicas son países con circunstancias políticas estables y una legislación sólida en materia de derechos humanos. Durante muchos años, esta ha sido la República de Irlanda, que, con su lugar en la UE, que acoge políticas migratorias e incentivos fiscales, ha sido un gran atractivo para las grandes tecnologías desde la década de 1980.
Sin embargo, como sabemos, el camino hacia el totalitarismo puede ser corto, por lo que la estabilidad actual no es garantía para el futuro. Éstas son preguntas con las que el mundo tendrá que lidiar durante las próximas décadas. Debemos esperar, entonces, que las empresas tecnológicas estén preparadas.
El mundo aún tiene que darse cuenta de todas las implicaciones de la ciberguerra.
El 12 de mayo de 2017, Patrick Ward, propietario de una heladería, fue trasladado en silla de ruedas a una sala de preparación quirúrgica en el hospital St Bartholomew’s, en el centro de Londres. Había viajado tres horas hasta la capital desde un pequeño pueblo del sur de Inglaterra para someterse a la crucial cirugía cardíaca que había esperado dos años para someterse. Yacía en una camilla, conectado a monitores, con el pecho afeitado. Apareció un asistente del cirujano y le dijo que sólo tendría que esperar unos minutos más.
Él esperó. Pasaron las horas. Luego, un médico abrió de golpe las puertas de la sala de preparación y le informó que no podría someterse a la cirugía porque todas las computadoras del hospital no funcionaban.
A miles de kilómetros de distancia, unos piratas informáticos lanzaron un ciberataque que inutilizó todo el sistema y paralizó un tercio del Servicio Nacional de Salud.
El ataque arrasó el Reino Unido y España antes de extenderse al resto del mundo, afectando a unos trescientos mil ordenadores en más de 150 países. El malware congeló los sistemas operativos Windows y exigió un rescate de 300 dólares por una contraseña que desbloquearía la computadora nuevamente. Acertadamente, el ataque se conoció como “WannaCry” después de que hizo llorar a muchos usuarios de computadoras.
Muy pronto, se hizo evidente que el malware utilizado había sido desarrollado por el gobierno de los Estados Unidos, pero luego fue robado y filtrado en la web oscura, posiblemente a un actor estatal hostil. De hecho, se sospechaba fuertemente que Corea del Norte había lanzado el ataque en represalia contra uno anterior de Estados Unidos.
El hecho de que el malware fuera tan fácilmente robado alarmó a las corporaciones tecnológicas como Microsoft, quienes afirmaron que era como si el gobierno estadounidense hubiera sido lo suficientemente descuidado como para dejar un alijo de misiles Tomahawk por ahí.
Y esto no fue una exageración. Aunque el malware fue contrarrestado rápidamente y personas como Patrick Ward pudieron realizar sus operaciones, las posibles consecuencias de ataques cibernéticos más graves eran alarmantes.
Imaginemos un futuro en el que el malware sea mucho más difícil de descifrar, en el que los vehículos automáticos puedan ser pirateados desde lejos y salirse de control, en el que se puedan cerrar los bancos y en el que se puedan desactivar los sistemas de soporte vital de los pacientes. Si no estamos alerta, este es un futuro que veremos muy pronto.
Las plataformas de redes sociales se han utilizado para sembrar discordia en las democracias modernas de una manera que refleja la historia.
En sus inicios, Internet parecía una buena manera de conectar el mundo y acercarnos, pero en los últimos años hemos visto su lado oscuro.
Tomemos como ejemplo las divisivas elecciones estadounidenses de 2016, en las que se utilizaron plataformas de redes sociales para difundir “noticias falsas”.
Trabajando desde San Petersburgo, agentes rusos de la Agencia de Investigación de Internet (IRA) crearon noticias falsas sobre Hillary Clinton, alojadas en sitios web totalmente falsos. Estos se extendieron enormemente por Internet, “sembrados” por unos pocos nodos, sitios web específicos que llegarían a diferentes tipos de usuarios de Internet. Estas historias trataban sobre la supuesta mala salud de Clinton, su supuesta conexión con redes de pedófilos y otras mentiras igualmente escabrosas.
En las redes sociales, estas historias se abrieron paso en ciertas comunidades en línea, mientras que otras comunidades permanecieron ajenas a ellas. Así es como se forman las burbujas en línea, en las que la gente se polariza cada vez más y, a veces, cree cosas que no tienen ningún fundamento real.
Una de las consecuencias más extremas de este tipo de manipulación fue el intento exitoso del IRA de organizar una protesta contra Trump y una contraprotesta a favor de Trump en Houston, Texas, en 2016. American le gritó a American, ambos, sin saberlo, se irritaron y enviaron enfurecido por alguien sentado frente a una computadora en San Petersburgo.
Aunque esto pueda parecer una nueva amenaza, los actores extranjeros siempre han tenido la capacidad de crear discordia en otras naciones. Por ejemplo, cuando Gran Bretaña y Francia entraron en guerra en 1793, un embajador francés llamado Edmond Charles Genêt llegó a Estados Unidos apenas unas semanas después de que el presidente George Washington declarara la neutralidad de su nación. Genêt tenía la misión de conseguir que la joven república apoyara a Francia e inmediatamente provocó tensiones en el gabinete de Washington. Al poco tiempo, el embajador francés pidió apoyo directamente al público estadounidense, avivando una amarga división entre la población. De repente, el debate político se acaloró, estallaron peleas callejeras y se destruyeron amistades.
Finalmente, el gabinete dividido de Washington se reunió con un objetivo: enviar a Genêt de regreso a Francia antes de que pudiera causar más problemas. A pesar de su desacuerdo sobre la guerra franco-británica, resolvieron que no se podía permitir que ninguna influencia externa causara tal división nuevamente. Este incidente provocó que Washington dijera en su discurso de despedida: “Un pueblo libre debe estar constantemente despierto, ya que la historia y la experiencia prueban que la influencia extranjera es uno de los enemigos más funestos del gobierno republicano”.
A la luz del intento del Kremlin de interferir en las elecciones estadounidenses de 2016, estas palabras tienen un peso contemporáneo.
La IA ha planteado algunos problemas complejos.
Inteligencia artificial: ¿qué es lo primero que me viene a la mente? ¿La partitura de techno oscuro y la mirada de escáner de The Terminator ? ¿R2D2? ¿El romance de IA en la película Her? La verdad es que ya estamos rodeados de IA: su teléfono inteligente aprende sobre usted a medida que lo usa, por ejemplo.
Entonces, ¿qué debería preocuparnos hoy sobre la IA?
Existe un temor generalizado de que el desarrollo de la IA dé lugar a señores todopoderosos de las máquinas. Y ahora que la IA está conectada a la nube (el mayor almacén de datos que jamás haya existido) existe la ansiedad de que el aprendizaje automático se acelere hasta tal punto que surja una superinteligencia. La fusión de todos estos datos se llamaría Singularidad y reproduciría una IA cada vez más sofisticada.
Sin embargo, hasta ahora, esto es una fantasía de ciencia ficción. Hay preocupaciones reales con la IA en el aquí y ahora, y dicen mucho más sobre los seres humanos que construyen las computadoras que sobre la tecnología en sí.
De hecho, la preocupación central es el sesgo presente en la IA. Por ejemplo, en una conferencia de tecnología en la Casa Blanca en 2016, toda la atención se centró en un artículo de la revista ProPublica titulado “Machine Bias”. El subtítulo del artículo explicaba la preocupación: “Existe software utilizado en todo el país para predecir futuros delincuentes. Y tiene prejuicios contra los negros”.
Este sesgo existía debido al problema de los conjuntos de datos no representativos. Tomemos como ejemplo la tecnología de reconocimiento facial. Un conjunto de datos de reconocimiento facial podría incluir suficientes fotografías de hombres blancos para predecir, con un alto índice de precisión, los rostros de los hombres blancos. Pero si hay grupos más pequeños de mujeres o personas de color, es probable que se cometan más errores con estos datos demográficos.
Una conclusión similar al artículo de ProPublica se encontró en una investigación realizada por la poeta y académica Joy Buolamwini y el investigador de la Universidad de Stanford Timnit Gebru. En su estudio sobre la tecnología de reconocimiento facial, encontraron peores tasas de precisión para los políticos negros en África en comparación con los políticos blancos en Europa.
Fundamentalmente, su estudio descubrió otra dimensión de sesgo. Esto implicaba los equipos que construyen nuevas tecnologías. Descubrieron que, a menos que los equipos tecnológicos reflejaran la diversidad del mundo, era muy probable que sus inventos contuvieran puntos ciegos perjudiciales.
Es más, descubrieron que un grupo más diverso de investigadores e ingenieros tenía más probabilidades de detectar problemas en el diseño, ya que el sesgo era algo que los afectaba personalmente.
Las nuevas tecnologías se pueden utilizar de manera constructiva, pero se requiere un pensamiento conjunto.
Una herramienta puede usarse para bien o para mal. Con una escoba puedes barrer el suelo de la cocina o aplastar a alguien en la cabeza. Lo mismo se aplica a la tecnología de la información.
Considera estas innovaciones recientes:
En Princeton College, Marina Rustow, profesora de estudios de Oriente Próximo, está trabajando en decodificar un tesoro de cuatrocientos mil documentos de la sinagoga Ben Ezra de El Cairo. Es el mayor depósito registrado de manuscritos judíos en el mundo. Por supuesto, estudiar estos documentos es un desafío formidable: muchos de ellos están fragmentados o dispersos en archivos de todo el mundo. Esto hace que sea físicamente imposible unirlos.
Sin embargo, utilizando IA avanzada, el equipo de Rustow ha podido unir fragmentos digitales que están a miles de kilómetros de distancia con una velocidad y precisión que ningún ser humano podría lograr. Esto ha permitido que Rustow haya podido comprender una parte de la Edad Media hasta entonces poco conocida, durante la cual judíos y musulmanes convivían pacíficamente.
De manera similar, la IA se puede utilizar para preservar el mundo vivo. El equipo AI for Earth de Microsoft ha desarrollado un programa que ayuda a los guardaparques de Uganda a protegerse de los cazadores furtivos. Mediante el uso de un algoritmo, los guardas pueden predecir el comportamiento de la caza furtiva, lo que les ayuda a identificar de forma proactiva los puntos calientes de la caza furtiva.
Éstas son sólo dos formas en que se puede aprovechar la tecnología de forma beneficiosa. Sin embargo, si queremos que este sea el objetivo en el futuro, las grandes empresas tecnológicas y los gobiernos deben colaborar más.
En primer lugar, las empresas tecnológicas ya no pueden considerarse irresponsables ante el mundo. Es necesario que haya una consideración más amplia de los objetivos, más allá de los intereses puramente comerciales. En lugar de limitarse a competir con otras empresas, los jefes de las grandes empresas tecnológicas –como personas que ejercen un poder enorme– necesitan pensar en conjunto en torno a sus obligaciones morales.
En segundo lugar, los gobiernos deben comprender y regular la tecnología para que este mundo se convierta en realidad. Los funcionarios gubernamentales están obligados a informarse sobre la tecnología emergente. Ya no está permitido que los funcionarios ignoren algo tan transformador, como el senador estadounidense que describen los autores, que no sabía que podía leer el Washington Post en línea. Y en términos de regulación, nadie consideraría correcto que la industria de la aviación no estuviera regulada, entonces, ¿por qué debería quedar sin control algo tan riesgoso como la tecnología digital?
Así pues, éste es el perfil del futuro: un mundo en el que dominemos la tecnología con fines positivos, o uno en el que ella nos domine a nosotros. Necesitamos elegir rápido.
Foto de César Guillotel