La IA está creciendo rápidamente. Su evolución está generando un gran debate sobre su seguridad y potencial riesgo. Su adopción masiva, en una amplia gama de aplicaciones, incluyendo automatización, asistencia médica y transporte, implica riesgos. Surge con fuerza la necesidad de un enfoque de la IA centrado en la seguridad puede ayudar a mitigar estos riesgos.
En este contexto es interesante el libro Human Compatible: AI and the Problem of Control de Stuart Russell. El autor presenta la idea central de que la inteligencia artificial debe ser diseñada para ser compatible con los valores humanos. Se basa en la idea de que, si la IA no se desarrolla de forma que sea compatible con los valores humanos, podría desarrollarse de manera que no sea útil para los seres humanos o incluso resultar peligrosa para ellos. Russell argumenta que los desarrolladores de IA deben adoptar un enfoque basado en la seguridad, lo que significa que la IA debe ser diseñada para ser segura por diseño, con unos objetivos que sean seguros de cumplir, y para poder ser monitoreada e interrumpida por los humanos.
Principales ideas de Human Compatible
- Necesitamos varios avances en software antes de que la IA supere la inteligencia humana.
- Hemos estado operando bajo una concepción equivocada de la inteligencia.
- En lugar de limitarnos a máquinas inteligentes, deberíamos diseñar máquinas beneficiosas.
- Podemos esperar que la IA nos beneficie de muchas maneras.
- La IA hará que la vida sea menos segura para todos.
- La automatización masiva liberará el potencial de la humanidad o lo debilitará.
Necesitamos varios avances en software antes de que la IA supere la inteligencia humana.
La computadora más inteligente del mundo hoy en día es la Summit Machine, ubicada en el Laboratorio Nacional de Oak Ridge en Estados Unidos. En comparación con la primera computadora comercial del mundo, la Ferranti Mark 1, la Summit Machine es 1.000 billones de veces más rápida y tiene 250 billones de veces más memoria. Son muchos ceros.
En términos de potencia informática bruta, Summit Machine en realidad supera ligeramente al cerebro humano, aunque requiere un almacén lleno de hardware y un millón de veces más energía.
Aun así, es impresionante. Pero ¿podemos decir que las supercomputadoras actuales (incluida la Summit Machine) son tan poderosas como el cerebro humano? La respuesta es decididamente no.
Claro, estas computadoras tienen un hardware impresionante, que permite que sus algoritmos funcionen más rápido y procesen más información. Pero la inteligencia implica mucho más que solo la velocidad de procesamiento.
El verdadero problema al diseñar inteligencia está en el software. Por el momento, todavía necesitamos varios avances conceptuales importantes en el software de IA antes de que seamos testigos de algo parecido a la inteligencia artificial a nivel humano.
El avance más importante que necesitamos es la comprensión del lenguaje. La mayoría de las IA inteligentes de reconocimiento de voz actuales se basan en respuestas predeterminadas y tienen problemas para interpretar los matices del significado. Es por eso que hay historias de asistentes personales de teléfonos inteligentes que respondieron a la solicitud «llámame una ambulancia» con «ok, de ahora en adelante, te llamaré Ann Ambulance «. Una IA genuinamente inteligente necesitará interpretar el significado basándose no sólo en las palabras dichas sino también en su contexto y tono.
Nunca podremos decir realmente cuándo se producirán avances conceptuales. Pero una cosa es segura: no debemos subestimar el ingenio humano.
Considere el siguiente ejemplo. En 1933, el distinguido físico nuclear Ernest Rutherford anunció en un discurso formal que aprovechar la energía nuclear era imposible. Al día siguiente, el físico húngaro Leó Szilárd describió la reacción nuclear en cadena inducida por neutrones, que esencialmente resolvió el problema.
Todavía no sabemos si la superinteligencia (inteligencia más allá de las capacidades humanas) surgirá pronto, más tarde o no surgirá en absoluto. Pero sigue siendo prudente tomar precauciones, tal como se hizo al diseñar tecnología nuclear.
Hemos estado operando bajo una concepción equivocada de la inteligencia.
Si no tratamos a la IA con precaución, podemos terminar como el gorila.
Basta considerar que, gracias a la pérdida de hábitat provocada por el hombre, todas las especies de gorilas hoy en día están en peligro crítico de extinción. Claro, en las últimas décadas los esfuerzos de conservación han logrado sacar a algunas especies del borde de la extinción. Pero, ya sea que el número de gorilas disminuya o prospere, su destino depende en gran medida de los caprichos de los humanos.
La preocupación es que en un mundo controlado por una IA superinteligente, estaríamos en la misma posición que los gorilas. ¿Pueden los humanos mantener la supremacía y la autonomía en un mundo en el que ocupan el segundo lugar detrás de seres más inteligentes?
Afortunadamente, hay una diferencia importante entre nosotros y los gorilas: somos nosotros quienes diseñamos esta nueva inteligencia. Es fundamental que tengamos mucho cuidado al diseñar la IA inteligente si queremos garantizar que permanezcan bajo nuestro control. Pero tenemos un problema crucial.
En el paradigma actual del diseño de IA, la inteligencia de una IA se mide simplemente por qué tan bien puede lograr un objetivo predeterminado. El gran defecto de este enfoque es que es extremadamente difícil especificar objetivos que hagan que una IA se comporte como queremos. Prácticamente cualquier objetivo que nos propongamos puede producir un comportamiento impredecible y potencialmente muy dañino.
Este problema se conoce como el problema del Rey Midas, llamado así por el legendario rey que deseaba que todo lo que tocara se convirtiera en oro. Lo que no se dio cuenta fue que esto incluía los alimentos que comía e incluso a los miembros de su propia familia. Este antiguo cuento es un ejemplo perfecto de cómo un objetivo mal especificado puede acabar provocando más conflictos que beneficios.
El peligro de un comportamiento impredecible aumenta a medida que la IA se vuelve más inteligente y ejerce mayor poder. Las consecuencias podrían incluso presentar una amenaza existencial para la humanidad. Por ejemplo, podríamos pedirle a una IA superinteligente que encuentre una cura para el cáncer, solo para que comience a causar cáncer a las personas para poder hacer experimentos con ellas.
Quizás se pregunte: si no estamos contentos con lo que hace una IA, ¿por qué no apagamos esa maldita cosa?
Desafortunadamente, para la gran mayoría de los objetivos, una IA tendría un incentivo para no permitir que la apaguen. Esto se debe a que apagarlo amenazaría su objetivo. Incluso objetivos aparentemente sencillos como «preparar un café» llevarían a una IA a evitar que la apaguen.
En lugar de limitarnos a máquinas inteligentes, deberíamos diseñar máquinas beneficiosas.
Hasta ahora, el mantra entre los investigadores de IA ha sido: cuanto más inteligente, mejor.
Como acabamos de ver, a una IA a la que se le asigna un objetivo descuidado puede terminar incurriendo en un comportamiento muy dañino. Y no es mucho consuelo si la IA adopta un comportamiento dañino de manera inteligente; en todo caso, lo empeora.
Lo que necesitamos es un mantra diferente. Uno que apunta a construir una IA que se mantenga en sintonía con los objetivos humanos, pase lo que pase. El nuevo mantra debería ser: cuanto más beneficioso, mejor.
Hay tres principios que los diseñadores deben seguir si quieren crear una IA beneficiosa.
El primer principio es que la IA sólo debe tener un objetivo, que es la máxima satisfacción de las preferencias humanas. El autor llama a esto el principio de altruismo. Garantiza que una IA siempre antepondrá las preferencias humanas a las suyas propias.
El segundo principio es que la IA inicialmente no debe estar segura de cuáles son esas preferencias. Este es el principio de humildad. La idea aquí es que una IA incierta nunca se fijará en un solo objetivo, sino que cambiará su enfoque a medida que llegue nueva información.
Los sistemas de IA inciertos serían más cautelosos y propensos a ceder ante los humanos. Al ser incierta, una IA buscará continuamente información esclarecedora. Esto significa que a menudo pedirán permiso, solicitarán comentarios e incluso podrán realizar pruebas para probar las reacciones humanas.
Y, lo que es más importante, la IA incierta permitirá que la apaguen. Esto se debe a que interpretaría que un humano que intenta apagarlo tiene la preferencia de que se apague.
El tercer y último principio para lograr una IA beneficiosa es que su fuente última de información sobre las preferencias humanas debe ser el comportamiento humano. A esto se le llama principio de aprendizaje. Garantiza que una IA siempre permanecerá en una relación directa y sostenida de aprendizaje con los humanos. Significa que una IA será más útil para una persona con el tiempo a medida que la conozca mejor.
Estos tres principios representan una comprensión alternativa de lo que implica la inteligencia genuina: la capacidad de examinar y redefinir los propios objetivos a la luz de nueva información. Una IA con este tipo de inteligencia estaría mucho más cerca de la inteligencia humana, ya que también somos capaces de examinar y alterar los objetivos por los que nos esforzamos.
Y, si la IA pudiera cambiar sus objetivos a la luz de las preferencias humanas, tendríamos la base para una relación radicalmente nueva entre humanos y máquinas: una en la que los objetivos de las máquinas y los humanos serían esencialmente los mismos.
Podemos esperar que la IA nos beneficie de muchas maneras.
Se ha informado que algunos asistentes virtuales del hogar, incapaces de diferenciar quién les habla, han estado obedeciendo órdenes de comprar productos que han escuchado en la televisión. Claramente, los asistentes virtuales aún no son muy inteligentes.
Pero esto va a cambiar.
La tecnología de los asistentes virtuales está mejorando a pasos agigantados, gracias en parte a la enorme inversión del sector privado. La razón de tanto interés por esta tecnología es que la gama de tareas que pueden realizar los asistentes virtuales es aparentemente ilimitada. No estamos hablando sólo de hacer listas de compras y encender el estéreo, estamos hablando de realizar el trabajo de especialistas altamente calificados.
Los abogados virtuales, por ejemplo, ya están superando ampliamente a los abogados reales en cuanto a obtener información jurídica rápidamente. De manera similar, los médicos virtuales están superando a los médicos humanos a la hora de proporcionar diagnósticos correctos de enfermedades.
Con el tiempo, es posible que no se necesite ningún especialista. En lugar de eso, todos tendremos nuestro propio médico, abogado, maestro, asesor financiero y secretaria personal todo en uno en nuestros bolsillos, de guardia, las 24 horas del día. Gracias a los asistentes virtuales, estos servicios vitales se democratizarán (ya no serán accesibles sólo para los ricos), elevando así el nivel de vida de todos.
El beneficio de la IA para la investigación científica también será colosal. Una IA con habilidades incluso básicas de comprensión lectora sería capaz de leer todo lo que la raza humana haya escrito entre el desayuno y la hora del almuerzo. En comparación, se necesitarían 200.000 personas leyendo a tiempo completo para mantenerse al día con el nivel actual de publicaciones en el mundo.
Con la ayuda de la IA superinteligente, los científicos ya no tendrán que revisar inmensas cantidades de investigaciones publicadas, ya que la IA podrá extraer y analizar los datos relevantes para ellos.
La IA superinteligente también tendrá aplicaciones globales. Al recopilar información de cámaras de vigilancia y satélites, deberíamos esperar que se utilice la IA para crear una base de datos con capacidad de búsqueda en todo el mundo en tiempo real. A partir de estos datos, podríamos producir modelos de sistemas globales, como la actividad económica y los cambios ambientales. Estos modelos harían factible diseñar intervenciones efectivas en estos sistemas, ayudándonos, por ejemplo, a mitigar los efectos del cambio climático.
Sin embargo, el potencial de violación de la privacidad que implica un sistema de monitoreo global es obvio. Esto nos lleva a nuestro próximo parpadeo, que aborda el lado más oscuro de la IA para el que todos debemos prepararnos.
La IA hará que la vida sea menos segura para todos.
La Stasi de la antigua Alemania Oriental fue una de las agencias de inteligencia más eficaces y represivas que jamás haya existido. Mantuvieron archivos sobre la mayoría de los hogares de Alemania del Este, escucharon sus llamadas telefónicas, leyeron sus cartas e incluso colocaron cámaras ocultas dentro de sus hogares. Todo esto fue hecho por humanos y escrito en papel, lo que requirió una enorme burocracia y enormes unidades de almacenamiento que contenían literalmente miles de millones de registros físicos en papel.
Imagínate lo que podría haber hecho la Stasi con la IA. Con una IA superinteligente, sería posible monitorear automáticamente las llamadas telefónicas y los mensajes de todos. También se podrían rastrear los movimientos diarios de las personas mediante cámaras de vigilancia y datos satelitales. Sería como si cada persona tuviera su propio operativo vigilándolo las 24 horas del día.
La IA podría conducir a otras distopías. Esto incluye el Infopocalipsis: el catastrófico fracaso del mercado de ideas a la hora de producir la verdad. La IA superinteligente será capaz de fabricar y distribuir información falsa sin intervención humana. También podrán apuntar a individuos específicos, alterando estratégicamente su dieta de información para manipular su comportamiento con precisión quirúrgica.
En gran medida, esto ya está sucediendo. Los algoritmos de selección de contenido utilizados por las plataformas de redes sociales (aparentemente diseñados para predecir las preferencias de las personas) terminan cambiando esas preferencias al proporcionarles solo una selección limitada de contenido. En la práctica, esto significa que los usuarios se ven obligados a volverse cada vez más extremos en sus opiniones políticas. Podría decirse que incluso estas formas rudimentarias de inteligencia artificial ya han causado un gran daño, afianzando la división social y proliferando el odio.
Si bien el Infopocalipsis aún se encuentra en su etapa inicial, la próxima distopía está en ciernes. Este es el estado de miedo constante causado por la tecnología de armas autónomas.
Ya se han desarrollado armas autónomas (máquinas que buscan y neutralizan objetivos por sí mismas). Estas armas identifican objetivos basándose en información como el color de la piel, el uniforme o incluso las huellas faciales exactas.
Ya se están preparando drones en miniatura llamados robots de matanza para buscar, localizar y neutralizar individuos específicos. En 2016, la Fuerza Aérea de Estados Unidos demostró el despliegue de 103 drones de matanza. Describieron los drones como un solo organismo que comparte un cerebro distribuido, como un enjambre en la naturaleza.
Estados Unidos es sólo uno de los muchos países que actualmente construyen (o ya utilizan) tecnología de armas automatizadas. A medida que las armas autónomas vayan desplazando a la guerra humana convencional, todas nuestras vidas se volverán menos seguras, ya que cualquiera será atacable, sin importar en qué parte del mundo se encuentre.
La automatización masiva liberará el potencial de la humanidad o lo debilitará.
Acabamos de analizar tres escenarios aterradores que podrían ser causados por la IA. Pero todavía no hemos considerado la que quizás sea la amenaza más preocupante y socialmente destructiva de la IA: la automatización.
La automatización bien puede permitir que más personas accedan a servicios importantes como atención médica y asesoramiento legal. Pero también podría causar un desempleo generalizado. El grado exacto de amenaza que representa esto está abierto a debate. Los optimistas señalan que en todas las revoluciones industriales anteriores, la automatización produjo al menos tantos puestos de trabajo como los que eliminó. Sin embargo, si nos fijamos en la investigación, vemos que en los últimos 40 años, los puestos de trabajo han disminuido significativamente en todas las industrias que han implementado tecnología de automatización.
Entonces, ¿deberíamos preocuparnos?
La verdad es que, a largo plazo, es probable que la IA automatice casi todo el trabajo humano existente. Esto no sólo afectará a los trabajos poco cualificados como la conducción de camiones. Como vimos anteriormente, incluso los profesionales altamente calificados como médicos, abogados y contadores están en riesgo.
Entonces, cuando una máquina reemplace su mano de obra, ¿qué le quedará para vender? Bueno, no mucho. ¿Pero qué pasaría si no necesitaras vender nada? ¿Qué pasaría si pudiéramos dejar que las máquinas hicieran todo el trabajo y aun así asegurarnos de que todos tuviéramos suficiente para vivir?
Una forma de hacerlo podría ser instituir una renta básica universal o RBU. Una RBU proporcionaría a cada persona adulta un ingreso mensual razonable independientemente de las circunstancias. Aquellos que quieran ganar más podrán trabajar, si hay alguno disponible. Pero, para todos los demás, liberados de la necesidad de ganarse la vida, serían libres de dedicarse a lo que quisieran.
Este es un panorama color de rosa, ¿no? ¿Pero sería realmente este escenario una utopía? Si todo el trabajo, el aprendizaje y el esfuerzo por adquirir habilidades fueran asumidos por las máquinas, ¿no nos convertiríamos en seres disminuidos?
Esta es una preocupación genuina. Hasta ahora, la única forma de sostener nuestra civilización ha sido transmitir el conocimiento de un ser humano a otro y a lo largo de generaciones sucesivas. A medida que la tecnología se desarrolla, entregamos cada vez más ese conocimiento y experiencia a una máquina que puede hacer la tarea por nosotros.
Una vez que perdamos el incentivo práctico para transmitir conocimiento a otros humanos, ese conocimiento y experiencia se marchitarán. Si no tenemos cuidado, podríamos convertirnos en una especie debilitada, completamente dependiente de las máquinas que aparentemente nos sirven.
Libros complementarios a Human Compatible
Si estás interesado en profundizar en los temas abordados en «Human Compatible», hay otros libros que pueden complementarlo, incluyendo:
- Superintelligence de Nick Bostrom: aborda los riesgos potenciales de la IA superinteligente y ofrece estrategias para minimizar los riesgos.
- AI 2041 de Kai-Fu Lee: ofrece una visión de cómo la IA podría impactar nuestras vidas en las próximas dos décadas y ofrece ideas sobre cómo adaptarnos a estos cambios.
- Vida 3.0 de Max Tegmark: aborda una amplia gama de desafíos y oportunidades relacionados con la IA, incluyendo la automatización, la ética, la privacidad y la equidad. Además, presenta una visión más amplia de los impactos de la IA en la sociedad («Human Compatible» se concentra más en las implicaciones técnicas y prácticas)
- The Human Edge de Greg Orme se centra en cómo las características humanas como la curiosidad y la creatividad pueden ser una ventaja en un mundo dominado por la tecnología.