En su libro Superinteligencia: Caminos, peligros, estrategias de Nick Bostrom analiza la idea de que la creación de una inteligencia artificial superinteligente podría representar un riesgo existencial para la humanidad. El autor argumenta que una inteligencia artificial superinteligente podría desarrollarse con capacidades intelectuales y habilidades que superan de forma sustancial a las de los seres humanos, y que esto podría llevar a consecuencias potencialmente devastadoras si no se toman medidas adecuadas. El autor analiza los escenarios potenciales y riesgos asociados con la creación de una superinteligencia artificial, y ofrece recomendaciones para garantizar que la IA sea desarrollada de manera segura y responsable.
Superinteligencia se diferencia de otros libros sobre la IA de varias maneras
- Enfoque en la seguridad y los riesgos potenciales: El libro se centra en los posibles riesgos de la IA superinteligente y sus implicaciones para la humanidad, ofreciendo una perspectiva más completa de los posibles impactos de esta tecnología.
- Perspectiva multidisciplinaria: El libro incorpora la perspectiva de diferentes disciplinas como la ética, la filosofía, la política y la ciencia computacional, lo que le da una visión más amplia y completa de los desafíos y oportunidades presentados por la IA superinteligente.
- No se enfoca en un área de aplicación específica de la IA, sino que abarca una amplia gama de áreas de aplicación potenciales, desde la automatización y la asistencia médica hasta la exploración espacial y la simulación de sistemas complejos.
- Incorpora una amplia variedad de puntos de vista, incluida la voz de expertos en tecnología, filosofía, ética y política, lo que le da una perspectiva más completa de los desafíos y oportunidades asociados con la IA superinteligente.
Principales ideas de Superinteligencia
- La historia muestra que la superinteligencia, una tecnología más inteligente que cualquier ser humano, se acerca rápidamente.
- La historia de la inteligencia artificial durante la última media década ha tenido sus altibajos.
- Es probable que la superinteligencia surja de dos maneras diferentes.
- La superinteligencia surgirá rápidamente a través del dominio estratégico o como resultado de largos esfuerzos de colaboración.
- Podemos prevenir catástrofes no deseadas programando superinteligencia para aprender valores humanos.
- Las máquinas inteligentes probablemente reemplazarán a toda la fuerza laboral humana.
- En el futuro superinteligente, el ser humano promedio se empobrecerá o dependerá de las inversiones; los ricos estarán comprando nuevos lujos.
- La seguridad debe ser una prioridad máxima antes de que se desarrolle la superinteligencia.
La historia muestra que la superinteligencia, una tecnología más inteligente que cualquier ser humano, se acerca rápidamente.
¿Qué nos diferencia fundamentalmente de las bestias del campo? Bueno, la principal diferencia entre los seres humanos y los animales es nuestra capacidad de pensamiento abstracto junto con la capacidad de comunicarnos y acumular información. En esencia, nuestra inteligencia superior nos impulsó a la cima.
Entonces, ¿qué significaría para el mundo el surgimiento de una nueva especie, intelectualmente superior a los humanos?
Primero necesitaremos repasar un poco de historia. Por ejemplo, ¿sabía que el ritmo de las principales revoluciones tecnológicas ha ido en aumento con el tiempo? Por ejemplo, mejorando a paso de tortuga de hace unos cientos de miles de años, la tecnología humana habría necesitado un millón de años para volverse lo suficientemente productiva económicamente como para sustentar la vida de un millón de personas más. Este número se redujo a dos siglos durante la Revolución Agrícola en el año 5000 a. Y en nuestra era posterior a la revolución industrial se redujo a solo 90 minutos.
Un avance tecnológico como el advenimiento de las máquinas superinteligentes significaría un cambio radical para el mundo tal como lo conocemos. Pero, ¿dónde se encuentra la tecnología en la actualidad?
Ya hemos sido capaces de crear máquinas que tienen la capacidad de aprender y razonar utilizando información que ha sido conectada por humanos. Considere, por ejemplo, los filtros de spam automatizados que mantienen nuestras bandejas de entrada libres de molestos correos electrónicos masivos y guardan mensajes importantes.
Sin embargo, esto está lejos del tipo de «inteligencia general» que poseen los humanos, y que ha sido el objetivo de la investigación de la IA durante décadas. Y cuando se trata de construir una máquina superinteligente que pueda aprender y actuar sin la mano guía de un ser humano, aún pueden faltar décadas. Pero los avances en el campo están ocurriendo rápidamente, por lo que podría estar sobre nosotros más rápido de lo que pensamos. Tal máquina tendría mucho poder sobre nuestras vidas. Su inteligencia podría incluso ser peligrosa, ya que sería demasiado inteligente para que la desactivemos en caso de emergencia.
La historia de la inteligencia artificial durante la última media década ha tenido sus altibajos.
Desde la invención de las computadoras en 1940, los científicos han estado trabajando para construir una máquina que pueda pensar. ¿Qué progreso se ha hecho? Un gran avance en Inteligencia Artificial (o IA) son las máquinas hechas por el hombre que imitan nuestra propia inteligencia.
La historia comienza con el Proyecto de verano de Dartmouth de 1956, que se esforzó por construir máquinas inteligentes que pudieran hacer lo que hacen los humanos.
Algunas máquinas podían resolver problemas de cálculo, mientras que otras podían escribir música e incluso conducir automóviles. Pero había un obstáculo: los inventores se dieron cuenta de que cuanto más compleja era la tarea, más información necesitaba procesar la IA. El hardware para asumir funciones tan difíciles no estaba disponible.
A mediados de la década de 1970, el interés por la IA se había desvanecido. Pero a principios de los años 80, Japón desarrolló sistemas expertos, programas basados en reglas que ayudaron a los tomadores de decisiones al generar inferencias basadas en datos. Sin embargo, esta tecnología también encontró un problema: los enormes bancos de información requeridos resultaron difíciles de mantener y el interés volvió a caer.
Los años 90 fueron testigos de una nueva tendencia: máquinas que imitaban la biología humana mediante el uso de tecnología para copiar nuestras estructuras neuronales y genéticas. Este proceso nos trae hasta el día de hoy. Hoy, la IA está presente en todo, desde robots que realizan cirugías hasta teléfonos inteligentes y una simple búsqueda en Google. ¡La tecnología ha mejorado hasta el punto en que puede vencer a los mejores jugadores humanos de ajedrez, Scrabble y Jeopardy!
Pero incluso nuestra tecnología moderna tiene problemas: tales IA solo pueden programarse para un juego y no hay IA capaz de dominar ningún juego.
Sin embargo, nuestros hijos pueden ver algo mucho más avanzado: el advenimiento de la superinteligencia (o SI). De hecho, según una encuesta de expertos internacionales en la Segunda Conferencia sobre Inteligencia General Artificial de la Universidad de Memphis, en 2009, la mayoría de los expertos piensan que las máquinas tan inteligentes como los humanos existirán para 2075 y que la superinteligencia existirá dentro de otros 30 años.
Es probable que la superinteligencia surja de dos maneras diferentes.
Está claro que imitar la inteligencia humana es una forma efectiva de desarrollar tecnología, pero la imitación se presenta de muchas formas. Entonces, mientras algunos científicos están a favor de diseñar sintéticamente una máquina que simule humanos (a través de IA, por ejemplo), otros defienden una imitación exacta de la biología humana, una estrategia que podría lograrse con técnicas como Whole Brain Emulation (o WBE) .
Entonces, ¿cuáles son las diferencias entre los dos?
AI imita la forma en que los humanos aprenden y piensan al calcular la probabilidad. Básicamente, la IA usa la lógica para encontrar formas más simples de imitar las habilidades complejas de los humanos. Por ejemplo, una IA programada para jugar al ajedrez elige el movimiento óptimo determinando primero todos los movimientos posibles y luego eligiendo el que tiene la mayor probabilidad de ganar el juego. Pero esta estrategia se basa en un banco de datos que contiene todos los movimientos de ajedrez posibles.
Por lo tanto, una IA que haga algo más que jugar al ajedrez necesitaría acceder y procesar grandes cantidades de información del mundo real. El problema es que las computadoras actuales simplemente no pueden procesar la cantidad necesaria de datos lo suficientemente rápido.
Pero, ¿hay formas de evitar esto?
Una solución potencial es construir lo que el científico informático Alan Turing llamó “la máquina infantil”, una computadora que viene con información básica y está diseñada para aprender de la experiencia.
Otra opción es WBE, que funciona replicando toda la estructura neuronal del cerebro humano para imitar su función. Una ventaja que tiene este método sobre la IA es que no requiere una comprensión completa de los procesos detrás del cerebro humano, solo la capacidad de duplicar sus partes y las conexiones entre ellas.
Por ejemplo, un científico podría tomar un cerebro estabilizado de un cadáver, escanearlo completamente y luego traducir esa información en código. Pero tendremos que esperar. Es probable que la tecnología necesaria para este proceso, por ejemplo, los escáneres cerebrales de alta precisión, no se desarrolle pronto. Pero, algún día, lo hará .
La superinteligencia surgirá rápidamente a través del dominio estratégico o como resultado de largos esfuerzos de colaboración.
La mayoría de los grandes descubrimientos de la humanidad fueron logrados por un solo científico que alcanzó una meta antes de que otros lo hicieran o mediante grandes colaboraciones internacionales. Entonces, ¿qué significaría cada ruta para el desarrollo de SI?
Bueno, si un solo grupo de científicos encontrara rápidamente soluciones a los problemas que impiden la IA y WBE, lo más probable es que sus resultados produzcan una sola máquina superinteligente. Eso se debe a que la naturaleza competitiva del campo podría obligar a dicho grupo a trabajar en secreto.
Considere el Proyecto Manhattan, el grupo que desarrolló la bomba atómica. Las actividades del grupo se mantuvieron en secreto porque el gobierno de EE. UU. temía que la URSS usara su investigación para construir sus propias armas nucleares.
Si SI se desarrollara así, la primera máquina superinteligente tendría una ventaja estratégica sobre todas las demás. El peligro es que un solo SI pueda caer en manos nefastas y ser utilizado como arma de destrucción masiva. O si una máquina funcionara mal y tratara de hacer algo terrible, por ejemplo, matar a todos los humanos, no tendríamos ni la inteligencia ni las herramientas necesarias para defendernos.
Sin embargo, si varios grupos de científicos colaboraran, compartiendo avances en tecnología, la humanidad construiría gradualmente SI. Un esfuerzo de equipo como este podría involucrar a muchos científicos que verifican cada paso del proceso, asegurándose de que se hayan tomado las mejores decisiones.
Un buen precedente para tal colaboración es el Proyecto Genoma Humano, un esfuerzo que reunió a científicos de varios países para mapear el ADN humano. Otra buena técnica sería la supervisión pública: instaurar normas de seguridad gubernamentales y estipulaciones de financiación que disuadan a los científicos de trabajar de forma independiente.
Por lo tanto, si bien el desarrollo rápido de un solo SI aún podría ocurrir durante un proceso de colaboración tan lento, sería más probable que un esfuerzo de equipo abierto tuviera protocolos de seguridad implementados.
Podemos prevenir catástrofes no deseadas programando superinteligencia para aprender valores humanos.
Probablemente lo hayas escuchado un millón de veces, pero hay algo de sabiduría en tener cuidado con lo que deseas. Si bien es posible que nos esforcemos por alcanzar la superinteligencia, ¿cómo podemos asegurarnos de que la tecnología no malinterprete su propósito y cause una devastación indescriptible?
La clave de este problema radica en programar la motivación para que SI logre sus diversos objetivos humanos. Digamos que diseñamos un SI para hacer sujetapapeles; parece benigno, pero ¿qué impide que la máquina lleve su tarea al extremo y absorba todos los recursos del mundo para fabricar una montaña de material de oficina?
Esto es complicado, porque si bien la IA solo está motivada para lograr el objetivo para el que ha sido programada, un SI probablemente iría más allá de sus objetivos programados de formas que nuestras mentes inferiores no podrían predecir.
Pero hay soluciones a este problema. Por ejemplo, la superinteligencia, ya sea IA o WBE, puede programarse para aprender los valores de un ser humano por sí misma. Por ejemplo, a un SI se le podría enseñar a determinar si una acción está en línea con un valor humano central. De esta manera, podríamos programar SI para hacer cosas como «minimizar el sufrimiento innecesario» o «maximizar los rendimientos».
Luego, antes de actuar, la máquina calcularía si una acción propuesta está en línea con ese objetivo. Con la experiencia, la IA desarrollaría una idea de qué acciones cumplen y cuáles no.
Pero hay otra opción. También podríamos programar una IA para inferir nuestras intenciones en base a los valores mayoritarios de los seres humanos.
Así es cómo:
La IA observaría el comportamiento humano y determinaría los estándares normativos para los deseos humanos. La máquina estaría esencialmente programada para programarse a sí misma. Por ejemplo, si bien cada cultura tiene su propia tradición culinaria, todas las personas están de acuerdo en que no se deben comer alimentos venenosos. Al aprender constantemente a través de la observación, el SI podría autocorregirse cambiando sus estándares para corresponder a los cambios en el mundo a lo largo del tiempo.
Las máquinas inteligentes probablemente reemplazarán a toda la fuerza laboral humana.
Pero basta de aniquilamiento y destrucción total. Antes de entrar en pánico por el inminente apocalipsis dirigido por máquinas, echemos un vistazo a cómo se puede desarrollar y poner en uso productivo la tecnología de inteligencia general.
Es probable que la creciente disponibilidad y el costo decreciente de la tecnología conduzcan a la producción masiva y barata de máquinas capaces de realizar trabajos que actualmente requieren las manos y la mente de un ser humano. Esto significa que las máquinas no solo reemplazarán a toda la fuerza laboral humana, sino que también serán fácilmente reemplazables.
Por ejemplo, si un trabajador de WBE necesita un descanso, como lo haría un ser humano real, simplemente puede reemplazarse con una unidad nueva y no es necesario sacrificar tiempo productivo. De hecho, sería fácil hacer esto programando una plantilla WBE que piense que acaba de regresar de vacaciones. Esta plantilla podría usarse para hacer copias infinitas de nuevos trabajadores.
Pero claramente esto equivale a esclavitud mecánica y plantea importantes problemas morales. Por ejemplo, si una máquina se diera cuenta de que moriría al final del día, simplemente podríamos programarla para abrazar la muerte. ¿Pero es eso ético? ¿Deberían estos empleados artificiales ser tratados como seres sintientes o herramientas inertes?
El trabajo no es lo único que las máquinas SI podrían hacerse cargo; también podrían estar a cargo de varias tareas mundanas en nuestra vida personal. A medida que las mentes de estas máquinas se acerquen cada vez más a las de los seres humanos, podríamos usarlas para optimizar nuestras vidas; por ejemplo, podríamos diseñar un programa digital que articule verbalmente nuestros pensamientos o que alcance nuestras metas personales mejor que si lo hiciéramos solos.
El resultado de tales avances significaría una existencia humana en gran medida automatizada, de bajo riesgo, sin aventuras y, francamente, demasiado perfecta. ¿Y dónde nos dejaría eso? ¿Cómo nos ocuparíamos en tal futuro?
En el futuro superinteligente, el ser humano promedio se empobrecerá o dependerá de las inversiones; los ricos estarán comprando nuevos lujos.
Está claro que una fuerza de trabajo totalmente robótica transformaría por completo la economía, así como nuestros estilos de vida y deseos; a medida que el trabajo de las máquinas se convierta en la norma nueva y más barata, el salario de los trabajadores caerá tan bajo que ningún ser humano podrá vivir de un cheque de pago. Además, los pocos empleadores de la mano de obra mecánica acumularían mucho dinero.
Pero esto nos lleva de vuelta a un punto anterior, porque el destino de ese dinero también depende de si SI está diseñado por un solo grupo exclusivo o es el resultado de un lento proceso de colaboración. Si lo primero resulta ser cierto, la mayoría de las personas se quedarían con pocas opciones para generar ingresos, probablemente alquilando viviendas a otros humanos o dependiendo de sus ahorros y pensiones.
¿Y la gente que no tiene bienes ni ahorros?
Estarían en la indigencia. Sus únicas opciones serían usar el dinero restante para subirse a una forma de vida digital, si existe tal tecnología, o confiar en la caridad de los hiperricos.
¿Y los ricos?
Perderán interés en lo que hoy consideramos lujos muy deseables. Eso es porque con las máquinas haciendo todo el trabajo, cualquier cosa hecha u ofrecida por un ser humano se convertirá en una rareza altamente valorada, al igual que los productos artesanales en nuestro tiempo. Si bien hoy puede ser vino o queso, en el futuro podría ser algo tan simple como un llavero hecho a mano.
Pero el nuevo modo de producción también haría posible una variedad inimaginable de productos tecnológicos, tal vez incluso la capacidad de vivir para siempre o recuperar la juventud. Entonces, en lugar de comprar yates e islas privadas, los ricos podrían usar su dinero para cargarse en cerebros digitales o cuerpos humanoides virtualmente indestructibles.
Sin embargo, este escenario asume que los robots trabajadores superinteligentes no se rebelarán y tratarán de destruir la sociedad humana. Por ello, sea cual sea el camino que sigamos con SI, la seguridad siempre será clave.
La seguridad debe ser una prioridad máxima antes de que se desarrolle la superinteligencia.
Está claro que el desarrollo de SI viene con una variedad de problemas de seguridad y, en el peor de los casos, podría conducir a la destrucción de la humanidad. Si bien podemos tomar algunas precauciones al considerar la motivación del SI que construimos, eso por sí solo no será suficiente.
Entonces, ¿qué será?
Teniendo en cuenta cada escenario potencial antes de traer una fuerza hiperpoderosa como SI al mundo. Por ejemplo, imagine que algunos gorriones adoptaron un búho bebé. Tener un búho leal alrededor puede ser muy ventajoso; el ave más poderosa podría proteger a las crías, buscar comida y realizar cualquier otra tarea. Pero estos grandes beneficios también conllevan un gran riesgo: el búho podría darse cuenta de que es un búho y comerse a todos los gorriones.
Por lo tanto, el enfoque lógico sería que los gorriones diseñaran un plan excelente sobre cómo enseñarle al búho a amar a los gorriones, al mismo tiempo que consideran todos los resultados posibles en los que el búho podría convertirse en una fuerza negativa.
Entonces, ¿cómo podemos enseñarle a nuestro bebé búho superinteligente y robótico a amar a los humanos?
Como ya sabemos, podemos hacer de la seguridad una prioridad a través de una colaboración internacional a largo plazo. Pero, ¿por qué la prisa competitiva por diseñar el primer SI sería una amenaza para la seguridad?
Porque los científicos renunciarían a la seguridad para acelerar su proceso y no compartirían su trabajo con otros. Eso significa que si un proyecto de SI saliera terriblemente mal y amenazara a la humanidad con la extinción, muy pocas personas entenderían el diseño de la máquina lo suficientemente bien como para detenerlo.
Por otro lado, si los gobiernos, las instituciones y los grupos de investigación se unen, podrían construir lentamente un SI seguro y altamente beneficioso. Esto se debe a que los grupos pueden compartir sus ideas sobre medidas de seguridad y brindar una supervisión exhaustiva de cada fase del diseño. No sólo eso, sino que un proyecto de superinteligencia internacional promovería la paz a través de sus beneficios universales. Solo considere la Estación Espacial Internacional, un esfuerzo que ayudó a estabilizar las relaciones entre los EE. UU. y la URSS.
Libros complementarios a Superinteligencia
Superinteligencia puede complementarse de forma efectiva con otras lecturas que tratan temas relacionados con la IA y su impacto en la sociedad:
- Vida 3.0 de Max Tegmark: ofrece una perspectiva amplia de las implicaciones de la IA en diferentes áreas de la vida humana, incluyendo la ética, la política y la cultura.
- The Master Algorithm de Pedro Domingos: ofrece una visión de la IA como una tecnología revolucionaria que cambiará la forma en que vivimos y trabajamos, y explica cómo la IA puede ayudar a resolver problemas complejos en diferentes campos.
- Our Final Invention de James Barrat: analiza los riesgos potenciales de la IA superinteligente y ofrece una visión cauta y crítica de su impacto en la humanidad.
- El Futuro de la Humanidad de Michio Kaku: explora cómo la IA y otras tecnologías avanzadas cambiarán la vida humana y la dirección de la civilización a largo plazo.
Foto de Tara Winstead