A raíz de la famosa Pause Giant AI Experiments: An Open Letter de Future of life institute publicada el 22 de marzo de 2023, surge la cuestión ¿Pausar la investigación en IA es buena idea?
Han pedido parar temporalmente la investigación de la IA más potente que GPT4. Mi primera reacción es estar muy de acuerdo en hacerlo, pero son dos preguntas distintas:
¿Pausaríamos temporalmente la investigación de la IA a nivel global si pudiésemos? Mi respuesta es claramente sí.
¿Pausaríamos temporalmente la investigación de OpenAI y las empresas americanas, sin garantías de que otros no lo estén haciendo por su cuenta? Mi respuesta ya no está tan clara.
En todo caso son preguntas muy distintas.
Max Tegmark es el co-fundador y presidente y uno de los fundadores de Future of life institute. Es profesor de física en el MIT y director científico del Foundational Questions Institute. en 2007, Forbes lo eligió como una de las «diez personas que podrían cambiar el mundo». Ha publicado dos libros: Our Mathematical Universe y Vida 3.0. Cuando probé GPT4 lo primero que hice fue empezar a releer su libro, Vida 3.0 que os recomiendo. Una lectura que adicional también recomendable es La era de las máquinas espirituales de Ray Kurzweil.
Vida 3.0 (2017) es un recorrido por las preguntas, ideas e investigaciones actuales involucradas en el campo emergente de la inteligencia artificial. Max Tegmark nos ofrece un vistazo al futuro, esbozando los posibles escenarios que podrían ocurrir en la tierra. Los humanos pueden fusionarse con las máquinas; podríamos doblar las máquinas a nuestra voluntad o, terriblemente, las máquinas inteligentes podrían hacerse cargo.
Principales ideas de Vida 3.0
- La IA podría representar el futuro de la vida, pero es un tema controvertido.
- Las capacidades de memoria, computación, aprendizaje e inteligencia no son atributos claramente humanos.
- La IA avanza rápidamente y tendrá un impacto en la vida humana en un futuro próximo.
- La creación de IA a nivel humano podría dar como resultado que una máquina superinteligente se apodere del mundo.
- Son posibles varios escenarios posteriores a la IA, que van desde lo reconfortante hasta lo aterrador.
- La naturaleza, incluidos los humanos, tiene objetivos, y los investigadores se esfuerzan por simular este comportamiento para la IA.
- Los investigadores de IA están deliberando sobre el significado de la conciencia y la subjetividad de la experiencia de IA.
La IA podría representar el futuro de la vida, pero es un tema controvertido.
La historia de cómo surgió la vida en la tierra es bien conocida. Hace unos 13.800 millones de años, el Big Bang dio origen a nuestro universo. Luego, hace unos cuatro mil millones de años, los átomos de la Tierra se organizaron de tal manera que pudieran mantenerse y replicarse. La vida había surgido.
Como plantea el autor, la vida se puede clasificar en tres categorías según los niveles de sofisticación.
La primera etapa de la vida, Vida 1.0, es simplemente biológica. Considera una bacteria. Cada aspecto de su comportamiento está codificado en su ADN. Es imposible que aprenda o cambie su comportamiento a lo largo de su vida. Lo más cercano a aprender o mejorar es la evolución, pero eso lleva muchas generaciones.
La segunda etapa es cultural, Vida 2.0. Los humanos están incluidos aquí. Al igual que la bacteria, nuestro «hardware» o cuerpos han evolucionado. Pero a diferencia de las formas de vida más simples, podemos adquirir nuevos conocimientos durante nuestra vida. Toma aprender un idioma. Podemos adaptar y rediseñar ideas que podríamos llamar nuestro “software”. Y tomamos decisiones usando este conocimiento.
La etapa final es la teórica Vida 3.0, una forma de vida tecnológica capaz de diseñar tanto su hardware como su software. Aunque tal vida aún no existe en la Tierra, la aparición de inteligencia no biológica en forma de tecnologías de IA pronto puede cambiar esto.
Aquellos que tienen opiniones sobre la IA pueden clasificarse por cómo se sienten sobre el efecto del campo emergente en la humanidad.
En primer lugar, están los utópicos digitales. Creen que la vida artificial es un próximo paso natural y deseable en la evolución.
En segundo lugar, están los tecnoescépticos. Como sugiere el nombre, no creen que la vida artificial tenga un impacto en el corto plazo.
Finalmente, está el movimiento beneficioso de la IA. A estas personas no les convence la idea de que la IA necesariamente traerá beneficios a los humanos. Por lo tanto, abogan por que la investigación de la IA se dirija específicamente hacia posibles resultados universalmente positivos.
Las capacidades de memoria, computación, aprendizaje e inteligencia no son atributos claramente humanos.
¿Qué nos hace humanos? ¿Nuestra capacidad de pensar y aprender? Uno podría pensar que sí.
Los investigadores en IA, sin embargo, generalmente se oponen a tal noción. Afirman que la capacidad de memoria, computación, aprendizaje e inteligencia no tiene nada que ver con la carne y la sangre humana, y mucho menos con los átomos de carbono.
Comencemos con la inteligencia. Aunque no existe una definición única universalmente aceptada, al autor le gusta pensar en la inteligencia como la » capacidad de lograr objetivos complejos».
Las máquinas pueden ser cada vez más capaces de superarnos en tareas definidas, como jugar al ajedrez, pero la inteligencia humana es singularmente amplia. Puede abarcar habilidades como el aprendizaje de idiomas y la conducción de vehículos.
Sin embargo, aunque la inteligencia general artificial (AGI) aún no existe, está claro que la inteligencia no es solo una facultad biológica. Las máquinas también pueden completar tareas complejas.
La inteligencia, al igual que las capacidades de memoria, computación y aprendizaje, es lo que se conoce como independiente del sustrato. Es decir, una capa independiente que no refleja ni depende de un sustrato de material subyacente.
Entonces, por ejemplo, el cerebro humano puede almacenar información, pero también las unidades de disquete, los CD, los discos duros, los SSD y las tarjetas de memoria flash, aunque no estén hechos del mismo material.
Pero antes de llegar a lo que esto significa para la informática, debemos entender qué es la informática.
La informática implica la transformación de la información. Entonces, la palabra «hola» podría transformarse en una secuencia de ceros y unos.
Pero la regla o patrón que determina esta transformación es independiente del hardware que la realiza. Lo importante es la regla o patrón en sí.
Esto significa que no solo los humanos pueden aprender, las mismas reglas y patrones también podrían existir fuera del cerebro humano. Los investigadores de IA han logrado grandes avances en el desarrollo del aprendizaje automático: máquinas que pueden mejorar su propio software.
Entonces, si la memoria, el aprendizaje, la computación y la inteligencia no son distintivamente humanos, entonces, ¿qué es exactamente lo que nos hace humanos? A medida que la investigación en IA continúa a buen ritmo, esta pregunta solo resultará más difícil de responder.
La IA avanza rápidamente y tendrá un impacto en la vida humana en un futuro próximo.
Las máquinas no son nada nuevo para los humanos. Los hemos estado usando para tareas manuales durante milenios. Si define su autoestima por sus habilidades cognitivas, como la inteligencia, el lenguaje y la creatividad, estas máquinas no representan una amenaza. Sin embargo, los avances recientes en IA pueden comenzar a preocuparte.
El autor tuvo su propio momento de «mierda» en 2014 cuando fue testigo de un sistema de inteligencia artificial que jugaba un viejo juego de computadora llamado Breakout. Ese es el juego en el que golpeas una pelota contra una pared maniobrando una paleta.
Al principio, el sistema de inteligencia artificial funcionó mal. Pero pronto aprendió y finalmente desarrolló una estrategia inteligente para maximizar la puntuación en la que ni siquiera los desarrolladores habían pensado cuando jugaban.
Sucedió nuevamente en marzo de 2016, cuando el sistema de inteligencia artificial AlphaGo venció a Lee Sedol, el mejor jugador de Go del mundo. Go es un juego de estrategia que requiere intuición y creatividad porque hay muchas más posiciones posibles en el juego que átomos en el universo, por lo que el mero análisis de fuerza bruta no es práctico. Pero el sistema de IA aún navegó hacia la victoria, pareciendo mostrar exactamente el tipo de creatividad requerida.
Los sistemas de IA también avanzan rápidamente en el campo de los lenguajes naturales. Solo considere cuánto ha mejorado últimamente la calidad de las traducciones proporcionadas por Google Translate.
Está claro que la IA tendrá un impacto en todas las áreas de la vida humana en un futuro próximo. El comercio algorítmico afectará las finanzas; la conducción autónoma hará que el transporte sea más seguro, las redes inteligentes optimizarán la distribución de energía y los médicos de IA cambiarán la atención médica.
El gran tema a considerar es el efecto que tendrá la IA en el mercado laboral. Después de todo, como los sistemas de IA pueden superar a los humanos en más y más campos, los humanos podemos incluso quedar desempleados.
Pasemos ahora a otros impactos potenciales del desarrollo de la IA.
La creación de IA a nivel humano podría dar como resultado que una máquina superinteligente se apodere del mundo.
Hasta ahora, la IA se ha aplicado de manera bastante estrecha en campos limitados como la traducción de idiomas o los juegos de estrategia.
En contraste, el santo grial de la investigación de IA es la producción de AGI que operaría a un nivel humano de inteligencia.
Pero ¿qué pasaría si se encontrara este santo grial?
Para empezar, la creación de AGI podría resultar en lo que los investigadores de IA conocen como una explosión de inteligencia.
Una explosión de inteligencia es un proceso por el cual una máquina inteligente gana superinteligencia, un nivel de inteligencia muy por encima de la capacidad humana.
Lo lograría a través del aprendizaje rápido y la automejora recursiva porque un AGI podría diseñar potencialmente una máquina aún más inteligente, que podría diseñar una máquina aún más inteligente y así sucesivamente. Esto podría desencadenar una explosión de inteligencia que permitiría a las máquinas superar la inteligencia humana.
Además, las máquinas superinteligentes podrían apoderarse del mundo y causarnos daño, sin importar cuán buenas sean nuestras intenciones.
Digamos, por ejemplo, que los humanos programan una superinteligencia que se preocupa por el bienestar de la humanidad. Desde la perspectiva de la superinteligencia, esto probablemente sería similar a un grupo de niños de jardín de infantes muy por debajo de su inteligencia que lo mantienen en cautiverio para su propio beneficio.
Muy probablemente usted encontraría esto como una situación deprimente e ineficiente y tomaría el asunto en sus propias manos. ¿Y qué haces con los obstáculos humanos incompetentes y molestos? Contrólalos, o mejor aún, destrúyelos.
Pero tal vez nos estamos adelantando; veamos otros escenarios menos aterradores que podrían ocurrir.
Son posibles varios escenarios posteriores a la IA, que van desde lo reconfortante hasta lo aterrador.
Nos guste o no, la carrera hacia AGI está en marcha.
Pero ¿cómo nos gustaría que fueran las consecuencias de lograrlo?
Por ejemplo, ¿deberían las IA ser conscientes? ¿Deberían los humanos o las máquinas tener el control?
Tenemos que responder preguntas básicas, ya que no queremos terminar en un futuro de IA para el que no estamos preparados, especialmente uno que podría hacernos daño.
Hay varios escenarios posteriores . Estos varían desde la coexistencia pacífica entre humanos e IA hasta la toma de control por parte de las IA, lo que lleva a la extinción o el encarcelamiento de los humanos.
El primer escenario posible es el dictador benévolo. Una sola superinteligencia benévola gobernaría el mundo, maximizando la felicidad humana. Se erradicarían la pobreza, las enfermedades y otras molestias de baja tecnología, y los humanos serían libres de llevar una vida de lujo y ocio.
En la misma línea, hay un escenario que involucra a un dios protector, donde los humanos todavía estarían a cargo de su propio destino, pero habría una IA protegiéndonos y cuidándonos, como una niñera.
Otro escenario es la utopía libertaria. Los humanos y las máquinas coexistirían pacíficamente. Esto se lograría mediante una separación territorial claramente definida. La Tierra se dividiría en tres zonas. Uno estaría desprovisto de vida biológica pero lleno de IA. Otro sería solo humano. Habría una zona mixta final, donde los humanos podrían convertirse en cyborgs al mejorar sus cuerpos con máquinas.
Sin embargo, este escenario es un poco fantástico, ya que no hay nada que impida que las máquinas de IA ignoren los deseos de los humanos.
Luego está el escenario de los conquistadores, que vimos en el último parpadeo. Esto haría que la IA destruya a la humanidad, ya que seríamos vistos como una amenaza, una molestia o simplemente un desperdicio de recursos.
Finalmente, está el escenario del cuidador del zoológico. Aquí, algunos humanos se quedarían en los zoológicos para el entretenimiento de las IA, al igual que mantenemos a los osos panda en peligro de extinción en los zoológicos.
Ahora que hemos examinado los posibles futuros relacionados con la IA, veamos los dos mayores obstáculos para la investigación actual de la IA, a saber, la orientación a objetivos y la conciencia.
La naturaleza, incluidos los humanos, tiene objetivos, y los investigadores se esfuerzan por simular este comportamiento para la IA.
No hay duda de que los humanos estamos orientados a objetivos. Piénselo: incluso algo tan pequeño como verter café en una taza con éxito implica completar una meta.
Pero en realidad, la naturaleza opera de la misma manera. Específicamente, tiene un propósito final: la destrucción. Técnicamente, esto se conoce como maximizar la entropía, que en términos sencillos significa aumentar el desorden y el desorden. Cuando la entropía es alta, la naturaleza está “satisfecha”.
Volvamos a la taza de café. Vierta un poco de leche y espere un momento. ¿Que ves? Gracias a la naturaleza, ahora tienes una mezcla uniforme, tibia y de color marrón claro. En comparación con la situación inicial, donde dos líquidos de diferentes temperaturas estaban claramente separados, esta nueva disposición de partículas es indicativa de una menor organización y una mayor entropía.
En una escala mayor, el universo no es diferente. Los arreglos de partículas tienden a moverse hacia mayores niveles de entropía, lo que resulta en el colapso de las estrellas y la expansión del universo.
Esto demuestra cuán cruciales son los objetivos, y actualmente, los científicos de IA están lidiando con el problema de qué objetivos debe perseguir la IA.
Después de todo, las máquinas de hoy también tienen objetivos. O más bien, pueden exhibir un comportamiento orientado a objetivos. Por ejemplo, si un misil buscador de calor está justo en su cola, está mostrando un comportamiento orientado a objetivos.
Pero ¿deberían las máquinas inteligentes tener metas? Y si es así, ¿quién debería definir esos objetivos? Por ejemplo, Marx y Hayek tenían cada uno una visión distinta en lo que respecta al futuro de la economía y la sociedad, por lo que sin duda establecerían objetivos muy diferentes para la IA.
Por supuesto, podríamos comenzar con algo simple, como la regla de oro que nos dice que tratemos a los demás como lo haríamos con nosotros mismos.
Pero incluso si la humanidad pudiera ponerse de acuerdo sobre algunos principios morales para guiar los objetivos de una máquina inteligente, implementar objetivos amigables para los humanos sería aún más complicado.
En primer lugar, tendríamos que hacer que una IA aprenda nuestros objetivos. Es más fácil decirlo que hacerlo porque la IA podría malinterpretarnos fácilmente. Por ejemplo, si le dices a un automóvil autónomo que te lleve al aeropuerto lo más rápido posible, es posible que llegues cubierto de vómito mientras te persigue la policía. Técnicamente, la IA se adhirió a su deseo declarado, pero realmente no entendió su motivación subyacente.
El próximo desafío sería que la IA adoptara nuestros objetivos, lo que significa que aceptaría perseguirlos. Solo piense en algunos políticos que conoce: a pesar de que sus objetivos pueden ser claros, aún no logran convencer a grandes sectores de la población para que adopten los mismos objetivos.
Y, por último, la IA tendría que conservar nuestros objetivos, lo que significa que sus objetivos no cambiarían a medida que se somete a la autosuperación.
En la actualidad, se están dedicando enormes cantidades de investigación científica a estas ideas.
Los investigadores de IA están deliberando sobre el significado de la conciencia y la subjetividad de la experiencia de IA.
La cuestión de qué es la conciencia y cómo se relaciona con la vida no es nueva. Los investigadores de IA se enfrentan al mismo viejo problema. Más específicamente, se preguntan cómo la materia sin vida podría volverse consciente.
Vamos a abordarlo desde una perspectiva humana primero. Como diría un físico como el autor, los seres humanos conscientes son simplemente «alimentos reorganizados», lo que significa que los átomos que ingerimos simplemente se reorganizan para formar nuestros cuerpos.
En consecuencia, lo que interesa a los investigadores de IA es el reordenamiento que tendrían que sufrir las máquinas inteligentes para volverse conscientes.
No debería ser una sorpresa que nadie tenga una respuesta en este momento. Pero para acercarnos, tenemos que captar lo que está involucrado en la conciencia.
Es complicado. Nos gustaría imaginar que la conciencia tiene algo que ver con la conciencia y los procesos del cerebro humano. Pero entonces no somos activamente conscientes de todos los procesos cerebrales. Por ejemplo, normalmente no eres consciente de todo en tu campo de visión. No está claro por qué existe una jerarquía de conciencia y por qué un tipo de información es más importante que otro.
En consecuencia, existen múltiples definiciones de conciencia. Pero el autor favorece una definición amplia conocida como experiencia subjetiva, que permite incluir en la mezcla una posible conciencia de IA.
Usando esta definición, los investigadores pueden investigar la noción de conciencia a través de varias subpreguntas. Por ejemplo, «¿Cómo procesa el cerebro la información?» o «¿Qué propiedades físicas distinguen a los sistemas conscientes de los inconscientes?»
Los investigadores de IA también han deliberado sobre cómo se podría “sentir” la conciencia artificial o la experiencia subjetiva de la IA.
Se postula que la experiencia subjetiva de la IA podría ser más rica que la experiencia humana. Las máquinas inteligentes podrían diseñarse con un espectro más amplio de sensores, haciendo que su experiencia sensorial sea mucho más completa que la nuestra.
Además, los sistemas de IA podrían experimentar más por segundo porque un «cerebro» de IA funcionaría con señales electromagnéticas que viajan a la velocidad de la luz, mientras que las señales neuronales en el cerebro humano viajan a velocidades mucho más lentas.
Puede parecer mucho para entender, pero una cosa está clara: el impacto potencial de la investigación de IA es enorme. Apunta al futuro, pero también implica enfrentar algunas de las preguntas filosóficas más antiguas de la humanidad.
Conclusión de Vida 3.0
La carrera por la IA a nivel humano está en pleno apogeo. No se trata de si llegará AGI, sino de cuándo. No sabemos qué sucederá exactamente cuándo lo haga, pero son posibles varios escenarios: los humanos podrían actualizar su «hardware» y fusionarse con máquinas, o una superinteligencia podría apoderarse del mundo. Una cosa es cierta: la humanidad tendrá que hacerse algunas preguntas filosóficas profundas sobre lo que significa ser humano.