La idea principal del libro El Cisne negro de Nassim Nicholas Taleb es que los eventos extremadamente improbables y de gran impacto, conocidos como «cisnes negros», tienen una influencia mucho mayor en el mundo de lo que la mayoría de las personas reconocen.
Taleb argumenta que muchos de los acontecimientos importantes en la historia, como la caída del bloque soviético o el estallido de la crisis financiera de 2008, fueron cisnes negros que tomó por sorpresa a la mayoría de las personas.
El libro explica cómo estos eventos poco probables suelen tener consecuencias mayores que los eventos más probables, ya que están fuera de nuestro modelo mental del mundo y por lo tanto no estamos preparados para manejarlos.
Taleb propone que debemos cambiar nuestro enfoque para dar más importancia a los eventos extremadamente improbables y tratar de predecir y mitigar sus efectos.
En resumen, la idea central del libro es que los eventos extremadamente improbables tienen una influencia desproporcionada en nuestro mundo y debemos tomar medidas para prepararnos para su impacto.
Qué creencias o teorías desafió el libro El Cisne negro de Taleb?
Nassim Nicholas Taleb desafió varias creencias y teorías convencionales sobre el riesgo, el azar y la predicción. Algunas de las ideas que cuestionó el libro incluyen:
- La idea de que los eventos extremadamente improbables son irrelevantes: Taleb argumenta que estos eventos pueden tener un impacto mucho mayor de lo que se cree y deben tomarse en cuenta.
- La idea de que la probabilidad se puede calcular con precisión: Taleb afirma que la mayoría de los eventos importantes son impredecibles y que los modelos estadísticos tradicionales pueden ser engañosos.
- La idea de que los expertos pueden predecir el futuro: Taleb sostiene que los expertos a menudo se equivocan en sus predicciones y que la confianza ciega en sus opiniones puede ser peligrosa.
- La idea de que el riesgo se puede controlar completamente: Taleb afirma que el riesgo está inherente en la vida y que tratar de controlarlo por completo puede ser contraproducente.
Principales ideas de El Cisne negro
- Los “cisnes negros” son eventos que se cree que están fuera del ámbito de lo posible y, sin embargo, suceden de todos modos.
- Los acontecimientos del Cisne Negro pueden tener consecuencias trascendentales para quienes no los ven.
- Nos dejamos engañar muy fácilmente incluso por las falacias lógicas más básicas.
- La forma en que nuestro cerebro clasifica la información hace que las predicciones precisas sean extremadamente difíciles.
- No distinguimos fácilmente entre información escalable y no escalable.
- Tenemos demasiada confianza en lo que creemos saber.
- Hacer un inventario de lo que no sabe le ayudará a evaluar mejor los riesgos.
- Comprender bien nuestras limitaciones como seres humanos puede ayudarnos a tomar mejores decisiones.
Los “cisnes negros” son eventos que se cree que están fuera del ámbito de lo posible y, sin embargo, suceden de todos modos.
Como seres humanos, somos particularmente buenos para convertir todos los estímulos de nuestro entorno en información significativa. Este es un talento que nos ha permitido crear el método científico, filosofar sobre la naturaleza del ser e inventar modelos matemáticos complejos.
Pero el hecho de que seamos capaces de reflexionar y ordenar el mundo que nos rodea no significa necesariamente que seamos muy buenos en eso.
Por un lado, tendemos a tener una mentalidad estrecha en nuestras creencias sobre el mundo. Una vez que tenemos una idea de cómo funciona el mundo, tendemos a aferrarnos a ella.
Pero como el conocimiento humano crece y evoluciona constantemente, este enfoque dogmático no tiene sentido. Hace apenas doscientos años, por ejemplo, los médicos y científicos tenían una confianza suprema en sus conocimientos de medicina, pero hoy esa confianza parece ridícula: imagínese ir al médico quejándose de un resfriado común y que le receten serpientes y sanguijuelas.!
Ser dogmático acerca de nuestras creencias nos vuelve ciegos ante aquellos conceptos que quedan fuera de los paradigmas que ya hemos aceptado como verdaderos. ¿Cómo, por ejemplo, es posible entender la medicina si no se sabe que existen los gérmenes? Es posible que se le ocurra una explicación sensata para la enfermedad, pero estará defectuosa por la falta de información crucial.
Este tipo de pensamiento dogmático puede dar lugar a grandes sorpresas. A veces nos sorprenden los acontecimientos no porque sean aleatorios, sino porque nuestra perspectiva es demasiado estrecha. Estas sorpresas se conocen como “cisnes negros” y pueden impulsarnos a reconsiderar fundamentalmente nuestra visión del mundo:
Antes de que alguien hubiera visto un cisne negro, la gente asumía que todos los cisnes eran blancos. Debido a esto, todas sus representaciones e imaginaciones del cisne eran blancas, lo que significa que el blanco era una parte esencial del «cisne». Entonces, cuando descubrieron su primer cisne negro, esto transformó fundamentalmente su comprensión de lo que podría ser un cisne.
Como verás, Los cisnes negros pueden ser tan triviales como aprender que no todos los cisnes son blancos, o tan transformadores como perderlo todo debido a una caída del mercado de valores.
Los acontecimientos del Cisne Negro pueden tener consecuencias trascendentales para quienes no los ven.
El efecto de un Cisne Negro no es el mismo para todos nosotros. Algunos se verán muy afectados por ellos, otros apenas. El poder de su efecto está determinado en gran medida por su acceso a información relevante: cuanta más información tenga, menos probabilidades tendrá de ser alcanzado por un cisne negro; y cuanto más ignorante eres, más riesgo corres.
Esto se puede ver en el siguiente escenario:
Imagínese hacer una apuesta por su caballo favorito, Rocket. Debido a la constitución de Rocket, su historial, la habilidad del jockey y la mala competencia, usted cree que Rocket es la apuesta más segura y apuesta todo lo que posee para que el caballo gane.
Ahora imagina tu sorpresa cuando se dé el pistoletazo de salida y Rocket no sólo no abandone las puertas sino que opte simplemente por tumbarse en la pista.
Este sería un evento del Cisne Negro. Dada la información que habías reunido, ganar con Rocket era una apuesta segura, pero lo perdiste todo en el instante en que comenzó la carrera.
Pero este evento no será una tragedia para todos. Por ejemplo, el dueño de Rocket hizo una fortuna apostando contra su propio caballo. A diferencia de usted, él tenía información adicional, sabiendo que Rocket iba a hacer una huelga para protestar contra la crueldad animal. Sólo esa pequeña cantidad de información le salvó de tener que sufrir un evento del Cisne Negro.
El impacto de los cisnes negros también puede variar mucho en escala. En lugar de afectar sólo a individuos, a veces sociedades enteras pueden experimentar un cisne negro. Cuando esto sucede, un cisne negro puede transformar el funcionamiento del mundo, impactando muchas áreas de la sociedad, como la filosofía, la teología y la física.
Por ejemplo, cuando Copérnico propuso que la Tierra no es el centro del universo, las consecuencias fueron inmensas, ya que su descubrimiento desafió tanto la autoridad de los gobernantes católicos como la autoridad histórica de la Biblia misma.
Al final, este Cisne Negro en particular ayudó a establecer un nuevo comienzo para toda la sociedad europea.
Nos dejamos engañar muy fácilmente incluso por las falacias lógicas más básicas.
Aunque los humanos parecen ser los animales más inteligentes del planeta, todavía queda un largo camino por recorrer antes de que superemos todos nuestros malos hábitos.
Uno de esos hábitos es crear narrativas basadas en lo que sabemos del pasado. Si bien tendemos a creer que el pasado es un buen indicador del futuro, esto suele ser una falacia. Nos deja propensos a cometer errores porque simplemente hay demasiados factores desconocidos que podrían ir en contra de nuestras narrativas.
Por ejemplo, imagina que eres un pavo que vive en una granja. A lo largo de los años, el granjero te ha alimentado, te ha dejado vagar libremente y te ha proporcionado un lugar para vivir. Usando el pasado como guía, no hay razón para esperar que el mañana sea diferente.
¡Ay!, mañana es Acción de Gracias y eres decapitado, lleno de especias, arrojado al horno y devorado por aquellos que te albergaron y alimentaron.
Como muestra este ejemplo, creer que podemos basar predicciones sobre el futuro en el conocimiento del pasado es una falacia con consecuencias potencialmente nefastas.
Una falacia similar es el sesgo de confirmación : a menudo buscamos evidencia sólo de aquellas creencias que ya nos hemos formado, incluso hasta el punto de ignorar cualquier evidencia que las contradiga.
Cuando encontramos información que va en contra de lo que ya creemos, es poco probable que la aceptemos y menos aún que investiguemos más a fondo. Si investigamos, probablemente buscaremos fuentes que socaven esta información.
Por ejemplo, si cree firmemente que el “cambio climático” es una conspiración pero luego ve un documental llamado “La evidencia innegable de un clima cambiante”, es probable que se enoje.
Si, después de esto, realizó una búsqueda en la web de información sobre el cambio climático, es más probable que los términos de búsqueda que utilice sean «engaño sobre el cambio climático» y no «evidencias a favor y en contra del cambio climático».
Si bien ambas falacias son anticientíficas, resulta que no podemos hacer mucho para evitar un razonamiento tan malo: está simplemente en nuestra naturaleza.
La forma en que nuestro cerebro clasifica la información hace que las predicciones precisas sean extremadamente difíciles.
Durante nuestra evolución, el cerebro humano desarrolló ciertas formas de categorizar la información. Si bien fueron excelentes para sobrevivir en la naturaleza, cuando necesitábamos aprender y adaptarnos rápidamente a nuestro entorno peligroso, son terribles en los complejos entornos actuales.
Por ejemplo, una forma en que categorizamos incorrectamente la información es la llamada falacia narrativa, donde creamos narrativas lineales para describir nuestra situación actual.
Esto se debe a la enorme cantidad de información a la que nos enfrentamos todos los días. Para que todo tenga sentido, nuestro cerebro selecciona sólo la información que considera importante. Por ejemplo, aunque probablemente recuerdes lo que desayunaste esta mañana, es dudoso que recuerdes el color de los zapatos de todos en el metro.
Para dar significado a estos fragmentos de información desconectados, los convertimos en una narrativa coherente. Por ejemplo, cuando reflexionas sobre tu propia vida, probablemente seleccionas sólo ciertos eventos como significativos y los ordenas en una narrativa que explica cómo llegaste a ser quién eres. Por ejemplo, te encanta la música porque tu mamá solía cantarte canciones de The Beatles todas las noches.
Sin embargo, crear tales narrativas es una mala manera de lograr una comprensión significativa del mundo. Esto se debe a que el proceso funciona únicamente mirando hacia el pasado y no tiene en cuenta las explicaciones casi infinitas que son posibles para cualquier evento.
El hecho es que acontecimientos pequeños, aparentemente insignificantes, pueden tener consecuencias importantes e impredecibles.
Imaginemos, por ejemplo, que el batir de una mariposa en la India provoca un huracán un mes después en la ciudad de Nueva York.
Si catalogamos cada etapa de causa y efecto en este proceso a medida que ocurren, entonces podríamos ver una relación causal clara entre los eventos. Pero como sólo vemos el resultado (en este caso, el huracán), todo lo que podemos hacer es adivinar cuál de los eventos que ocurrieron simultáneamente influyó realmente en ese resultado.
No distinguimos fácilmente entre información escalable y no escalable.
Los humanos hemos desarrollado muchos métodos y modelos para categorizar información y darle sentido al mundo. Desafortunadamente, sin embargo, no somos muy buenos para distinguir entre los diferentes tipos de información, sobre todo entre información “escalable” y “no escalable”.
Pero la diferencia entre esos tipos es fundamental.
La información no escalable, como el peso corporal y la altura, tiene un límite superior e inferior estadístico definido.
El peso corporal no es escalable porque existen limitaciones físicas sobre cuánto puede pesar una persona: si bien es posible que alguien pese 1000 libras, es físicamente imposible que el peso de alguien alcance las 10,000 libras. Debido a que las propiedades de dicha información no escalable son claramente limitadas, nos es posible hacer predicciones significativas sobre los promedios.
Por otro lado, las cosas no físicas o fundamentalmente abstractas, como la distribución de la riqueza o las ventas de álbumes, son escalables. Por ejemplo, si vende su álbum en formato digital a través de iTunes, no hay límite en la cantidad de ventas que puede realizar porque la distribución no está limitada por la cantidad de copias físicas que puede fabricar. Además, debido a que las transacciones se realizan en línea, no falta moneda física que le impida vender un billón de álbumes.
Esta diferencia entre información escalable y no escalable es crucial si desea tener una imagen precisa del mundo. Y tratar de aplicar esas reglas que son efectivas con información no escalable a datos escalables solo conducirá a errores.
Por ejemplo, digamos que desea medir la riqueza de la población de Inglaterra. La forma más sencilla de hacerlo es calcular su riqueza per cápita , sumando su ingreso total y dividiendo esa cifra por el número de ciudadanos.
Sin embargo, la riqueza es realmente escalable: es posible que un pequeño porcentaje de la población posea un porcentaje increíblemente grande de la riqueza.
Simplemente recopilando datos sobre el ingreso per cápita, se termina con una representación de la distribución del ingreso que probablemente no refleja con precisión la realidad real de los ciudadanos de Inglaterra.
Tenemos demasiada confianza en lo que creemos saber.
A todos nos gusta mantenernos a salvo de cualquier daño, y una de las formas en que lo hacemos es evaluando y gestionando la posibilidad de riesgo. Por eso compramos cosas como un seguro contra accidentes y tratamos de no “poner todos los huevos en la misma canasta”.
La mayoría de nosotros hacemos todo lo posible para medir los riesgos con la mayor precisión posible para asegurarnos de no perder oportunidades y, al mismo tiempo, de no hacer algo de lo que luego podamos arrepentirnos.
Para lograr esto tenemos que evaluar los posibles riesgos y luego medir la probabilidad de que estos riesgos se materialicen.
Por ejemplo, imagina que estás en el mercado para comprar un seguro. Quiere comprar el tipo de póliza que lo protegerá contra el peor de los casos, pero que tampoco será una pérdida de dinero. En este caso, habría que medir la amenaza de enfermedad o accidente frente a las consecuencias de esos eventos y luego tomar una decisión informada.
Desgraciadamente, confiamos demasiado en que conocemos todos los posibles riesgos contra los que debemos protegernos. A esto se le llama falacia lúdica y, según ella, tendemos a manejar el riesgo como lo haríamos con un juego, con un conjunto de reglas y probabilidades que podemos determinar antes de jugar.
Sin embargo, tratar el riesgo como un juego es en sí mismo un negocio arriesgado. Por ejemplo, los casinos quieren ganar la mayor cantidad de dinero posible, por eso tienen elaborados sistemas de seguridad y prohíben a los jugadores que ganan demasiado y con demasiada frecuencia.
Pero su enfoque se basa en la falacia lúdica. Las principales amenazas para los casinos pueden no ser los jugadores afortunados o los ladrones, sino más bien, por ejemplo, un secuestrador que toma como rehén al hijo del propietario o un empleado que no presenta las ganancias del casino al IRS. Las mayores amenazas del casino pueden ser completamente impredecibles.
Como esto muestra, no importa cuánto lo intentemos, nunca podremos calcular con precisión todos los riesgos.
A continuación, descubriremos que ser consciente de nuestra ignorancia es mucho mejor que permanecer inconsciente de ella.
Hacer un inventario de lo que no sabe le ayudará a evaluar mejor los riesgos.
Todos hemos escuchado la frase «el conocimiento es poder». Sin embargo, a veces estamos limitados por lo que sabemos y, en esos momentos, reconocer lo que no sabemos es mucho más ventajoso.
De hecho, al centrarse únicamente en lo que sabe, limita su percepción de todos los resultados posibles de un evento determinado y crea un terreno fértil para la ocurrencia de eventos del Cisne Negro.
Por ejemplo, supongamos que desea comprar acciones de una empresa, pero su conocimiento de las estadísticas bursátiles se limita al período 1920-28, un año antes de la mayor caída del mercado de valores en la historia de Estados Unidos. En ese caso, observarías algunas pequeñas caídas y picos, pero en general notarás que la tendencia es alcista. Entonces, pensando que esta tendencia debe continuar, gasta los ahorros de toda su vida en acciones. Sin embargo, al día siguiente, el mercado colapsa y pierdes todo lo que tienes.
Si hubieras estudiado el mercado un poco más, habrías observado los numerosos auges y caídas a lo largo de la historia. Al centrarnos únicamente en lo que sabemos, nos abrimos a riesgos grandes e inmensos.
Por otro lado, si al menos puede establecer qué es lo que no sabe, entonces podrá reducir en gran medida su riesgo.
Los buenos jugadores de póquer entienden bien este principio, ya que es crucial para su éxito en el juego.
Si bien conocen las reglas del juego y las probabilidades de que sus oponentes tengan mejores cartas que ellos, también son conscientes de que hay cierta información relevante que desconocen, como la estrategia de su oponente y cuánto gana. puede soportar perder.
Su conocimiento de estas incógnitas contribuye a una estrategia que no se centra únicamente en sus propias tarjetas, lo que les permite realizar una evaluación del riesgo mucho más informada.
Comprender bien nuestras limitaciones como seres humanos puede ayudarnos a tomar mejores decisiones.
Quizás la mejor defensa contra caer en las trampas cognitivas que hemos visto sea una buena comprensión de las herramientas que utilizamos para hacer predicciones y sus limitaciones.
Si bien conocer nuestras propias limitaciones ciertamente no nos salvará de todos los errores que cometamos, al menos puede ayudarnos a reducir nuestras malas decisiones.
Por ejemplo, si eres consciente de que estás sujeto a sesgos cognitivos, como todos los demás, entonces es mucho más fácil reconocer cuando sólo estás buscando información que confirme lo que ya crees que es verdad.
Del mismo modo, si sabes que a los humanos nos gusta organizar todo en narrativas causales ordenadas, y que este tipo de enfoque simplifica la complejidad del mundo, entonces será más probable que busques más información para obtener una mejor visión del mundo. “cuadro completo”.
Sólo esta pequeña cantidad de autoanálisis crítico puede ayudarle a obtener una ventaja competitiva sobre otros en su campo.
Sin duda, es preferible ser consciente de sus defectos. Por ejemplo, si sabe que siempre habrá riesgos imprevisibles al aprovechar cualquier oportunidad, a pesar de lo prometedora que parezca, probablemente estará menos inclinado a invertir mucho en ella.
Si bien no podemos triunfar sobre la aleatoriedad o nuestra limitada capacidad para comprender la vasta complejidad de nuestro mundo, al menos podemos mitigar el daño infligido por nuestra ignorancia.
Lecturas complementarias
- Antifrágil: cosas que se benefician del desorden de Nassim Nicholas Taleb: Este libro examina los sistemas que se benefician del caos y la incertidumbre, y cómo podemos diseñar nuestras vidas y organizaciones para ser más robustos.
- El triunfo del dinero de Niall Fergurson: Este libro ofrece una visión histórica de la evolución del dinero y los mercados financieros, lo que puede proporcionar un contexto para las ideas de Taleb sobre el azar y la incertidumbre en los mercados.
- Pensar rápido, pensar despacio de Daniel Kahneman: Este libro explora los sesgos cognitivos y las fallas de la toma de decisiones humana, lo que puede complementar bien las ideas de Taleb sobre las decisiones bajo incertidumbre.
Imagen de Holger Detje en Pixabay