La tesis principal de How Not to Be Wrong: The Power of Mathematical Thinking de Jordan Ellenberg es que el pensamiento matemático es esencial para tomar decisiones informadas y para entender y navegar por el complejo mundo moderno. Ellenberg sostiene que las matemáticas no son simplemente un conjunto de reglas y fórmulas para resolver problemas escolares, sino una manera poderosa de pensar que puede ayudarnos a tomar mejores decisiones y a evitar ser engañados o cometer errores en diversos aspectos de la vida cotidiana.
La relevancia de esta tesis radica en que vivimos en una era donde la información y los datos están en el centro de muchas actividades humanas, desde la economía y la política hasta la salud y la educación. Un entendimiento matemático nos permite analizar críticamente la información, evaluar riesgos y probabilidades, y comprender mejor las implicaciones de nuestras decisiones. Además, el pensamiento matemático puede ayudarnos a desenmascarar argumentos engañosos y a apreciar la belleza y la estructura del mundo que nos rodea.
El libro de Ellenberg es relevante porque promueve la alfabetización matemática en un momento en que la capacidad de interpretar y analizar datos es cada vez más importante. Al hacer accesibles y aplicables los conceptos matemáticos a situaciones de la vida real, Ellenberg anima a los lectores a ver las matemáticas no como una disciplina aislada y abstracta, sino como una herramienta vital para la toma de decisiones informadas y racionales.
Principales ideas de How Not to Be Wrong
- Matemáticas: El arte de aplicar el sentido común que evita errores
- El poder de la linealidad en la resolución de problemas matemáticos
- La teoría de la probabilidad en la interpretación de datos observacionales
- Probabilidad y valor esperado: Cómo navegar el riesgo en las apuestas
- El efecto de regresión: Un fenómeno matemático en nuestro entorno
- La regresión a la media: Cómo influye en nuestros resultados
- Limitaciones de la regresión lineal en el análisis de datos
- Por qué muchos hallazgos de investigación son incorrectos: Datos mal usados y cálculos de probabilidad equivocados
- La problemática de la falsedad en los hallazgos científicos
- Las encuestas y elecciones: Cuando la «Opinión Pública» no refleja la realidad
Matemáticas: El arte de aplicar el sentido común que evita errores
Las matemáticas son más que un conjunto de fórmulas complejas; son el arte de aplicar el sentido común para evitar errores. Es posible que alguna vez te hayas sentido abrumado por las ecuaciones en la escuela y te hayas preguntado si alguna vez las usarías en la vida real. La respuesta es un rotundo sí. Las matemáticas son una herramienta esencial en nuestra vida diaria, aunque no siempre las reconozcamos como tal.
Las matemáticas son, en su esencia, la ciencia de la certeza, de no cometer errores.
Tomemos, por ejemplo, un caso de la Segunda Guerra Mundial: los aviones estadounidenses que volvían de Europa solían estar llenos de agujeros de bala, especialmente en el fuselaje. Los asesores militares propusieron reforzar esta área, pero un astuto matemático sugirió proteger mejor el motor. Su razonamiento era que los aviones que recibían disparos en el motor no regresaban, y si se reforzaban los motores, más aviones sobrevivirían. Este razonamiento se basa en el fenómeno matemático del sesgo de supervivencia, que es el error de enfocarse solo en los ejemplos que han sobrevivido a un proceso, ignorando aquellos que no.
Este caso ilustra cómo la matemática se utiliza para razonar correctamente y evitar conclusiones erróneas.
Además, las matemáticas se fundamentan en el sentido común. Considera la propiedad conmutativa de la suma, que establece que el orden de los sumandos no altera el resultado, algo que sabemos intuitivamente pero que las matemáticas formalizan: para cualquier par de números a y b, se cumple que a + b = b + a.
Aunque no siempre podemos resolver problemas complejos solo con nuestra intuición, las matemáticas nacen de ella y de nuestro sentido común, permitiéndonos enfrentar desafíos cotidianos con lógica y precisión.
El poder de la linealidad en la resolución de problemas matemáticos
La linealidad es una herramienta esencial en matemáticas que facilita la simplificación y resolución de problemas complejos. Esta técnica permite descomponer problemas grandes en componentes más manejables, asumiendo que las relaciones entre variables son lineales. En geometría, por ejemplo, la linealidad se observa en el tratamiento de líneas rectas, mientras que las curvas indican no linealidad.
Un ejemplo claro de linealidad se puede ver al considerar el movimiento de una hormiga alrededor de un círculo grande. Aunque la trayectoria es curva, desde una perspectiva cercana, parece una línea recta. Esta observación sugiere que la curva de un círculo puede aproximarse mediante segmentos lineales pequeños. Este principio también se aplica al calcular áreas; por ejemplo, al medir el área de un círculo, se puede empezar colocando un cuadrado en su centro y luego ajustar polígonos adicionales para estimar el área total usando solo formas lineales.
En el campo de la estadística, la linealidad se utiliza ampliamente a través de la regresión lineal, una técnica que ayuda a entender cómo variables como el nivel salarial pueden relacionarse con otras, como la preferencia de voto. La regresión lineal no busca conectar cada punto de datos individualmente, sino que proporciona una línea que refleja la tendencia general, simplificando así la interpretación de grandes volúmenes de datos. Esta metodología es crucial para analizar relaciones en estudios económicos, sociales y de salud, demostrando cómo la linealidad puede ser una poderosa aliada en la simplificación y resolución de problemas complejos en diversas disciplinas.
La teoría de la probabilidad en la interpretación de datos observacionales
La teoría de la probabilidad es una herramienta clave en la interpretación de datos observacionales, especialmente cuando se busca distinguir entre resultados que surgen por casualidad y aquellos que reflejan una relación real. Los científicos recurren a la observación para recopilar datos y formular teorías, pero la posibilidad de que estos datos sean producto del azar plantea un desafío en la interpretación de los resultados. Un ejemplo de esto es un experimento en el que se midió la actividad cerebral de un pez muerto en respuesta a imágenes de personas, lo que aparentemente indicó una respuesta significativa. Sin embargo, este resultado fue en realidad una demostración de cómo el «ruido» aleatorio puede ser malinterpretado como una respuesta significativa.
En la práctica, los neurocientíficos analizan los escaneos cerebrales en unidades llamadas vóxeles, y debido a la gran cantidad de estos, es probable que algunos muestren datos que parezcan significativos por casualidad. Para abordar esta incertidumbre, los investigadores aplican la teoría de la probabilidad y realizan pruebas de significancia de la hipótesis nula.
Estas pruebas comienzan con la hipótesis nula, que asume que no hay efecto o relación. Al calcular el valor p, que es la probabilidad de obtener un resultado tan extremo como el observado bajo la hipótesis nula, los investigadores pueden determinar si los datos son estadísticamente significativos. Si el valor p es menor que un umbral preestablecido (generalmente 0.05), se considera que hay suficiente evidencia para rechazar la hipótesis nula y aceptar la hipótesis alternativa, lo que indica que el efecto observado probablemente no se deba al azar.
Este proceso es fundamental para validar la significancia estadística y la relevancia práctica de los hallazgos en la investigación científica.
Probabilidad y valor esperado: Cómo navegar el riesgo en las apuestas
La teoría de la probabilidad nos ayuda a establecer expectativas ante situaciones inciertas, como las apuestas, aunque no puede predecir con certeza el futuro. Por ejemplo, al comprar un boleto de lotería, podemos calcular su valor esperado considerando todas las posibles salidas y sus probabilidades. Si un boleto cuesta $1 y hay una posibilidad entre 10 millones de ganar $6 millones, el valor esperado sería de 60 centavos, implicando una pérdida promedio de 40 centavos por boleto.
Este concepto se aplica igualmente en finanzas, como en la valoración de opciones de acciones o seguros. Sin embargo, el valor esperado no toma en cuenta el riesgo asociado a la apuesta. Por ejemplo, una apuesta con un valor esperado de $50,000 puede ser menos atractiva si implica el riesgo de perder $100,000. Por lo tanto, es crucial considerar tanto el valor esperado como el riesgo potencial antes de realizar una apuesta, especialmente si no se dispone de los recursos para absorber posibles pérdidas. La conciencia del riesgo es esencial en cualquier decisión de apuesta.
El efecto de regresión: Un fenómeno matemático en nuestro entorno
El efecto de regresión se encuentra en todas partes, pero a menudo no se reconoce. ¿Por qué la segunda novela de un escritor suele no ser tan buena como su primer gran éxito? El éxito artístico está sujeto a un fenómeno matemático llamado regresión a la media, o efecto de regresión.
El efecto de regresión establece que si una variable produce un resultado poco probable, el siguiente resultado tenderá a estar más cerca de la media.
Cualquier cosa que involucre aleatoriedad puede estar sujeta al efecto de regresión. Por ejemplo, las personas bajas tienden a tener hijos bajos y las personas altas tienden a tener hijos altos. Pero los hijos de padres muy bajos o muy altos probablemente no serán tan bajos o tan altos como sus padres. En cambio, su altura estará más cerca del promedio.
Esto se debe a que la altura no está completamente determinada por los genes. Está afectada por muchos otros factores, como los hábitos alimenticios, la salud y la mera casualidad. No hay razón, entonces, para que tales factores externos se alineen precisamente de nuevo como lo hicieron para esos padres muy altos o muy bajos.
Sin embargo, la regresión a menudo no se reconoce. Por ejemplo, el British Medical Journal publicó en 1976 un artículo de investigación que informaba que el salvado podía regular la digestión humana. Si los participantes informaban una tasa de digestión rápida un día, comer salvado ralentizaba su digestión la próxima vez que se medía, y viceversa.
Estos resultados son exactamente lo que predice el efecto de regresión. Si una persona informa una tasa de digestión rápida un día, es probable que tenga una tasa de digestión más lenta al siguiente. Por lo tanto, el efecto del salvado podría no ser tan notable después de todo.
Los investigadores deben tener cuidado en situaciones como esta, ya que podrían confundir el efecto de regresión con un fenómeno biológico, como hicieron los investigadores que medían los efectos del salvado en la digestión.
Lo mismo sucede cuando el segundo libro de un escritor famoso no está tan bien elaborado como el primero, y los críticos literarios a menudo lo atribuyen a la «exhaustación». Más que nada, es solo matemáticas.
La regresión a la media: Cómo influye en nuestros resultados
El fenómeno de la regresión a la media es omnipresente, aunque frecuentemente pasa desapercibido. Este principio matemático sugiere que tras un resultado excepcionalmente alto o bajo, el siguiente tenderá a ser más cercano a la media. Este efecto se manifiesta en situaciones que involucran elementos de azar, como la genética en la altura de las personas. Por ejemplo, hijos de padres extremadamente altos o bajos suelen tener una estatura más próxima al promedio, ya que la altura es influenciada por múltiples factores, no solo los genes.
La falta de reconocimiento de este efecto puede llevar a interpretaciones erróneas. Un estudio del British Medical Journal en 1976 concluyó que el salvado regulaba la digestión, basándose en que la velocidad de digestión de un día a otro variaba. Sin embargo, esto es lo que cabría esperar por regresión a la media, no necesariamente un efecto del salvado. De manera similar, cuando la segunda obra de un autor aclamado no alcanza el éxito de la primera, se suele atribuir a la «exhaustación», cuando en realidad podría ser una manifestación de la regresión a la media. Es crucial que los investigadores consideren este fenómeno al diseñar estudios y analizar datos para evitar conclusiones equivocadas.
Limitaciones de la regresión lineal en el análisis de datos
La regresión lineal es una técnica estadística fundamental para entender la relación entre variables. Aunque es útil, su aplicación es limitada y puede llevar a conclusiones erróneas si se utiliza inapropiadamente. Esta técnica funciona trazando puntos en un gráfico y ajustando una línea que minimice las distancias a todos los puntos, lo cual es efectivo solo si los datos muestran una tendencia lineal.
Por ejemplo, la regresión lineal puede predecir correctamente la posición de un misil en un corto lapso si su trayectoria parece lineal en ese segmento. Sin embargo, falla en prever su ubicación tras períodos más largos si la trayectoria se curva, ya que no considera cambios en la dirección del movimiento.
Un caso ilustrativo de su mal uso se dio en 2008, cuando un estudio proyectó que todos los estadounidenses serían obesos para 2048 usando regresión lineal, sin considerar que las tendencias de obesidad forman curvas a lo largo del tiempo. De hecho, aplicar linealidad estricta sugeriría absurdamente que más del 100% de la población podría ser obesa en el futuro.
Por lo tanto, aunque la regresión lineal es una herramienta valiosa, es crucial entender sus limitaciones y aplicarla solo cuando el análisis de los datos justifique su uso.
Por qué muchos hallazgos de investigación son incorrectos: Datos mal usados y cálculos de probabilidad equivocados
En 2005, un profesor llamado John Ioannidis publicó un artículo titulado «¿Por qué la mayoría de los hallazgos de investigación publicados son falsos?». Puede parecer una afirmación radical, pero sus puntos eran sólidos.
Primero afirmó que las observaciones insignificantes a veces pueden pasar una prueba de significancia estadística por casualidad.
Considera la influencia de la genética de una persona en su probabilidad de desarrollar esquizofrenia. Es casi seguro que algunos genes están asociados con la esquizofrenia, pero no está claro cuáles.
Por lo tanto, los científicos podrían tener que examinar alrededor de 100,000 genes, mientras que es posible que solo 10 estén realmente relacionados con la esquizofrenia. Sin embargo, con la prueba de significancia más comúnmente utilizada del 95 por ciento, el 5 por ciento de los genes pasarán la prueba por casualidad. En este caso, el 5 por ciento significa 5,000 genes. Este no es un resultado lo suficientemente específico como para significar realmente algo.
El segundo punto de Ioannidis fue que los estudios que no encuentran resultados exitosos de prueba a menudo no se publican, por lo que aquellos que sí reciben una atención desproporcionada.
Imagina que 20 laboratorios prueban las gominolas verdes para ver si causan acné. De los laboratorios, 19 no encuentran un efecto significativo como parte de su prueba, por lo que no redactan los resultados. El laboratorio que sí encuentra un resultado estadísticamente significativo es mucho más probable que redacte un informe y se publique.
Esto no es inusual: los experimentos que salen bien por casualidad a menudo se publican mientras que otros que no miden el mismo fenómeno permanecen oscuros.
Ioannidis también argumentó que los científicos a veces manipulan sus resultados para hacerlos estadísticamente significativos.
Imagina que realizas un experimento y obtienes un resultado con una certeza del 94 por ciento. Necesitas tener un mínimo de certeza del 95 por ciento para que se considere estadísticamente significativo, por lo que tus resultados serían insignificantes.
Dado que tu prueba de significancia está tan cerca, sería posible manipular los datos para alcanzar una certeza del 95 por ciento. Los investigadores a menudo hacen esto, no porque tengan malas intenciones, sino porque realmente creen en sus propias hipótesis.
La problemática de la falsedad en los hallazgos científicos
En 2005, John Ioannidis sacudió el mundo académico con su artículo «¿Por qué la mayoría de los hallazgos de investigación publicados son falsos?», donde argumentaba que muchos resultados de investigación podrían ser incorrectos. Ioannidis señaló que, debido a la aleatoriedad, observaciones que no son significativas pueden parecerlo. Por ejemplo, en la investigación genética de la esquizofrenia, si bien algunos genes pueden estar relacionados con la enfermedad, la identificación de estos es compleja. Al examinar 100,000 genes, el 5% podría asociarse con la esquizofrenia por casualidad, lo que resultaría en 5,000 genes identificados erróneamente como relevantes.
Además, Ioannidis destacó que los estudios con resultados no significativos rara vez se publican, lo que lleva a una atención desproporcionada hacia los que sí muestran resultados significativos, incluso si estos son producto del azar. Este sesgo de publicación se agrava cuando los investigadores ajustan sus datos para alcanzar la significancia estadística deseada, a menudo motivados por la creencia en sus hipótesis más que por la manipulación intencionada. Este fenómeno pone de manifiesto la necesidad de un escrutinio más riguroso en la publicación y la interpretación de los estudios científicos.
Las encuestas y elecciones: Cuando la «Opinión Pública» no refleja la realidad
La «opinión pública» es un término ambiguo y su medición a través de encuestas puede ser engañosa. Las personas a menudo tienen opiniones contradictorias que pueden cambiar rápidamente. Por ejemplo, una encuesta de CBS News en enero de 2011 mostró que el 77% de los encuestados favorecía recortar el gasto para reducir el déficit presupuestario federal. Sin embargo, un mes después, una encuesta de Pew Research reveló que en 11 de 13 categorías de gasto gubernamental, la mayoría prefería aumentar el gasto en lugar de reducirlo.
Además, el concepto de «mayoría» puede ser problemático, especialmente cuando hay más de dos opciones disponibles. Esto puede llevar a interpretaciones erróneas de los datos. Por ejemplo, aunque el 52% de los encuestados en una encuesta de 2010 se opuso a la Ley de Cuidado de Salud Asequible, desglosar los números mostró que muchos de los «oponentes» en realidad apoyaban aspectos clave de la ley.
Este fenómeno también se observa en las elecciones. En las elecciones presidenciales de EE. UU. del año 2000, aunque George Bush obtuvo una ligera mayoría de votos en Florida, es probable que la mayoría de los votantes que eligieron a Ralph Nader hubieran preferido a Al Gore, sugiriendo que una mayoría del 51% prefería a Gore sobre Bush. Esto ilustra cómo las encuestas y los resultados electorales pueden no reflejar fielmente la voluntad de la mayoría.