
Según los rumores, 20th Century Fox lanzará una nueva versión de la película de ciencia ficción
Fantastic Journey de 1966 en un par de años. Según la trama, los protagonistas son comprimidos e inyectados en el cuerpo humano, a través del cual viajan en un submarino de tamaño microscópico. A tales escalas, el flujo sanguíneo se convierte en turbulencia peligrosa, los cuerpos blancos pueden tragarse un barco y la tensión superficial de una gota se convierte en una barrera insuperable.
La ampliación destruye nuestra comprensión intuitiva de lo que es importante para nosotros, lo que tiene poder y lo que es peligroso. Para sobrevivir, necesitas reconfigurar la intuición. Incluso si se puede descuidar cualquier efecto en escalas familiares, un efecto ligeramente menos insignificante puede volverse increíblemente importante en escalas desconocidas.

¿Cómo entendemos lo que puede ser importante en una escala desconocida? Resulta que existe una teoría matemática de grandes desviaciones que funciona con probabilidades de la misma manera que el rayo decreciente trabajó con el equipo de Viaje Fantástico. Mientras que la teoría clásica de la probabilidad se ocupa de las probabilidades de los eventos ordinarios, la teoría de las grandes desviaciones se especializa en eventos extremadamente raros que surgen cuando se fusionan varios eventos poco comunes. Nos permite acercarnos a un microscopio probabilístico para determinar las formas menos probables de cómo puede ocurrir un evento extremadamente improbable.
Desde el momento en que la teoría fue formulada hace 50 años, el matemático S.R. Srinivasa Varadhan, fue cuidadosamente estudiado y desarrollado. Muestra cómo el comportamiento promedio de un sistema aleatorio puede desviarse del típico. Al comparar cuidadosamente todas las posibilidades raras, puede ver cómo a menudo subestimamos las probabilidades de eventos inusuales cuando limitamos nuestra atención a las formas habituales en que pueden ocurrir.
Hagamos un viaje con un microscopio en nuestras manos.
Comerciante de alta frecuencia
Un comerciante de alta frecuencia realiza largas secuencias de transacciones. En cada uno de ellos, su condición con un valor inicial de $ 1,000,000 aumenta en medio por ciento o disminuye en medio por ciento, y la probabilidad de cualquier resultado es de ½. ¿Cuánto dinero es probable que tenga en un millón de transacciones?
Puede razonar así: cada transacción sube o baja la misma cantidad, por lo que la cantidad promedio no cambiará, y al final debería tener $ 1 millón restante.
Y aquí hay otro argumento: cuando gana, su fortuna se multiplica por 1.005. Al perder, luego a 0.995. Tanto eso como otro lo multiplican por 1,005 x 0,995 = 0,999975. Para un millón de transacciones, se producirán 500,000 de estos y otros casos, por lo que el millón original se convertirá en $ 1,000,000 x (0,999975)
500,000 , lo que equivale aproximadamente a $ 3.73.
¿Qué razonamiento es verdadero? Por extraño que parezca, ambos, pero el segundo será más importante. Lo más probable es que al comerciante no le quede nada, pero si aumentamos el conjunto de eventos poco probables en los que gana, veremos esas opciones en las que gana mucho. La función clave aquí es I (x), una función de relación que muestra cómo la probabilidad de obtener el resultado x disminuye con un aumento en el número de transacciones. Aquí x es un número, pero dependiendo de la tarea, puede ser una trayectoria aleatoria, una estructura de red aleatoria o una geometría aleatoria del universo. I (x) = 0 corresponde a un caso típico con una probabilidad no muy pequeña; en nuestro caso, esta es una opción en la que el estado del operador disminuye con una tasa exponencial. Los valores grandes de I (x) corresponden a la exponencialmente menos probable x.
El valor promedio determina un compromiso entre una probabilidad exponencialmente decreciente y un estado exponencialmente creciente. Algunas de x resultan ser muy grandes, a pesar del pequeño tamaño de la probabilidad que les corresponde. La optimización de este compromiso confirma la ingenua noción intuitiva de que el resultado comercial promedio será igual a $ 1 millón, aunque puede estar seguro de que casi todos los operadores perderán casi todo. Si hay 1 millón de comerciantes, y cada uno de ellos realiza un millón de transacciones con un capital de $ 1 millón, entonces el resultado promedio será realmente igual a $ 1 millón, pero este promedio será determinado por 1-2 operadores, en cuyas cuentas habrá cientos de miles de millones de dólares. La mayor parte del dinero estará en las cuentas de un pequeño número de operadores aleatorios, y la mayoría de los operadores perderán todo.
Las posibilidades de ganar o quedarse solo no superan 1 de cada 100.
Nodo telefónico
El principal problema de las redes de comunicación es determinar la probabilidad de congestión. El búfer de datos del nodo telefónico o de Internet puede tener una capacidad suficiente para la carga promedio, pero no suficiente para manejar una cantidad inusual de solicitudes simultáneas.
Los matemáticos del laboratorio de Bella, Alan Weiss y Adam Shwartz, indicaron la aplicación de la teoría de la gran desviación a las redes de comunicaciones en 1995. En teoría, la probabilidad de un evento raro disminuye exponencialmente con el tamaño del sistema. En el lenguaje de las matemáticas, la probabilidad cambia como e
-n * I (x) , donde n denota el tamaño, x es el camino hacia un evento raro, I es la función de relación que da la probabilidad relativa de elegir este camino. Los eventos raros generalmente ocurren de manera predecible, una que minimiza la función de relación, y ocurren en grupos separados por largos intervalos de tiempo.
En cualquier tarea, la dificultad radica en determinar (e interpretar con éxito) la función de relación. Da la probabilidad relativa de todas las secuencias de cargas, de las cuales se pueden derivar combinaciones que conducen a sobrecargas y que tienen el menor valor de la función de relación, es decir, la mayor probabilidad. Estas combinaciones determinan la frecuencia de la congestión, así como su naturaleza: cuántas fuentes estarán activas, qué fuentes serán y qué tan rápido se las arreglará para hacer frente a la congestión.
Como un ejemplo simple, considere una red telefónica en la que cada uno de un gran número de usuarios, digamos un millón, se conecta en momentos aleatorios, de modo que, en promedio, permanecen en la línea el 1% del tiempo. (Asumimos que hacen llamadas independientemente el uno del otro, y con las mismas oportunidades en cualquier momento del día). La red necesita 10,000 líneas de comunicación para satisfacer las demandas promedio. La compañía, utilizando grandes desviaciones, estimó que cuando se pusieran en servicio 10.500 líneas de comunicación, estaría en un estado de sobrecarga durante aproximadamente 2 minutos por año.
Imagine que, además de la red, medio millón de jugadores comienzan a usar consolas que están en la línea el 1 por ciento de las veces, pero que requieren un gran ancho de banda: recogen 5 líneas cada una. Los nuevos usuarios también necesitan 10,000 líneas en promedio, por lo que la compañía decide duplicar su capacidad a 21,000 líneas. Pero como resultado, la red se sobrecarga durante varios minutos a la semana. Un análisis de la función de relación muestra que los jugadores que usan la misma capacidad de red en promedio que otros usuarios usan un 8% más de líneas durante la congestión, y que 250 líneas adicionales restaurarán el tiempo de actividad de la red. Si trazamos la carga de la red segundos antes de la congestión, veremos que casi siempre sigue un cierto patrón, inclinándose suavemente hacia arriba antes de abruptamente abatir el techo, y esta curva también se puede calcular como una función de relación de minimización.
En las redes descentralizadas modernas que intercambian paquetes, la función de relación puede ayudar a detectar botnets, redes de computadoras infectadas con virus que los delincuentes usan para enviar spam y ataques a los sistemas. La idea es identificar la computadora de control de botnet que se comunica con una cantidad inusualmente grande de otras computadoras, y luego confirmar la identificación encontrando correlaciones inusuales en las computadoras con las que se comunica. Con este fin, los investigadores de la Universidad de Boston utilizaron una función de relación que podría describir, entre todas las razones, por qué un conjunto grande de computadoras no conectadas podría comunicarse con el mismo servidor remoto, cuál de las opciones para correlacionar sus comunicaciones sería más probable. (Wang, J. y Paschalidis, detección de IC Botnet basada en anomalías y detección comunitaria. Transacciones IEEE sobre control de sistemas de red (2016). Recuperado de DOI: 10.1109 / TCNS.2016.2532804.)
Semilla para dormir
Diapausa: un retraso en el desarrollo biológico, que a menudo ocurre en una etapa temprana. Muchas especies de plantas producen semillas que no comienzan a desarrollarse de inmediato, pero permanecen latentes durante mucho tiempo y forman un suministro estable. Dado que la batalla por la supervivencia generalmente se convierte en "quién llega primero y más", un retraso aleatorio en el desarrollo es un pequeño misterio ambiental.
Para comprender la situación, Shripad Tuljapurkar y yo en nuestro trabajo conjunto examinamos un modelo simple: una especie con un ciclo de vida de dos años en el que crece de semilla a adulta durante el primer año y pasa el segundo en producción de semilla. (Steinsaltz, D. y Tuljapurkar, S. Tasas de crecimiento estocástico para historias de vida con migración rara o diapausa. ArXiv: 1505.00116 (2015).) Hicimos la siguiente pregunta: ¿cómo afectará la tasa de crecimiento el hecho de que algunas de las semillas permanecerán en hibernación? por un año?
En el caso en que el crecimiento, la supervivencia y la producción de semillas de año en año permanecen constantes, la respuesta es obvia: el retraso del crecimiento de los individuos retrasa el crecimiento de la población. Pero bajo condiciones ambientales variables, todo resulta diferente. Incluso un ligero retraso conduce a un fuerte aumento de la población.

Si el 1% de las semillas espera un año, uno esperaría una trayectoria genealógica típica para experimentar 1 retraso de 100 años y caer en condiciones ambientales típicas cuando crezca. Pero las generaciones posteriores de semillas tendrán trayectorias muy raras que persistirán con mayor frecuencia, en las cuales estos retrasos ocurren solo en los peores años, cuando el crecimiento significa una muerte casi segura o la incapacidad de producir semillas. Estas trayectorias sirven como grandes desviaciones, exponencialmente raras, pero con el tiempo producen exponencialmente más descendientes. La tasa de crecimiento de la población está determinada en última instancia por estos caminos poco probables. En otras palabras, si rastreamos la trayectoria de una persona que vive hoy, se verá como una secuencia de accidentes exitosos.
La misma matemática funciona para la migración, apoyando el importante principio de protección del hábitat: la vista se beneficiará de la capacidad de moverse entre dos territorios igualmente buenos donde las condiciones climáticas cambian aleatoriamente de año en año. Cada individuo, rastreando la historia familiar, encontrará en él ancestros que huyeron de un lugar, por casualidad, justo antes del inicio del cataclismo, o llegaron a otro lugar justo cuando había mucha comida. Este es un caso especial de evolución banal: la mayoría de los organismos vivos mueren sin dejar descendencia, pero puedes rastrear a tus antepasados durante miles de millones de generaciones y no conocer a ninguno de esos perdedores. Suerte para ti!
Centenarios
Habiendo vivido hasta cierta edad, lo que resulta ser menos de lo que la mayoría de la gente piensa, ya que la probabilidad de que viva otro año es de un máximo de 12 años, enfrentará el hecho de que su condición física y la probabilidad de vivir otro año todo el tiempo disminuyen, incluso si por períodos cortos puede lograr mejoras. Los demógrafos teóricos consideraron modelos de envejecimiento en los que la "capacidad de supervivencia" de un individuo sirve como una variable aleatoria que cambia en pequeños pasos, y que es más probable que cambie hacia abajo que hacia arriba, y la probabilidad de muerte aumenta cuanto más baja es la capacidad de supervivencia.
No es sorprendente que, siguiendo este modelo, se pueda calcular que la supervivencia media de una población disminuye en función de la edad ... hasta cierto punto. Pero una pequeña parte de la población sobrevive hasta cierta edad, y estos son individuos excepcionales. Quizás tuvieron la suerte de ganar la lotería genética. Quizás los golpes aleatorios de la vida los dirigieron en una dirección relativamente positiva.
Sea como fuere, el modelo predice que la supervivencia de los sobrevivientes gradualmente deja de disminuir. Cada individuo sigue disminuyendo, pero los que han disminuido son llevados por una anciana con una guadaña. La supervivencia total de los sobrevivientes alcanza un equilibrio llamado "distribución cuasiestacionaria" entre las trayectorias individuales que bajan y la detección de individuos en exceso en la parte inferior de la distribución de supervivencia.
En el lenguaje de las grandes desviaciones, existe una función de la relación I (x), donde x es el registro de supervivencia para la vida, que es cero para trayectorias que permanecen cerca del promedio. Aquellos que se desvían fuertemente del promedio tienen una función de relación positiva, es decir, su probabilidad es exponencialmente menor. En un modelo típico, puede encontrar que entre todos los caminos de la vida que duran de manera inusualmente larga, los más probables son aquellos que accidentalmente mantuvieron la supervivencia en un nivel inusualmente alto que aquellos que siguieron un camino descendente normal y no murieron accidentalmente.
De ello se deduce que la tasa de mortalidad, la probabilidad de morir el próximo año para un individuo de cierta edad, aumenta en la edad adulta y luego se iguala a una edad muy respetable. Tal patrón, la "meseta de la mortalidad", se puede ver claramente en organismos como Drosophila y nematodos, si se observa en grandes cantidades en las mismas condiciones de laboratorio: la tasa de mortalidad se iguala en el laboratorio más común Drosophila, Drosophila melanogaster, ya a la edad de 4 semanas. (Vaupel, JW, et al. Trayectorias biodemográficas de longevidad. Science 280, 855-860 (1998).)
La meseta de mortalidad no apareció en las personas hasta que la población creció y la atención médica mejoró para que suficientes personas pudieran vivir hasta 100 años o más. En promedio, la tasa de mortalidad de una persona se duplica cada 8 años, desde 30 segundos hasta 90 segundos. Si tomamos una muestra de estadounidenses nacidos en 1900, su tasa de mortalidad a los 90 años fue de aproximadamente 0,16, es decir, el 16% de ellos murieron este año. Se duplica más de la edad de 98 años, y luego nunca se duplica. La tasa de mortalidad más alta registrada es 0.62 a la edad de 108 años. Después de esto, los datos se vuelven muy pequeños, pero un análisis exhaustivo de personas mayores de 110 años de todo el mundo muestra de manera convincente que, en las condiciones actuales, el coeficiente se igualará en algún lugar en el rango de 0,4 a 0,7. (Vaupel, JW & Robine, JM Emergencia de supercentenarios en países de baja mortalidad. North American Actuarial Journal 6, 54-63 (2002))