Sistema de rastreo de casos del COVID-19 https://gisanddata.maps.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6

Sobrevivir en Extremistán: cómo ser un paranóico no ingenuo, cuando se requiere ser paranóico.

Oliver López Corona

--

Oliver López-Corona

Resumen

Para sobrevivir a la exposición repetida a riesgos de colas gordas (fat-tails) incluyendo barreras absorbentes (riesgo de ruina), es necesario actuar de forma precautoria y anticipativa en lo que podríamos llamar “paranoia” no ingenua. En este ensayo discuto la conveniencia de este enfoque precautorio para poder sobrevivir en Extremistán (ambientes de incertidumbre y complejidad dominados por eventos extremos) identificando algunos elementos clave en mi experiencia en un ambiente de extremistan específico: el montañismo; para luego trasladarlo al dominio de la seguridad nacional, como lo es la actual epidemia del coronavirus. De igual manera discuto el concepto de antifragilidad y termino haciendo un comentario sobre las competencias necesarias para entender la complejidad que podrían cultivarse en el Centro de Estudios Superiores Navales.

Nota: este ensayo estaba pensado para someterse a la revista del Centro de Estudios Superiores Navales, preo me resulto imposible contactarlos. Sin embargo dada la segunda ola epidémica del Coranovirus, creo que es relevante poner estos temas en la mesa de la forma mas rápida y amplia posible. Por la misma razón di recientemente un seminario en el Centro de Ciencias de la Complejidad de la UNAM, aquí la presentación con muchas ligas (la mayoría de las ideas en el ensayo provienen de los escritos de N.N.Taleb): https://docs.google.com/presentation/d/1kMFyILKB5rrgz5WC01Q5Zil8ebrPrR0u3yvFBwnNMPo/edit?usp=sharing

Abstract

To survive repeated exposure to long-tailed risks including absorbent barriers (risk of ruin), it is necessary to act in a precautionary and anticipatory manner in what we might call non-naive “paranoia.” In this essay I discuss the suitability of this precautionary approach to survive in Extremistan (environments of uncertainty and complexity dominated by extreme events) identifying some key elements in my experience in a specific extreme environment: mountaineering; and then transfer it to the domain of national security, as the current epidemic of the coronavirus. I also discuss the concept of antifragility and finally I make some comments on the skills necessary to understand complexity, that could be cultivated at the Center for Naval Higher Studies.

Introducción

Hace un par de meses estudiando diferentes aspectos del riesgo bajo contextos de complejidad y procesos de colas gordas, me encontré con una clase del Center for Homeland Defense and Security Naval Postgraduate School titulada “Living in extremistan” (https://www.youtube.com/watch?v=zhWXl9qVj74) donde Ted G. Lewis resume parte de su trabajo (Lewis, 2010; Lewis, et al. 2011) en torno a el predominio que tienen los eventos pocos frecuentes pero de grandes consecuencias en nuestras vidas, infraestructuras e incluso nuestra seguridad nacional.

Pensemos por ejemplo las repercusiones de eventos como los ataques terroristas del 11 de septiembre del 2001. Hasta ese momento era impensable un ataque de ese estilo en el corazón de la nación militarmente más poderosa del planeta. Tan era impensable que no existían protocolos de seguridad aérea que ahora nos parecen evidentemente necesarios. En el ámbito económico podemos pensar en el llamado “Error de diciembre”, que ocurrió tras un periodo de aparente estabilidad y bonanza, que nosotros mostramos que en realidad se trató de una estabilidad inestable que fragilizó al sistema y por tanto no fue un error de diciembre sino que se fue generando mucho antes, mostrando incluso algunas alertas tempranas (López-Corona y Hernández, 2019). Este “error de diciembre” pronto se propagó en todo el sistema económico mundial como “El efecto tequila” como repercusión también de condiciones de fragilidad (Taleb, 2018).

Ambos eventos pertenecen a una categoría de eventos conocidos como Cisnes Negros (Taleb, 2007) que hacen alusión a que durante cientos o incluso miles de años, para la cultura occidental sólo existían los cisnes blancos. El cisne negro (Cygnus atratus) es una especie endémica de Australia que no fue conocida en occidente sino hasta 1697 con la colonización inglesa de la isla continente. Un Cisne Negro es un suceso con los siguientes tres atributos: (1) es un caso atípico, ya que se encuentra fuera del ámbito de las expectativas regulares (inconsistente con la media), porque no hay nada en el pasado que puede apuntar de manera

convincente a su posibilidad (muy pequeña efecto de colas gordas en su distribución de probabilidad); (2) conlleva a un impacto extremo; (3) a pesar de su condición de rareza, la naturaleza humana nos hace inventar explicaciones de su presencia después de los hechos, por lo que es explicable y predecible.

En general los Cisnes Negros son eventos que están descritos por un tipo de azar diferente del que estamos acostumbrados. ¿Cómo hay diferentes tipos de azar? Si. El tipo de azar con el que estamos familiarizados intelectualmente, es decir el que estudiamos en las universidades e incluso en los posgrados es que proviene de procesos gaussianos (descritos por una distribución de probabilidad Gaussiana o Normal). Este tipo de fenómenos azarosos están dominados por los valores promedios, casi ningún evento está lejos de ellos; se satisface la ley de los grandes números y otras propiedades estadísticas que los hace relativamente sencillos de analizar. Por otro lado están los eventos azarosos de la vida real, que no estudiamos en las universidades ni posgrados, pero cuyas consecuencias vivimos todos los días. Estos eventos no pueden ser descritos por una distribución Normal, sino por lo que se conoce como leyes de potencia, que dicho de forma muy sencilla describen lo que se conoce como invarianza de escala, es decir que el fenómeno se comporta de la misma manera a diferentes escalas o bien que no existe una escala característica o privilegiada. En un fenómeno descrito por una distribución normal (en forma de campana) hay una escala que domina, la del promedio. Por su parte los fenómenos descritos por una distribución de leyes de potencia o también conocidas como distribuciones de colas gordas, no tienen escala característica y están gobernados por los eventos extremos (los Cisnes Negros)

Dado lo anterior, resulta evidente que es esencial el poder diferenciar cuando un riesgo pertenece a procesos normales o leyes de potencia de colas cortas, dominados por las medias, es decir de Mediacristán; de aquellos dominados por los eventos extremos (distribuciones de colas gordas), es decir de Extremistán. Según Lewis y colaboradores (2010, 2011) los riesgos que pertenecen a Mediacristán requieren de una aproximación diferente que los que pertenecen a Extremistán. Los riesgos de Mediacristán requieren un enfoque de prevención, construyendo mayores capacidades de reacción (vrg. mayor número de bomberos), planeación, coordinación y colaboración. Del otro lado, los riesgos de Extremistán necesitan mejores capacidades de respuesta inmediata, lo que implica por ejemplo mayor inteligencia y niveles de redundancia.

El problema que yo identifico en esta aproximación es que si bien parece operativa hay un problema de fondo, debido a que no se cumple la ley de los grandes números, es decir que la media no converge o lo hace muy lentamente, de tal forma que ocurre un fenómeno de enmascaramiento (Taleb, 2020) en el que uno puede pensar que se está ante un proceso de Mediacristán cuando en realidad se trata de Extremistán. Uno podría pensar que si se trata de un problema de convergencia, entonces basta con un mayor muestreo o esperar mas tiempo, sin embargo se puede mostrar que para algunas distribuciones de olas largas como la de Cauchy, la media simplemente no existe. Esto hace que en realidad uno nunca pueda saber que No se está en Extremistán.

Ahora bien, incluso cuando se está en Extremistán, es diferente correr riesgos que tienen resultados catastróficos de los que no. Por ejemplo el inversionista ingenuo puede invertir todo su dinero en instrumentos volátiles esperando conseguir buenas ganancias y salirse antes de que el sistema colapse y lo hará eventualmente por que pertenece a Extremistán. Sin embargo esto equivale a jugar a la ruleta rusa por una gran suma de dinero. No importa cuán grande sea la apuesta, uno nunca debe participar de ella si hay un riesgo de ruina (Taleb, 2007). El inversionista no-ingenuo sigue por ejemplo una estrategia de la Barra conjuntamente con un criterio de Kelly (Taleb, 2012) , invirtiendo por ejemplo un 80% de su dinero en instrumentos muy seguros como bonos del tesoro y sólo un 20% en instrumentos volátiles. De esta manera el inversionista se expone a un Cisne Negro positivo y en caso de uno negativo nunca llega a la quiebra.

Para identificar los elementos teóricos importantes en el caso de riesgos catastróficos y fijar ideas, en la sección de discusión usare mi experiencia en un ambiente de alta complejidad, incertidumbre y riesgos: el montañismo. Pienso que lo discutido en ese contexto es válido y trasladable a diferentes temas concernientes a la seguridad nacional, el combate, la lucha contra el crimen organizado,o la presente pandemia del Coranovirus. De esta manera en la sección de conclusiones intentaré delinear dichas conexiones.

Discusión

El 29 de diciembre del 2000, tras 23 años de exploraciones en la montaña por parte de nuestro jefe de expedición Carlos Rangel, llegabamos a la cima del Picacho del Diablo por una nueva ruta de más de 1000m de altura por una vertiente no ascendida antes. Todos aquellos que han ascendido una montaña entienden relativamente bien los riesgos visibles como una la posibilidad de caer cuando se escala, el riesgo que significa una grieta o pasar por debajo de una zona de avalanchas. Pero muy pocos logran interiorizar los riesgos invisibles ya sea por que son eventos que ocurren muy pocas veces y son por tanto muy poco observados, o bien porque son productos de efectos de segundo o tercer orden. Como relata Pit Schubert en su libro “Seguridad y riesgo” publicado originalmente en alemán en 1994 y en el que reúne 25 años de investigación sobre seguridad alpina en Alemania, durante la mayor parte de la historia del montañismo prácticamente todos los eslabones de la cadena de seguridad eran tan frágiles que las fatalidades ocurrían por igual debido a que un clavo de seguridad cedía, a que la cuerda o un mosquetón se rompiera. Esto era tan común que prácticamente nadie se cuestionaba sobre el riesgo (silencioso) de encordarse exclusivamente por la cintura en vez de usar también el bastante incómodo arnés de pecho. Era tal el nivel de inseguridad que en la cultura de los escaladores simplemente no se tenía en la mente el caerse estando de primero. Así me enseñó mi mentor Carlos Rangel quien fuera un escaldar clásico con múltiples primeros ascensos. Sin embargo, conforme los materiales fueron mejorando, la cadena de seguridad empezó realmente servir para su propósito y el montañismo se popularizó; la aventura dio paso a la escalada de dificultad en donde caer de primero era muy común. Sin embargo, la cultura de encordarse sólo por la cintura prevaleció dejando observar eventos poco frecuentes pero catastróficos cuando por ejemplo escalando de primero y teniendo la cuerda entre las piernas se cae el escalador, provocando que la cuerda le haga girar de cabeza debido a que el punto de encordamiento está exactamente en el centro de gravedad, teniendo como resultado que la cabeza del escalador choque fuertemente contra la pared (o incluso el suelo si se está iniciando la ruta).

Siguiendo las ideas de la lógica de tomar riesgos de Taleb (2001, 2007, 2010, 2012, 2018, 2020), estos riesgos silenciosos que pasan inadvertidos por la baja frecuencia de ocurrencia, contienen otra enseñanza muy importante sobre la no ergodicidad del mundo real. El concepto de ergodicidad es central en la Física, específicamente en la termodinámica y establece que bajo las condiciones adecuadas, resulta equivalente calcular el valor medio de un proceso a lo largo del tiempo, que calcular el valor medio de muchos sistemas equivalentes en un momento específico (a este conjunto de sistemas equivalentes se les conoce como ensamble). Es decir que el promedio temporal es igual al promedio del ensamble. Para esclarecer la importancia del punto parafraseamos un ejemplo de N.N. Taleb (2018). Pensemos en un conjunto de 100 escaladores que transitan 1 dia por una ruta con varios riesgos objetivos como grietas en la nieve o caída de rocas. Si 4 de ellos mueren, podríamos decir que hay una probabilidad de morir, en una ascensión similar, de 4% y si repetimos el experimento con otros 100 escaladores al día siguiente, esperaríamos tener el mismo resultado. Un hecho importante a resaltar es que la muerte del escalador número 15 no afecta en nada la sobrevivencia del escalador número 16. Ahora bien, si en lugar de tener un ensamble de 100 escaladores tomamos un solo escalador que transite la ruta días consecutivos, si el escalador muere en el día 20 ¿eso afectará el resultado del día 21? Claro, ya no hay sistema. A esto técnicamente se le conoce como una barrera absorbente. La probabilidad del ensamble en el mundo real donde existen barreras absorbentes, no es igual a la probabilidad temporal y por tanto no se cumple el principio de ergodicidad. En términos generales esta no ergodicidad se interpreta como lo que se conoce como dependencia del camino, es decir, que el sistema tiene una historia que afecta los posibles resultados futuros. Esta dependencia del camino nos lleva a una conclusión clave, no importa que tan capaz sea nuestro escalador, si existe riesgo de catástrofe por más pequeño que este sea, eventualmente se presentará.

Ahora bien, una paradoja surge de los párrafos anteriores. Dado que por un lado los materiales y sistemas de seguridad fallan, y por otro lado no deberíamos tomar riesgos catastróficos por más pequeños que sean; entonces un escalador racional usaría múltiples sistemas de seguridad para tener redundancia, se aseguraría en todos los pasos donde perciba hasta el más mínimo riesgo de catástrofe (muerte), etc. Pero al hacerlo haría su avance no sólo penoso sino muy lento, aumentando la probabilidad temporal de riesgo. Esta fue justamente la paradoja a la que nos enfrentamos en el Picacho del Diablo, la montaña más alta de Baja California.

El evitar riesgos catastróficos implica entrar en un modo de hiper-paranoia, en el caso de nuestra escalada eso hubiera implicado cargar con el doble o triple de materiales de protección, lo cual hubiera aumentado el peso a cargar y habría disminuido la velocidad de avance, con lo cual a su vez habría aumentado el tiempo en montaña (con el aumento en la probabilidad temporal al riesgo), que de la misma manera habría tenido como efecto secundario tener que cargar con más víveres, aumentando el peso, disminuyendo la velocidad y generando con ello una retroalimentación positiva. Siguiendo esa lógica de toma de riesgos habríamos terminado con la necesidad de poner múltiples campamentos intermedios, incluir porteadores que cargaran vivieres extras, convirtiendo nuestra exploración en lo que históricamente en el montañismo se conoce como un asedio, esencialmente una operación militar para conquistar la montaña.

Pero más interesante aún, si hubiéramos optado por ese tipo de expedición habríamos acabado con un sistema (expedición) muy complejo con múltiples retroalimentaciones y acoplamientos, para los cuales Perrow (2011) ha propuesto que se dan de forma inevitable accidentes normales, los cuales son accidentes sistémicos; es decir sin una causa única reconocible sino que se dan por las interacciones de las partes que conforman al sistema, que son ocurren con poca frecuencia, pero de consecuencias catastróficas. La evidencia histórica muestra que efectivamente las expediciones pesadas tipo asedio generan eventualmente tragedias como la del Everest de 1996 donde murieron 12 personas, la del 2014 con 16 muertes o la avalancha debida a un temblor en 2015 donde murieron 22 montañistas.

Nuestra estrategia en el Picacho se basó es una hyper-paranoia preventiva no reactiva. Durante todo un año nos preparamos para hacer frente a todo tipo de eventualidades en la montaña: escalamos de dia, de noche o con lluvia; en lugar de usar zapatos de escalada entrenamos con botas; hicimos rutas a velocidad, probamos todo tipo de maniobras de auto rescate y diferentes combinaciones de equipo para seleccionar únicamente el indispensable; construimos una condición física como si fuéramos a realizar dos ascensos a la montaña uno detrás del otro; realizamos salidas conde no comíamos o tomábamos agua; acampamos sin casa de campaña o bolsa de dormir, etc. De esta manera, mediante la prevención, empujamos las barreras absorbentes lo suficientemente lejos para que en la expedición pudiéramos prescindir de muchas protecciones (sin que constituyeran un riesgo de importancia); calculamos la comida para que se acabara cerca del día de cumbre y bajar de la montaña con poca o nada de comida; pero con ello logramos ser muy ligeros durante toda la expedición moviéndonos muy rápido y disminuyendo así la probabilidad temporal de catástrofe.

Como suele pasar en los problemas del mundo real, las estrategias no ingenuas para asumir riesgos surgen de una optimización multiobjetivos con restricciones. Queremos ser hiper-paranoicos respecto de la existencia de las barreras absorbentes, pero al mismo tiempo debemos ser hiper-paranoicos respecto de la exposición temporal; considerando además que estamos en un contexto de recursos, información y tiempo limitados. La solución a la que llegó que mi mentor y amigo Carlos Rangel de forma empírica tras 23 años de intentar subir esa montaña, se conoce formalmente en sistemas complejos como criticalidad. La hipótesis de la criticalidad propone que los sistemas en un régimen dinámico entre el orden y la aleatoriedad alcanzan el nivel más alto de capacidades computacionales (potencial de resolver problemas) y logran una configuración óptima entre robustez (auto-organización) y flexibilidad (emergencia). Si un sistema es demasiado organizado, robusto, podría no ser capaz de reaccionar ante nuevos problemas o cambios en su ambiente y por lo tanto, pro efecto de la exposición temporal a un riesgo recurrente, eventualmente alcanzará una barrera absorbente, es decir perecería. Si por el contrario, el sistema es demasiado emergente, flexible, entonces no es capaz de retener buenas soluciones encontradas a los problemas que enfrenta o a su entorno actual y de igual manera perecería. Es en el balance entre estas dos características que el sistema tiene las mayores probabilidades de sobrevivir a lo largo del tiempo. Si esto es así entonces esperaríamos que los sistemas complejos tendieran a la criticalidad, lo cual ocurre (Hidalgo, et.al. 2014; Ramírez-Carrillo, et.al. 2018 y sus referencias internas). Más aún, sabemos que en criticalidad los sistemas también se encuentran tanto en su máximo de complejidad como de información de Fisher (Gershenson y Fernández, 2012; Wang, et.al. 2011), esta última relacionada con estabilidad y sostenibilidad (Cabezas). Finalmente en ese mismo sentido recientemente hemos propuesto (López-Corona y Padilla, 2019) que los sistemas que están en su máximo de complejidad e información de Fisher (críticos) son además antifrágiles.

“Algunas cosas se benefician de los choques; prosperan y crecen cuando están expuestos a la volatilidad, la aleatoriedad, el desorden y los factores estresantes…aman la aventura, el riesgo y la incertidumbre. No hay una palabra para el opuesto exacto de frágil. Llamémoslo antifrágil” Taleb (2012). Este tipo de sistemas está caracterizado por ser convexo en su espacio de pagos, ver Fig. 1, es decir que cuando se les perturba ganan en su espacio de pagos.

Creación propia basada en Antifragil de N.N. Tableb usada en “Complectere” (2019) del autor. Una copa de cristal es frágil por que ante volatilidad externa (niños jugando a su alrededor) se rompe. Una construcción como la mostrada se ha mantenido en pie a pesar de cambios en el clima, los sistemas sociales, etc, es robusta. La vida es el ejemplo por excelencia de antifragilidad, la vida siempre florece ante al azar, pues este es parte fundamental del proceso evolutivo.

Conclusiones

Pensamos que para poder sobrevivir a riesgos de ruina en extremistán es necesario aprender cómo ser un paranóico no ingenuo, cuando se requiere ser paranóico. Esto lo hemos discutido en el contexto del montañismo, pero lo identificado ahí creemos aplica por ejemplo a la actual epidemia de coronavirus que empezó en China y parece se está convirtiendo en una pandemia.

Al respecto la referencia obligada es la nota de Joe Norman y colabores (2020) que resumimos a continuación. El nuevo coronavirus que surgió de Wuhan China ha sido identificado como una cepa altamente letal y contagiosa y con toda claridad estamos ante un proceso extremo de colas gordas producto de la conectividad internacional moderna, que a su vez favorece la dispersión de la enfermedad de forma no lineal (Bar-Yam, 1997). Como hemos ido delineando en el ensayo, los procesos de colas gordas tienen atributos especiales, que hacen que las aproximaciones tradicionales de manejo del riesgo sean inadecuadas. En particular resulta clave invocar a el principio precautorio (no-ingenuo) [3] que marca las condiciones bajo las cuales los análisis tradicionales de costo-beneficio no deben ser usados y dar paso a una acción mucho más contundente, por ejemplo en este caso limitar o detener los viajes internacionales para disminuir lo más posible la conectividad del proceso. Esto sin duda conlleva costos económicos, sociales y políticos que hay que considerar, pero dado que con el tiempo, la exposición a este tipo de eventos de colas gordas con riesgo de ruina implican la certeza de una eventual extinción, resulta ser posiblemente la solución satisficiste. Por efecto de la no ergodicidad, aunque hay una muy alta probabilidad de que la humanidad sobreviva a la exposición de uno de estos eventos pandémicos, con el tiempo, la probabilidad de sobrevivencia por exposición repetitiva a ellos tiende a cero (probabilidad temporal). El problema estriba en que los tomadores de decisiones pueden sentirse reacios a tomar medidas “extremas” porque típicamente parámetros importantes de la epidemiología de un patógeno suelen estar subestimados, como es el caso de la tasa de propagación, el número reproductivo básico (R0) o la tasa de mortalidad. Los autores de la nota destacan pues, la necesidad de una aproximación precautoria tanto para el caso actual como potenciales pandemias futuras, que deben incluir por ejemplo, pero no sólamente, restricciones en los patrones de movilidad (internacionales, nacionales, regionales y al interior de las ciudades) en las etapas tempranas del brote, sobre todo cuando se tiene poco conocimiento acerca de los parámetros epidemiológicos del patógeno. Y terminan concluyendo que si bien es claro que habrá un costo asociado a la disminución de movilidad en el corto plazo, pero no tomar este tipo de medidas podría potencialmente costarnos todo — si no en este evento específico, en uno futuro.

En su artículo de 2016, Albino y colaboradores plantean que hay esencialmente tres tipos de efectos que ocurren en un oponente ante nuestras acciones en su contra según su nivel de fragilidad: (1) un oponente frágil resultará dañado, posiblemente catastróficamente; (2) un oponente robusto no se verá afectado en gran medida, conservando gran parte o la totalidad de sus características anteriores; (3) algunos oponentes sin embargo llegan realmente ganar fuerza ante nuestros ataques, una propiedad que recientemente se ha denominado antifragilidad. Las perspectivas tradicionales de la estrategia militar suponen implícitamente fragilidad, limitando su validez y resultando en sorpresa, y asumen un estado final específico en lugar de una condición general del sistema como objetivo.

Esta distinción podría resultar crucial por ejemplo en la lucha contra el narcotráfico. En un trabajo expuesto en la Conference on Complex Systems (CCS) del 2017, por Ollin Langle-Chimal un ex alumno mío de la maestría en Ciencia de Datos plantea una aproximación muy interesante al combate contra el narcotráfico usando teoría de redes. En su trabajo él refiere como se han propuesto muchas estrategias para desmantelar las redes de operación de estos grupos criminales, siendo el intento de captura de los líderes del cartel es el más habitual. Esta estrategia, afirma, no ha tenido un impacto significativamente positivo disminuyendo la influencia de estos grupos ni la violencia en todo el país. En este sentido, el enfoque de la teoría compleja de redes surge como una alternativa para comprender la dinámica subyacente a este fenómeno no trivial. En su trabajo, mediante una herramienta de minería de texto semiautomatizada, se construyó una red de los personajes del libro de Anabel Hernández “Los señores del narco” para analizar sus propiedades topológicas y dinámicas. De esta manera se pueden simular posibles ataques dirigidos a los nodos más relevantes (los Capos) de la red usando diferentes medidas de centralidad, tras lo cual se puede medir la robustez de esta red por ejemplo en términos del tamaño del componente gigante, es decir, la percolación óptima. El autor también analizó las comunidades de red resultantes después de estos ataques observando la cantidad exacta de nodos eliminados necesarios para desmantelar este componente gigante. Con este enfoque, es posible no solo proponer una cantidad mínima de nodos que se eliminarán de la red para desmantelarla, sino también si hay diferencias entre los nodos más influyentes y aquellos que son importantes para la topología de la red. Este tipo de enfoques podrían adquirir relevancia en términos de desarrollar estrategias para deshabilitar estructuras criminales complejas.

En nuestro propio trabajo sobre Antifragilidad Ecosistémica (Equihua, et. al. 2020) revisamos la literatura existente e identificamos un conjunto de características asociadas a la resiliencia y antifragilidad. De esta forma una estrategia contra el crimen organizado que considera la complejidad propia del fenómeno, podría primero trabajar en fragilizar la red de crimen que se desea atacar y una vez fragilizada realizar ataques contundentes no sólo sobre los criminales principales sino sobre los nodos relevantes para la red.

Parece ser que el concepto ha ido permeando en las narrativas militares como lo muestra un artículo del 2017 en Small War Journal, Nathan A. Jennings sostiene que el ejército de los EE. UU. está adoptando la antifragilidad entorno a su política de brigadas de asistencia de la fuerza de seguridad. En ese sentido comenta que de forma provisoria, El general Milley ha declarado que “el nivel de incertidumbre, la velocidad de la inestabilidad y el potencial de conflicto interestatal significativo es mayor de lo que ha sido desde el final de la Guerra Fría en 1989–91”. De esta manera, Jennings opina que al adoptar una estrategia de la Barra distribuida intencionalmente, además de otros programas de modernización de la fuerza, el Ejército de EE. UU. Puede diversificarse como una empresa más antifrágil frente a la imprevisibilidad endémica. En el mismo artículo de Albino y colaboraderes (2016), que incluye a William G. Glenney IV, Chief of Naval Operations Strategic Studies Group, se plantea que los fundamentos de la antifragilidad como base para la estrategia militar son la evolución, el aprendizaje y la adaptación. Los autores dicen además que un sistema antifragil debe ser dinámico y, a nivel de las instituciones humanas, puede ser construido intencionalmente mediante mecanismos de explotación que den lugar a la antifragilidad.

De esta forma nosotros pensamos que sería muy conveniente que estos conceptos fueran introducidos dentro los posgrados que se ofrecen en el CESNAV considerando por ejemplo las competencias que hemos identificado para la enseñanza de la complejidad (López-Corona, et.al. 2019) como son:

- Competencia sistémica: ser capaz de comprender las causas profundas de los problemas complejos identificando, por ejemplo, las diversas interacciones entre causas y efectos. Poder comprender la dinámica, los efectos en cascada, así como la retroalimentación y la inercia que inevitablemente aparecen en el enfoque de un problema.

- Competencia ética: porque la complejidad se expresa plenamente en los problemas del mundo real; los estudiantes deben conocer los conceptos y métodos para contrastar valores y pruebas sobre problemas concretos, poniendo en práctica los principios de justicia, equidad e integridad socioambiental del desarrollo sostenible.

- Competencia anticipatoria: requiere que los estudiantes puedan distinguir cómo cambia un problema complejo al analizarlo en diferentes escalas espaciales o temporales. Del mismo modo, deben comprender las diferentes formas de construir escenarios (tendencial, estratégico, etc.).

- Competencia preventiva: debido a su complejidad, los problemas del mundo real tienden a ser perversos y, por lo tanto, es necesario saber evaluarlos y comprender cuándo es absolutamente necesario intervenir y cuándo es mejor permitir que el sistema se auto-organice.

- Competencia de la piel en el juego: los estudiantes deben darse cuenta de que, para comportarse de manera ética, cuando la solución de un problema complejo apunta a la toma de decisiones, quienes defienden la solución nunca deben aislarse de la responsabilidad, las consecuencias de su análisis y las decisiones tomadas por ellos.

- Competencia estratégica: poder diseñar e implementar intervenciones y estrategias de colaboración para abordar problemas del mundo real. Mejorar su capacidad para actuar bajo escenarios de información incompleta y evidencia no concluyente es especialmente importante.

- Competencia de detección de narrativa falsa (o BS): debido a que los problemas complejos pueden ser analizados desde diferentes perspectivas y disciplinas, son un blanco fácil para narrativas falsas de charlatanes o pseudocientíficos. Por lo tanto, es importante que los estudiantes sean capaces de detectar narrativas falsas y exponerlas. El que ve un fraude y no grita — fraude! — es un fraude.

- Competencia “No enseñar a las aves a volar”: los estudiantes deben aprender a evitar la práctica académica típica de subestimar las soluciones prácticas y la experiencia empírica de los practicantes y no creer que, debido a que pueden describir la mecánica de un balón de fútbol, ​​pueden calificar como el nuevo “ Messi “.

- Por último, pero no menos importante, la competencia colaborativa: sin ella, las anteriores son inútiles, porque para implementar con éxito estas competencias es esencial que los estudiantes se conviertan en agentes de cambio que creen y faciliten tanto el análisis como las soluciones de problemas del mundo real.

Bibliografía

Ahmad, N., Derrible, S., Eason, T., & Cabezas, H. (2016). Using Fisher information to track stability in multivariate systems. Royal Society open science, 3(11), 160582.

Albino, D. K., Friedman, K., Bar-Yam, Y., Glenney, I. V., & William, G. (2016). Military strategy in a complex world. arXiv preprint arXiv:1602.05670.

Y. Bar-Yam, “Dynamics of complex systems,” 1997.

Equihua Zamora M, Espinosa M, Gershenson C, López-Corona O, Munguia M, Pérez-Maqueo O, Ramírez-Carrillo E. 2020. Ecosystem antifragility: Beyond integrity and resilience. PeerJ: https://peerj.com/articles/8533/

Gershenson, C., & Fernández, N. (2012). Complexity and information: Measuring emergence, self‐organization, and homeostasis at multiple scales. Complexity, 18(2), 29–44.

Jennings, N. (2017) Security Force Assistance Brigades: The US Army Embraces Antifragility. Small Wars Journal https://smallwarsjournal.com/jrnl/art/security-force-assistance-brigades-the-us-army-embraces-antifragility

Lewis, T. G., Mackin, T. J., & Darken, R. (2011). Critical infrastructure as complex emergent systems. International Journal of Cyber Warfare and Terrorism (IJCWT), 1(1), 1–12.

Lewis, T. G. (2010). Cause-and-Effect or Fooled by Randomness?. Homeland Security Affairs, 6(1).

López-Corona O. and Hernández G. (2019). What does theoretical Physics tell us about Mexico’s December Error crisis. RESEARCHERS.ONE, https://www.researchers.one/article/2019-01-3.

López-Corona O. and Padilla P. (2019). Fisher Information as unifying concept for Criticality and Antifragility, a primer hypothesis. RESEARCHERS.ONE, https://www.researchers.one/article/2019-11-16

López-Corona O and Elvia Ramírez-Carrillo and César Cossio-Guerrero and Cecilia González-González and Sandra López-Grether and Linda Martínez and Mireya Osorio-Palacios and Gustavo Tovar-Bustamante (2019). How to teach complexity? Do it by facing complex problems, a case of study with weather data in natural protected areas in Mexico. RESEARCHERS.ONE, https://www.researchers.one/article/2019-01-2.

Norman, J., Bar-Yam, Y., & Taleb, N. N. Systemic Risk of Pandemic via Novel Pathogens–Coronavirus: A Note. Liga

Perrow, C. (2011). Normal accidents: Living with high risk technologies-Updated edition. Princeton university press.

Taleb, N.N. Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets. New York: Random House. 2001. ISBN 978–0–8129–7521–5. Second ed., 2005. ISBN 1–58799–190-X.

Taleb, N.N. (2007). The Black Swan: The Impact of the Highly Improbable. New York: Random House and Penguin Books. ISBN 978–1–4000–6351–2 https://archive.org/details/blackswanimpacto00tale |url= missing title (help). Expanded 2nd ed, 2010 ISBN 978–0812973815.

Taleb, N.N. (2010). The Bed of Procrustes: Philosophical and Practical Aphorisms. New York: Random House. ISBN 978–1–4000–6997–2 https://archive.org/details/bedofprocrustesp00tale |url= missing title (help). Expanded 2nd ed, 2016 ISBN 978–0812982404.

Taleb, N.N. (2012). Antifragile: Things That Gain from Disorder. New York: Random House. ISBN 978–1–4000–6782–4 https://archive.org/details/isbn_9781400067824 |url= missing title (help).

Taleb,N.N., R. Read, R. Douady, J. Norman, and Y. Bar-Yam. (2014) “The precautionary principle (with application to the genetic modification of organisms),” arXiv preprint arXiv:1410.5787.

Taleb, N.N.. (2018). Skin in the Game: Hidden Asymmetries in Daily Life. New York: Random House.. ISBN 978–0–4252–8462–9. (This book was not published with the original bundling of the Incerto series.)

Taleb, N.N. (2018). Why Did The Crisis of 2008 Happen?. RESEARCHERS.ONE, https://www.researchers.one/article/2018-09-16.

Taleb, N.N. (2020). Statistical Consequences of Fat Tails: Real World Preasymptotics, Epistemology, and Applications. RESEARCHERS.ONE, https://www.researchers.one/article/2020-01-21.

Wang, X. R., Lizier, J. T., & Prokopenko, M. (2011). Fisher information at the edge of chaos in random Boolean networks. Artificial life, 17(4), 315–329.

--

--