Kurt Cobb
El famoso estudioso del riesgo y la probabilidad y autor del El Cisne Negro de Nassim Nicholas Tale nos dice que en 2003 un organismo de seguridad nuclear de Japón estableció como objetivo que las muertes causadas por la exposición de radiación de los civiles que viven cerca de una instalación nuclear en Japón debe ser de 1×10 ^ 6 por año ( es decir, menos de 1 por millones de años ) «. Ocho años después se adoptó este objetivo, que parece que va a ser sobrepasado, tal vez un poco, sobre todo ahora que la radiación está apareciendo en los alimentos y el agua cerca de los afectados por Dai-ichi y las plantas de Fukushima . (Tenga en cuenta que «las muertes» no se refiere sólo a las muerte inmediatas, sino también a las muertes por cáncer debido al exceso de exposición a la radiación que puede tardar años e incluso décadas en aparecer.)
Taleb dice que es irresponsable pedir a la gente que confíe en el cálculo de probabilidades pequeño para los sistemas humanos, ya que estas probabilidades son casi imposibles de calcular con precisión. (Para leer su razonamiento, véase la entrada 142 en la su sitio web titulado «Tiempo para entender algunos hechos acerca de las probabilidades pequeñas [estupidez criminal de la ciencia estadística].») Los sistemas naturales que han operado durante millones de años se pueden prestar más fácilmente a este tipo de cálculo de probabilidades. Sin embargo, los sistemas humanos tienen una historia relativamente corta , sobre todo de la infraestructura nuclear, que no va más allá de 60 años. Los cálculos realizados por los sistemas humanos –que implican incidentes que ocurren cada millón de años deben de ser desestimado en como inútiles.
Además, señala, los modelos utilizados para calcular el riesgo tienden a subestimar las probabilidades pequeñas. Lo que es peor, la consecuencias son casi siempre subestimado enormemente también. Más allá de esto, si la gente cree que un hecho negativo y lesivo tiene una pequeña posibilidad de que ocurra, por ejemplo 1 en 1.000, tienden a descartar su ocurrencia, aunque el caso podría tener graves consecuencias. Esto se debe a que no entienden que el riesgo es el producto de la probabilidad partido por la gravedad.
Si lo peor que te puede ocurrir caminando por su habitación puede es darte un golpe al caer, no se piensa mucho en ello. Incluso si las probabilidades de tener un moratón fueran significativas, probablemente tendríamos más cuidado y cuestionaríamos si vale la pena el riesgo. Pero si caminar por la habitación implicara la posibilidad de perder el brazo, es posible tuviéramos mas cuidado en los movimientos.
Pero, el punto de Taleb incide es que la gente de Japón no sabía que se estaban sometiendo a este grave riesgo. Si lo hubieran hecho, se habrían preparado para ello o puede ser que incluso hubieran rechazado por completo la energía nuclear en favor de otras fuentes de energía. Sin embargo, tanto la probabilidad y la gravedad de este evento se encontraban fuera de los modelos habituales que las agencias reguladoras utilizan. Esta es una de las principales razones por las que a menudo se subestiman los riesgos y la gravedad. Pero incluso si un evento ha sido incluido, la gravedad de las consecuencias s muy probablemente se han subestimado considerablemente.
Está entre las características de las sociedades complejas la tendencia a subestimar los riesgos continuamente. Lo que suelen hacer es asignar una probabilidad a un hecho dañoso posible y creen que mediante la asignación de esa probabilidad y hemos entendido el evento y sus consecuencias. Es una especie de encantamiento estadístico que no es más útil que gritar por la lluvia. Pero debido a que viene envuelto en un paquete de pseudo-científico, somos inducidos a creerlo. Si los hombres importantes y las mujeres con doctorados y expertos han calculado los números, es que deben ser fiables, ¿no?
Cuando se trata de calcular los extremos magnitudes físicas antropométricas como la altura o el peso de los seres humanos, tenemos un gran número de casos y tenemos los límites que la biología y la física imponen y nos orientan. Ningún ser humano puede tener 100 metros de altura o tener un peso de 1000 kilos. Pero cuando se trata de fenómenos sociales, a menudo nos perdemos. Los sistemas humanos artificiales producen resultados impredecibles, precisamente porque los seres humanos son también impredecibles. Tienen patrones de comportamiento, pero los patrones no pueden ser descritos de forma precisa por ecuaciones. En nuestro mundo, millones y hasta miles de millones de personas están tomando decisiones que afectan a los mercados, la tecnología y la sociedad todos los días, y nadie es capaz de observar y calcular los efectos de tales decisiones. Esto hace que cualquier patrón resulta difícil, si no imposible de determinar. Y, cuando tratamos de medir el efecto de fenómenos naturales reales y posibles en los sistemas construidos por el hombre y viceversa, con la precisión de varios decimales, sólo estamos engañándonos a nosotros mismos.
Entonces, ¿qué debemos hacer? Normalmente, decimos que debemos de tratar de hacer nuestros sistema más robustos, es decir, más difícil de destruir o paralizar en condiciones extremas. Esto parece del todo razonable. ¿Pero hay otra opción? ¿Es posible construir sistemas que se desarrollan cuando se somete a grandes variaciones? Estas cuestiones las trata Taleb en un artículo titulado «Antifragility o la propiedad de trastorno de amantes de los sistemas.» El texto es difícil a menos que haya leído su obra más extensa. Pero mire la tabla, y usted comenzará a tener una idea de lo que quiere decir con antifragility.
El movimiento de relocalización debe tomar en cuenta lo que un pensador como Taleb ha caracterizado como las culturas descentralizadas, artesanales se basan en la antifragilidad. Puede ser útil para encontrar la manera de explicar la ventaja de la relocalización a las audiencias interesadas que están viendo como se derrumban los sistemas complejos de la sociedad moderna a su alrededor.
Publicado en : http://resourceinsights.blogspot.com/2011/03/calculating-calamity-japans-nuclear.html