Francisco Garrido. Al principio metafísico de causalidad absoluta y unidireccional se enfrenta la lógica probabilística, como la inmanencia a la trascendencia, o la república al soberano absoluto. La desconstrucción de estas “proposiciones del fundamento absoluto” (Causalidad, Dios, Monarca) son paralelas y sinérgicas aunque no necesariamente sean sincrónicas. Kantorovick en su investigación histórica sobre la teología política medieval detecto la existencia de dos cuerpos del rey a semejanza de los dos cuerpos de Cristo: el cuerpo físico del monarca y el cuerpo místico del Estado. Quizás olvidó mencionar el tercer cuerpo, el gnóstico, la causalidad, al modo en que Dios mismo era definido por esa teología como “causa sui”. Contra el cuerpo místico se levanto la república, contra el cuerpo físico la soberanía popular y contra la causalidad, la probabilidad, pero esta es una historia mucho menos conocida porque está en el tuétano de la epistemología política.
La emergencia de la probabilidad
Hay una intuición genial que atraviesa todo la ciencia moderna y la epistemología critica: la idea de probabilidad. Bayes, en el siglo XVIII, formuló esta intuición genial; el futuro es la continuidad del pasado y cualquier estado tiene siempre un grado de expresión y realización aproximado, incompleto. La realidad, y el conocimiento, es no toda. La genialidad de Bayes no quedo solo en esta intuición sino en la formulación de un conjunto de reglas de cálculo que dotaban de operatividad práctica a esta idea. Podíamos predecir la probabilidad de ocurrencia de un evento. El cálculo infinitesimal de Leibniz doto de un arsenal teórico matemático muy potente para que la intuición alcanzara una consistencia y potencia formal elevada.
Las distintas formulaciones de la ley de los grandes números permitió el nacimiento de la estadística moderna en torno a los aparatos administrativos republicanos nacidos de la revolución francesa con el objeto de conocer, predecir y planificar las demandas y necesidades sociales La realidad social, como la realidad de los fenómenos físicos era también incompleta y de naturaleza probabilística. Podemos decir que la estadística es una hija política de la democracia y del republicanismo, Pasamos así de un concepto de norma, tanto social como científica, deductiva y basada en axiomas absolutos; a un concepto de norma tendencial e inductiva sustentada en el equilibrio reflexivo entre conjeturas teóricas y datos empíricos.
Marx describió el funcionamiento de la evolución histórica de los modos de producción, y detalladamente uno específico; el capitalismos, con un conjunto de leyes históricas tendenciales que solo podían ser comprendida desde una aproximación normativa inductiva y probabilística. A su vez, Darwin describió el funcionamiento de las leyes de la teoría de la evolución sobre la base de una descripción probabilística de la selección natural, que solo así se puede entender en su modus operandi y diferenciar del lamarkismo.
De Keynes a la teoría de cuerdas.
Keynes introdujo una redefinición novedosa sobre la probabilidad que luego le serviría para demostrar las insuficiencias macroeconómicas de la “mano invisible” liberal para obtener resultados racionales. Pero fue en el campo de la física donde la probabilidad paso, a lo largo del siglo XX y a partir de las mecánica estadística y de la mecánica cuántica; de ser un método de cálculo a ser el formato de representación más elemental de la materia ¿Qué son las partículas elementales? No son objetos precisos y concretos claramente diferenciado del entorno y de los otros objetos y que podemos fijar en un espacio y tiempo determinado. Las partículas cuánticas, como nos enseña el principio de indeterminación de Heisenberg; no son esas cosas que nuestra intuición nos ofrece aunque sea en escala infinitesimal. Las partículas cuánticas son campos de probabilidad. Por tanto la materia en su escala mas elemental no esta compuesta de objetos sino de campos de probabilidades; o lo que es igual somos, y todo lo que es también lo es; probabilidades.
Nuestro conocimiento es también bayesiano y ve, siente, huele o procesa cualquier otra información a partir de cálculos probabilístico, no “frecuentista” sino bayesiano. Nuestro lenguaje natural es también probabilístico y atribuye significados y predica propiedades de manera imprecisa, borrosa o difusa como nos ha enseñado la teoría de conjuntos difusos de L. Zade.
Asi pues nuestra percepciones, nuestro conocimiento, nuestra conducta, nuestra materia son campos de probabilidades en medio de un universo probabilístico; somos probabilidad de ser. En la epistemología racionalista el mismo Popper sustituyó, el antaño sagrado concepto central de la causalidad; por el de la propensión como función de probabilidad de la verdad o la falsedad de un enunciado. Quine llego así a definir su ontología diciendo: “ser” es ser el valor de una variable”. En esa ontología probabilística de Quine había espacio solo para dos tipo de objetos conceptuales : “Las clases o conjuntos” y “las partículas tetra dimensionales de espacio-tiempo”.
Finalmente, el intento de construir una teoría de unificación entre la cuatro grandes fuerzas fundamentales, la conocida como “teoría de cuerdas” ha chocado con la imposibilidad metodológica y material de encontr