jueves, 22 de septiembre de 2016

Atrapados en el sistema solar

"¿Qué cantidad de propelente (combustible + comburente) cree usted que sería necesaria para hacer llegar una sonda de 1 kg a Próxima b en 1.000 años? La respuesta le va a sorprender. La realidad es que la masa de propelente necesaria para hacer llegar una nave de 1 kg a Próxima b en 1.000 años usando un típico motor de propulsión química es muchos órdenes de magnitud superior a la masa que aglutina toda la materia contenida en el universo observable, la de todas sus galaxias con todas sus estrellas, planetas, agujeros negros y cualesquiera cuerpos y elementos contenidos en él." (Eduardo García Llama)

El sistema solar es el sistema planetario en el que se encuentran la Tierra y otros objetos astronómicos que giran directa o indirectamente en una órbita alrededor de nuestra estrella conocida como el Sol.

Muchos son los que tienen la idílica imagen de un futuro próximo donde los humanos colonicemos Marte, o alguna luna de Júpiter; dejados llevar quizás por esas románticas películas de Hollywood, sin ser conscientes de lo distante tecnológicamente que aún estamos de lograr tal proeza (y no hablemos ya del hito de hacer estos lugares habitables y hospitalarios para la vida humana).

No. La realidad es bien distinta. No sólo NO llegaremos a Marte en el 2030 (o 2035) como muchos medios sensacionalistas venden (mientras que las agencias espaciales se dejan querer para que no pare el flujo de dinero público), sino que posiblemente jamás llegue tal momento: de hecho, si volvemos a pisar nuestra luna antes de finales de siglo ya sería una gran sorpresa.

Pero no voy a entrar en debatir estas cuestiones que disgustará a más de uno, sino a mencionar el contenido de un artículo publicado en el diario El Mundo, escrito por el físico Eduardo García Llama, que me ha dejado de piedra. El artículo es este, y en él se trata el asunto concreto de cuánto propelente necesitaría una nave para viajar a Próxima b (el recientemente planeta descubierto orbitando la estrella más cercana a nosotros fuera del sistema solar: Próxima Centauri).

Y es que son muchos los que no sólo sueñan con colonizar otros planetas y satélites del sistema solar, sino que incluso creen en lo asequible de que esta colonización humana se expanda fuera de estos límites; y que se adentre primero en otros sistemas colonizando sus planetas, y que posteriormente dicha colonización se expanda por toda la galaxia...y más allá :P. No es posible que tal cosa ocurra (al menos no con la física conocida). Y como muestra, este físico que trabaja de hecho en la NASA, nos habla con números (y no con palabras o buenas intenciones), de los problemas para poder realizar algún día semejante hazaña con los conocimientos técnicos de nuestra época. Copio directamente parte de las palabras del autor sobre el asunto:

"[...]la masa de propelente necesaria para hacer llegar una nave de 1 kg a Próxima b en 1.000 años usando un típico motor de propulsión química es muchos órdenes de magnitud superior a la masa que aglutina toda la materia contenida en el universo observable[...].

[por otra parte] Para una duración de 1.000 años, si el sistema de propulsión fuera uno de tipo iónico [...]la masa necesaria de propelente sería de alrededor de 5,5 trillones de kilos (un 55 seguido de 17 ceros); esto es, la masa de unas 13 billones (un 13 seguido de 12 ceros) de estaciones espaciales internacionales, equivalente a casi dos billones de cohetes Saturno V como los que llevaron seres humanos a la Luna.

Y recordemos que ninguno de estos casos tiene en cuenta el lanzamiento de todo ese propelente al espacio desde la Tierra y que solo nos serviría para hacer llegar en 1.000 años nuestra pequeña sonda de 1 kg a Próxima b, el planeta que orbita a nuestra estrella más cercana fuera del Sistema Solar, sin frenar en el planeta, solo para sobrevolarlo y pasarlo de largo."

Palabras demoledoras. Una constatación numérica del hecho de que muy (muy) probablemente el ser humano jamás llegará a pisar nada sólido que se encuentre fuera del sistema solar, a menos que se descubra una nueva física radicalmente distinta a la ya conocida (aunque de hecho, parece que poco más queda aún por descubrir). Es decir; que haría falta hallar algún método de esos inefables que muestran las películas de ciencia-ficción para salir de este atolladero, pero resulta evidente que eso hoy por hoy es pura ficción que posiblemente quede en puro cuento que no llegue a materializarse en la realidad.

Distancias al Sol en Unidades Astronómicas (UA). 1 UA = distancia de la Tierra al Sol.
Ojo, la escala es logarítmica, de forma que Voyager 1 no está 3 veces más lejos del Sol que la
Tierra sino más de 100 veces más lejos (136 veces). Fuente: NASA/JPL-Caltech.

Es más que probable que nunca hallemos el modo de acelerar un gran nave (de toneladas de peso) a una velocidad suficiente como para recorrer la distancia que nos separa de nuestra estrella más cercana en menos de cientos de miles de años; y eso sin contar con el resto de problemas técnicos (y económicos) que un viaje de este tipo conlleva (mantener la nave habitable tantos años, generar una gravedad artificial, evitar la exposición a la radiación, sacar ese tonelaje al espacio y frenarlo al llegar al destino, conseguir los recursos económicos y energéticos para hacer todo lo necesario, y muchos otros problemas espaciales todavía no resueltos que nos impiden incluso llegar a Marte).

En resumen:

Si hoy por hoy nos invitan a apostar por un resultado, la papeleta ganadora la tiene sin duda la que dice que el ser humano no llegará nunca a colonizar siquiera Marte, nuestro planeta cercano más "habitable". Y esto hace pensar que, al igual que la primera persona, también el último hombre que sienta y viva esta realidad que nos rodea lo hará confinado en este trozo de roca que llamamos Tierra. No hay escapatoria, y la física se encarga de ello. Nuestra especie, por tanto, continuará atada hasta su exterminio final que, en el mejor de los casos, llegará justo cuando nuestra propia estrella, el Sol, se convierta en una gigante roja.


Y sabido esto, ahora os comento yo en compañía del gran Miguel de Unamuno:

"Quitad la propia persistencia, y meditad lo que os dicen. ¡Sacrifícate por tus hijos! Y te sacrificarás por ellos, porque son tuyos, parte prolongación de ti, y ellos a su vez se sacrificarán por los suyos, y estos por los de ellos, y así irá, sin término, un sacrificio estéril del que nadie se aprovecha. Vine al mundo a hacer mi yo, y ¿qué será de nuestros yos todos? ¡Vive para la Verdad, el Bien, la Belleza! Ya veremos la suprema vanidad, y la suprema insinceridad de esta posición hipócrita." (fragmento de la obra: Del sentimiento trágico de la vida).

En estas palabras del filósofo español encontramos la pregunta clave que nos apuñala con un sentimiento trágico (como humanos que somos) ante la vida: ¿qué será llegado el momento de "nuestros yos todos"? ¿De qué habrá servido todo ese durísimo sacrificio estéril del que llegado el momento ya nadie se podrá aprovechar? Porque es que es absurdo. La vida humana es absurda; y ese afán vehemente con el que todos nos aferramos luchando a diario (aun conociendo nuestro ya evidente fatal destino) por esos quehaceres (evolutivamente impuestos) es sencillamente de risa (en realidad es motivo de llanto, pero reír es más sano y ayuda a sobrellevar mejor esta realidad pésima en la que estamos envueltos).

Un saludo.

Referencia principal.

- Artículo publicado en el diario El Mundo, escrito por el físico Eduardo García Llama: http://www.elmundo.es/blogs/elmundo/apuntesnasa/2016/09/20/cuanto-propelente-necesitaria-una-nave.html


domingo, 18 de septiembre de 2016

Trasteando con el "Juego de la vida" de John Horton Conway

El Juego de la vida es un diseño de programación ideado por el matemático británico John Horton Conway en 1970, y basa su funcionamiento en un "mundo" en dos dimensiones (2D) el cual contiene cierto número finito de celdas que pueden estar o no ocupadas por una estructura. Posteriormente estas celdas varían su estado gracias a una "física" (conjunto de reglas) que dictan la dinámica y el estado del tablero. Aunque lo más importante y destacable de este proyecto, es el hecho de ver como un diseño tan simple es capaz de conseguir con su dinámica temporal que a veces emerjan interesantes y complejos patrones de movimiento.

Las reglas del juego original son las siguientes:
  1. Una celda puede estar activa (on) o no activa (off). Si está activa se dice que es una célula viva.
  2. Una célula muerta (celda off) con exactamente 3 células vecinas vivas "nace" (al turno siguiente esta celda muerta estará viva).
  3. Una célula viva con 2 ó 3 células vecinas vivas sigue viva, en otro caso muere o permanece muerta (por "soledad" o "superpoblación").
Y esto es todo. Una reglas muy sencillas, que dan lugar a patrones a veces asombrosamente complicados. Esta es de hecho, la clave de todo: comprobar como es posible que surja complejidad a partir de un comportamiento de base muy simple.

A continuación os muestro brevemente lo fácil que es programar esta "física" en Javascript:



var Game = function(board) {

this.board = board;

this.width = board.width;

this.height = board.height;

};


Game.prototype.get = function(x, y) {

return this.board.get(x,y);

};


Game.prototype.set = function(x, y, value) {

this.board.set(x,y, value);

};


Game.prototype.step = function() {

var

current = this.board,

width = current.width,

height = current.height,

i, j, neighbours, cell

;

this.board = new Board(width, height);


for (i = 0; i < width; i++) {

for (j = 0; j < height; j++) {

neighbours = current.neighbours(i,j);

cell = current.get(i,j);

if (neighbours === 3)

this.board.set(i,j, 1);

else if (neighbours === 2)

this.board.set(i,j, cell);

else

this.board.set(i,j, 0);

}

}

};

Apenas 38 líneas de código que nos van a permitir disfrutar de increíbles patrones de movimiento como los siguientes (es importante hacer notar de nuevo que el estado inicial de las celdas va a determinar también el patrón de movimiento al principio):

Pues bien, a petición de la idea de un amigo (Sergio Hernandez), he desarrollado una variación sobre el Juego de la vida, donde simplemente vamos a tener en el "mundo" dos tipos de células vivas (en on): células verdes y células rojas (y también celdas muertas en off). Las reglas serán las mismas para cada tipo de célula viva, las cuales vivirán siguiendo sus propias normas (como si fuesen cepas independientes).

Dos pequeños cambios se añaden no obstante a las reglas orginales:
  1. Si una celda resulta que es ocupada en un paso (step) a la vez por una célula roja y una verde se elige aleatoriamente el tipo de célula viva que permanecerá en esa casilla (dado que una celda sólo puede tener un estado determinado).
  2. Si una célula viva detecta que en el siguiente paso (step) morirá por "soledad" o "superpoblación", cambiará su tipo. De modo que si una célula viva roja detecta que morirá en el siguiente paso, pero que si se vuelve verde no lo hará, cambiará su estado a célula verde.
El resultado de estos cambios es el siguiente (generando al azar el estado inicial del tablero):

Es interesante ver el modo en que estas dos cepas de células vivas compiten de alguna manera por el espacio disponible. A veces da la sensación de que se fagocitan unas a otras, o que incluso intenan "escapar" cuando notan la proximidad de "rivales". En muchas ocaciones incluso una cepa completa es eliminada por la contraria, terminando el tablero exclusivamente con células verdes o rojas.

Nota:  como ya hemos dicho, el resultado dependerá del estado inicial de las celdas, y en este ejemplo dicho estado inicial es aleatorio, por lo tanto, si queréis ver una nueva configuración dinámica simplemente tenéis que refrescar esta página en el navegador (botón F5). También es posible hacer 'click' en cualquier lugar del tablero para generar nuevas celdas vivas aleatoriamente, con lo cual podremos "modificar" el estado dinámico del juego sin necesidad de actualizar la página completa. 

También es importante ver como esta modificación parece de algún modo haber estabilizado el comportamiento del sistema, puesto que ahora, de media, la duración del movimiento dinámico antes de caer en estructuras fijas (que no avanzan sino que se quedan quitas con patrones estáticos) parece haber aumentado. Por ejemplo, en el siguiente caso os muestro el comportamiento del nuevo Juego de la vida desarrollado, pero en lugar de comenzar con una configuración al azar, voy a comenzar con una configuración muy parecida a la que usamos antes para el juego original (5 células vivas de cada color dispuesta en similar configuración):

Futuro trabajo.

Creo que es interesante seguir explotando este tipo de desarrollos en un intento de sacar algún tipo de conclusión teórica sobre la base del mismo. En este sentido es seguro que Sergio Hernandez me comentará algunas nuevas ideas de cambio, y yo, por mi parte, tengo intención de aplicar al desarrollo anterior un algoritmo de computación evolutiva buscando en principio aquellas configuraciones que más movimiento producen tras n pasos (es decir, aquellas que más "calor" generan, que más "energía" consumen y por lo tanto que maximizan la "entropía"), con lo cual espero conseguir (descubrir) aquellas configuraciones que den lugar a los patrones más complejos posibles, y detectar también si es cierto que complejidad y entropía (consumo de energía libre) correlacionan necesariamente, y si dicho resultado se puede generalizar para otras "físicas" (quizás incluso la de nuestro propio mundo).

Un saludo.

jueves, 15 de septiembre de 2016

Diseño inteligente (y II)

"¿Qué sucedería si un demonio... te dijese: Esta vida, tal como tú la vives actualmente, tal como la has vivido, tendrás que revivirla... una serie infinita de veces; nada nuevo habrá en ella; al contrario, es preciso que cada dolor y cada alegría, cada pensamiento y cada suspiro... vuelvas a pasarlo con la misma secuencia y orden... y también este instante y yo mismo... Si este pensamiento tomase fuerza en ti... te transformaría quizá, pero quizá te anonadaría también...¡Cuánto tendrías entonces que amar la vida y amarte a ti mismo para no desear otra cosa sino ésta suprema y eterna confirmación! Nietzsche  (El Gay saber)

En la entrada anterior titulada "Diseño inteligente" ya vimos como nuestro Universo (su física y sus leyes) parecen estar "finamente ajustadas" para poder ser computables externamente, y que además parecen estar ajustadas para que dicho cómputo sea lo más eficiente posible. Este hecho nos llevó a proponer una hipótesis que se puede englobar en la tesis de la Realidad simulada y que viene a decir así:
Si nuestra física resulta ser computable externamente, y además parece estar "ajustada" (de un modo especial) para ser eficientemente computable, probablemente sea porque ES computada a un nivel trascendental después de todo. 
Es decir; que si nuestro mundo presenta unas propiedades idóneas para su posible procesamiento externo, muy probablemente sea porque dicho procesamiento tiene lugar finalmente a dicho nivel trascendente; lo contrario sería una casualidad difícil de explicar (i.e.; que todo parezca "diseñado" para poder ser computable y eficientemente computable, pero que luego tal computación no suceda ¿cómo explicar esta coincidencia entonces?).

Futuras evidencias a favor.

Como decimos, ya en el señalado anterior artículo se expusieron una gran cantidad de ejemplos provenientes de la física moderna a favor de esta hipótesis de la Realidad simulada, pero me gustaría, antes de continuar con otros asuntos relacionados, exponer algunos argumentos más que nos pueden ayudar a reforzar aún más nuestra creencia en la idea de la simulación.

En concreto, se me olvidó comentar varios asuntos relacionados con el hecho de que, si finalmente nuestro mundo es el producto del procesado de información de una realidad trascendente, debe haber un método, representado claramente en nuestra física, capaz de abordar el problema de poderse ejecutar la historia completa de acontecimientos ocurridos dentro de una enorme simulación (que en teoría no posee cota determinada fija en cuanto a su duración), pero pudiéndose hacer sólo uso de una cantidad finita de recursos de computación (hardware). Esto quiere decir que, como la realidad a simular (nuestro mundo) es enorme y de una gran duración (indeterminada), necesariamente debe haber algún eficaz método capaz de evitar que el continuo cálculo de la historia de acontecimientos acabe desbordando la capacidad de recursos de esa supuesta "Unidad" de computación trascendente.

Concretando un poco más.

Imagina que quieres simular una enorme realidad durante un intervalo de tiempo indeterminado pero del orden de miles de millones de años (medido desde la simulación). Esto supondría almacenar en algún tipo de "memoria" de esa Unidad de computación la historia de miles de billones de movimientos, posiciones, interacciones, estados, etc. Y esto es algo imposible de lograr durante mucho tiempo con unos recursos finitos. Por lo tanto, de ser la propuesta de la Realidad simulada cierta, se requiere obligatoriamente observar en nuestra física algún tipo de método "Natural" de borrado de información el cual acote la supuesta cantidad de Memoria trascendental requerida; pero además, tal método debería permitir que a pesar de esa destrucción de información, el pasado siga siendo coherente y que el "futuro" esté bien comportado y determinado.

Y cómo no podía ser de otro modo ;), SÍ observamos tal método de eliminación en la física de nuestro mundo. Concretamente, este borrado de "vieja" información tiene lugar en las leyes de la física cuántica. Voy a intentar explicarlo del mejor modo posible:

En mecánica cuántica, la cuantización o discretización de los estados ya supone limitar y acotar las posibilidades de organización de un sistema a un número finito de resultados (estados) posibles, pero es que además, el principio de incertidumbre garantiza que siempre habrá nueva información (imprevisible) que obtener (lo que garantiza el "trascurso" del tiempo), pero también que parte de la información anterior se vuelva irrelevante, esto es, deje de tener efecto sobre predicciones futuras. Por esa razón, cuando a nivel microscópico se interacciona con un sistema en general, no sólo se adquiere algo nuevo (nueva información observable), sino que al mismo tiempo se "borra" una parte de la información que anteriormente ya se poseía. Es decir; que es posible evidenciar de manera experimental (visible) el hecho de que la Naturaleza deliberadamente se afana en eliminar y destruir información (al mismo tiempo que crea otra nueva).

Este borrado de información lo impone, como hemos dicho, el principio de indeterminación: base fundamental de la esencia de nuestra realidad microscópica, y esto refuerza precisamente la idea de una especial eficiencia computacional observable en las leyes inmanentes de nuestro mundo, ya que, precisamente el mejor modo imaginable para evitar que un computador trascendente (o no) se vea desbordado en cuanto a la necesidad de recursos consiste en usar en todo momento la cantidad mínima de información imprescindible, y esto es lo que hace la realidad cuántica del Universo (repito de nuevo: ¿casualidad?).

Porque resulta que esta especial eficiencia no tendría obligatoriamente que haberse dado en el mundo. Podemos imaginar cientos de formas alternativas en que las leyes microscópicas se podrían haber comportado (siendo quizás la idea más simple, el hecho esperado de que a nivel microscópico todo se hubiese comportado de la misma manera que lo hace a nivel macroscópico), pero resulta que no, que inesperadamente al nivel más básico todo presenta una clara tendencia hacia la computabilidad y la eficiencia de computación, y eso como poco da que sospechar. Estamos hablando de un "fino ajuste" añadido a los anteriores (constantes y leyes finamente ajustadas para la posibilidad de que pueda surgir la vida), pero un ajuste que en este caso ni siquiera la simple propuesta del multiverso (junto al principio antrópico fuerte) pueden sortear. Este especial ajuste computacional (de confirmarse) divide el asunto en sólo dos posibilidades: o es todo casualidad, o realmente nuestro mundo es fruto de una computación externa (trascendental) efectiva.

Ejemplo práctico.

Voy a intentar afianzar -para el curioso- todo lo dicho sobre el borrado de información cuántica, pero intentando no entrar en demasiados detalles técnicos. Para comenzar, sólo decir que existe un método experimental, llamado experimento Stern-Gerlach (más información aquí), capaz de dividir un haz de átomos (normalmente de plata) según sea el eje de rotación intrínseco (spin) en la coordenada z (x, o y) de sus átomos constituyentes. Esta rotación se dice que puede ser positiva o negativa (o arriba y abajo), para diferenciar los dos únicos modos en que esta propiedad puede acontecer (observarse) en nuestra realidad para este tipo concreto de materia:


Es decir; que si lanzamos estos chorros de materia hacia estos aparatos de Stern-Gerlach, podemos dividir el haz de partículas en dos haces, cada uno con todos sus constituyentes "girando" hacia un sentido u otro (- ó  +) para una coordenada concreta (x, y, o z). En la imagen de arriba se puede ver como se ha dividido un haz en la coordenada z con el primer aparato, y como se ha hecho lo mismo independientemente en la coordenada x con el otro aparato de la imagen.

Ahora bien, ¿qué ocurre si comenzamos a poner aparatos de Stern-Gerlach secuencialmente? Pues uno esperaría (clásicamente) que estos haces se fuesen clasificando hasta que llegásemos a tener un haz con todos sus componentes de spin perfectamente determinados al mismo tiempo para cada coordenada: por ejemplo, un haz de partículas con todos sus constituyentes determinados con valores de spin claros (Sz+, Sx-, e Sy-, o quizás: Sz-, Sx- e Sy+, etc.). Pero no es esto lo que ocurre:


Como puede verse, el resultado de este último experimento resulta sorprendente. El primer aparato nos había separado los átomos de plata en dos haces y habíamos tomado el haz tipo Sz+ como entrada del segundo aparato. Tras esto, al tomar la salida tipo Sx+ del segundo aparato usándola para alimentar un nuevo aparato SGz, por sentido común, esperaríamos obtener una confirmación de algo que parece evidente que podríamos conseguir: un valor Sz+ para todos los átomos de plata salidos de este nuevo aparato midiendo SGz. Y con esto, clásicamente, esperaríamos obtener el valor preciso del spin (positivo o negativo) en la dirección-z y también en la dirección-x, o sea, en dos direcciones perpendiculares. ¡Pero en lugar de que esto ocurra, el tercer aparato nos arroja sorprendentemente tanto partículas del tipo Sz+ como partículas del tipo Sz-! La selección hecha sobre el haz Sx+ que sale del segundo aparato destruye completamente cualquier información previa que teníamos acerca de Sz. Se trata de lo que se denominan observables incompatibles los cuales no pueden ser medidos simultáneamente. Y, ojo, no se trata de una limitación experimental humana, sino de que la información obtenida por el primer aparato, sencillamente deja de existir para siempre en el mismo instante en que el haz entra en el segundo aparato.

¡Vemos por tanto claramente como la naturaleza se encarga de borrar y eliminar información de manera activa! Es algo realmente sorprendente que nos lleva directamente a preguntarnos lo siguiente: ¿por qué se podría comportar la Naturaleza de esta forma si no fuese por motivos de eficiencia en un intento de "ahorrar" en cuanto a la necesidad de cálculo y de "memoria" requerido? ¿Se os ocurre otro motivo por el que este borrado deba ocurrir? ¿Simple casualidad? No lo creo.

Y es que sería mucha casualidad que todo fuese de este modo tan especial así porque sí. Es más, muy posiblemente el estudio concreto sobre a qué tipos de realidad  trascendente puede favorecer este asombroso y particular comportamiento Natural que observamos, sea la única posibilidad que tengamos de atisbar (aunque sea mínimamente y de reojo) algo del posible sustento externo que daría origen a nuestro Universo. Y como yo os defiendo, todo apunta a que este estudio podría algún día quizás llegar a confirmar la hipótesis de la Realidad simulada como la más probable de las alternativas trascendentales, dada la realidad inmanente y empírica que vamos descubriendo en la física.

Volvamos, sin embargo, una vez más al ejemplo del spin, y estudiemos algo que quedó pendiente en su momento. Esto es: ¿cómo se representa matemáticamente ese borrado de información del estado de spin que hemos visto antes? Pues mediante una sencilla regla fácilmente programable para ser ejecutada en cualquier ordenador (más aún si se tiene en cuenta la versión matricial de la mecánica cuántica, puesto que es algo cotidiano trabajar con matrices en las ciencias de la computación):

Los estados posibles (observables en el laboratorio) para el spin en estos casos viene dado por la siguiente ecuación característica (tomando el eje-x a modo de ejemplo):


y siendo ħ la constante reducida de Planck; todo lo cual nos resulta finalmente (al resolver la ecuación) en los dos únicos valores (eigen) posibles de observar en la realidad para el spin de estas partículas (+-ħ/2):


Vemos de nuevo como las matemáticas parecen ser las que representan con sus números lo que puede y lo que no puede ser real, es decir; que parecen conformar mediante sus relaciones lo que en este mundo sucede. Y esto, siendo honestos, sólo parece fácilmente comprensible si ocurre porque dichas matemáticas forman después de todo parte de alguna especie de procesamiento o ejecución de información trascendental. Es decir; si finalmente algo así como un Ordenador externo (a nuestro mundo) realmente estuviera utilizando estas ecuaciones y fórmulas mediante algoritmos con los que decide y dicta el transcurso y la historia de nuestro mundo. A mí personalmente no se me ocurre otra explicación alternativa.

Pues bien, al hecho de que esta simple ecuación característica determina cómo puede (valores que forman parte del conjunto de soluciones de la ecuación anterior) y como no puede (valores que no representan soluciones a la ecuación) girar de manera intrínseca una partícula, hay que sumar el principio de incertidumbre; todo lo cual lleva (sustituyendo el subíndice de las coordenadas x, y, z, por los número 1, 2, 3) a la siguiente relación:


Este resultado se puede generalizar y esquematizar mediante este algoritmo de selección (utilizando el conmutador de Born que dice que [Si,Sj] = Si·Sj- Sj·Si, y siendo i la unidad imaginaria):



Merece la pena hacer notar en este punto que cualquiera que haya estudiado algún lenguaje de programación informática podrá observar lo fácil que es aplicar estas reglas de selección (junto al uso de las matrices que vimos antes) en un simple programa de ordenador de andar por casa. Por poner un simple ejemplo, os muestro a continuación cómo de sencillo es programar en PHP la selección de un número aleatorio siguiendo una distribución de probabilidad normal con cierta media y desviación estándar. Es curioso ver como algo similar (evidentemente no igual en forma, aunque quizás sí en cuanto a concepto) podría ser utilizado de hecho a nivel trascendente para llevar a cabo parte del colapso de la función de onda de un sistema mediante una simple llamada a una función algorítmica (dentro de la hipotética programación de nuestro "mundo"):

function nrand($mean, $sd){
    $x = mt_rand()/mt_getrandmax();
    $y = mt_rand()/mt_getrandmax();
    return sqrt(-2*log($x))*cos(2*pi()*$y)*$sd + $mean;
}
En resumen, y volviendo al tema del borrado de información; toda esta matemática nos viene a representar que no es posible llevar a cabo una medición sobre Sx convirtiendo nuestra ignorancia sobre su valor en una certeza, sin alterar y eliminar cualquier conocimiento previo que hubiéramos tenido acerca de Sy y Sz. Una vez medido Sx, si procedemos a medir nuevamente Sx obtendremos el mismo valor una y otra vez, pero si tras ello procedemos a medir Sy entonces destruiremos la información que teníamos acerca de Sx, y ahora Sx y Sz serán inciertos en la medida proporcionada por el principio matemático de incertidumbre.

Creo que queda claro que esta destrucción natural de información, tan necesaria para hacer finitos y asequibles los recursos necesarios a usar por parte de un hipotético computador trascendental, está además bien definida y determinada por una representación matemática, y por lo tanto podemos preguntarnos lo siguiente de manera legítima: ¿en qué podría consistir la razón de ser de esta destrucción de información -tan apropiada y conveniente para fines computacionales, además de ser tan fácilmente implementable mediante algoritmos computacionales- si no es simplemente porque esta matemática ha sido realmente programada y ejecutada de manera trascendental, dando como resultado la emergencia de la realidad que vemos a nuestro alrededor?  La casualidad simplemente no parece una alternativa creíble, y todo indica que somos parte de una simulación: un procesado externo (y algorítmico) de información.

Interpretación de la mecánica cuántica.

Uno de los mayores problemas de la física actual es determinar cuál de las interpretaciones de la mecánica cuántica es la correcta. Y esto equivale a comprender por qué, cuándo y cómo pasa el mundo microscópico de consistir en meras funciones de probabilidad a presentar un claro estado observable: es decir, comprender la esencia del colapso de la función de onda, momento en que la materia bajo estudio deja de presentar un comportamiento probabilista, para presentar una observación concreta.

Son muchas las interpretaciones que han pretendido explicar este colapso, siendo quizás las más famosas la interpretación de Copenhague, la interpretación de los múltiples Universos de Hugh Everett, y la moderna teoría de la decoherencia cuántica. Todas estas interpretaciones o postulados no han sido corroborados de modo alguno, y todas poseen muchos problemas intrínsecos que no terminan de cuadrar. La tesis aquí defendida propone una nueva y sencilla interpretación relacionada con la tesis de la Realidad simulada: sencillamente, el colapso ocurre cuando el hipotético Computador trascendental (los algoritmos que ejecuta) determinan que es el momento de tomar al azar un valor (aleatorio) de entre los disponibles siguiendo la distribución de probabilidad que hasta ese momento presentaba el sistema. Así de fácil. No se necesitan observadores inteligentes que midan el sistema, ni tampoco infinidad de Universos que se desdoblen mostrando cada resultado posible; sólo hace falta que exista un Computador trascendente que esté procesando nuestra realidad, y que dicho ordenador "decida" mediante un procedimiento almacenado cómo y cuándo debe colapsar estas funciones de probabilidad. Este procedimiento programado podría ser de muy diversas maneras, aunque posiblemente, de ser cierta esta interpretación, podría ser el caso de que el algoritmo simulador tuviese algún valor de interacción umbral el cual señalaría el momento justo en que un sistema local cualquiera deba tenerse en cuenta para colapsar (i.e., para "tirar el dado" -lo siento, Einstein- y ver qué sale de entre los posibles valores dentro de la distribución de probabilidad).

Es asombroso cómo la hipótesis de la Realidad simulada facilita la comprensión del mundo a todos los niveles, y también de lo bien que correlaciona con todo lo que conocemos ya hoy día de física (de matemáticas y de computación); pero es que la cosa no queda aquí. Como veremos a continuación, futuros avances en física teórica podrían llegar incluso a, literalmente, confirmar y reforzar al máximo lo que es de momento una simple hipótesis (aunque con una buena base teórica como hemos venido viendo en estos dos artículos). Veamos cómo:

Gravedad cuántica de bucles.

Si la mecánica cuántica y la teoría de la relatividad cada una por su cuenta ayudan a evidenciar la propuesta de la Realidad simulada (evitando en gran parte los valores y las cantidades infinitas que van siempre en contra de la capacidad o potencial para la computación y el procesamiento), debemos recordar que todavía queda alcanzar una teoría física capaz de lograr unir ambas teorías bajo un marco común.

Hay hoy día dos destacadas alternativas de unificación en la palestra: por un lado la Teoría de cuerdas, de la que seguro que has oído hablar, y por otro, la teoría de la Gravedad cuántica de bucles, de la que es posible que conozcas menos, pero que cuenta con un gran número de seguidores entre sus filas, destacando posiblemente en cuanto a fama, Roger Penrose, y en cuanto a aportaciones y divulgación, Carlo Rovelli. Es ideal, de hecho, iniciarse en el mundo de la Gravedad cuántica de bucles (LQG, por Loop Quantum Gravity) mediante el libro de divulgación (de esos que no tienen matemáticas :P) de Carlo Rovelli llamado: "La realidad no es lo que parece". Y también es recomendable para aquellos que deseen iniciarse en la LQG a un nivel más formal (con muchas matemáticas por doquier :P) el libro de este mismo autor denominado: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory", publicado por la Cambridge University Press  (2014).

Pues bien, de las dos alternativas mencionadas nos quedaremos en este apartado con la Gravedad cuántica de bucles, y responderemos a lo siguiente: ¿qué consecuencias tendría que se confirmase la LQG sobre la hipótesis de la Realidad simulada? La respuesta es sencilla: el hecho de que la LQG se confirme algún día, significaría casi una validación simultánea de la hipótesis de la simulación computacional. Y esto es así precisamente por los postulados de base con los que se parte en este intento de unificar relatividad general y mecánica cuántica. En concreto, por el requisito básico de partida que hace la Gravedad cuántica de bucles sobre la cuantización (granulado) del propio espacio-tiempo; y por la necesidad que esta teoría tiene de base por evitar y deshacerse de cualquier infinito referido a la física de nuestro mundo. Es decir; que el éxito teórico (aún por confirmar experimentalmente) de la LQG se basa principalmente en el requerimiento básico de que su validez depende a priori de que no exista ninguna continuidad en el mundo natural; requiriéndose por tanto que todo en el Universo sea de un modo u otro finito y discreto: incluido el mismo espacio-tiempo. ¿Y sabes qué? Resulta que estos requisitos son también la base que decide si nuestra física es o no es computable ;).

Por otra parte, también la Gravedad cuántica de bucles basa parte de su éxito en las llamadas redes de spin, que no son otra cosa que un postulado que habla de que esta cuantización propuesta del espacio-tiempo (sus gránulos o cuantos), se organizan en torno de una especie de red que conforma grafos (una generalización de la estructuración de datos en árboles) con nodos, aristas y vértices, los cuales recuerdan enormemente a una rama completa de las ciencias de la computación que cualquier estudiante de ingeniería llega a estudiar como una útil herramienta de programación para la estructuración de datos e información.


Si hacemos cuentas, vemos que tenemos: un espacio y tiempo granulado y discreto, conformado en redes de grafos, con una física matricial a nivel microscópico, un eficiente cálculo del movimiento determinado por funciones de probabilidad que sólo colapsan cuando es necesario, borrado y destrucción cuántica de información física "irrelevante"; y todo al mismo tiempo libre de infinitos y acotado de manera que las matemáticas que determinan la realidad estén siempre "bien comportadas". En fin, todo preparado para que nuestra realidad sea una realidad computable, y que además sea especialmente eficiente en cuanto a necesitar los mínimos recursos de computación (hardware) imaginables: ¿casualidad? No lo creo, e insisto en mi proclama inicial:
Si nuestra física resulta ser computable externamente, y si además parece estar "ajustada" (de un modo especial) para ser eficientemente computable, probablemente sea porque como todo indica ES computada a un nivel trascendente. 
Y en este sentido, y como ya hemos dicho, una confirmación experimental de la LQG podría significar al mismo tiempo una fuerte evidencia insoslayable a favor de la tesis que habla sobre que nuestro mundo es resultado de un procesamiento de información trascendental.

Por último, comentar sobre la LQG que esta tesis no hace uso de la idea "tradicional" del multiverso, sino que propone lo que se conoce como Big Bounce; postulado que viene a defender continuos ciclos o bucles para la existencia del propio Universo. Es decir; que lo que se entiende desde la física como el momento final del Universo, supone en realidad el inicio (una especie de Big Bang) de una nueva iteración del mismo (es de obligada lectura la divulgación propuesta en este sentido por Roger Penrose en su libro: "Ciclos del tiempo: Una extraordinaria nueva visión del universo"). ¿Y por qué menciono esto? Pues porque de nuevo une y ata a la física conceptos utilizados de continuo en el mundo de la computación: bucles, iteraciones, ciclos, etc. Por cierto que este modelo cíclico es equivalente en la práctica al multiverso tradicional, excepto que aquí en principio sólo hay una realidad que cambia en cada iteración, mientras que en el modelo del multiverso clásico todas estas realidades diferentes coexisten de manera paralela. En el fondo no hay tanta diferencia.

Me gustaría ahora, para finalizar el artículo, tratar asuntos algo más filosóficos (si cabe :P). Es posible que esta parte del trabajo ya no interese a parte de los que han llegado hasta aquí, y lo entiendo. Pueden quedarse con lo ya tratado. Para el resto, ¡vamos allá!

Desde este momento en adelante vamos a partir de base sobre la idea de que finalmente ha llegado el momento (futuro) en que la hipótesis de la Realidad simulada ha sido confirmada. Y a partir de ahí, vamos a estudiar principalmente las consecuencias que este hecho tendría en aquellos terrenos filosóficos más tradicionales. Veámoslo:

¿Qué significaría vivir en una simulación y qué consecuencias tendría respecto a lo que entendemos como conciencia?

Aceptar que vivimos (o podríamos vivir) en una simulación, y que nuestra conciencia emerge dentro de dicha simulación es algo complicado de digerir. Es un concepto difícil de entender y que escapa fácilmente a nuestra intuición y sentido común. Por lo tanto, voy a intentar explicar desde mi punto de vista este asunto del modo en que mejor se suelen entender estas cosas: mediante metáforas y ejemplos prácticos.

Leamos en primer lugar esta entrada del diario El PaísUn traje para ‘tocar’ objetos en la realidad virtual, y luego este artículo sobre las nuevas gafas de realidad virtual (VR) para la PS4https://www.cnet.com/es/analisis/sony-playstation-vr/. E imaginemos ahora que han pasado 20 ó 30 años, y que esta tecnología ha avanzado y se ha desarrollado de manera que se ha inventado un artilugio capaz de virtualizar de este modo todos nuestros sentidos a la vez (tacto, vista, olfato, oído, y gusto), y que además la sensibilidad del aparato sea tan precisa que llegue un momento en que nuestro cerebro sencillamente no sea capaz de diferenciar qué sensación es real y cual es simulada por este tipo de dispositivo. En resumen: imaginemos que dentro de 30 años llega un momento en que no podamos saber si estamos viviendo la realidad, o si nos han atado a la cama y nos han introducido en este magnífico aparato de manera que estemos viviendo una realidad "simulada" y computada sin poder notar la diferencia. Pues bien, esta tecnología, de hecho, es asequible en la práctica e incluso se está avanzando en ese camino, el cual podría alcanzarse incluso antes de estos 30 años propuestos.

En este caso propuesto, lo que ha ocurrido es que hemos sustituido o modificado la fuente o el sustento directo de los estímulos que llegan a nuestros receptores sensitivos que transmiten luego mediante los nervios la información para que la procese nuestro sistema nervioso central (SNC); de manera que ahora estos estímulos han sido pre-procesados computacionalmente antes de ser "lanzados" hacia nuestros nervios. Ese pre-procesamiento (ese procesado intermediario; el cambio acontecido en la información entre el origen y la fuente) es la causa, de hecho, de que ahora hablemos de que estamos inmersos en una realidad "virtual". Vemos, pues que la diferencia en este ejemplo entre "vivir" la realidad y "vivir" una virtualidad, consiste en determinar si la información sensible que alcanza nuestro SNC ha sido pre-procesada o no. No parece haber tanta diferencia en este caso después de todo. Pero por supuesto podemos ir más allá:

Resulta que no es sólo un pre-procesamiento externo el que puede dar lugar a una "virtualidad", sino que también una perturbación o cambio ocurrido en el interior del propio SNC puede determinar cambios en nuestra "realidad" subjetiva. Esto ocurre, por ejemplo; en una operación de cerebro, donde el neurocirujano mediante simples toques con el bisturí en ciertas zonas de este órgano consigue modificar la experiencia visual, imaginativa, memorística e incluso emocional del paciente, el cual llega a pensar que ve lo que no ve, a recordar cosas que no ocurrieron, e incluso ve como sus emociones y sentimientos cambian con estas meras modificaciones físicas en su estructura neuronal. Se puede decir que la modificación estructural que el neurocirujano hace con el bisturí cuando ocurre en ciertas zonas claves, actúa también a modo de pre-procesamiento en los impulsos que llegan luego ya modificados a las entradas de ciertas sub-redes neuronales encargadas de procesar funciones importantes de nuestra conciencia de modo que esta emerge distorsionada.

Otro ejemplo más es el sueño. Cuando se sueña, se hace uso de los mismos centros de procesado neuronal (las sub-redes corticales fundamentales), pero la entrada que reciben tales redes neuronales ya no proviene del exterior (estímulos sensibles), sino que provienen de otras zonas del cerebro donde la información sensible recibida durante el día (y durante la vida, en realidad) han sido almacenadas. Pero como este almacenamiento (la memoria neuronal) no es ni mucho menos perfecta ni 100% fiel al estímulo original (no puede serlo, porque la cantidad de información recibida es realmente enorme, mientras que la capacidad de almacenamiento neuronal es finita y muy limitada en comparación), este almacenamiento se produce de modo aproximado y con fisuras, con lo cual, a la hora de almacenar tal información, el cerebro hace un pre-procesamiento que desecha parte de la información original y almacena la que cree oportuna. El sueño aparece así como otro tipo de realidad "virtual", en el sentido de que se trata del mismo fenómeno que hemos ya mencionado antes: complejas redes neuronales trabajando sobre información pre-procesada (en este caso, a la hora de guardar la información en la memoria). Si la evolución hubiese necesitado que nuestra memoria sensible fuese mucho más fiel, no quepa duda de que nuestros sueños habrían podido incluso llegar a ser indiferenciables de la "realidad" subjetiva que experimentamos despiertos. Por suerte esto no fue así, y podemos "notar" la diferencia.

Por lo tanto vemos en resumen que toda nuestra conciencia se reduce a un procesado (una computación) que ciertas partes complejas de la red neuronal de nuestro cerebro realizan actuando sobre una intrincada línea de datos de entrada (información) que se obtienen en forma de impulsos. Cuando esa información proviene del exterior del SNC (a través de los nervios) sin un pre-procesamiento previo, decimos que hablamos de la verdadera "realidad" subjetiva, y cuando esa información llega a las redes neuronales más relacionadas con la conciencia de modo alterado; ya sea por un estímulo "lanzado" por una máquina de realidad virtual, por una lesión física ocasionada por un cirujano, o por el origen de la información: como cuando se obtienen de la memoria en lugar del mundo exterior; así como por el uso de medicamentos que modifiquen el medio de la transmisión de impulso: como ocurre, por ejemplo, con ciertos alucinógenos, LSD y demás, entonces hablamos de que la "realidad" subjetiva ha sido "virtualizada", es decir; falsificada de algún modo mediante un pre-procesado.

Esta falsificación es la base, por ejemplo, de la tesis propuesta en la famosa película Matrix, en donde se postula que nuestra realidad es pre-procesada por máquinas que luego envían esa información "a medida" hacia nuestras redes neuronales mediante electrodos, haciéndonos creer que vivimos en una realidad determinada, cuando en realidad estamos tumbados en una cama con el cerebro lleno de cables. Pues bien, hemos visto que en teoría no es imposible que este sea el verdadero caso, y que quizás realmente la película no vaya desencaminada después de todo (una película que trata un tema similar pero de un modo a mi parecer más elegante es "Abre los ojos" de Alejandro Amenábar).

Pero de todas formas no es esto lo que la Realidad simulada propone, porque no estamos hablando en este artículo de que unas máquinas estén alterando el procesamiento de nuestras redes neuronales fundamentales para la emergencia de la conciencia, sino que todo, absolutamente todo el procesado de información ocurre a un nivel trascendente (incluido el procesado neuronal). Es decir; que al igual que el computador principal postulado en Matrix puede computar y pre-procesar la información que mandaría luego a los cerebros en las cubetas, que no son más que microprocesadores neuronales, sencillamente se trata de que ese procesamiento neuronal sea también llevado a cabo en el propio computador Matriz; dando ambos casos un resultado indiferenciable el uno del otro más que en el simple hecho de que nos hemos quitado de en medio un componente (hardware) intermediario en el procesamiento general: nuestro cerebro.

Vamos a ver esto mejor con un pequeño relato:

Matrix es real: un gigantesco Supercomputador simula la realidad, y según sea la posición de cada "sujeto" el ordenador le manda a las entradas neuronales claves de su cerebro en la cubeta la información pre-procesada necesaria para que su "mundo" sea coherente. La red neuronal de cada "individuo" luego procesa esta información de entrada y produce una información de salida ya procesada por sus redes neuronales. Esta información procesada por el "individuo" (el cual siente su "realidad" subjetiva tan clara como tú y como yo) va de vuelta a Matrix, la cual incluye su respuesta en la simulación principal y así continua el proceso general por milenios. Matrix actuaría así como un intermediario entre cerebros.

Hasta aquí la trama de la película original pero os pregunto yo: ¿no pensáis que sobra algo? Evidentemente, sí. Como ya hemos comentado, ¡ese procesamiento neuronal externo de esos miles de cerebros (de "individuos") se puede igualmente simular también en la propia Matrix! ¿Para qué andar transmitiendo información de aquí para allá para que cerebros independientes computen luego dicha información cuando el propio ordenador Matriz podría hacer ese mismo trabajo de cómputo? Es más, no sólo no se perdería nada en cuanto a computación de información se refiere, sino que se ahorraría en coste de cableado y de mantenimiento ;). Si se hace bien y Matrix logra simular el mismo tipo de procesamiento que hace la red neuronal de esos "individuos", ¡el resultado sería exactamente el mismo! Pues bien, algo similar a esto es lo que propone la hipótesis de la Realidad simulada: que todos (y todo) formamos parte de una gran computación trascendental, la cual actúa como sustrato único de computación de nuestro "mundo" (sin intermediarios ni otros actores).

Como refuerzo a todo lo dicho, señalar simplemente que tanto el "individuo" en la cubeta (de Matrix) como el "individuo" 100% virtual (del Matrix 2.0 mejorado sin cubetas) no podrían notar de modo alguno diferencia en cuanto al origen de su conciencia: ambos vivirán una idéntica "realidad" subjetiva y no  podrían distinguir si están (su cerebro) o no en una cubeta. Esto debería hacernos ya ver la delicada línea que separa "realidad" de "virtualidad": piensa y responde honestamente, amigo lector: ¿realmente te sientes después de leer todo lo anterior capaz de asegurarme que no vives dentro de un Matrix o un Matrix 2.0?

Pero continuemos y aceptemos para seguir con el desarrollo de este asunto que vivimos en un Matrix 2.0. ¿Qué sería lo que nosotros entenderíamos por física dentro de este contexto? Pues en este caso la física sería simplemente la representación que nuestra red neuronal (siendo ella también "virtual") se haría del modo en que están diseñados los algoritmos ejecutados en Matrix 2.0. Ni más ni menos. ¿Y qué sería lo que nosotros entendemos por matemáticas en este mismo contexto? Pues sería una representación lógica y no ambigua que nos permitiría estudiar y aprehender el modo concreto en que esos algoritmos están dispuestos de la manera más cuantitativa posible.

Física y matemáticas pueden (y deben) pues ir de la mano, ya que son representaciones de una misma cosa: el modo en el que (por ahora hipotético) computador trascendental dicta las normas y el estado global de nuestro "mundo". Es más, si la simulación algún día se confirma, podríamos incluso denominar a estas ciencias como aquellas ramas del saber destinadas fundamentalmente al estudio de aquellos algoritmos trascendentes que dan lugar a nuestra "realidad".

Ejemplo práctico.

Vimos en este sentido en la entrada anterior que para un potencial esféricamente simétrico (como por ejemplo en el que se encuentra un electrón dentro de un átomo hidrogenoide), tenemos que la función de onda que especifica la probabilidad de encontrar un electrón en cierta región del espacio viene especificada en coordenadas esféricas por lo siguiente (se muestran sólo las fórmulas para las primeras combinaciones de números cuánticos n, l, y m) y simplificación usando la simbolización:


Tenemos que las expresiones que corresponden a las funciones de onda completas (incorporando tanto la parte angular como la parte radial) con la notación simbólica se acaba de dar son las siguientes para los primeros números cuánticos permitidos:


y la la probabilidad de encontrar un electrón dentro una capa esférica situada entre r y r+dr es igual a:

ψ*ψ4πr²dr

siendo 4πr²dr el volumen de la capa esférica en la cual ψ*ψ tiene el mismo valor constante.

Todo esto nos permite preguntarnos por lo siguiente: ¿Por qué son estas expresiones y no otras las que describen la densidad de probabilidad de encontrar un electrón en cierta región del espacio? Todo está construido de manera matemáticamente consistente, pero las propias matemáticas que describen el mundo cuántico no son las únicas matemáticas posibles. Estas funciones de onda son calculadas a partir del uso de unos polinomios llamados Polinomios de Legendre, los cuales la Naturaleza parece usar de algún modo pero que no son la única alternativa matemáticamente viable (existen funciones trigonométricas, por ejemplo; que podrían ofrecer una probabilidad matemática congruente alternativa pero que no lo hace). Es decir; que de algún modo la Naturaleza selecciona estos polinomios como las funciones ortogonales "predilectas" para determinar las densidades de probabilidad: ¿por qué ellos? 

Pues bien: si se descubre que la realidad es simulada, sencillamente habría ocurrido que mediante el método hipotético-deductivo habríamos logrado una representación física y también matemática del algoritmo utilizado por el Computador trascendental para dar lugar a este procesado concreto de nuestro "mundo"...y nada más. No habría (ni haría falta) más explicación que esta.

Consecuencias metafísicas.

Sin duda, con la tesis de la Realidad simulada confirmada resolveríamos algunas dudas ontológicas, pero no sería ni mucho menos una respuesta completa. Una cosa que quedaría clara es que, lo que nosotros llamamos realidad, sería un mero proceso ocurrido en otra realidad independiente que trascendería nuestro mundo. Es decir; habríamos demostrado que finalmente hay algo "más allá" de nuestro mundo y que de hecho, nuestro mundo estaría determinado por procesos acontecidos en ese "más allá". Y por otro lado, y dado que no existe un claro límite teórico ni práctico que en principio impidan que nosotros mismos lleguemos algún día a crear nuestras propias simulaciones con computadores no demasiado distintos de los actuales (aunque sí mucho más potentes), la probabilidad de que nosotros estemos siendo simulados por lo que podríamos llamar la Realidad madre (o The Root Reality, como lo denomina en inglés Brian Greene en su maravilloso libro "La realidad oculta") es muy baja. Es decir; que si descubrimos que nuestro mundo es resultado de un proceso de computación trascendente, y al mismo tiempo vemos que no hay límite para que nosotros (o alguna civilización alternativa de nuestro Universo) generemos en algún momento futuro nuestra propia simulación; todo hace pensar que es probable que exista una encadenación de simulaciones dentro de simulaciones de la que nosotros formemos un simple eslabón intermedio. Y al contrario, sería muy poco probable que diese la casualidad de que nuestro mundo sea generado directamente por la Realidad madre (o matriz) principal.

De todas formas, independientemente de que nuestro Procesador se encuentre en la Realidad primera o sea un eslabón más, resulta que en cualquier caso poco o nada podemos saber de esa trascendencia "superior". Sólo podríamos asegurar que tal trascendencia externa existe, y que un procesamiento de información dentro de ella sería la causa primera de nuestro mundo, pero poco más. De su esencia o sustrato nada podremos decir a parte de que posee la propiedad y potencial de ejecutar la computación necesaria para generar nuestro mundo. Pero es que resulta que hay muchos modos en que un sustrato puede procesar información y hacer emerger "realidades", por lo que lo mismo podría ser nuestro "Creador" un ordenador no muy distinto de los que nosotros ya poseemos, como podría ser más como una especie de "Mente" de modo parecido a como nuestro cerebro es capaz de procesar información y hacer emerger la "realidad " subjetiva que todos nosotros experimentamos.

Es decir; que la tesis de la Realidad simulada deja tan abierto el asunto ontológico que incluso si algún día es confirmada experimentalmente como hemos supuesto, todavía podría encajar en ella una infinidad de alternativas trascendentes (inaccesibles al conocimiento).

Y por supuesto, y dado que las características y la esencia de ese "Creador" trascendente serían por principio inaccesibles e indeterminables, ahí cabe de todo y además todo es equiprobable. Lo mismo podemos imaginar que esa trascendencia no es muy diferente de la nuestra (al estilo de la famosa -y buena- película Nivel 13), como podemos imaginar algo más del estilo del Matrix más tradicional, o incluso variaciones más "místicas" e incluso religiosas. Y es que dentro de la infinidad de alternativas imaginables hay hueco aunque parezca mentira, incluso para el tradicional Dios barbudo de las religiones monoteístas. Y esto es así porque una simulación como hemos visto simplemente requiere de un soporte que procese información; y del mismo modo en que nuestro cerebro procesa neuronalmente (mediante impulsos eléctricos) la "realidad" subjetiva que emerge luego ante "nuestros ojos", podría ser que la propia "realidad" objetiva que nutre a nuestros sentidos se deba a la actividad (no necesariamente eléctrica) del equivalente a algo así como un Cerebro "Divino" (puesto que no es obligatorio que el sustento de la hipotética computación trascendental de nuestro mundo sea similar, ni siquiera parecida, a un ordenador o computador humano).

Es decir; que el sustento esencial (las propiedades) de la supuesta base para la computación de nuestro mundo sería desconocida (insisto: a pesar de que la Realidad simulada se confirme empíricamente de manera inmanente); y quizás dicha simulación sea fruto emergente de un único "Cerebro" trascendental. Nuestro mundo podría ser así el "sueño" de un ente trascendente, o quizás su "imaginación" en funcionamiento (¿quién sabe?). Podría ser incluso, como acabamos de comentar, el caso de que nuestro mundo fuese después de todo fruto emergente de la computación de una "Mente" trascendente que podríamos tranquilamente relacionar con el Dios cristiano (o con el de cualquier otra religión). En este caso concreto, Dios habría creado (o imaginado) el mundo de manera computable y eficiente (quizás porque no sea Él mismo tan omnipotente después de todo), y ciertamente podría haber preparado la realidad para que su Creación (más bien una parte de la misma) demostrase (o no) "bien y bondad" ante la lucha, el dolor y la libertad de acción. Y ya luego estos "bondadosos" serían trasladados a otra "realidad" (el "Cielo"), y los demás pues condenados a desaparecer o algo así.

En fin, que la hipótesis de la Realidad simulada no cierra realmente ninguna puerta metafísica; e incluso puede suponer por el contrario un duro golpe contra el hombre de ciencia más tradicional, el cual se vería obligado (contra su voluntad :P) a aceptar la existencia innegable de una realidad trascendente, aunque con propiedades y características esencialmente inaccesibles e incomprensibles: y no hay nada que normalmente deteste más un científico que tener que renunciar a su infundada creencia "panteísta" de que no hay nada trascendental sustentando nuestro Universo (o para los más atrevidos, el multiverso).

De hecho, es precisamente esta irremediable indeterminación trascendental la que lleva al científico a buscar de todas las maneras posibles el modo de evitar cualquier implicación trascendental. Y es comprensible, porque ciertamente esta indeterminación como veremos a continuación podría ser motivo de preocupación.

Ya comentamos en la entrada anterior  que, de confirmarse la tesis de la simulación, haría indudablemente falta de alguna especie de Diseñador inteligente que diese forma primero a ese Computador, y que determinase luego cómo pueden y cómo no pueden ser las "físicas" admisibles y "materializables" en Él. Y dicho Diseñador además, tendrá posiblemente alguna intención a la hora de Crear esos "mundos virtuales", abarcando esa voluntad un ilimitado número de posibilidades, pero siendo quizás destacable el hecho de que caben dentro de dichas posibilidades opciones en las que nuestro mundo haya sido creado para saciar algún tipo de Necesidad sádica o perversa, lo cual por otra parte correlaciones bastante bien con la realidad empírica que nos rodea; donde el dolor, el sufrimiento y la lucha son la norma.

La intención trascendente.

Es decir; que de ser cierta la hipótesis de la simulación, tendríamos por un lado la seguridad de la existencia de un ente trascendente, pero al mismo tiempo también tendríamos una indeterminación trascendental absoluta con un abanico en principio infinito de imaginables esencias, propiedades, y por supuesto, intenciones para esos supuestos Entes residiendo en esa realidad externa a la nuestra.

Y esta indeterminación debería preocuparnos, porque en principio se nos pueden ocurrir de media tantas trascendencias buenas (o agradables) hablando desde nuestro punto de vista, como malas o desagradables: por lo tanto (insisto, siempre dando por supuesta la Realidad simulada)  habría 1/2 de probabilidades de que la intención detrás de la creación de nuestro mundo sea descaradamente mala (siendo nuestra existencia fruto de alguna convenida necesidad trascendental, o incluso de una necesidad perversa o sádica donde por ejemplo, algún Ser esté "ahí fuera" riéndose y disfrutando de nuestro dolor y sufrimiento), y otra mitad de probabilidades de que la intención no sea tan mala o que simplemente sea indiferente en lo relativo a la humanidad.

El uróboros simboliza el esfuerzo eterno,
 la lucha eterna, o el esfuerzo inútil, la naturaleza cíclica
 de las cosas, el eterno retorno y otros
conceptos que vuelven a comenzar
 a pesar de las acciones para impedirlo.
Pero ese 1/2 es realmente preocupante: es cómo si te ponen una pistola en la cabeza con 1/2 de probabilidad de que dispare y te mate, y otro 1/2 de que no se dispare y demás te regalen 100 millones de euros. Yo personalmente estaría aterrado por la mera existencia de esa alta probabilidad negativa. Porque además sabríamos que lo que entendemos por el "yo", nuestra persona y nuestra conciencia, nuestro dolor y nuestro sufrimiento, formaría parte de un mero procesamiento de información; y es sabido que cualquier proceso de este tipo se puede replicar innumerables veces. Por lo tanto aparecen ante nosotros incalculables formas en que un ente trascendente "aburrido" o "sádico" podría dedicarse a "masacrar" y torturar al fruto de su "Creación" computacional. El eterno retorno de Nietzche podría finalmente quedarse corto ante una verdad aún más trágica, pudiéndose repetir el cómputo de nuestro mundo simulado una y otra y otra vez, de modo que el dolor y el sufrimiento de cada ser de la creación se volviese a repetir en un sin fin de ocasiones: en resumen, una atroz lucha eterna e inútil.

Yo sinceramente creo que la tendencia tradicional del científico (o del ateo en general) hacia esa postura anti-religiosa puede deberse en gran parte (aunque quizás de modo subconsciente), a un intento de evitar este aterrador 1/2 de probabilidad aterradoramente poco agradable. Y es que, el mejor modo de conseguir no tener miedo de que una supuesta "pistola" te dispare en la cabeza con 1/2 de probabilidad, es negar por principio la existencia de dicha pistola. Lo malo es que de confirmarse que nuestra realidad es una simulación, la existencia de la "pistola" sería ya incuestionable.

Y la cuestión es que incluso la balanza puede que no esté en 1/2 a 1/2 entre buenas y malas intenciones después de todo, porque resulta que nuestro mundo inmanente y empírico nos dice más bien otra cosa: el dolor y el sufrimiento humano ganan la mano de largo a lo bueno de la vida, por lo que quizás haya que sesgar un poco la balanza hacia la idea de que esa hipotética intención trascendente no vaya muy en la línea de hacer cosas buenas en pos de su Creación, sino quizás todo lo contrario. Porque un mundo que permite la aniquilación en pocos años de la mitad de la población (como ocurrió con la peste negra en el siglo XIV de nuestra era, donde millones de personas -niños y bebés incluidos- murieron en pocos años), o donde la picadura de un mosquito o garrapata puede causar que un niño muera desangrado por el contagio de un virus, no parece una realidad especialmente diseñada de manera "favorable" para nuestra especie ni nuestro destino. De hecho, es curioso plantearse la pregunta sobre qué relevancia concreta puede tener el hecho de la muerte de un bebé a los pocos meses de haber nacido para ese supuesto "Diseñador". En este sentido no me resisto de nuevo a mencionar las palabras de Richard Dawkins cuando se pregunta que: "Si sólo hay un Creador que hizo al tigre y al cordero, al guepardo y a la gacela, ¿a qué está jugando? ¿Es un sádico que disfruta siendo espectador de deportes sangrientos?", y yo me temo que, si la tesis de la simulación es cierta; las palabras de este científico no sirvan ya tanto para desechar la idea de un Creador por reducción al absurdo (que es la intención original de Dawkins), como para confirmar que ese Creador (que la Realidad simulada obligaría a aceptar como existente) no tiene muy buenas intenciones para con su Creación después de todo: en el mejor caso posible sería indiferente respecto al destino de lo creado, y en el peor caso, sería sencillamente un tremendo sádico.

Personalmente, os confieso que el deseo más íntimo que siempre he tenido, es que el día en que llegue mi hora y "cierre los ojos" en teoría para siempre, que por ninguna de las maneras vuelva a "abrirlos" en ninguna otra realidad, momento o circunstancia. Que la nada más absoluta se trague eso que entiendo como mi "yo", y que mi conciencia no reaparezca jamás para librar esta extraña batalla que llamamos vida, y para la cual yo no atisbo ningún sentido objetivo (al menos en lo que respecta a la humanidad). Pero como ya vimos, de confirmarse la hipótesis de la Realidad simulada, este deseo mío se vería seriamente en entredicho, y eso es algo que realmente me incomoda. Y es que experimentar una vida breve (aunque esté rodeada de necesidad, dolor y sufrimiento)  no es después de todo tan malo (dado lo breve); se podría incluso decir que por momentos es una experiencia a veces curiosa y divertida, pero repetir esta existencia un número indeterminado de veces ya son palabras mayores. Si nos arrebatan la certeza de nuestra aniquilación futura; si nos obligan a repetir continuamente un sinsentido, la desdicha sería igualmente infinita. Y es que, como dijera el gran Emil Cioran: "Vivo únicamente porque puedo morir cuando quiera: sin la idea del suicidio, hace tiempo que me hubiera matado". Imagina que te atan a una "cama" existencial y que te quitan la libertad para poder algún día dejar el ser...el simple pensamiento hace que los pelos se pongan de punta.

En fin, que ya sabéis, si algún día veis en las noticias que se ha confirmado experimentalmente la Gravedad cuántica de bucles (de manera que se deseche la continuidad del espacio-tiempo y la computabilidad de nuestro mundo se confirme)...temblad.

Un abrazo.

Principales referencias recomendadas.

- Artículo previo donde trato el tema del "Diseño inteligente" mediante Realidad simulada: http://quevidaesta2010.blogspot.com.es/2016/09/diseno-inteligente.html. Leer este artículo anterior es muy recomendable para poder seguir el contenido de esta segunda parte con soltura.

- Gran libro de divulgación (sin matemáticas :P) sobre la teoría de la Gravedad cuántica de bucles escrito por el físico Carlo Rovelli: "La realidad no es lo que parece", Tusquets Editores, 2015.

- Libro de introducción (pero con muchas matemáticas :P) sobre la teoría de la Gravedad cuántica de bucles escrito por el físico Carlo Rovelli: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory", Cambridge University Press, 2014.

- Buen libro de divulgación sobre la propuesta cíclica de la realidad escrito por Roger Penrose"Ciclos del tiempo: Una extraordinaria nueva visión del universo".

La Mecánica Cuántica (trabajo de Armando Martínez Téllez): imprescindible libro en formato web gratuito donde se trata en profundidad pero con claridad todo lo referente a la física cuántica (http://la-mecanica-cuantica.blogspot.com.es/). Este maravilloso trabajo es ideal estudiarlo a fondo (yo voy por mi segunda lectura), pero especialmente he utilizado en esta entrada el capítulo 14 y 15: "El experimento Stern-Gerlach" (http://la-mecanica-cuantica.blogspot.com.es/2009/08/el-experimento-stern-gerlach.html) y "El spin del electrón" (http://la-mecanica-cuantica.blogspot.com.es/2009/08/el-spin-del-electron.html).

Una breve introducción al concepto de Realidad simulada: https://es.wikipedia.org/wiki/Realidad_simulada.

- El gran diseño (en inglés The Grand Design): libro de divulgación científica escrito por los físicos Stephen Hawking y Leonard Mlodinow (https://es.wikipedia.org/wiki/El_gran_dise%C3%B1o ). De este libro es de especial interés respecto a lo tratado en este trabajo su último capítulo.

La Realidad Oculta: Universos Paralelos y las Profundas Leyes del Cosmos: libro de divulgación científica escrito por el físico Brian Greene y publicado en 2011. En él se examina el concepto de multiverso y la posibilidad de la existencia de universos paralelos. Fue nominado al Premio Aventis durante el año 2012 (https://es.wikipedia.org/wiki/La_realidad_oculta). De este libro, es de especial interés con lo tratado en este artículo los últimos dos capítulos del mismo.

- Dos trabajos propios (con código fuente incluido) donde se explica con más detalle el concepto de procesar "físicas" virtuales mediante computación evolutivaEjemplo I de programación evolutiva aplicada a un sistema Lennard-JonesEjemplo IIEjemplo III.

http://people.idsia.ch/~juergen/computeruniverse.html y https://slashdot.org/story/03/05/31/2224253/the-computational-requirements-for-the-matrix (Dos webs muy interesantes que tratan con más detalles el tema de la Realidad simulada).