viernes, 16 de septiembre de 2016

Diseño inteligente (y II)

"¿Qué sucedería si un demonio... te dijese: Esta vida, tal como tú la vives actualmente, tal como la has vivido, tendrás que revivirla... una serie infinita de veces; nada nuevo habrá en ella; al contrario, es preciso que cada dolor y cada alegría, cada pensamiento y cada suspiro... vuelvas a pasarlo con la misma secuencia y orden... y también este instante y yo mismo... Si este pensamiento tomase fuerza en ti... te transformaría quizá, pero quizá te anonadaría también...¡Cuánto tendrías entonces que amar la vida y amarte a ti mismo para no desear otra cosa sino ésta suprema y eterna confirmación! Nietzsche  (El Gay saber)

En la entrada anterior titulada "Diseño inteligente" ya vimos como nuestro Universo (su física y sus leyes) parecen estar "finamente ajustadas" para poder ser computables externamente, y que además parecen estar ajustadas para que dicho cómputo sea lo más eficiente posible. Este hecho nos llevó a proponer una hipótesis que se puede englobar en la tesis de la Realidad simulada y que viene a decir así:
Si nuestra física resulta ser computable externamente, y además parece estar "ajustada" (de un modo especial) para ser eficientemente computable, probablemente sea porque ES computada a un nivel trascendental después de todo. 
Es decir; que si nuestro mundo presenta unas propiedades idóneas para su posible procesamiento externo, muy probablemente sea porque dicho procesamiento tiene lugar finalmente a dicho nivel trascendente; lo contrario sería una casualidad difícil de explicar (i.e.; que todo parezca "diseñado" para poder ser computable y eficientemente computable, pero que luego tal computación no suceda ¿cómo explicar esta coincidencia entonces?).

Futuras evidencias a favor.

Como decimos, ya en el señalado anterior artículo se expusieron una gran cantidad de ejemplos provenientes de la física moderna a favor de esta hipótesis de la Realidad simulada, pero me gustaría, antes de continuar con otros asuntos relacionados, exponer algunos argumentos más que nos pueden ayudar a reforzar aún más nuestra creencia en la idea de la simulación.

En concreto, se me olvidó comentar varios asuntos relacionados con el hecho de que, si finalmente nuestro mundo es el producto del procesado de información de una realidad trascendente, debe haber un método, representado claramente en nuestra física, capaz de abordar el problema de poderse ejecutar la historia completa de acontecimientos ocurridos dentro de una enorme simulación (que en teoría no posee cota determinada fija en cuanto a su duración), pero pudiéndose hacer sólo uso de una cantidad finita de recursos de computación (hardware). Esto quiere decir que, como la realidad a simular (nuestro mundo) es enorme y de una gran duración (indeterminada), necesariamente debe haber algún eficaz método capaz de evitar que el continuo cálculo de la historia de acontecimientos acabe desbordando la capacidad de recursos de esa supuesta "Unidad" de computación trascendente.

Concretando un poco más.

Imagina que quieres simular una enorme realidad durante un intervalo de tiempo indeterminado pero del orden de miles de millones de años (medido desde la simulación). Esto supondría almacenar en algún tipo de "memoria" de esa Unidad de computación la historia de miles de billones de movimientos, posiciones, interacciones, estados, etc. Y esto es algo imposible de lograr durante mucho tiempo con unos recursos finitos. Por lo tanto, de ser la propuesta de la Realidad simulada cierta, se requiere obligatoriamente observar en nuestra física algún tipo de método "Natural" de borrado de información el cual acote la supuesta cantidad de Memoria trascendental requerida; pero además, tal método debería permitir que a pesar de esa destrucción de información, el pasado siga siendo coherente y que el "futuro" esté bien comportado y determinado.

Y cómo no podía ser de otro modo ;), SÍ observamos tal método de eliminación en la física de nuestro mundo. Concretamente, este borrado de "vieja" información tiene lugar en las leyes de la física cuántica. Voy a intentar explicarlo del mejor modo posible:

En mecánica cuántica, la cuantización o discretización de los estados ya supone limitar y acotar las posibilidades de organización de un sistema a un número finito de resultados (estados) posibles, pero es que además, el principio de incertidumbre garantiza que siempre habrá nueva información (imprevisible) que obtener (lo que garantiza el "trascurso" del tiempo), pero también que parte de la información anterior se vuelva irrelevante, esto es, deje de tener efecto sobre predicciones futuras. Por esa razón, cuando a nivel microscópico se interacciona con un sistema en general, no sólo se adquiere algo nuevo (nueva información observable), sino que al mismo tiempo se "borra" una parte de la información que anteriormente ya se poseía. Es decir; que es posible evidenciar de manera experimental (visible) el hecho de que la Naturaleza deliberadamente se afana en eliminar y destruir información (al mismo tiempo que crea otra nueva).

Este borrado de información lo impone, como hemos dicho, el principio de indeterminación: base fundamental de la esencia de nuestra realidad microscópica, y esto refuerza precisamente la idea de una especial eficiencia computacional observable en las leyes inmanentes de nuestro mundo, ya que, precisamente el mejor modo imaginable para evitar que un computador trascendente (o no) se vea desbordado en cuanto a la necesidad de recursos consiste en usar en todo momento la cantidad mínima de información imprescindible, y esto es lo que hace la realidad cuántica del Universo (repito de nuevo: ¿casualidad?).

Porque resulta que esta especial eficiencia no tendría obligatoriamente que haberse dado en el mundo. Podemos imaginar cientos de formas alternativas en que las leyes microscópicas se podrían haber comportado (siendo quizás la idea más simple, el hecho esperado de que a nivel microscópico todo se hubiese comportado de la misma manera que lo hace a nivel macroscópico), pero resulta que no, que inesperadamente al nivel más básico todo presenta una clara tendencia hacia la computabilidad y la eficiencia de computación, y eso como poco da que sospechar. Estamos hablando de un "fino ajuste" añadido a los anteriores (constantes y leyes finamente ajustadas para la posibilidad de que pueda surgir la vida), pero un ajuste que en este caso ni siquiera la simple propuesta del multiverso (junto al principio antrópico fuerte) pueden sortear. Este especial ajuste computacional (de confirmarse) divide el asunto en sólo dos posibilidades: o es todo casualidad, o realmente nuestro mundo es fruto de una computación externa (trascendental) efectiva.

Ejemplo práctico.

Voy a intentar afianzar -para el curioso- todo lo dicho sobre el borrado de información cuántica, pero intentando no entrar en demasiados detalles técnicos. Para comenzar, sólo decir que existe un método experimental, llamado experimento Stern-Gerlach (más información aquí), capaz de dividir un haz de átomos (normalmente de plata) según sea el eje de rotación intrínseco (spin) en la coordenada z (x, o y) de sus átomos constituyentes. Esta rotación se dice que puede ser positiva o negativa (o arriba y abajo), para diferenciar los dos únicos modos en que esta propiedad puede acontecer (observarse) en nuestra realidad para este tipo concreto de materia:


Es decir; que si lanzamos estos chorros de materia hacia estos aparatos de Stern-Gerlach, podemos dividir el haz de partículas en dos haces, cada uno con todos sus constituyentes "girando" hacia un sentido u otro (- ó  +) para una coordenada concreta (x, y, o z). En la imagen de arriba se puede ver como se ha dividido un haz en la coordenada z con el primer aparato, y como se ha hecho lo mismo independientemente en la coordenada x con el otro aparato de la imagen.

Ahora bien, ¿qué ocurre si comenzamos a poner aparatos de Stern-Gerlach secuencialmente? Pues uno esperaría (clásicamente) que estos haces se fuesen clasificando hasta que llegásemos a tener un haz con todos sus componentes de spin perfectamente determinados al mismo tiempo para cada coordenada: por ejemplo, un haz de partículas con todos sus constituyentes determinados con valores de spin claros (Sz+, Sx-, e Sy-, o quizás: Sz-, Sx- e Sy+, etc.). Pero no es esto lo que ocurre:


Como puede verse, el resultado de este último experimento resulta sorprendente. El primer aparato nos había separado los átomos de plata en dos haces y habíamos tomado el haz tipo Sz+ como entrada del segundo aparato. Tras esto, al tomar la salida tipo Sx+ del segundo aparato usándola para alimentar un nuevo aparato SGz, por sentido común, esperaríamos obtener una confirmación de algo que parece evidente que podríamos conseguir: un valor Sz+ para todos los átomos de plata salidos de este nuevo aparato midiendo SGz. Y con esto, clásicamente, esperaríamos obtener el valor preciso del spin (positivo o negativo) en la dirección-z y también en la dirección-x, o sea, en dos direcciones perpendiculares. ¡Pero en lugar de que esto ocurra, el tercer aparato nos arroja sorprendentemente tanto partículas del tipo Sz+ como partículas del tipo Sz-! La selección hecha sobre el haz Sx+ que sale del segundo aparato destruye completamente cualquier información previa que teníamos acerca de Sz. Se trata de lo que se denominan observables incompatibles los cuales no pueden ser medidos simultáneamente. Y, ojo, no se trata de una limitación experimental humana, sino de que la información obtenida por el primer aparato, sencillamente deja de existir para siempre en el mismo instante en que el haz entra en el segundo aparato.

¡Vemos por tanto claramente como la naturaleza se encarga de borrar y eliminar información de manera activa! Es algo realmente sorprendente que nos lleva directamente a preguntarnos lo siguiente: ¿por qué se podría comportar la Naturaleza de esta forma si no fuese por motivos de eficiencia en un intento de "ahorrar" en cuanto a la necesidad de cálculo y de "memoria" requerido? ¿Se os ocurre otro motivo por el que este borrado deba ocurrir? ¿Simple casualidad? No lo creo.

Y es que sería mucha casualidad que todo fuese de este modo tan especial así porque sí. Es más, muy posiblemente el estudio concreto sobre a qué tipos de realidad  trascendente puede favorecer este asombroso y particular comportamiento Natural que observamos, sea la única posibilidad que tengamos de atisbar (aunque sea mínimamente y de reojo) algo del posible sustento externo que daría origen a nuestro Universo. Y como yo os defiendo, todo apunta a que este estudio podría algún día quizás llegar a confirmar la hipótesis de la Realidad simulada como la más probable de las alternativas trascendentales, dada la realidad inmanente y empírica que vamos descubriendo en la física.

Volvamos, sin embargo, una vez más al ejemplo del spin, y estudiemos algo que quedó pendiente en su momento. Esto es: ¿cómo se representa matemáticamente ese borrado de información del estado de spin que hemos visto antes? Pues mediante una sencilla regla fácilmente programable para ser ejecutada en cualquier ordenador (más aún si se tiene en cuenta la versión matricial de la mecánica cuántica, puesto que es algo cotidiano trabajar con matrices en las ciencias de la computación):

Los estados posibles (observables en el laboratorio) para el spin en estos casos viene dado por la siguiente ecuación característica (tomando el eje-x a modo de ejemplo):


y siendo ħ la constante reducida de Planck; todo lo cual nos resulta finalmente (al resolver la ecuación) en los dos únicos valores (eigen) posibles de observar en la realidad para el spin de estas partículas (+-ħ/2):


Vemos de nuevo como las matemáticas parecen ser las que representan con sus números lo que puede y lo que no puede ser real, es decir; que parecen conformar mediante sus relaciones lo que en este mundo sucede. Y esto, siendo honestos, sólo parece fácilmente comprensible si ocurre porque dichas matemáticas forman después de todo parte de alguna especie de procesamiento o ejecución de información trascendental. Es decir; si finalmente algo así como un Ordenador externo (a nuestro mundo) realmente estuviera utilizando estas ecuaciones y fórmulas mediante algoritmos con los que decide y dicta el transcurso y la historia de nuestro mundo. A mí personalmente no se me ocurre otra explicación alternativa.

Pues bien, al hecho de que esta simple ecuación característica determina cómo puede (valores que forman parte del conjunto de soluciones de la ecuación anterior) y como no puede (valores que no representan soluciones a la ecuación) girar de manera intrínseca una partícula, hay que sumar el principio de incertidumbre; todo lo cual lleva (sustituyendo el subíndice de las coordenadas x, y, z, por los número 1, 2, 3) a la siguiente relación:


Este resultado se puede generalizar y esquematizar mediante este algoritmo de selección (utilizando el conmutador de Born que dice que [Si,Sj] = Si·Sj- Sj·Si, y siendo i la unidad imaginaria):



Merece la pena hacer notar en este punto que cualquiera que haya estudiado algún lenguaje de programación informática podrá observar lo fácil que es aplicar estas reglas de selección (junto al uso de las matrices que vimos antes) en un simple programa de ordenador de andar por casa. Por poner un simple ejemplo, os muestro a continuación cómo de sencillo es programar en PHP la selección de un número aleatorio siguiendo una distribución de probabilidad normal con cierta media y desviación estándar. Es curioso ver como algo similar (evidentemente no igual en forma, aunque quizás sí en cuanto a concepto) podría ser utilizado de hecho a nivel trascendente para llevar a cabo parte del colapso de la función de onda de un sistema mediante una simple llamada a una función algorítmica (dentro de la hipotética programación de nuestro "mundo"):

function nrand($mean, $sd){
    $x = mt_rand()/mt_getrandmax();
    $y = mt_rand()/mt_getrandmax();
    return sqrt(-2*log($x))*cos(2*pi()*$y)*$sd + $mean;
}
En resumen, y volviendo al tema del borrado de información; toda esta matemática nos viene a representar que no es posible llevar a cabo una medición sobre Sx convirtiendo nuestra ignorancia sobre su valor en una certeza, sin alterar y eliminar cualquier conocimiento previo que hubiéramos tenido acerca de Sy y Sz. Una vez medido Sx, si procedemos a medir nuevamente Sx obtendremos el mismo valor una y otra vez, pero si tras ello procedemos a medir Sy entonces destruiremos la información que teníamos acerca de Sx, y ahora Sx y Sz serán inciertos en la medida proporcionada por el principio matemático de incertidumbre.

Creo que queda claro que esta destrucción natural de información, tan necesaria para hacer finitos y asequibles los recursos necesarios a usar por parte de un hipotético computador trascendental, está además bien definida y determinada por una representación matemática, y por lo tanto podemos preguntarnos lo siguiente de manera legítima: ¿en qué podría consistir la razón de ser de esta destrucción de información -tan apropiada y conveniente para fines computacionales, además de ser tan fácilmente implementable mediante algoritmos computacionales- si no es simplemente porque esta matemática ha sido realmente programada y ejecutada de manera trascendental, dando como resultado la emergencia de la realidad que vemos a nuestro alrededor?  La casualidad simplemente no parece una alternativa creíble, y todo indica que somos parte de una simulación: un procesado externo (y algorítmico) de información.

Interpretación de la mecánica cuántica.

Uno de los mayores problemas de la física actual es determinar cuál de las interpretaciones de la mecánica cuántica es la correcta. Y esto equivale a comprender por qué, cuándo y cómo pasa el mundo microscópico de consistir en meras funciones de probabilidad a presentar un claro estado observable: es decir, comprender la esencia del colapso de la función de onda, momento en que la materia bajo estudio deja de presentar un comportamiento probabilista, para presentar una observación concreta.

Son muchas las interpretaciones que han pretendido explicar este colapso, siendo quizás las más famosas la interpretación de Copenhague, la interpretación de los múltiples Universos de Hugh Everett, y la moderna teoría de la decoherencia cuántica. Todas estas interpretaciones o postulados no han sido corroborados de modo alguno, y todas poseen muchos problemas intrínsecos que no terminan de cuadrar. La tesis aquí defendida propone una nueva y sencilla interpretación relacionada con la tesis de la Realidad simulada: sencillamente, el colapso ocurre cuando el hipotético Computador trascendental (los algoritmos que ejecuta) determinan que es el momento de tomar al azar un valor (aleatorio) de entre los disponibles siguiendo la distribución de probabilidad que hasta ese momento presentaba el sistema. Así de fácil. No se necesitan observadores inteligentes que midan el sistema, ni tampoco infinidad de Universos que se desdoblen mostrando cada resultado posible; sólo hace falta que exista un Computador trascendente que esté procesando nuestra realidad, y que dicho ordenador "decida" mediante un procedimiento almacenado cómo y cuándo debe colapsar estas funciones de probabilidad. Este procedimiento programado podría ser de muy diversas maneras, aunque posiblemente, de ser cierta esta interpretación, podría ser el caso de que el algoritmo simulador tuviese algún valor de interacción umbral el cual señalaría el momento justo en que un sistema local cualquiera deba tenerse en cuenta para colapsar (i.e., para "tirar el dado" -lo siento, Einstein- y ver qué sale de entre los posibles valores dentro de la distribución de probabilidad).

Es asombroso cómo la hipótesis de la Realidad simulada facilita la comprensión del mundo a todos los niveles, y también de lo bien que correlaciona con todo lo que conocemos ya hoy día de física (de matemáticas y de computación); pero es que la cosa no queda aquí. Como veremos a continuación, futuros avances en física teórica podrían llegar incluso a, literalmente, confirmar y reforzar al máximo lo que es de momento una simple hipótesis (aunque con una buena base teórica como hemos venido viendo en estos dos artículos). Veamos cómo:

Gravedad cuántica de bucles.

Si la mecánica cuántica y la teoría de la relatividad cada una por su cuenta ayudan a evidenciar la propuesta de la Realidad simulada (evitando en gran parte los valores y las cantidades infinitas que van siempre en contra de la capacidad o potencial para la computación y el procesamiento), debemos recordar que todavía queda alcanzar una teoría física capaz de lograr unir ambas teorías bajo un marco común.

Hay hoy día dos destacadas alternativas de unificación en la palestra: por un lado la Teoría de cuerdas, de la que seguro que has oído hablar, y por otro, la teoría de la Gravedad cuántica de bucles, de la que es posible que conozcas menos, pero que cuenta con un gran número de seguidores entre sus filas, destacando posiblemente en cuanto a fama, Roger Penrose, y en cuanto a aportaciones y divulgación, Carlo Rovelli. Es ideal, de hecho, iniciarse en el mundo de la Gravedad cuántica de bucles (LQG, por Loop Quantum Gravity) mediante el libro de divulgación (de esos que no tienen matemáticas :P) de Carlo Rovelli llamado: "La realidad no es lo que parece". Y también es recomendable para aquellos que deseen iniciarse en la LQG a un nivel más formal (con muchas matemáticas por doquier :P) el libro de este mismo autor denominado: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory", publicado por la Cambridge University Press  (2014).

Pues bien, de las dos alternativas mencionadas nos quedaremos en este apartado con la Gravedad cuántica de bucles, y responderemos a lo siguiente: ¿qué consecuencias tendría que se confirmase la LQG sobre la hipótesis de la Realidad simulada? La respuesta es sencilla: el hecho de que la LQG se confirme algún día, significaría casi una validación simultánea de la hipótesis de la simulación computacional. Y esto es así precisamente por los postulados de base con los que se parte en este intento de unificar relatividad general y mecánica cuántica. En concreto, por el requisito básico de partida que hace la Gravedad cuántica de bucles sobre la cuantización (granulado) del propio espacio-tiempo; y por la necesidad que esta teoría tiene de base por evitar y deshacerse de cualquier infinito referido a la física de nuestro mundo. Es decir; que el éxito teórico (aún por confirmar experimentalmente) de la LQG se basa principalmente en el requerimiento básico de que su validez depende a priori de que no exista ninguna continuidad en el mundo natural; requiriéndose por tanto que todo en el Universo sea de un modo u otro finito y discreto: incluido el mismo espacio-tiempo. ¿Y sabes qué? Resulta que estos requisitos son también la base que decide si nuestra física es o no es computable ;).

Por otra parte, también la Gravedad cuántica de bucles basa parte de su éxito en las llamadas redes de spin, que no son otra cosa que un postulado que habla de que esta cuantización propuesta del espacio-tiempo (sus gránulos o cuantos), se organizan en torno de una especie de red que conforma grafos (una generalización de la estructuración de datos en árboles) con nodos, aristas y vértices, los cuales recuerdan enormemente a una rama completa de las ciencias de la computación que cualquier estudiante de ingeniería llega a estudiar como una útil herramienta de programación para la estructuración de datos e información.


Si hacemos cuentas, vemos que tenemos: un espacio y tiempo granulado y discreto, conformado en redes de grafos, con una física matricial a nivel microscópico, un eficiente cálculo del movimiento determinado por funciones de probabilidad que sólo colapsan cuando es necesario, borrado y destrucción cuántica de información física "irrelevante"; y todo al mismo tiempo libre de infinitos y acotado de manera que las matemáticas que determinan la realidad estén siempre "bien comportadas". En fin, todo preparado para que nuestra realidad sea una realidad computable, y que además sea especialmente eficiente en cuanto a necesitar los mínimos recursos de computación (hardware) imaginables: ¿casualidad? No lo creo, e insisto en mi proclama inicial:
Si nuestra física resulta ser computable externamente, y si además parece estar "ajustada" (de un modo especial) para ser eficientemente computable, probablemente sea porque como todo indica ES computada a un nivel trascendente. 
Y en este sentido, y como ya hemos dicho, una confirmación experimental de la LQG podría significar al mismo tiempo una fuerte evidencia insoslayable a favor de la tesis que habla sobre que nuestro mundo es resultado de un procesamiento de información trascendental.

Por último, comentar sobre la LQG que esta tesis no hace uso de la idea "tradicional" del multiverso, sino que propone lo que se conoce como Big Bounce; postulado que viene a defender continuos ciclos o bucles para la existencia del propio Universo. Es decir; que lo que se entiende desde la física como el momento final del Universo, supone en realidad el inicio (una especie de Big Bang) de una nueva iteración del mismo (es de obligada lectura la divulgación propuesta en este sentido por Roger Penrose en su libro: "Ciclos del tiempo: Una extraordinaria nueva visión del universo"). ¿Y por qué menciono esto? Pues porque de nuevo une y ata a la física conceptos utilizados de continuo en el mundo de la computación: bucles, iteraciones, ciclos, etc. Por cierto que este modelo cíclico es equivalente en la práctica al multiverso tradicional, excepto que aquí en principio sólo hay una realidad que cambia en cada iteración, mientras que en el modelo del multiverso clásico todas estas realidades diferentes coexisten de manera paralela. En el fondo no hay tanta diferencia.

Me gustaría ahora, para finalizar el artículo, tratar asuntos algo más filosóficos (si cabe :P). Es posible que esta parte del trabajo ya no interese a parte de los que han llegado hasta aquí, y lo entiendo. Pueden quedarse con lo ya tratado. Para el resto, ¡vamos allá!

Desde este momento en adelante vamos a partir de base sobre la idea de que finalmente ha llegado el momento (futuro) en que la hipótesis de la Realidad simulada ha sido confirmada. Y a partir de ahí, vamos a estudiar principalmente las consecuencias que este hecho tendría en aquellos terrenos filosóficos más tradicionales. Veámoslo:

¿Qué significaría vivir en una simulación y qué consecuencias tendría respecto a lo que entendemos como conciencia?

Aceptar que vivimos (o podríamos vivir) en una simulación, y que nuestra conciencia emerge dentro de dicha simulación es algo complicado de digerir. Es un concepto difícil de entender y que escapa fácilmente a nuestra intuición y sentido común. Por lo tanto, voy a intentar explicar desde mi punto de vista este asunto del modo en que mejor se suelen entender estas cosas: mediante metáforas y ejemplos prácticos.

Leamos en primer lugar esta entrada del diario El PaísUn traje para ‘tocar’ objetos en la realidad virtual, y luego este artículo sobre las nuevas gafas de realidad virtual (VR) para la PS4https://www.cnet.com/es/analisis/sony-playstation-vr/. E imaginemos ahora que han pasado 20 ó 30 años, y que esta tecnología ha avanzado y se ha desarrollado de manera que se ha inventado un artilugio capaz de virtualizar de este modo todos nuestros sentidos a la vez (tacto, vista, olfato, oído, y gusto), y que además la sensibilidad del aparato sea tan precisa que llegue un momento en que nuestro cerebro sencillamente no sea capaz de diferenciar qué sensación es real y cual es simulada por este tipo de dispositivo. En resumen: imaginemos que dentro de 30 años llega un momento en que no podamos saber si estamos viviendo la realidad, o si nos han atado a la cama y nos han introducido en este magnífico aparato de manera que estemos viviendo una realidad "simulada" y computada sin poder notar la diferencia. Pues bien, esta tecnología, de hecho, es asequible en la práctica e incluso se está avanzando en ese camino, el cual podría alcanzarse incluso antes de estos 30 años propuestos.

En este caso propuesto, lo que ha ocurrido es que hemos sustituido o modificado la fuente o el sustento directo de los estímulos que llegan a nuestros receptores sensitivos que transmiten luego mediante los nervios la información para que la procese nuestro sistema nervioso central (SNC); de manera que ahora estos estímulos han sido pre-procesados computacionalmente antes de ser "lanzados" hacia nuestros nervios. Ese pre-procesamiento (ese procesado intermediario; el cambio acontecido en la información entre el origen y la fuente) es la causa, de hecho, de que ahora hablemos de que estamos inmersos en una realidad "virtual". Vemos, pues que la diferencia en este ejemplo entre "vivir" la realidad y "vivir" una virtualidad, consiste en determinar si la información sensible que alcanza nuestro SNC ha sido pre-procesada o no. No parece haber tanta diferencia en este caso después de todo. Pero por supuesto podemos ir más allá:

Resulta que no es sólo un pre-procesamiento externo el que puede dar lugar a una "virtualidad", sino que también una perturbación o cambio ocurrido en el interior del propio SNC puede determinar cambios en nuestra "realidad" subjetiva. Esto ocurre, por ejemplo; en una operación de cerebro, donde el neurocirujano mediante simples toques con el bisturí en ciertas zonas de este órgano consigue modificar la experiencia visual, imaginativa, memorística e incluso emocional del paciente, el cual llega a pensar que ve lo que no ve, a recordar cosas que no ocurrieron, e incluso ve como sus emociones y sentimientos cambian con estas meras modificaciones físicas en su estructura neuronal. Se puede decir que la modificación estructural que el neurocirujano hace con el bisturí cuando ocurre en ciertas zonas claves, actúa también a modo de pre-procesamiento en los impulsos que llegan luego ya modificados a las entradas de ciertas sub-redes neuronales encargadas de procesar funciones importantes de nuestra conciencia de modo que esta emerge distorsionada.

Otro ejemplo más es el sueño. Cuando se sueña, se hace uso de los mismos centros de procesado neuronal (las sub-redes corticales fundamentales), pero la entrada que reciben tales redes neuronales ya no proviene del exterior (estímulos sensibles), sino que provienen de otras zonas del cerebro donde la información sensible recibida durante el día (y durante la vida, en realidad) han sido almacenadas. Pero como este almacenamiento (la memoria neuronal) no es ni mucho menos perfecta ni 100% fiel al estímulo original (no puede serlo, porque la cantidad de información recibida es realmente enorme, mientras que la capacidad de almacenamiento neuronal es finita y muy limitada en comparación), este almacenamiento se produce de modo aproximado y con fisuras, con lo cual, a la hora de almacenar tal información, el cerebro hace un pre-procesamiento que desecha parte de la información original y almacena la que cree oportuna. El sueño aparece así como otro tipo de realidad "virtual", en el sentido de que se trata del mismo fenómeno que hemos ya mencionado antes: complejas redes neuronales trabajando sobre información pre-procesada (en este caso, a la hora de guardar la información en la memoria). Si la evolución hubiese necesitado que nuestra memoria sensible fuese mucho más fiel, no quepa duda de que nuestros sueños habrían podido incluso llegar a ser indiferenciables de la "realidad" subjetiva que experimentamos despiertos. Por suerte esto no fue así, y podemos "notar" la diferencia.

Por lo tanto vemos en resumen que toda nuestra conciencia se reduce a un procesado (una computación) que ciertas partes complejas de la red neuronal de nuestro cerebro realizan actuando sobre una intrincada línea de datos de entrada (información) que se obtienen en forma de impulsos. Cuando esa información proviene del exterior del SNC (a través de los nervios) sin un pre-procesamiento previo, decimos que hablamos de la verdadera "realidad" subjetiva, y cuando esa información llega a las redes neuronales más relacionadas con la conciencia de modo alterado; ya sea por un estímulo "lanzado" por una máquina de realidad virtual, por una lesión física ocasionada por un cirujano, o por el origen de la información: como cuando se obtienen de la memoria en lugar del mundo exterior; así como por el uso de medicamentos que modifiquen el medio de la transmisión de impulso: como ocurre, por ejemplo, con ciertos alucinógenos, LSD y demás, entonces hablamos de que la "realidad" subjetiva ha sido "virtualizada", es decir; falsificada de algún modo mediante un pre-procesado.

Esta falsificación es la base, por ejemplo, de la tesis propuesta en la famosa película Matrix, en donde se postula que nuestra realidad es pre-procesada por máquinas que luego envían esa información "a medida" hacia nuestras redes neuronales mediante electrodos, haciéndonos creer que vivimos en una realidad determinada, cuando en realidad estamos tumbados en una cama con el cerebro lleno de cables. Pues bien, hemos visto que en teoría no es imposible que este sea el verdadero caso, y que quizás realmente la película no vaya desencaminada después de todo (una película que trata un tema similar pero de un modo a mi parecer más elegante es "Abre los ojos" de Alejandro Amenábar).

Pero de todas formas no es esto lo que la Realidad simulada propone, porque no estamos hablando en este artículo de que unas máquinas estén alterando el procesamiento de nuestras redes neuronales fundamentales para la emergencia de la conciencia, sino que todo, absolutamente todo el procesado de información ocurre a un nivel trascendente (incluido el procesado neuronal). Es decir; que al igual que el computador principal postulado en Matrix puede computar y pre-procesar la información que mandaría luego a los cerebros en las cubetas, que no son más que microprocesadores neuronales, sencillamente se trata de que ese procesamiento neuronal sea también llevado a cabo en el propio computador Matriz; dando ambos casos un resultado indiferenciable el uno del otro más que en el simple hecho de que nos hemos quitado de en medio un componente (hardware) intermediario en el procesamiento general: nuestro cerebro.

Vamos a ver esto mejor con un pequeño relato:

Matrix es real: un gigantesco Supercomputador simula la realidad, y según sea la posición de cada "sujeto" el ordenador le manda a las entradas neuronales claves de su cerebro en la cubeta la información pre-procesada necesaria para que su "mundo" sea coherente. La red neuronal de cada "individuo" luego procesa esta información de entrada y produce una información de salida ya procesada por sus redes neuronales. Esta información procesada por el "individuo" (el cual siente su "realidad" subjetiva tan clara como tú y como yo) va de vuelta a Matrix, la cual incluye su respuesta en la simulación principal y así continua el proceso general por milenios. Matrix actuaría así como un intermediario entre cerebros.

Hasta aquí la trama de la película original pero os pregunto yo: ¿no pensáis que sobra algo? Evidentemente, sí. Como ya hemos comentado, ¡ese procesamiento neuronal externo de esos miles de cerebros (de "individuos") se puede igualmente simular también en la propia Matrix! ¿Para qué andar transmitiendo información de aquí para allá para que cerebros independientes computen luego dicha información cuando el propio ordenador Matriz podría hacer ese mismo trabajo de cómputo? Es más, no sólo no se perdería nada en cuanto a computación de información se refiere, sino que se ahorraría en coste de cableado y de mantenimiento ;). Si se hace bien y Matrix logra simular el mismo tipo de procesamiento que hace la red neuronal de esos "individuos", ¡el resultado sería exactamente el mismo! Pues bien, algo similar a esto es lo que propone la hipótesis de la Realidad simulada: que todos (y todo) formamos parte de una gran computación trascendental, la cual actúa como sustrato único de computación de nuestro "mundo" (sin intermediarios ni otros actores).

Como refuerzo a todo lo dicho, señalar simplemente que tanto el "individuo" en la cubeta (de Matrix) como el "individuo" 100% virtual (del Matrix 2.0 mejorado sin cubetas) no podrían notar de modo alguno diferencia en cuanto al origen de su conciencia: ambos vivirán una idéntica "realidad" subjetiva y no  podrían distinguir si están (su cerebro) o no en una cubeta. Esto debería hacernos ya ver la delicada línea que separa "realidad" de "virtualidad": piensa y responde honestamente, amigo lector: ¿realmente te sientes después de leer todo lo anterior capaz de asegurarme que no vives dentro de un Matrix o un Matrix 2.0?

Pero continuemos y aceptemos para seguir con el desarrollo de este asunto que vivimos en un Matrix 2.0. ¿Qué sería lo que nosotros entenderíamos por física dentro de este contexto? Pues en este caso la física sería simplemente la representación que nuestra red neuronal (siendo ella también "virtual") se haría del modo en que están diseñados los algoritmos ejecutados en Matrix 2.0. Ni más ni menos. ¿Y qué sería lo que nosotros entendemos por matemáticas en este mismo contexto? Pues sería una representación lógica y no ambigua que nos permitiría estudiar y aprehender el modo concreto en que esos algoritmos están dispuestos de la manera más cuantitativa posible.

Física y matemáticas pueden (y deben) pues ir de la mano, ya que son representaciones de una misma cosa: el modo en el que (por ahora hipotético) computador trascendental dicta las normas y el estado global de nuestro "mundo". Es más, si la simulación algún día se confirma, podríamos incluso denominar a estas ciencias como aquellas ramas del saber destinadas fundamentalmente al estudio de aquellos algoritmos trascendentes que dan lugar a nuestra "realidad".

Ejemplo práctico.

Vimos en este sentido en la entrada anterior que para un potencial esféricamente simétrico (como por ejemplo en el que se encuentra un electrón dentro de un átomo hidrogenoide), tenemos que la función de onda que especifica la probabilidad de encontrar un electrón en cierta región del espacio viene especificada en coordenadas esféricas por lo siguiente (se muestran sólo las fórmulas para las primeras combinaciones de números cuánticos n, l, y m) y simplificación usando la simbolización:


Tenemos que las expresiones que corresponden a las funciones de onda completas (incorporando tanto la parte angular como la parte radial) con la notación simbólica se acaba de dar son las siguientes para los primeros números cuánticos permitidos:


y la la probabilidad de encontrar un electrón dentro una capa esférica situada entre r y r+dr es igual a:

ψ*ψ4πr²dr

siendo 4πr²dr el volumen de la capa esférica en la cual ψ*ψ tiene el mismo valor constante.

Todo esto nos permite preguntarnos por lo siguiente: ¿Por qué son estas expresiones y no otras las que describen la densidad de probabilidad de encontrar un electrón en cierta región del espacio? Todo está construido de manera matemáticamente consistente, pero las propias matemáticas que describen el mundo cuántico no son las únicas matemáticas posibles. Estas funciones de onda son calculadas a partir del uso de unos polinomios llamados Polinomios de Legendre, los cuales la Naturaleza parece usar de algún modo pero que no son la única alternativa matemáticamente viable (existen funciones trigonométricas, por ejemplo; que podrían ofrecer una probabilidad matemática congruente alternativa pero que no lo hace). Es decir; que de algún modo la Naturaleza selecciona estos polinomios como las funciones ortogonales "predilectas" para determinar las densidades de probabilidad: ¿por qué ellos? 

Pues bien: si se descubre que la realidad es simulada, sencillamente habría ocurrido que mediante el método hipotético-deductivo habríamos logrado una representación física y también matemática del algoritmo utilizado por el Computador trascendental para dar lugar a este procesado concreto de nuestro "mundo"...y nada más. No habría (ni haría falta) más explicación que esta.

Consecuencias metafísicas.

Sin duda, con la tesis de la Realidad simulada confirmada resolveríamos algunas dudas ontológicas, pero no sería ni mucho menos una respuesta completa. Una cosa que quedaría clara es que, lo que nosotros llamamos realidad, sería un mero proceso ocurrido en otra realidad independiente que trascendería nuestro mundo. Es decir; habríamos demostrado que finalmente hay algo "más allá" de nuestro mundo y que de hecho, nuestro mundo estaría determinado por procesos acontecidos en ese "más allá". Y por otro lado, y dado que no existe un claro límite teórico ni práctico que en principio impidan que nosotros mismos lleguemos algún día a crear nuestras propias simulaciones con computadores no demasiado distintos de los actuales (aunque sí mucho más potentes), la probabilidad de que nosotros estemos siendo simulados por lo que podríamos llamar la Realidad madre (o The Root Reality, como lo denomina en inglés Brian Greene en su maravilloso libro "La realidad oculta") es muy baja. Es decir; que si descubrimos que nuestro mundo es resultado de un proceso de computación trascendente, y al mismo tiempo vemos que no hay límite para que nosotros (o alguna civilización alternativa de nuestro Universo) generemos en algún momento futuro nuestra propia simulación; todo hace pensar que es probable que exista una encadenación de simulaciones dentro de simulaciones de la que nosotros formemos un simple eslabón intermedio. Y al contrario, sería muy poco probable que diese la casualidad de que nuestro mundo sea generado directamente por la Realidad madre (o matriz) principal.

De todas formas, independientemente de que nuestro Procesador se encuentre en la Realidad primera o sea un eslabón más, resulta que en cualquier caso poco o nada podemos saber de esa trascendencia "superior". Sólo podríamos asegurar que tal trascendencia externa existe, y que un procesamiento de información dentro de ella sería la causa primera de nuestro mundo, pero poco más. De su esencia o sustrato nada podremos decir a parte de que posee la propiedad y potencial de ejecutar la computación necesaria para generar nuestro mundo. Pero es que resulta que hay muchos modos en que un sustrato puede procesar información y hacer emerger "realidades", por lo que lo mismo podría ser nuestro "Creador" un ordenador no muy distinto de los que nosotros ya poseemos, como podría ser más como una especie de "Mente" de modo parecido a como nuestro cerebro es capaz de procesar información y hacer emerger la "realidad " subjetiva que todos nosotros experimentamos.

Es decir; que la tesis de la Realidad simulada deja tan abierto el asunto ontológico que incluso si algún día es confirmada experimentalmente como hemos supuesto, todavía podría encajar en ella una infinidad de alternativas trascendentes (inaccesibles al conocimiento).

Y por supuesto, y dado que las características y la esencia de ese "Creador" trascendente serían por principio inaccesibles e indeterminables, ahí cabe de todo y además todo es equiprobable. Lo mismo podemos imaginar que esa trascendencia no es muy diferente de la nuestra (al estilo de la famosa -y buena- película Nivel 13), como podemos imaginar algo más del estilo del Matrix más tradicional, o incluso variaciones más "místicas" e incluso religiosas. Y es que dentro de la infinidad de alternativas imaginables hay hueco aunque parezca mentira, incluso para el tradicional Dios barbudo de las religiones monoteístas. Y esto es así porque una simulación como hemos visto simplemente requiere de un soporte que procese información; y del mismo modo en que nuestro cerebro procesa neuronalmente (mediante impulsos eléctricos) la "realidad" subjetiva que emerge luego ante "nuestros ojos", podría ser que la propia "realidad" objetiva que nutre a nuestros sentidos se deba a la actividad (no necesariamente eléctrica) del equivalente a algo así como un Cerebro "Divino" (puesto que no es obligatorio que el sustento de la hipotética computación trascendental de nuestro mundo sea similar, ni siquiera parecida, a un ordenador o computador humano).

Es decir; que el sustento esencial (las propiedades) de la supuesta base para la computación de nuestro mundo sería desconocida (insisto: a pesar de que la Realidad simulada se confirme empíricamente de manera inmanente); y quizás dicha simulación sea fruto emergente de un único "Cerebro" trascendental. Nuestro mundo podría ser así el "sueño" de un ente trascendente, o quizás su "imaginación" en funcionamiento (¿quién sabe?). Podría ser incluso, como acabamos de comentar, el caso de que nuestro mundo fuese después de todo fruto emergente de la computación de una "Mente" trascendente que podríamos tranquilamente relacionar con el Dios cristiano (o con el de cualquier otra religión). En este caso concreto, Dios habría creado (o imaginado) el mundo de manera computable y eficiente (quizás porque no sea Él mismo tan omnipotente después de todo), y ciertamente podría haber preparado la realidad para que su Creación (más bien una parte de la misma) demostrase (o no) "bien y bondad" ante la lucha, el dolor y la libertad de acción. Y ya luego estos "bondadosos" serían trasladados a otra "realidad" (el "Cielo"), y los demás pues condenados a desaparecer o algo así.

En fin, que la hipótesis de la Realidad simulada no cierra realmente ninguna puerta metafísica; e incluso puede suponer por el contrario un duro golpe contra el hombre de ciencia más tradicional, el cual se vería obligado (contra su voluntad :P) a aceptar la existencia innegable de una realidad trascendente, aunque con propiedades y características esencialmente inaccesibles e incomprensibles: y no hay nada que normalmente deteste más un científico que tener que renunciar a su infundada creencia "panteísta" de que no hay nada trascendental sustentando nuestro Universo (o para los más atrevidos, el multiverso).

De hecho, es precisamente esta irremediable indeterminación trascendental la que lleva al científico a buscar de todas las maneras posibles el modo de evitar cualquier implicación trascendental. Y es comprensible, porque ciertamente esta indeterminación como veremos a continuación podría ser motivo de preocupación.

Ya comentamos en la entrada anterior  que, de confirmarse la tesis de la simulación, haría indudablemente falta de alguna especie de Diseñador inteligente que diese forma primero a ese Computador, y que determinase luego cómo pueden y cómo no pueden ser las "físicas" admisibles y "materializables" en Él. Y dicho Diseñador además, tendrá posiblemente alguna intención a la hora de Crear esos "mundos virtuales", abarcando esa voluntad un ilimitado número de posibilidades, pero siendo quizás destacable el hecho de que caben dentro de dichas posibilidades opciones en las que nuestro mundo haya sido creado para saciar algún tipo de Necesidad sádica o perversa, lo cual por otra parte correlaciones bastante bien con la realidad empírica que nos rodea; donde el dolor, el sufrimiento y la lucha son la norma.

La intención trascendente.

Es decir; que de ser cierta la hipótesis de la simulación, tendríamos por un lado la seguridad de la existencia de un ente trascendente, pero al mismo tiempo también tendríamos una indeterminación trascendental absoluta con un abanico en principio infinito de imaginables esencias, propiedades, y por supuesto, intenciones para esos supuestos Entes residiendo en esa realidad externa a la nuestra.

Y esta indeterminación debería preocuparnos, porque en principio se nos pueden ocurrir de media tantas trascendencias buenas (o agradables) hablando desde nuestro punto de vista, como malas o desagradables: por lo tanto (insisto, siempre dando por supuesta la Realidad simulada)  habría 1/2 de probabilidades de que la intención detrás de la creación de nuestro mundo sea descaradamente mala (siendo nuestra existencia fruto de alguna convenida necesidad trascendental, o incluso de una necesidad perversa o sádica donde por ejemplo, algún Ser esté "ahí fuera" riéndose y disfrutando de nuestro dolor y sufrimiento), y otra mitad de probabilidades de que la intención no sea tan mala o que simplemente sea indiferente en lo relativo a la humanidad.

El uróboros simboliza el esfuerzo eterno,
 la lucha eterna, o el esfuerzo inútil, la naturaleza cíclica
 de las cosas, el eterno retorno y otros
conceptos que vuelven a comenzar
 a pesar de las acciones para impedirlo.
Pero ese 1/2 es realmente preocupante: es cómo si te ponen una pistola en la cabeza con 1/2 de probabilidad de que dispare y te mate, y otro 1/2 de que no se dispare y demás te regalen 100 millones de euros. Yo personalmente estaría aterrado por la mera existencia de esa alta probabilidad negativa. Porque además sabríamos que lo que entendemos por el "yo", nuestra persona y nuestra conciencia, nuestro dolor y nuestro sufrimiento, formaría parte de un mero procesamiento de información; y es sabido que cualquier proceso de este tipo se puede replicar innumerables veces. Por lo tanto aparecen ante nosotros incalculables formas en que un ente trascendente "aburrido" o "sádico" podría dedicarse a "masacrar" y torturar al fruto de su "Creación" computacional. El eterno retorno de Nietzche podría finalmente quedarse corto ante una verdad aún más trágica, pudiéndose repetir el cómputo de nuestro mundo simulado una y otra y otra vez, de modo que el dolor y el sufrimiento de cada ser de la creación se volviese a repetir en un sin fin de ocasiones: en resumen, una atroz lucha eterna e inútil.

Yo sinceramente creo que la tendencia tradicional del científico (o del ateo en general) hacia esa postura anti-religiosa puede deberse en gran parte (aunque quizás de modo subconsciente), a un intento de evitar este aterrador 1/2 de probabilidad aterradoramente poco agradable. Y es que, el mejor modo de conseguir no tener miedo de que una supuesta "pistola" te dispare en la cabeza con 1/2 de probabilidad, es negar por principio la existencia de dicha pistola. Lo malo es que de confirmarse que nuestra realidad es una simulación, la existencia de la "pistola" sería ya incuestionable.

Y la cuestión es que incluso la balanza puede que no esté en 1/2 a 1/2 entre buenas y malas intenciones después de todo, porque resulta que nuestro mundo inmanente y empírico nos dice más bien otra cosa: el dolor y el sufrimiento humano ganan la mano de largo a lo bueno de la vida, por lo que quizás haya que sesgar un poco la balanza hacia la idea de que esa hipotética intención trascendente no vaya muy en la línea de hacer cosas buenas en pos de su Creación, sino quizás todo lo contrario. Porque un mundo que permite la aniquilación en pocos años de la mitad de la población (como ocurrió con la peste negra en el siglo XIV de nuestra era, donde millones de personas -niños y bebés incluidos- murieron en pocos años), o donde la picadura de un mosquito o garrapata puede causar que un niño muera desangrado por el contagio de un virus, no parece una realidad especialmente diseñada de manera "favorable" para nuestra especie ni nuestro destino. De hecho, es curioso plantearse la pregunta sobre qué relevancia concreta puede tener el hecho de la muerte de un bebé a los pocos meses de haber nacido para ese supuesto "Diseñador". En este sentido no me resisto de nuevo a mencionar las palabras de Richard Dawkins cuando se pregunta que: "Si sólo hay un Creador que hizo al tigre y al cordero, al guepardo y a la gacela, ¿a qué está jugando? ¿Es un sádico que disfruta siendo espectador de deportes sangrientos?", y yo me temo que, si la tesis de la simulación es cierta; las palabras de este científico no sirvan ya tanto para desechar la idea de un Creador por reducción al absurdo (que es la intención original de Dawkins), como para confirmar que ese Creador (que la Realidad simulada obligaría a aceptar como existente) no tiene muy buenas intenciones para con su Creación después de todo: en el mejor caso posible sería indiferente respecto al destino de lo creado, y en el peor caso, sería sencillamente un tremendo sádico.

Personalmente, os confieso que el deseo más íntimo que siempre he tenido, es que el día en que llegue mi hora y "cierre los ojos" en teoría para siempre, que por ninguna de las maneras vuelva a "abrirlos" en ninguna otra realidad, momento o circunstancia. Que la nada más absoluta se trague eso que entiendo como mi "yo", y que mi conciencia no reaparezca jamás para librar esta extraña batalla que llamamos vida, y para la cual yo no atisbo ningún sentido objetivo (al menos en lo que respecta a la humanidad). Pero como ya vimos, de confirmarse la hipótesis de la Realidad simulada, este deseo mío se vería seriamente en entredicho, y eso es algo que realmente me incomoda. Y es que experimentar una vida breve (aunque esté rodeada de necesidad, dolor y sufrimiento)  no es después de todo tan malo (dado lo breve); se podría incluso decir que por momentos es una experiencia a veces curiosa y divertida, pero repetir esta existencia un número indeterminado de veces ya son palabras mayores. Si nos arrebatan la certeza de nuestra aniquilación futura; si nos obligan a repetir continuamente un sinsentido, la desdicha sería igualmente infinita. Y es que, como dijera el gran Emil Cioran: "Vivo únicamente porque puedo morir cuando quiera: sin la idea del suicidio, hace tiempo que me hubiera matado". Imagina que te atan a una "cama" existencial y que te quitan la libertad para poder algún día dejar el ser...el simple pensamiento hace que los pelos se pongan de punta.

En fin, que ya sabéis, si algún día veis en las noticias que se ha confirmado experimentalmente la Gravedad cuántica de bucles (de manera que se deseche la continuidad del espacio-tiempo y la computabilidad de nuestro mundo se confirme)...temblad.

Un abrazo.

Principales referencias recomendadas.

- Artículo previo donde trato el tema del "Diseño inteligente" mediante Realidad simulada: http://quevidaesta2010.blogspot.com.es/2016/09/diseno-inteligente.html. Leer este artículo anterior es muy recomendable para poder seguir el contenido de esta segunda parte con soltura.

- Gran libro de divulgación (sin matemáticas :P) sobre la teoría de la Gravedad cuántica de bucles escrito por el físico Carlo Rovelli: "La realidad no es lo que parece", Tusquets Editores, 2015.

- Libro de introducción (pero con muchas matemáticas :P) sobre la teoría de la Gravedad cuántica de bucles escrito por el físico Carlo Rovelli: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory", Cambridge University Press, 2014.

- Buen libro de divulgación sobre la propuesta cíclica de la realidad escrito por Roger Penrose"Ciclos del tiempo: Una extraordinaria nueva visión del universo".

La Mecánica Cuántica (trabajo de Armando Martínez Téllez): imprescindible libro en formato web gratuito donde se trata en profundidad pero con claridad todo lo referente a la física cuántica (http://la-mecanica-cuantica.blogspot.com.es/). Este maravilloso trabajo es ideal estudiarlo a fondo (yo voy por mi segunda lectura), pero especialmente he utilizado en esta entrada el capítulo 14 y 15: "El experimento Stern-Gerlach" (http://la-mecanica-cuantica.blogspot.com.es/2009/08/el-experimento-stern-gerlach.html) y "El spin del electrón" (http://la-mecanica-cuantica.blogspot.com.es/2009/08/el-spin-del-electron.html).

Una breve introducción al concepto de Realidad simulada: https://es.wikipedia.org/wiki/Realidad_simulada.

- El gran diseño (en inglés The Grand Design): libro de divulgación científica escrito por los físicos Stephen Hawking y Leonard Mlodinow (https://es.wikipedia.org/wiki/El_gran_dise%C3%B1o ). De este libro es de especial interés respecto a lo tratado en este trabajo su último capítulo.

La Realidad Oculta: Universos Paralelos y las Profundas Leyes del Cosmos: libro de divulgación científica escrito por el físico Brian Greene y publicado en 2011. En él se examina el concepto de multiverso y la posibilidad de la existencia de universos paralelos. Fue nominado al Premio Aventis durante el año 2012 (https://es.wikipedia.org/wiki/La_realidad_oculta). De este libro, es de especial interés con lo tratado en este artículo los últimos dos capítulos del mismo.

- Dos trabajos propios (con código fuente incluido) donde se explica con más detalle el concepto de procesar "físicas" virtuales mediante computación evolutivaEjemplo I de programación evolutiva aplicada a un sistema Lennard-JonesEjemplo IIEjemplo III.

http://people.idsia.ch/~juergen/computeruniverse.html y https://slashdot.org/story/03/05/31/2224253/the-computational-requirements-for-the-matrix (Dos webs muy interesantes que tratan con más detalles el tema de la Realidad simulada).


21 comentarios:

Sergio Hernandez dijo...

Samu, cuando dices que la realidad simulada necesariamente implica que exista un diseñador, creo que te dejas mejores opciones desde el punto de vista de Occam!

Imagina el 2D que te comente en la entrada anterior, unas semillas daran lugar a estructuras que crezcan mas rapidamente que otras, y esto puede ser por dos motivos: sus leyes de la vida son mejores que otras, más estables, o porque simplemente sean mas eficientes al computarse, o una combinación óptima de ambas... en cualquier caso, de esta forma, al final tendras una poblacion que contendrá una version de la simulacion de las mas eficientes al computarse y al generar complejidad "util" sobre el tablero.

No se necesita un diseñador inteligente externo orque existe una ley superior: la simulación más eficiente se come a la menos, así que el fín último es crear una simulación eficiente y productiva en complejidad.

Si pudiese demostrarse que las leyes últimas de nuestra "simulación" son las que tienen los algoritmos más simples y eficientes, estaría demostrado que nadie lo diseño, evolucionó a la simpleza darwininamente.

Y mi pensamiento final: el algoritmo más simple que conozco coincide con el que genera la complejidad más alta que conozco, el del fractal de Mandelbrot (el punto p es negro si al repetir "p=p^2-1" muchas veces, digamos 1000, termina a distanci adel origen menor de 2), así que digo yo: no será nuestra única opción probar con algoritmos basados solo en fractales? Como sería un algoritmo así? Valdría para ser aplicado a cualquier problema, ya que el universo lo usa para todo?

Ah! Olvidaste mencionar otra "coincidencia": la cantidad que más se conserva no es la materia como creía Lavoasier, ni la energia como dice la termodinamica, ni su suma como diría Einstein con su E=mc2: es la información!

Está se puede mover de sitio, pero no eliminar. Puedes mover ram, pero siempre tienes 2 gigas en total. De hecho, el límite de velocidad C no se aplica más que a aquello que transmite información! Una interacción por entrelazamiento cuántico no porta información y se transmite a velocidades instantáneas a cualquier distancia (se ha demostrado que por lo menos miles de veces superior a C).

Sergio Hernandez dijo...

Por cierto, hace un tiempo cree un pequeño simulador de "univeross" con 2 o 3 particulas que usabas solo fractales. Es muy primitivo y no cumple con muchas leyes, pero ilustra como podría comportarse un universo "computado" con fisica definida al mínimo detalle por un algoritmo fractal. Si, es autobombo, pero parece pertinente!

http://entropicai.blogspot.com.es/2015/06/quantum-fractal-simulator.html

Samu dijo...

¡Wow! Muy interesante, Serio. Gracias por esta referencia (¿el código de este ejemplo es público?).

Samu dijo...

"Ah! Olvidaste mencionar otra "coincidencia": la cantidad que más se conserva no es la materia como creía Lavoasier, ni la energia como dice la termodinamica, ni su suma como diría Einstein con su E=mc2: es la información!"

Cierto. Otra "casualidad" que añadir a la lista ;).

"No se necesita un diseñador inteligente externo orque existe una ley superior: la simulación más eficiente se come a la menos, así que el fín último es crear una simulación eficiente y productiva en complejidad."

Pero un cómputo requiere de un Computador (o de miles, da igual), es decir; la propia idea de simular mediante un procesado de información, supone la necesaria existencia de una complejidad a priori que siga ciertas normas de cálculo, y no se me ocurre otra forma de imaginar cómo puede aparecer este complejo sustento Procesador si no es mediante un ingenio o diseño "inteligente" externo a la realidad simulada o computada.

Un saludo, amigo.

Anónimo dijo...

En resumen, creo que Samu, se queda asombrado por la coincidencia de lo siguiente:

1) El universo en que estamos es inteligible (especialmente desde las matemáticas), su inteligibilidad es en última instancia contingente (¿por qué es así y no asá?, en última instancia es inexplicable desde sí mismo, requiere de algo externo a él mismo). Ese conjunto de contingencias matematizadas ahí están, como gobernando matemáticamente toda nuestra realidad.

2) Siempre que simulamos algo relativamente complejo, por necesidades de eficiencia y limites inherentes a la computación (el número de microestados de lo que simulamos es mayor que el que podemos obtener con el simulador), ocurre que en la realidad simulada hay unas características que le son muy propias (por ejemplo: borrado de información, discretizacion, uso de las matemáticas…).

La coincidencia asombrosa:

Samu ve, por un lado que las “contigencias matematizables de nuestro realidad o universo como un todo”, tienen aspectos formales semejantes (tal vez idénticos), a las “características” de nuestras simulaciones de la realidad".

Conclusión: “Nuestra realidad” es una realidad simulada, desde una realidad R (obviamente externa a la realidad simulada) por alguien.

Yo podría identificar a R con «Dios y sus creaciones divinas», y a mi persona como siendo un hijo del tal Dios, siguiendo los “dictados” y “libertades” que tal Dios dé a mi realidad computacional dentro de un “computador divino” (y por eso decir que soy hecho a semejanza de tal Dios y que en mi hay “cosas” de R, de realidad externa). Podría llamarle, argumento de la existencia de Dios desde los limites computacionales inherentes de la realidad. Pero mi fe no llega a tanto…nunca pensé que fuera más ateo que Samu. ;-).

Lo de la conciencia y tal... pues me parece un despropósito de pies a cabeza. Me lo parece a mí, que conste,no digo que lo sea, incluso si me lo parece a mí eso es signo de que va por el buen caminos: En fin... dejemoslo para otra ocasión.

Un saludo.

Samu dijo...

Saludos, amigo Enric.

Dice usted: "pero mi fe no llega a tanto…nunca pensé que fuera más ateo que Samu.".

Parece que después de tantos años no termina usted de comprender mi postura al respecto: yo no me he declarado nunca como ateísta, ni tampoco como teísta, ni como deísta, ni panteísta; yo simplemente soy abierta y honestamente agnóstico (aunque a veces me tome la libertad de exponer sesgadamente ciertas sospechas que el modo en que funciona el mundo me hacen tener al respecto).

Pero realmente a mí, desde que tengo uso de razón, me han parecido siempre unos memos y unos soberbios todas esas personas que dicen saber (o que creen saber) qué hay Realmente "más allá" del mundo. No se me ocurre mayor prepotencia (o estupidez) que la de estas personas que te vienen a convencer con una idea de este tipo.

Hay que ser lo suficientemente humildes como para reconocer que no hay modo en que podamos lograr jamás un conocimiento objetivo Verdadero de estos temas metafísicos (ya a partir de David Hume, de hecho, todo el que defiende otra cosa es un idiota o un analfabeto filosófico), y también reconocer que lo más que podremos hacer, es abrazar a "boleo" (o por temas circunstanciales) una creencia subjetiva de entre una infinidad de posibilidades. Y este tipo de creencias subjetivas (que algunos llaman "fe") a mi me resultan sinceramente de chiste: presuponer que se ha dado en una diana de infinitas posibilidades por pura chiripa (o por haber nacido en un lado u otro del mundo -o el tiempo-), no hay postura más ridícula.

Samu dijo...

Pero ojo, que también me refiero con esto a la postura "ateista", que viene a ser realmente un "panteismo" moderno que los hombres de "ciencia" abrazan con tanta o más "fe" que los religiosos: que me quieran vender, por ejemplo, la idea de infinitos Universos paralelos frutos de una Unidad generadora (espuma cuántica) eterna e incausada (nada menos), también me da risa.

Usted dice que tiene "fe" en su Dios (que lo entiende a su manera), y yo me río de su creencia subjetiva, porque para mí no significa nada más que meras palabras que el fruto de su imaginación neurológica en acción me transmiten. Y si viene Stephen Hawking y me habla de un multiverso incausado y eterno, pues también me río de su "fe" neo-panteísta; porque su postura trae más problemas que soluciones: dejar por explicar una infinidad de Universos paralelos simplemente para esquivar el teísmo del "fino ajuste" físico me parece bastante ridículo, la verdad. Si al menos se molestase en argumentarme sobre el origen de tal espuma cuántica...pero claro, no sabe ni por dónde empezar.

En realidad me hace gracia cualquier "fe" y creencia en terrenos metafísicos; y sólo me permitiría algún día creer a conciencia en algo que tuviese algún tipo de soporte empírico e inmanente (aunque fuese de manera indirecta): de hecho, es la hipótesis de la Realidad simulada de las pocas propuestas con tintes trascendentales que tiene alguna posibilitad de refutación futura (aunque sea como digo indirecta). Y si esta postura (u otra) se refuerza algún día con estudios (empíricos) serios, pues será lo único que me permitiré "creer", aunque con todas las limitaciones ontológicas que la hipótesis lleve aparejada (las cuales en el caso de la Realidad simulada ya he comentado en este mismo trabajo).

Lo que sí le digo, Enric; cambiando un poco de tema, es que lo que de verdad espero, y se lo digo de corazón (aunque por desgracia es sólo una esperanza y no puedo creerlo con certeza), es que el día que nos llegue la hora (a usted y a mí), sea un final existencial definitivo: es decir; que espero de corazón que toda "fe" que defienda lo contrario esté equivocada (en esto sí me alineo con el bando ateísta) y que tras la muerte nos embargue la nada más absoluta y definitiva (el verdadero reposo ante la necesidad que toda existencia lleva aparejada). Pero en cualquier caso, si resulta que no es nuestro "final" después de todo, espero entonces que antes de condenarseme a una nueva "realidad", se me permita expresar cara a Cara mi repulsa a ese hipotético Creador por haber hecho las cosas del modo en que las ha hecho: si me da la oportunidad, lo mandaré literalmente a tomar por culo (si es que tiene culo :P).

Un abrazo, amigo.

Anónimo dijo...

Respecto a la simulación (abusando y agradeciendo su espacio bloguero):

Nosotros estamos en una realidad R, y en ella distinguimos realidades diversas, llamemos a una de esas diversas realidades RRX (Realidad Real “X”). A menudo podemos simular las realidades X en algunos de sus aspectos. Llamemos a esa realidad que utilizamos para simular la realidad real X con las siglas RSX (Realidad Simulada de “X”).
Como el mapa no es el territorio, lo real no simulado y lo real simulado son realidades diferentes, RRX es una realidad diferente a RSX. Aunque ambas realidades son reales, son partes de un mismo universo, de una misma realidad común R. No es lo mismo la realidad de una gas en un recipiente (gas, moléculas, recipiente,…) que la realidad simulada de un gas en un recipiente (ordenador, pantalla, circuitos integrados…), pero ambas realidades forman parte de un mismo universo, de una misma realidad e instancian en algunos aspectos una misma “información” relevante. La primera la tienen de por sí diríamos tal información, la segunda, la hemos inducido artificialmente, con el fin de que se comporte en esos aspectos de modo semejante o idéntico a la primera. Toda simulación muestra que la información y su tratamiento que hay en cierta realidad X, puede instanciarse también en otras realidades de manera que su dinámica y modo de ser sea semejantes.
Simular una realidad real RRX, es generar una realidad simulada RSX que se asemeja a esa RRX en ALGUNOS ASPECTOS. Aunque, la realidad “real” y la “simulada” no son la misma ambas instancian propiedades y dinámicas semejantes en algunos aspectos. Tengamos presente pues una triada que alguien o algo pone o crea en relación por algún fin o sentido: «Realidad R, aquello donde todo está y de donde todo sale», «una parte de esa realidad R que se simula, RXR» y «una parte de esa realidad R que simula a X (RXS)» o más simplificadamente, (R, RRX, RSX).
En la realidad simulada (RXS), es posible en tanto que simula, dos dimensiones propias: la informacional (el manejo formal de aquellos aspectos que se simulan, software que busca instanciarse en cierto hardware) y aquello en que se instancian esos aspectos (hardware). Por ejemplo: el comportamiento de las moléculas de un gas en un recipiente (RRX) podemos simularlo como “bolitas de pixeles” moviéndose en una pantalla (RSX), en virtud de que los aspectos de movimiento e interacciones moleculares puede ser descritos matemáticamente, y a su vez matematicamente podemos implementar un movimiento e interaccion semejantes a estructuras informacionales implementables en un ordenador.

Sigo…

Anónimo dijo...

...sigo

Cuando simulamos una realidad RRX, no podemos tomar todos sus aspectos, pues entonces no estaríamos simulando, sino copiando o creando una copia de la realidad RRX. De manera que hay restricciones al simular, al margen de la diferencia “material”:

• Solo aquellos aspectos que son relevantes en algún sentido son los que se simulan. No toda la información, sino parte de ella, pues.

• No podemos tomar de RRX aquellos aspectos que no son simulables por la realidad que simula (que en esencia para nuestros modos más avanzados de simulación se identifica con los aspectos matematizables). Un ordenador es en esencia una realidad material que es capaz de implementar en ella, formalidad matemática y lógica, procesos y relaciones lógico-matemáticas. Por ejemplo, no podemos simular el amor que siente Juan por María, en un ordenador de ese tipo, pues elamor hoy por hoy no es descriptible de modo matemático, pero si podemos simular el comportamiento de un cuerpo deslizándose por un plano inclinado, pues este lo es.

• Tampoco podemos a menudo tomar UN ASPECTO, uno solo, de la realidad de RRX en toda su dimensión, no podemos tomarlo en su aparente continuidad e infinitud. Hay que discretizar tal aspecto en “trozos manejables” por la simulación”. El motivo en última instancia podría ser establecido así: lo valores que pueden tomar un aspecto de lo real es muchísimo mayor que los valores que pueden ser representados como tales en el simulador. Por ejemplo, la continuidad de las pinceladas de un Velazquez, debe ser digitalizada en “pixeles” para tratarla, o el «conjunto de los números reales» debe ser tratado por un «conjunto finito de números decimales» en una calculadora de bolsillo. Quién haya estudiado un poco de Cálculo numérico y lo haya implementado computacionalmente, entiende fácilmente este elemental aspecto. Aspecto que en esencia no es muy diferente al modo como representamos la realidad de un territorio mediante un mapa, o como “simulamos” nuestra vida al implementarlas en un libro biográfico, o como simulamos la realidad de un acontecimiento desde los fotogramas de una película al grabarlos…)

• No podemos al simular cosas de cierta complejidad tomar tampoco en cuenta toda la realidad simulada que se va implementando en los procesos de simulación. Debemos mantener ciertos resultados obtenidos y desechar otros, perderlos, hacerlos desaparecer del mundo de la realidad simulada. No hay más remedio, no podemos cargar con todo lo que obtengamos de los procesos que se simulan, no hay espacio para todo lo obtenido. Esto es especialmente así cuando se simulan procesos complejos.

( Nota: fin, relevancia, saber qué es lo relevante de lo obtenido… no debe ser de entrada interpretado como algo antropomórfico. Son aspectos perfectamente matematizables, que dirigen los resultados de la simulación de manera óptima hacía l lo que se pretende obtener al simular. La computación evolutiva funciona así por ejmplo, genera estados más o menos aleatoriamente, que después ha de filtrar, en virtud de si cumplen o no requisitos que “marcan” el camino hacia cierta optimización matemática, que establece de este modo el “fin” de lo buscado sin una intencionalidad humana actuando, al menos no en primera instancia).

En resumen: No podemos tomar toda la realidad en sus aspectos sino solo en los matematizables y “a trozos”. Y tampoco podemos memorizar todos los resultados obtenidos durante la simulación, sino que debemos filtrarlos, quedándonos con los relevantes y borrando los superfluos.

sigo...

Anónimo dijo...

Respecto a dos aspectos de la mecánica cuántica que han sido tomados:

Cualquiera que haya hecho un curso inicial de algebra lineal, sabe que hay operadores lineales (matrices) que al actuar sobre vectores dan como resultado el mismo vector multiplicado por un escalar. Al escalar se le llama valor propio del operador lineal en cuestión.

Pues bien, en física cuántica, un estado físico es un vector en un espacio lineal de infinitas dimensiones que se llama de Hilbert; una medida es un valor propio que se obtiene al aplicar un operador lineal (que puede ser representado pues por una matriz si se establece una base del espacio) que se le llama observable. El conjunto de valores propios de ese operador (observable) son los resultados posibles de la medida que representa el operador lineal observable, y como se ve, estos valores, son respectivos a dos cosas: al vector (estado físico) y al operador lineal (observable, medida).

Pues bien, los estados discretos asociados a ciertas medidas cuánticas, como el spin de los átomos de plata del experimento de Stern-Gerlach que Samu explica en la entrada, son el subespacio generado por el conjunto de estados propios del observable espin en sus direcciones espaciales. En este caso el conjunto de valores posible (valores propios) es finito y discreto, así como la base del subespacio de vectores propios. Pero para otros operadores puede ser continuo e infinito. (Por ejemplo: el espectro de un átomo de hidrogeno no solo muestra un conjunto de valores discretos, sino también continuos.)
Como hay estados propios y valores propios de muchos observables propios de las medidas cuanticas son discretos,

...eso es INTERPRETADO por Samu, como una muestra de que estamos en una realidad simulada donde desde el exterior han “discretizado” una realidad externa por razones de computación pues por petición de principio, estamo en una realida simulada.

1) Que si dos operadores A y B no conmutan (se dice que son incompatibles), entonces ocurre que [A,B]= AB-BA al aplicarlo a un estado físico (vector) da un valor propio diferente de cero, es el llamado principio de incertidumbre. Es decir, si mides en un sistema físico X, primero A y después B, no vas a obtener lo mismo, ni dejar el sistema en el mismo estado, que si mides primero B y después A.
...Eso es interpretado por Samu como perdida de información para alguien o algo externo al sistema. Y esa pérdida como necesaria, pues no se puede memorizar todos los posibles estados que puedan surgir de los procesos si tomamos, con petición de principio, que precisamente estamos en una realidad simulada. Según Samu, ¡Hay un filtro externo y aparentemente intencional que los elimina, igual que cuando nosotros simulamos! Según Samu, esa es la explicación metacientífica que se da del hecho axiomático y contingente, y verificado empíricamente, propio de la medida cuántica que he tratado de especificar.

(continuará…)

Anónimo dijo...

Samu,
Cuando dije que

" Pero mi fe no llega a tanto…nunca pensé que fuera más ateo que Samu"

no me refería a que fuera usted ateo en el sentido usual (en la practica lo es, como todo agnóstico) sino en referencia a tener FE. Irónicamente, aunque seguro que para usted equivocadamente, su "creencia" en la posibilidad de que estamos en una realidad simulada" me parece, PARA MÍ, algo que requeriría más fe EN MÍ que la que tengo respecto al Dios cristiano (que ya sabe que no es poca).Por eso dije que me siento más ateo que usted (como si fuese algo graduable y no de sí o no) y en referencia a la realidad simulada como muestra de un posible Dios).

Saludos.

Samu dijo...

Ya le digo que hoy por hoy aún no pienso en la hipótesis de la Realidad simulada como si fuese cierta (ni siquiera la veo aún como más probable que otras alternativas trascendentales); por lo tanto no creo que se pueda hablar legítimamente de que tenga fe en ella. Sin embargo, también le digo que si algún día se realizan estudios formales y serios que la impliquen y la refuercen objetivamente, ya le digo que entonces sí la tomaré como una teoría y la abrazaré sabiendo que cuento al menos con la confianza que esta evidencia empírica e inmanente me pueda otorgar (aunque la misma sea indirecta). Por el contrario, no se puede decir lo mismo de su fe en el Dios cristiano, una creencia que se basa solamente en casualidades circunstanciales de su vida personal (subjetiva) y de la vida de cuatro "notas" que seguramente fueron inventando durante siglos una novela histórica que se ha hecho para mi gusto demasiado famosa.

En fin, que no me parece justo que compare nuestras posturas en este sentido, Enric.

Anónimo dijo...

· "En fin, que no me parece justo que compare nuestras posturas en este sentido, Enric."

Pues acaba de hacerme notar que tiene razón. Creo que no fue muy afortunado tratar su postura respecto a la realidad simulada, como una fe al estilo de la fe cristiana. Discúlpeme, por mezclar churras con merinas.

Anónimo dijo...

Hola

Me han gustado mucho sus artículos. Aunque discrepe me ha resultado muy estimulante. Y con su capacidad para sistematizar me gustaría que hubiese reflexionado sobre el libre albedrío, muy estudiado en neurociencias, y que sobre la hipótesis de un Universo computado, quedaría lógicamente eliminado.

Samu dijo...

Gracias por tu comentario, Anónimo. Tendré en cuenta lo que propones para futuros artículos ;).

Un saludo.

Samu dijo...

Voy a incidir en este comentario en un punto que creo que es importante sobre el argumento: el borrado cuántico de información y su importancia sobre la hipótesis de la Realidad simulada.

Supongamos que necesitamos programar un "mundo" como el nuestro simulado en una especie de futura PlayStation 10 en donde vamos a realizar luego el experimento de poner aparatos Stern-Gerlach secuencialmente (más info arriba en este artículo). Nos decidimos a usar las leyes clásicas de la física (sin un borrado cuántico de información) y de ese modo implementamos el diseño y finalizamos el proyecto. Una vez todo listo, encendemos la PS10 y ejecutamos esta especie de Minecraft mejorado que hemos realizado.

Dentro de este Minecraft mejorado, el "muñeco" (un ser simulado) fabrica luego un horno que lanza hacia fuera un haz de partículas de plata, y también monta aparatos Stern-Gerlach capaces de desdoblar el haz según sea el giro intrínseco de spin de cada partícula en cada coordenada del espacio (x,y,z). Más tarde, este mismo "ser" coloca secuencialmente varios de estos aparatos y enciende el horno que dispara el haz de partículas hacia el primero de ellos (imaginemos que el horno lanza un billón de partículas por segundo). En un "mundo" clásico, cada partícula del haz comienza al salir del horno con una rotación precisa del triplete de spin (Sx+ o Sx-, Sy+ o Sy-, y Sz+o Sz-). Y si colocamos el primer aparato Stern-Gerlach para dividir el haz en el eje-z, terminaremos con dos dos haces diferentes (uno con todas sus partículas con Sz+ y otro con Sz-). Si ahora colocamos otro aparato que mida por ejemplo el eje-x de spin (Sx), clásicamente los haces se separarán nuevamente, y tendremos cuatro haces con billones de partículas con estados bien determinadas Sz+Sx+, Sz-Sx+, Sz+Sx-, Sz-Sx-. Y si finalmente pasamos el haz por un aparato Sy, a la salida tendremos dos haces con la siguiente información: Sz+Sx+Sy+, Sz-Sx+Sy+, Sz+Sx-Sy+, Sz-Sx-Sy+, Sz+Sx+Sy-, Sz-Sx+Sy-, Sz+Sx-Sy-, Sz-Sx-Sy-.

Se puede ver por tanto que hay que mantener el estado preciso de millones de partículas (la historia de cada una de ellas), de manera que si ahora pasamos una partícula cualquiera por otro aparato en el eje-z (Sz) por ejemplo, la simulación debe "conocer" la historia previa de cada partícula independiente y saber si ya pasó antes o no por un aparato Sz y en tal caso con qué rotación de spin salió de él. Es decir; que si antes la partícula salió por el haz Sz-, en esta nueva medida que estamos haciendo en Sz debe seguir saliendo por Sz- (ya que lo contrario sería históricamente incoherente). Como ves, debemos almacenar el estado preciso (exacto) de cada triplete de spin para cada partícula en cada instante so pena de caer en incoherencias históricas.

Pero esto no es todo, puesto que si vamos a dejar intacta la información histórica exacta del spin en cada coordenada, esto nos obliga también a almacenar independientemente para cada partícula su posición, energía, velocidad, etc. Es decir, que como no hemos programado el equivalente a un borrado de información cuántica, se podría dividir el haz original de partículas una y otra vez con aparatos secuenciales de manera que terminaremos con un aparato que soltara a la salida únicamente partículas con un estado preciso y determinado para Sx,Sy,Sz. En otras palabras, que sin el borrado cuántico de información habría maneras prácticas de diferenciar y separar partículas individuales dentro de un haz inicialmente mezclado. Y esto es grave en cuanto a requisitos hardware, porque este hecho supondría la obligación por coherencia de llevar también la cuenta para cada partícula de su posición y movimiento preciso de traslación. Cada partícula tendría su registro particular de memoria donde se especificaría Sx, Sy, Sz, x, y, z, vx, vy, vz, etc.

(continúa)...

Samu dijo...

Para aclarar un poco más, vamos a suponer que la simulación genera (crea) el primer billón de partículas que sale del horno. Eso supone ya necesitar (2^3)*(10^12) registros de memoria; pero como la información histórica clásicamente no se borra del modo en que dicta la MC, al pasar el haz del horno secuencialmente por dos aparatos, ahora debemos "saber" (almacenar) además la información precisa del estado de cada partícula individual dentro de los 6 haces diferentes en que ha dividido el haz original del horno. Es decir; que por coherencia debemos especificar ahora en qué haz (de los 6) se encuentra cada partícula original que salió del horno. Esto supone la necesidad de especificar 3 estados precisos (exactos) más: la posición x,y,z para cada partícula; con lo que tenemos así que llevar la "cuenta" de 3 registros más para cada partícula: esto supone que sólo el primer chorro del horno requiere de 3*(2^3)*10^12 registros de memoria para llevar un cálculo coherente de la historia de este experimento en el Minecraft. Pero es que además, para conocer con certeza la posición x,y,z en el tiempo, deberemos meter en la ecuación la necesidad de saber continuamente la información necesaria para calcular dicha posición; lo que requiere conocer de continuo la velocidad, el momento lineal, el momento angular, el estado energético, etc. ¡de cada partícula independiente!

Resulta claro que la cantidad de memoria que necesitamos para llevar la coherencia histórica crece enormemente, y todo por culpa de no permitirse el borrado de información histórica (puesto que si se permitiera dicho borrado, nos podríamos ahorrar para empezar conocer el estado individual de cada partícula. No necesitaríamos ya ni siquiera poder diferenciar entre partículas, y podríamos trabajar globalmente de un modo estadístico y probabilista buscando la información mínima capaz de mantener coherencia cuando entra en acción los grandes números macroscópicos, que es precisamente lo que hace la MC).

Pero esto no es todo. Porque si suponemos, como hemos hecho, que el horno genera un billón de partículas cada segundo, al cabo de 1 minuto necesitamos (por simplicidad sólo muestro los registros necesarios para la posición y el spin individual): (3*(2^3)*10^12)*60 registros de memoria; y para simular un día sin apagar la PS4 haría falta llevar la "cuenta" con (3*(2^3)*10^12)*86400 registros, etc. Es decir, que con una memoria (recursos) finita, no es posible llevar por mucho tiempo la historia coherente "clásica" de este experimento en un computador (¡es necesario en algún momento comenzar a borrar información y aún así mantener la coherencia histórica, y hacerlo todo del modo más eficiente posible!).

Y aunque este borrado ya lo impone la ley de conservación de la energía (materia), vemos que en nuestro mundo este borrado activo de información sucede de un modo muy particular (especial): esto es, mediante el método matemático más eficiente imaginable (para el conjunto), regido fundamentalmente por la relación de Born y el principio de indeterminación. Estos principios ponen cota precisamente a la cantidad de información requerida para llevar esta historia coherente del mundo, y lo hacen simplemente determinando matemáticamente la cantidad de información máxima simultánea que se va a llevar sobre la historia del "mundo". Ya no se va a llevar la "cuenta" constante de este triplete completo de estados de spin (Sx+ o Sx-, Sy+ o Sy-, y Sz+o Sz-), y de posición x, y, z (lo que suponía a nuestra PS10 almacenar 3*(2^3)*10^12 registros de memoria cada segundo de simulación que el horno esté encendido), sino que se va a llevar sólo una "cuenta" aproximada (difusa) regida por la estadística de los grandes números y por distribuciones de probabilidad globales (solapadas) determinadas conforme, como decimos, a la relación de Born: QP-PQ=ih.


(continúa)...

Samu dijo...

Esta h es precisamente la constante (el número) que acota y hace accesible los recursos de memoria y cómputo en el tiempo para la simulación. En el caso de nuestro Minecraft, la relación de Born y el relacionado principio de indeterminación llevan precisamente a especificar por una parte la idea de observables incompatibles, y como consecuencia luego al hecho de conseguir la máxima destrucción de información posible capaz de mantener al mismo tiempo la coherencia a gran escala. Concretamente, esto lo consigue mediante un algoritmo que dice que (en el caso del spin) que: Sx·Sy - Sy·Sx = iħSz (para cada par de coordenadas). Es decir; que NO vamos a necesitar llevar la cuenta del estado completo para cada billón de partículas (por segundo), sino que vamos a llevar una distribución de probabilidad global dictada por el principio de incertidumbre generalizado, el cual relaciona los estados físicos de manera que sólo se almacena (se tiene en "cuenta") nueva información en la medida en que se elimina "vieja" información en proporción a la constante h.

Esta es la clave del asunto, la información se mantiene coherente en el tiempo al entrar en juego los grandes números trabajando sobre una distribución concreta de probabilidad pero al mismo tiempo que la cantidad de memoria requerida se mantiene acotada mediante el principio de incertidumbre generalizado basado en la relación de Born.

En el caso concreto que hemos puesto de la PS10 y los aparatos de Stern-Gerlach, se podría programar un Minecraft simulando las leyes cuánticas (en lugar de las clásicas), con lo cual evidentemente ya no se necesitaría (para llevar la posición y el spin) de 3*(2^3)*10^12 registros de memoria por segundo que esté encendido el juego, sino que meramente necesitaríamos programar funciones de probabilidad que se ciñan al principio de incertidumbre generalizado (trabajando así con estados determinados globalmente de manera lineal y solapada, y no trabajando sobre cada partícula individualmente como antes), y llevar también el cómputo del cambio de dichas funciones en el tiempo (en lugar de tenerse que computar individualmente el cambio en cada estado de cada partícula independientemente). Finalmente, cuando sea necesario mostrar por pantalla algo concreto (por ejemplo al ocurrir en este Minecraft un choque de estas partículas con un "detector"), simplemente se lanzaría un "dado" (aleatorio) siguiendo esta distribución de probabilidad global y se pintaría los puntos donde diga este "dado" (la distribución de probabilidad se encargaría precisamente de mantener la coherencia histórica de manera estadística a nivel macro sin necesitarse almacenar estados individuales para cada partícula y fenómeno). De hecho, ya no es necesario ni siquiera hablar de partículas individuales, sino de funciones de probabilidad que indican donde hay que pintar las cosas llegado el momento de lo que tradicionalmente se conoce como colapso.

Por último, mencionar de nuevo que le hecho de que el mundo a nivel microscópico se comporte de esta manera tan concreta capaz de ser computado (cuando podría realmente nuestro mundo funcionar a este nivel microscópico tranquilamente con una física no computable, como sería una física "clásica"), y que además todo aparezca de manera eficiente para que dicho hipotético cómputo pueda tener lugar mediante recursos finitos (de hecho, los mínimos posibles); hacen sospechar que lo más probable es que todo sea así porque realmente este cómputo trascendental tiene lugar (lo contrario sería una extraña casualidad).

(continúa)...

Samu dijo...

A modo de resumen: el hecho de que la física de nuestro mundo se afane en borrar información y en usar además la mínima cantidad de información simultánea requerida para mantener coherencia a nivel macroscópico, indica que probablemente exista un sustento físico externo (de capacidad finita) que lleva a cabo la computación y el procesado de nuestra realidad. Lo contrario sería una rara casualidad que habría que explicar: y es que, si no existe o no es necesario un sustento externo y trascendente (finito) que compute nuestro mundo; ¿por qué todo parece a nivel microscópico buscar la finitud y la eficiencia computacional?

Un saludo.

Samu dijo...

Hago una última anotación sobre lo tratado en todo este trabajo en relación al funcionamiento cuántico y su influencia sobre la eficiencia en la computación de nuestro mundo:

Aclara que lo que la relación de Borh consigue (junto con su derivación en el principio de indeterminación generalizado), es NO tener que almacenar múltiples estados con ilimitada precisión para cada partícula individualmente; sino el poder trabajar con grandes grupos de partículas mediante métodos estadísticos y de probabilidad SIN tener que guardar (almacenar) toda esa información independiente sino sólo de un modo global (mediante funciones lineales de probabilidad solapadas). Pero, y aquí está la clave, para que este "invento" (o método) pueda funcionar coherentemente (al entrar los grandes números), es necesario que el borrado cuántico de información del que ya he hablado se produzca.

Para que se entienda mejor: sin este borrado activo de información cuántica, se podrían idear experimentos mediante el cual determinar con precisión, por ejemplo, el triplete de spin (Sx,Sy,Sz) de una partícula, lo cual requeriría conocer con precisión su posición x,y,z y luego en cadena el resto de variables de estado individualmente. Pero como digo, eso supone almacenar (en el caso de la Realidad simulada) una cantidad astronómica de información a la hora de procesar o computar, lo cual es ineficiente en cuanto a recursos de memoria y también de cálculo.

Lo que ocurre realmente es bien distinto, ya que lo que se ve a nivel microscópico es que todo funciona de otro modo (mucho más eficiente): el borrado activo de información cuántica (como el que sucede en el ejemplos de los aparatos de spin en cadena), hace IMPOSIBLE idear un experimento que determine, por ejemplo; un triplete exacto de spin, lo que ASEGURA a su vez que no sea necesario almacenar toda esa información individualmente para cada partícula, puesto que de base no será posible distinguir entre partículas (ya que sus propiedades no están totalmente determinadas, y de hecho ni siquiera se puede hablar de una existencia individual efectiva), todo lo cual permite entrar en juego a la relación de Borh y a toda la mecánica probabilista de una manera coherente.

Es decir; que el borrado de información cuántica por una parte hace POSIBLE mantener la coherencia matemática de la relación de Borh y del principio de indeterminación, y por otra parte es precisamente consecuencia de estos mismos principios matemáticos (como lo demuestran las derivaciones matemáticas que muestro en el artículo original). Se podría decir que en cierta manera son la misma cosa: un eficiente método Natural para trabajar con el mínimo de información necesaria.

Y si hay por lo tanto una realidad externa que simula computacionalmente nuestro mundo, se puede decir que el "Programador" ha ideado el mejor método posible para ahorrar en la necesidad de recursos "hardware"; siendo precisamente este borrado de información cuántica parte fundamental del eficiente método logrado con tales fines de eficiencia.

(continúa)...

Samu dijo...

Por lo tanto: es posible computar nuestro mundo porque lo que se simularía es la física microscópica la cual vemos que SÍ es computable. La física macroscópica sería una especie de "espejismo" que surge (emerge) al entrar en acción la estadística de los grandes números trabando sobre las funciones de probabilidad subyacentes; pero en realidad TODO es sustentado por las leyes cuánticas (que como sabemos sí son computables y eficientes).

Y esta es la parte fundamental de todo el asunto: que cuando miramos a nivel microscópico vemos una física radicalmente distinta a la macroscópica, pero que esto NO tendría necesariamente que ser así. La mecánica de las partículas podría haber resultado similar a la Newtoniana (como supuso de hecho Borh al comienzo con su modelo planetario del átomo), pero resulta que no, que todo funciona de un modo discreto y probabilista, donde son ciertas funciones de "onda" las que dictan la mecánica del mundo trabajando solapadamente sobre grandes grupos de partículas en su conjunto; partículas que gracias a este hecho se vuelven indiferenciables (y que realmente en cierto sentido ni siquiera existen como entes independientes).

Y ciertamente podemos imaginar miles de físicas que no podrían ser ejecutadas externamente en un computador porque mostrasen fenómenos singulares o mal comportados matemáticamente los cuales evidentemente no podrían computarse: como ocurre con la división por cero y demás. Pero no, todo en mecánica cuántica es coherente matemáticamente (de un modo sorprendente de hecho), y todo aparece bien comportado de manera que SÍ sea posible su procesamiento completo sin que surja problema de cómputo alguno (amén de que todo parece estar montado además para que tal computación sea muy eficiente gracias a la base probabilista que la relación de Borh permite).

Es decir, que por una parte descubrimos a nivel básico que todo parece "diseñado" de un modo muy concreto, pero por otra parte sabemos que este no tendría que haber sido ese el caso: que no es el único modo posible en absoluto en que todo podría haber funcionado a nivel microscópico; lo cual convierte a nuestras leyes microscópicas como sospechosamente (o especialmente) bien ajustadas ("fino ajuste") para que tal acto de eficiente procesamiento de información trascendente pueda tener lugar (y que de hecho probablemente tenga lugar).

Un saludo.

Publicar un comentario