sábado, 17 de junio de 2017

¿Realmente va el mundo a mejor?

Un pesimista es sólo un optimista bien informado
(Mario Benedetti)

No es que sea pesimista, es que el mundo es pésimo
(José Saramago)

Hace unos días que vengo manteniendo un debate en un foro de Facebook con un participante muy respetado y que me consta que tiene una formidable formación. El asunto gira en torno a si debemos tener o no optimismo con la situación del mundo al corto-medio plazo. La postura de esta persona es abiertamente optimista, y basa su argumentación principalmente en un casi inefable "negacionismo" de que las cosas vayan tan mal como se dice, y en que nunca antes habíamos estado tantos años sin guerra (entre bandos Occidentales, claro). Dice que se trata en resumen de tener fe en la humanidad y en mirar con optimismo lo "bueno" conseguido principalmente desde la segunda guerra mundial.

Mi postura es abiertamente opuesta a la suya, y en concreto le comento lo siguiente:

"¿Razones para ser optimistas? Por favor, nada más hay que ver las noticias. ¿Optimismo antes las medidas que ya tomó Trump en pocos meses de gobierno? ¿Es digno de optimismo la ruptura del acuerdo de parís por poner un pequeño ejemplo? ¿Y la crisis de refugiados sirios (y esa pobre multitud cruzando el mediterráneo en pateras y explotada por mafias)? ¿Los ataques terroristas con hombres bomba en Londres y otros países? ¿El Brexit (que será muy duro)? ¿El problema del resurgir del nacionalismo a gran escala (con el bueno de Trump a la cabeza, pero sin olvidar los regímenes dictatoriales rusos y chinos y el reciente avance del "nacismo" en francia)? ¿La situación del polvorín de oriente medio en general (con el tema de Qatar que va a traer cola o el eterno conflicto Israelí por poner unos pocos ejemplos)? ¿El problema del nacionalismo local como en Cataluña, Escocia, Irlanda, País Vasco, etc.? ¿La corrupción a gran escala dentro de la democracia? ¿Las interminables guerras civiles por toda África? ¿Las dictaduras sudamericanas habidas y por haber (con el drama Venezolano a la cabeza y el gobierno de la mafia en México por poner ejemplos)? ¿La situación con la contaminación industrial a gran escala (que incluso se niegan a admitir)? ¿La destrucción de la biosfera (con extinciones en masa de especies animales)? ¿La desigualdad de clases y la enorme disminución de la clase media tras la crisis del 2008? ¿Corea del norte ya "casi" con misiles nucleares intercontinentales? ¿La explotación laboral (casi esclavitud) de trabajadores (algunos niños) en la India y otros muchos países?"

En fin. Podría haber continuado enumerando cosas durante páginas y páginas (al estilo de Irene Montero en la moción de censura al PP :D) pero me imagino que no serviría de nada. El que no se consuela es porque no quiere, y los acomodados optimistas de Occidente verán "bondad" y "esperanza" en cualquier cosa (y nimiedad) para negar la cruda realidad: el mundo en general (sin mirarnos el ombligo) va tan mal como siempre (si no peor).

Y por cierto que respecto al tema de esa "alabada paz" (entre bandos Occidentales) desde hace más de 60 años tras el final de la última guerra mundial, decir que ya en su día la Pax Romana duró más de 200 años y que ya sabemos todos qué pasó después. Posiblemente muchos romanos de la época pensaron de manera tan optimista como lo hacen hoy muchos ciudadanos del "mundo libre" (y mira que ahora estamos en una posición geopolítica, económica y militar mucho más delicada y menos estable que en ese momento con el estratégico monopolio militar romano). También la Paz Armada  (periodo sin guerras en Europa) previo a la primera guerra mundial duró casi medio siglo de "prosperidad" y "buenas intenciones"...y luego ya sabemos.

Un saludo compañeros.

miércoles, 14 de junio de 2017

Nuestros niños burbuja de Occidente

“Se producen más individuos de los que es posible que sobrevivan; tiene que haber forzosamente en todos los casos una lucha por la existencia”. (Carlos Castrodeza, La darwinización del mundo)

Ayer tarde me puse a ver un documental del National Geographic sobre naturaleza animal con mis hijas de 7 y 8 años. Era la primera vez que se interesaban por algo que no fuesen los dibujos animados así que no le di demasiada importancia al hecho de que viesen el documental conmigo: "A ver si les gusta y empiezan a culturizarse fuera del colegio a modo de pasatiempo", pensé. Y todo fue bien mientras salían serpientes, insectos, pájaros, peces y demás. El problema fue cuando comenzaron a hablar del Dingo (cánidos que provienen del Lobo y que son muy parecidos a nuestros perros), observándose imágenes de estos animales cazando, destripando, y comiendo conejos y canguros.

Mis hijas al instante se quedaron muy serias y asombradas, y enseguida me di cuenta de que era un contenido "poco apropiado" para ellas. Cambié de canal y de tema y les hice varias bromas para que olvidaran el espectáculo de ver a esos "adorables" perritos masacrando a esos "adorables" conejitos. Rápidamente pasaron del (casi) llanto a la risa y todo quedó en una anécdota...y en una aparente lección para mí deber como padre: "No más documentales que muestren de manera tan explícita la violencia natural que rodea al mundo".

Pero esta lección que me he visto obligado a aprender, es también un recordatorio del modo en que estamos criando a nuestros hijos en Occidente en las últimas décadas: los metemos en una burbuja de cuidados tan densa que apenas pueden comprender la verdadera esencia del mundo fuera de tanta protección. Nuestros hijos no saben lo que la existencia supone, y eso puede suponer una gran debilidad para ellos en el futuro. Y es que, si tanto cuidado y mimo se viesen interrumpido bruscamente por cualquier motivo, eso podría suponer un gran perjuicio para sus vidas. Y no es para nada tan descabellado que tal cosa pueda llegar a ocurrirles. Pensemos en un momento en situaciones locales al niño como puede ser un posible fallecimiento de ambos progenitores al mismo tiempo por cualquier causa (un accidente de tráfico, por ejemplo); o pensemos en situaciones más generales como una grave crisis (un colapso) económico mundial, una pandemia de alguna enfermedad mortal (como fue el caso de la gripe Española a principio del siglo XX), una gran guerra donde se utilice armamento nuclear, un cambio climático radical (como supondría el derretimiento total de los polos por la contaminación), enormes erupciones de volcanes que produzcan súbitamente una nueva glaciación (cosa que ha ocurrido muchas veces en la historia del planeta), la caída de un gran meteorito (lo que también sucede en la Tierra de tanto en tanto), que grandes llamaradas solares acaben con todos los sistemas electrónicos, etc. No es por tanto tan raro como parece que algún día la burbuja en la que tenemos a nuestra prole pinche inesperadamente; en cuyo caso le habremos hecho un flaco favor manteniéndolos durante tantos años en ese insostenible cuento de hadas ajenos a la verdadera realidad del mundo.

Pero claro, ¿cómo no mantenerlos aislados de una realidad tan cruel como es la esencia Natural? ¿Cómo explicarles a nuestros niños que la vida no es tan bonita ni tan perfecta como les hacemos creer? ¿Cómo decirles que parte de lo que cada día comen son restos de animales destripados en factorías industriales? ¿Cómo decirles que en cualquier momento cualquier persona puede ser dovarada por microbios invisibles a la vista o por una rebelión de células de su propio cuerpo (es decir, por cáncer)? ¿Cómo explicarles en suma que la verdadera esencia de la vida no es otra cosa más que la muerte: una continua lucha llena a rebosar de destrucción mutua? Evidentemente no es una tarea nada fácil, y lo que solemos hacer entonces es lo más fácil: mantenerlos en la ignorancia existencial tantos años como sea posible.

Antes este problema no existía (y tampoco existe hoy día en lugares fuera de Occidente). Los niños veían desde que tenían uso de razón la crudeza vital: observaban a sus padres y vecinos acuchillando cochinos y retorciendo el cuello de gallinas; muchos de sus hermanos morían siendo bebés, casi todos padecían en algún momento de sus vidas hambrunas, y soportaban enfermedades sin apenas cuidados médicos disponibles. Por no hablar de las constantes guerras y del abuso dictatorial y de las instituciones dominantes (iglesia y demás). Y todo esto era la norma hasta bien pasada la Segunda Guerra Mundial, momento en que todo cambia y esta representación Natural de la dureza del mundo "desaparece" de la vista de los menores casi de la noche a la mañana. De hecho, si no fuese por la televisión y los medios de comunicación, los niños de hoy no serían conscientes de lo que es la vida en absoluto quizás hasta pegarse el golpetazo personalmente debido a algún inesperado problema.

Y es que no nos engañemos, la vida es sinónimo de crueldad y muerte, y eso continuará siendo así aunque cada vez la burbuja en la que vive el niño dure más y más tiempo, llegando a veces este estado de inocencia a la adolescencia, la pubertad e incluso la edad adulta. De hecho, se puede incluso decir que los que tenemos la suerte de vivir en el Occidente actual no tenemos (por suerte) en general ni remota idea de lo que es realmente la vida (al menos de manera práctica). Por supuesto esperemos que la cosa siga así por muchos años aunque nada asegura que así sea, y menos en estos delicados momentos de tensión internacional con frentes abiertos en terrenos bélicos, políticos, económicos, climatológicos, y de escasez de recursos naturales.

Un saludo, compañeros.

miércoles, 7 de junio de 2017

¿Por qué nos resistimos tanto a creer en un Dios racional?

“No puedo creer en un Dios que quiera ser alabado todo el tiempo.” (Nietzsche)

Las personas creyentes no tienen problemas en asumir la creación del mundo por parte de un Dios racional; simplemente basan su creencia en lo que se entiende como fe: un conjunto de dogmas injustificados racional y empíricamente. Simplemente creen en cierta "revelación", y santas pascuas.

Por otra parte, los no creyentes niegan rotundamente la posibilidad de que el génesis del Universo sea obra de un Ser racional (de algún modo consciente y con voluntad) pero, ¿en qué se basan ellos para suponer tal cosa? Empíricamente por supuesto no se puede apoyar tal tesis, pero sí que se intenta argumentar de manera lógica al respecto. Y principalmente la resistencia en la creencia de Dios se basa fundamentalmente en tres pilares que, en mi opinión, no son tan sólidos como pueden parecer a primera vista:

1º) Se confunde deísmo con teísmo (principalmente con el teísmo de las religiones occidentales).

Creer en un Dios racional como causa del Universo no necesariamente supone creer en el Dios cristiano o del resto de religiones monoteístas. Existe una amplia variedad de alternativas a la imagen de ese Dios "humanizado" deseoso de alabanzas el cual es muy poco congruente con el mundo y fundamentalmente con el problema del mal. En especial, es perfectamente posible que la creación del mundo sea fruto de algún tipo de Ente racional el cual no se preocupe lo más mínimo por su obra, o incluso que se aproveche de la misma de algún modo (siendo en ese caso nuestra realidad una especie de herramienta con la que el mundo trascendente saca algún tipo de fruto).

2º) Se confunde la idea de que un Creador racional debe ser necesariamente más complejo que un "Creador" (o un proceso de creación) espontáneo y mecánico.

Si el génesis de nuestro (especialmente) apto Universo para albergar vida inteligente es meramente un subproducto de una enorme realidad natural más extensa (lo que se denomina normalmente como Multiverso); esto supone la necesidad de explicar la esencia no ya de un mundo (el que vemos alrededor), sino de una ENORME cantidad de otras realidades que trascienden nuestra capacidad empírica (algunos hablan de que habría 100^500 posibles Universos paralelos -un número tan grande que nuestra mente no puede siquiera representar lo que supone tal cantidad-, e incluso dichos Universos podrían ser literalmente infinitos). ¿De donde proviene entonces todo ese potencial generador de mundos capaz de sacar de la nada todo? ¿Y qué sustenta ese Multiverso, determinando que sea como es y no de otra manera? ¿Qué causó para empezar tal Multiverso (cuál es su esencia)? Vemos que no parece una explicación tan sencilla después de todo por mucho que no haga uso de un "diseñador" racional.

Sin embargo, si por contra el génesis de nuestro (especialmente) apto Universo para albergar vida inteligente, es fruto del acto voluntario de algún tipo de inteligencia trascendente (la cual no tiene necesariamente que ser nada ni remotamente parecido a eso de lo que hablan las religiones tradicionales), el problema de explicar la esencia de esta infinitud de Universos invisibles (dentro del Multiverso) queda resuelto. Sólo habría un mundo (o unos pocos, según el gusto del supuesto Creador), y ese mundo sería el nuestro: diseñado a en su justa medida para que la vida aparezca y evolucione hasta alcanzar entes animados racionales dentro de su ser (el Universo podría estar de hecho lleno de vida inteligente). ¿Es más complicado apostar por esta esencia natural inteligente antes que por un esencial Multiverso mecánico lleno de casi infinitos mundos invisibles?

A primera vista parece que el hecho de que exista una inteligencia Creadora racional es complicado, pero según mi opinión esto es pura falacia. Nuestra moderna tecnología está demostrando actualmente lo "fácil" que es alcanzar un asombroso comportamiento inteligente con un simple procesado mecánico de información (muy similar al que tiene lugar en nuestro cerebro).  Los avances en inteligencia artificial en los últimos 5 años han explotado exponencialmente, y publicaciones muy recientes parecen indicar que efectivamente la racionalidad (e incluso la consciencia) de la que tanto alardeamos como humanos será en pocas décadas emuladas en dispositivos electrónicos. La racionalidad no es tan milagrosa ni extraña como parecía antes, y parece que se podrá replicar con asombrosa "facilidad"; una facilidad que pocos creerían hace apenas 15 años.

Y sabiendo ésto, preguntémonos de nuevo: ¿es tan difícil el hecho de que detrás de nuestro mundo haya un acto de creación inteligente cuando nosotros mismos seremos capaces de crear inteligencia general en apenas 100 años de esfuerzo intelectual? ¿Es realmente más sencillo creer en un incausado y eterno proceso mecánico cuántico de infinito potencial para la generación de Universos paralelos? ¿No es quizás más sencillo creer que nuestro mundo es único y apto para albergar inteligencia simplemente porque ha sido diseñado para ello?

3º) Existen grandes prejuicios en nuestra postura incrédula hacia un Dios racional causado por los grandes males históricos de las religiones organizadas.

Todas las grandes religiones organizadas a lo largo de la historia han causado grandes daños a la humanidad de manera más o menos directa. Muchas de las mayores atrocidades cometidas por el hombre son y han sido justificadas en nombre de Dios. Pero no hay que olvidar al respecto que cualquier prejuicio es un obstáculo en cualquier tipo de estudio que se quiera afrontar.

Pero no se trata de negar lo evidente: las religiones por lo general son grandes sectas llenas de hipócritas dedicadas a la explotación del miedo para obtener fruto propio (normalmente monetario). Pero para ser honestos con la propuesta de un mundo creado por algún tipo de inteligencia, hay que comprender que el hecho de que ciertos grupos de personas hayan utilizado a lo largo de la historia dogmas religiosos para provecho propio no nos puede cegar a la hora de admitir que existen otras muchas propuestas (no teístas en absoluto), donde el mundo puede ser fruto de un diseño inteligente muy alejado del típico "Señor" con barbas blancas que muchos nos quieren vender.

Imagina, por poner un único ejemplo; en la propuesta de la Realidad simulada. Si nuestro Universo es causa del procesado de información de un Computador trascendente, eso supondría la existencia de un diseñador inteligente (el creador del Computador). Evidentemente este Creador sería inteligente (y posiblemente tendría consciencia), y quizás creo nuestra realidad por pura diversión o a modo de recreación u espectáculo para los demás habitantes de ese mundo trascendente. En este sentido, para Ellos nosotros no supondríamos más que lo que puede suponer para nosotros un personaje del juego de ordenador Los Sims; lo cual explicaría el problema del mal (Dios no sería un benevolente Ser amoroso en absoluto, sino un caprichoso programador) a la par que se evita la necesidad de apostar por infinitos Universos que den cuenta del fino ajuste de las constantes físicas.

Conclusión.

Podemos decir a modo de resumen que hoy día cuando nos paramos a pensar en estos temas filosóficos, lo hacemos inevitablemente arrastrando cierta carga de prejuicios personales muy variados desde el bando creyente, pero también desde el ateo. Y precisamente son estos prejuicios, a mi parecer, los que muchas veces nos hacen resistirnos sin una base demasiado firme (o mucho menos firme de lo que podemos creer), en la postura deísta intermedia sobre la posible creación de nuestro mundo.

Y es que cuando se piensa de manera verdaderamente objetiva sobre el asunto, no parece tan descabellada la idea de un diseño inteligente, o al menos no parece una postura mucho más descabellada que la hipótesis de los múltiples Universos.

Un saludo, compañeros.

domingo, 4 de junio de 2017

El fin del realismo local (o cómo una medición en la Luna podría afectar a un experimento en la Tierra)

"La Matemática no es real, pero «parece real». ¿Dónde está ese lugar?"
(Richard Feynman)

I. Introducción.

Una de las maravillas modernas que por desgracia pocas personas aprovechan es el enorme potencial de cursos y tutoriales disponibles de manera gratuita que te permiten aprender casi de todo y con un coste irrisorio (cuando no directamente gratuito).

El contenido de este artículo se basa precisamente en uno de esos recursos de un valor incalculable que se encuentra disponible para todo aquel que quiera aprovecharlo: se trata de una serie de cursos completos sobre mecánica cuántica ofrecido por el prestigioso centro MIT (Massachusetts Institute of Technology), el cual consiste literalmente en la grabación y transcripción de las clases del prestigioso profesor Barton Zwiebach.

El enlace del curso por si alguien está interesado es el siguiente (en realidad son cuatro cursos del que este enlace es el primero): https://www.edx.org/course/mastering-quantum-mechanics-part-3-mitx-8-05-3x

El curso en sí es bastante denso y es complicado que alguien sin una buena base matemática y física pueda seguirlo con garantías sin perderse en la primera clase, pero para eso existen otros recursos más orientados en la introducción a la física moderna y que permitirían luego continuar con este tipo de recursos que, aunque igualmente son a veces introductorios, dan normalmente mucha base ya por conocida (sobre todo a nivel  matemático). Así que, para todos aquellos interesados en introducirse en el mundo de la física moderna, os enlazo a continuación dos recursos que creo imprescindibles en este sentido: La Teoría de la Relatividad y La Mecánica Cuántica. Estos dos cursos tienen la ventaja de que están en castellano y no dan apenas ninguna base matemática ni física por sentada (a parte de la normal exigida a un estudiante de bachillerato). Por cierto que el autor de estos estupendos textos es Armando Martínez Téllez, y aprovecho para agradecerle desde aquí el enorme esfuerzo que puso en desarrollar semejante obra.

Pues bien, como digo, el contenido de este artículo va a versar sobre una clase concreta del profesor Barton Zwiebach en el curso Mastering Quantum Mechanics. En concreto, en la clase en que hace una pequeña introducción a la desigualdad de Bell y lo que supuso el principio del fin de lo que se entiende como realismo local.

El desarrollo de este artículo será el siguiente: primero os dejaré ver los vídeos en directo de esta clase concreta, posteriormente hará un pequeño resumen aclaratorio para los que no tengan la capacidad matemática requerida para entender completamente el vídeo exclusivamente a partir de la clase del profesor Barton Zwiebach, y por último haré una discusión (filosófica) sobre las consecuencias que estos hechos físicos (fenoménicos) pueden tener en y sobre la base que da origen y sustento a nuestro Universo.

II.  EPR y el realismo local.

Os enlazo a continuación directamente la clase donde este profesor introduce de manera teórica y práctica (con un ejercicio) el concepto de la desigualdad de Bell y sus consecuencias para lo que el sentido común nos dice sobre el concepto de Realismo local. No es necesario entender todo el contenido de los vídeos, e incluso puedes saltarte directamente dichos vídeos si tu nivel de inglés o de matemáticas no es suficiente para seguirlos en absoluto. Como digo, en el siguiente punto de este artículo intentaré aclarar el asunto de una manera más asequible para poder finalmente discutir con éxito algunas de las posibles implicaciones filosóficas que todo lo tratado en este terreno físico podría tener. Así pues, no os asustéis demasiado con el siguiente contenido e intentad al menos entender todo lo que podáis:


EPR and local realism:




Measurements by Alice and Bob on an entangled state and statistical mixtures:




Measuring along three directions. The Bell inequality that follows from local realism.:




Violating the Bell inequality:




III. Aclaración sobre el asunto.

Voy a intentar a continuación aclarar un poco todo lo comentado por el profesor, aunque lo haré a expensas de introducir ciertas simplificaciones que en aras de la simplificación a veces llevarán incluso a ciertas "inexactitudes" teóricas pero lo importante y mi intención es que se entienda el trasfondo de lo que pretendo transmitir y no los detalles concretos (que para eso ya están las clases del curso enlazado).

Comencemos diciendo que existe una partícula neutra (sin carga eléctrica neta) llamada mesón η0 (de masa en reposo igual a 547 MeV), que a veces decae (se convierte espontáneamente) en otras dos partículas llamadas muones µ las cuales tienen carga de signo opuesto:


El mesón original es además una partícula sin spin neto, y en reposo tiene un momento angular igual a cero. Como resultado, su momento angular total es también cero. Esto significa que esta partícula no posee en su estado fundamental ningún tipo de giro intrínseco ni extrínseco. Lo que significa que, debido a las leyes naturales de la conservación del momento angular, los dos muones que han aparecido tras el proceso de decaimiento del mesón deben sumar entre los dos un momento angular total igual a cero (por lo que deben poseer ambos cierta -y la misma- cantidad de spin pero de signo contrario).

Podemos entender el concepto de spin como una especie de "giro" de la partícula sobre sí misma (algo "similar" al giro del planeta Tierra sobre su propio eje vertical), y cuando se tratan de partículas de spin-1/2 (como es el caso del muon), experimentalmente se observa que este giro puede poseer únicamente dos valores posibles para un eje coordenado concreto (+ħ/2 y - ħ/2), siendo ħ la constante reducida de Planck. Cuando el valor medido es +ħ/2 se entiende que la partícula gira sobre su mismo eje apuntando hacia arriba, y cuando vale -ħ/2 se entiende que gira hacia abajo. Estos dos estados posibles de giro arriba o abajo se simbolizan normalmente como: 


El valor efectivo (el número concreto) para el spin en cierto eje de coordenadas se llevó a cabo en 1922 en lo que se conoce como el experimento Stern-Gerlach. En pocas palabras podemos decir que se trató del uso de una máquina capaz de separar un haz de partículas en dos haces diferentes: uno con aquellas partículas que apuntan arriba en cierto eje coordenado, y otro con las que apuntan abajo. Y además, la separación de tales haces al impactar sobre una pantalla de detección determinó el valor numérico concreto +-ħ/2 (+-5.272859×10^-35 julios por segundo) para dicho spin.  


Es decir; que un haz de muones "nacidos", por ejemplo; a partir del decaimiento de mesones, siempre va a tener dos y sólo dos posibles valores para la cantidad de giro intrínseco que posee (spin) en cierta dirección: +ħ/2 ó -ħ/2, estando físicamente "prohibido" que tenga ningún otro valor. Este sorprendente hecho demuestra el porqué llamamos a esta mecánica como cuántica: porque nos indica que los fenómenos poseen estados con valores discretos (en este caso 2 únicos valores posibles), no pudiéndose ya hablar de un continuo de valores que todos los estados pueden tomar.

Y aunque las mentes más reveladoras de principios del siglo XX sí pudieron aceptar esta cuantización del mundo, muchos no pudieron hacer lo mismo con otras implicaciones a las que este hecho de cuantización llegaría a derivar: la superposición y el entrelazamiento cuántico entre los estados de varias partículas. En este sentido, particularmente notable fue la rebeldía al respecto de Albert Einstein, el cual se afanó durante toda su vida por intentar mantener en pié el concepto filosófico del Realismo local.

Y es que la mecánica cuántica (a partir de ahora MC), deduce de sus premisas que las partículas NO tienen estados bien definidos hasta que no se produce una medición, estando mientras tanto dicho estado como "difuso" y definido por una especie de onda de probabilidad. Ese estado "difuso" supone que la partícula no posee un estado concreto, sino que los posee de algún modo todos superpuestos al mismo tiempo, sólo que con distinto nivel de probabilidad cada uno. Matemáticamente en el caso del spin se expresa esto mediante la siguiente combinación lineal de estados:


Esta ecuación (que intimida un poco pero que en realidad sólo implica una suma y dos multiplicaciones), nos dice que el estado de giro intrínseco de la partícula (hacia arriba o hacia abajo), vendrá determinado en el tiempo de manera solapada por la suma de la probabilidad de que gire hacia arriba (α) y la probabilidad de que gire hacia abajo (β). Y esto quiere decir que la partícula "realmente" no gira ni hacia arriba ni hacia abajo en el tiempo, sino que gira proporcionalmente en ambos sentidos ¡a la vez! Y esto se mantiene de este modo hasta que de alguna manera (cualquiera) se mide el estado "real" de dicho giro, momento en que esta superposición colapsa devolviendo un estado concreto. La Naturaleza se las apaña de este modo para "saber" cuándo se ha producido tal evento de medición, y devolver inmediatamente un estado concreto y determinado (en este caso para el spin, que girará arriba o abajo, pero ya no más en ambas direcciones a la vez). Por cierto que en el caso del spin del muón, sabemos experimentalmente que α = β = 1/2 (ya que cuando pasamos a medir un gran número de estados de spin de estas partículas vemos que hay tantas probabilidades de que el estado de giro sea hacia arriba como hacia abajo, lo cual se ve gracias a la intensidad en las líneas de medición).

Y si a Einstein (y a otros colegas), no le gustaba todo eso de la superposición de estados, menos aún le agradaba la idea del entrelazamiento cuántico. Este entrelazamiento afirma que, no sólo el estado de una partícula es difuso y está superpuesto hasta la hora de la medición, sino que el estado general de varias partículas también está conformado por una onda global de probabilidad con los estados de todas ellas solapados. Esto produce, de hecho, que a la hora de la medición la probabilidad del estado de definitivo de una de las partículas dependa de facto del estado y configuración del resto de ellas: el estado de cada partícula depende así del estado del resto de partículas que conforman un sistema, cada una de las cuales pueden alterar instantáneamente el estado de sus "compañeras" incluso estando a millones de kilómetros una de la otra y a una velocidad mayor que la de la luz.

Realmente todo esto es algo que sale completamente fuera del sentido común, y algo que Einstein no pudo tragar ni siquiera al final de sus días, cuando la teoría cuántica ya estaba (casi) completa. Partículas con estados superpuestos no definidos e "interacciones" entre partículas a velocidades mayores que la de la luz (entendiendo aquí la palabra interacción como el hecho de que el colapso de la función de onda general del estado compuesto entrelazado de varias partículas es capaz de afectar instantáneamente al estado final de dichas partículas con tal de medir una de ellas estando las demás a millones de años luz de distancia). Todo muy difícil de creer y aceptar desde el ámbito filosófico o del sentido común...pero como veremos (y para desgracia del famoso Einstein), la realidad finalmente sí es así de desconcertante: Dios juega a los dados.

Volviendo al caso de las partículas con spin-1/2, el entrelazamiento de dos partículas toma matemáticamente el siguiente aspecto (que se limita en realidad a "mezclar" la combinación de estados posible de cada partícula del sistema y a normalizar la función de onda para que su cuadrado produzca un resultado positivo que sume 1 al integrar en todo el espacio):


En este caso, para 2 partículas tenemos una combinación de 4 posibilidades para el estado del spin de ambas: la primera partícula gira arriba y la segunda también, la primera arriba y la segunda hacia abajo, etc. Esto produce, siguiendo el ejemplo del estado superpuesto de una sola partícula, un estado general superpuesto pero esta vez de dos partículas. Es decir; que si para una partícula teníamos esto:


Siendo α = β = 1/2 la probabilidad para cada estado. Ahora, al introducir una nueva partícula en el sistema, tenemos lo siguiente: 
Con cuatro números complejos α1, α2, α3, α4 que representan la probabilidad de encontrar al sistema en cada estado combinado particular a la hora de la medición. Por ejemplo; α2 representa la probabilidad de encontrar el sistema con la partícula 1 girando hacia arriba, y la partícula 2 girando hacia abajo.

Si nos fijamos en esta última fórmula, podemos ver que estamos en el mismo caso de solapamiento y estado difuso, pero además vemos que existe un entrelazamiento entre los estados solapados de todas las partículas implicadas en cierto estado de un sistema (en este caso por simplicidad hemos mostrado sólo dos partículas y dos estados -los del spin-, pero las cosas se pueden generalizar sin problemas a más partículas con estados más complejos). Y precisamente es este entrelazamiento el que produce el "indeseado" efecto de que una medición pueda afectar a grandes distancias y a velocidades mayores que la luz al estado final de algunas partículas.

Imaginemos que de alguna manera creamos un haz de muones entrelazados de dos en dos siguiendo un proceso similar al decaimiento que ya vimos antes:


Si lográsemos crear tal haz (beam) de partículas entrelazadas dos a dos estaríamos en el caso en que tendríamos una cantidad enorme de mini-sistemas de dos partículas entrelazadas como la que describe la fórmula:
Imaginemos ahora que logramos separar estos mini-sistemas de dos partículas de modo que una de las partículas del estado compuesto se dirige a un lugar de la Tierra, y la otra partícula compañera se encamina hacia la Luna. Por ejemplo una de las partículas del par podría ir directa a un detector de spin localizado en el CERN (un aparato Stern-Gerlach que medirá su spin según cierto ángulo), mientras que la partícula compañera iría directa a un aparato de Stern-Gerlach localizado en la Luna. ¿Afectaría la medición de la partícula del CERN al posible resultado de la medición en la Luna? El sentido común dice que no, que ambas partículas son entes independientes y con estados propios; pero la tozuda realidad cuántica dice lo contrario (y así se ha demostrado empíricamente como veremos más adelante).

Y es que el hecho de que la partícula (1) se mida en el CERN mucho antes de que la partícula (2) llegue al aparato de Stern-Gerlach en la Luna hace que la medición lunar esté ya determinada de antemano a partir del colapso de la función de onda producida sobre el estado superpuesto y entrelazado de ambas. Lo que antes de la medición en el CERN era una función de probabilidad con ciertos valores α1, α2, α3, α4 para cada combinación de estados, se convierte tras la medición en la MISMA función de onda pero colapsada de tal manera que UNO de los 4 valores (α1, α2, α3, α4) ha tomado el valor de 1, siendo los demás valores igual a cero. Si imaginamos que el colapso de la función de onda tras la medición ocasiona que α2 = 1, entonces α1 = α3 = α4  = 0, y la función de onda general de las dos partículas queda reducida a lo siguiente:
¡Podemos ver como la medición de la partícula (1) ha determinado el estado del spin de la partícula (2) que se encuentra a miles de kilómetros! En este ejemplo concreto podemos ver como el acto de colapso tras la medición ha hecho α2 = 1, lo que produce instantáneamente un cambio en el estado del spin de la partícula (2) - de viaje a la Luna-, de manera que ahora su estado de spin ya no es difuso ni se encuentra superpuesto, sino que girará con certeza absoluta hacia abajo y así lo medirá efectivamente el otro aparato Stern-Gerlach colocado en el satélite.

Este extraño comportamiento del mundo fue el que llevo a Einstein y varios colegas a la propuesta de las variables ocultas, normalmente conocida como la propuesta Einstein, Podolsky, y Rosen (EPR). En esta hipótesis se defiende que los resultados probabilísticos de la mecánica cuántica (junto con su consiguiente necesidad matemática de tirar de superposiciones y entrelazamientos de estados), era incorrecta (o era fruto de nuestra incomprensión esencial del fenómeno natural). Se postulaba que la MC era una teoría incompleta, nacida como fruto de ir construyendo apaños matemáticos ante nuestra incapacidad para entender los fenómenos a esta escala microscópica, pero que debía haber alguna teoría que mediante el uso de ciertas "variables" ocultas (desconocidas) llevarían de nuevo a la física mecánica a su descripción clásica: sin ondas de probabilidad, estados difusos o entrelazados, ni tampoco comunicación instantánea a distancia. Y para apoyar esta hipótesis, la propuesta EPR propuso un método muy "simple" con el que replicar de un modo "clásico" las distribuciones de probabilidad medidos en el laboratorio, haciendo uso simplemente de una función p(λ) dependiente de una variable λ (la variable oculta que según Einstein no conocíamos aún).

En el caso más general, la propuesta EPR toma matemáticamente un aspecto un poco engorroso. Os adjunto de todas formas un vídeo (también del profesor Barton Zwiebach) para aquellos curiosos que quieran profundizar en el desarrollo matemático completo de este caso general:





Pero sin embargo, en el caso particular de dos partículas de spin-1/2 la propuesta EPR se puede esquematizar y entender fácilmente:

Según Einstein, en procesos tales como el decaimiento de un mesón en dos muones; dado que el que mesón original es una partícula sin spin neto y que en reposo tiene un momento angular igual a cero, la ley de conservación del momento angular hacen que las dos partículas de spin-1/2 recién creadas posean valores iguales de spin pero en sentido contrario (para que tales estados se cancelen y el resultado total neto siga siendo cero como antes del decaimiento del muon).

Según la MC ya vimos que este caso supone la superposición y el entrelazamiento de estados de los pares de partículas así creados, mientras que EPR se niega a aceptar estos extraños supuestos cuánticos, e intenta esquivar todo lo que para el bueno de Albert era una parafernalia matemática fruto de nuestro desconocimiento real del sistema. Según la EPR, todos estos pares de partículas poseen un estado bien definido desde el momento de su creación (nada de superposiciones ni de colapso de funciones de onda), y los resultados de intensidad en la medición en cierto vector del spin de tales partículas se explica de manera sencilla teniendo en cuenta la ya mencionada ley de conservación del momento angular. Si una de las dos partículas gira hacia arriba en el eje-z, la otra debe girar en tal caso hacia abajo, con lo que reproducimos fácilmente el resultado de probabilidad 1/2 para cada estado predicho por la MC:

    Probabilidad     Partícula 1     Partícula 2
50% (1/2)               z+                  z-
 50% (1/2)               z-                   z+

Este resultado hace factible el hecho de que quizás la MC no sea más que una aproximación incompleta de una teoría de variables aún no descubiertas que serían capaces de determinar el estado (siempre bien definido según EPR) de todas las partículas. Pero aquí no acaba la cosa: supongamos que ahora deseamos medir el spin de un gran número de pares de estos muones, pero en dos vectores (o direcciones) diferentes. No es que midamos a la vez el spin en ambas direcciones, sino que simplemente vamos a contabilizar la intensidad (el número medido) de partículas con spin en dos direcciones distintas, por ejemplo los ejes-x y z. Podemos imaginar este caso como si colocáramos dos "cajas" (aparatos de Stern-Gerlach) apuntando en diferentes direcciones, y contásemos luego el número de partículas que caen dentro de cada caja de entre una multitud de pares de un haz continuo de estas partículas. Tendríamos entonces cuatro de estas cajas; dos para medir en los ejes-x y z una de las partículas del par, y otras dos para medir en estos mismos ejes el otro par de estas partículas compañeras tras un decaimiento.

En este contexto el Realismo local afirma que todas las partículas tienen siempre un estado bien definido (aunque desconocido debido a las variables ocultas) de giro para cada uno de estos ejes de coordenadas, por lo que se puede etiquetar dichos estados bien definidos de la siguiente manera:

(z+; x-)

Lo cual representa que cierta partícula tiene un estado de spin bien definido de modo que si se mide en el eje-z girará hacia arriba, y si se la mide en el eje-x girará hacia abajo (este arriba y abajo quieren decir que, tras pasar la partícula por un aparato Stern-Gerlach colocado apuntando a lo largo de un eje determinado, la misma será desviada hacia arriba o hacia abajo). Hay que notar, sin embargo, que la misma ley de conservación del momento que comentamos antes sigue aplicando, y que por tanto la cancelación necesaria implica que si cierta partícula del par tiene un estado bien definido (z+; x-), su compañera obligatoriamente debe poseer un estado (z-; x+). Este hecho nos permite listar como en el caso anterior las probabilidades propuestas por EPR pero para dos vectores:

Probabilidad         Partícula 1         Partícula 2
  25% (1/4)               (z+; x+)                (z-; x-)
  25% (1/4)               (z+; x-)                 (z-; x+)
   25% (1/4)               (z-; x+)                 (z+; x-)
   25% (1/4)               (z-; x-)                 (z+; x+)

Vemos que este resultado también es consistente con la MC y los hechos experimentales. Si comenzamos a medir (contar) los resultados devueltos por los 2 aparatos Stern-Gerlach del primer par de partículas, con los resultados de los otros 2 aparatos Stern-Gerlach para las partículas compañeras, todo cuadra y hay efectivamente intensidades de 1/4 para cada combinación de estados posible. Es decir; que si tenemos dos aparatos Stern-Gerlach uno apuntando a lo largo del eje-x y otro a lo largo del eje-z, sabiendo que cada uno de estos aparatos separa y desvía la partícula arriba o abajo, tendremos en total en los detectores colocados detrás de cada aparato 2 líneas de spin para cada uno. Una línea de intensidad (medición) hacia arriba y otra hacia abajo para el aparato a lo largo del eje-x, y otras dos líneas arriba y abajo para el aparato del eje-z; y lo mismo para los otros 2 aparatos que miden el otro par de partículas. Pues bien, si se realiza este experimento durante cierto tiempo, la intensidad de las 4 líneas que miden z+, z-, x+, x- para la partícula 1, y la intensidad de las líneas para las partículas compañeras (simbolizado como partícula 2) son todas igualmente gruesas. Existe pues una probabilidad de 1/4 para cada combinación de estado, que es precisamente lo que predice la MC, pero que vemos que también es compatible con los postulados EPR del Realismo local.

Así pues, si medimos la probabilidad de que la partícula primera en cierto eje gire arriba o abajo, y que la partícula 2 haga lo mismo en el otro eje, tenemos algo como lo siguiente:

Pr(z- en (1), x+ en (2)) = 1/4

resultado que empíricamente es cierto porque sólo hay una combinación tal que z gire abajo para la partícula primera y que la partícula compañera gire arriba en x (la línea cuarta de la tabla anterior). En realidad, y entrando en más profundidad, lo que ocurre es que los 4 aparatos Stern-Gerlach (dos para cada par de partículas) producen en total 8 líneas de intensidad (2 por cada aparato). Es decir; 4 aparatos * 2 líneas cada uno = 8 mediciones de spin. Y vimos antes que cada línea empíricamente tienen igual grosor, por lo que cada par posee 4 líneas iguales cosa que se simboliza matemáticamente como que la probabilidad de cada combinación es de 1/4. Pues bien, para el caso z- de la partícula primera tenemos entonces dos líneas válidas (tercera y cuarta), y para el caso x+ de la partícula compañera tenemos otras dos líneas válidas (segunda y cuarta); por lo tanto:

Pr(z- en (1)) = 1/4 + 1/4 = 1/2
Pr(x+ en (2)) = 1/4 + 1/4 = 1/2

y según las reglas de la probabilidad,

Pr(z- en (1), x+ en (2)) = 1/2 * 1/2 = 1/4

Siendo además cierto que estos datos cuadran también con los resultados anteriores, puesto que la probabilidad de que la partícula 1 apunte en cierto eje hacia arriba, y que la partícula compañera lo haga en el sentido contrario para el mismo eje sigue siendo (como debe ser para la conservación del momento angular) de 1/2. Por ejemplo:


Pr(z+ en (1), z- en (2)) = 1/2

puesto que hay sólo dos combinaciones (la primera y la segunda) donde se cumple que z+ (1) y z- (2), teniendo cada línea una probabilidad de 1/4, y que juntas suman 1/2.

Hasta aquí todo bien pero, y aquí viene lo interesante, este resultado de compatibilidad del EPR con los hechos físicos del mundo no se mantienen si procedemos simplemente a meter un tercer aparato de medición Stern-Gerlach en el sistema. Basta con medir (contar) también la intensidad del spin de este tipo de haz de partículas en una tercera dirección independiente de las otras dos, para que los números dejen de cuadrar, y el resultado medido NO sea ya posible de cuadrar con los postulados EPR de variables ocultas (esto es; sin hacer uso de superposición de estados ni estados entrelazados).

Para verlo en detalle, en lugar de introducir otro eje coordenado como dirección de medición, vamos a etiquetar ahora el sistema suponiendo que colocamos los aparatos de medición apuntando en cualquier dirección o vector arbitrario. Así que ya no usaremos x, z (o y) para etiquetar, sino que haremos uso de vectores más generales a los que llamaremos a y b  (puesto que ahora uno de los aparatos no va a apuntar necesariamente ya en una dirección ortogonal al otro aparato).
En esta figura se puede ver un ejemplo donde un aparato mide a lo largo del vector a, mientras que el otro mide a lo largo del vector b, observándose además como ahora aparece un ángulo que separa ambos ejes de medición (que en el caso de antes con x y z era de Θxz = 90º).

Procedemos inicialmente como en el caso anterior listado la combinación de líneas posibles:

Nº partículas             Partícula 1               Partícula 2
        N1                      (a+; b+; c+)              (a-; b-; c-)
         N2                     (a+; b+; c-)                (a-; b-; c+)
        N3                    (a+; b-; c+)                (a-; b+; c-)
         N4                      (a+; b-; c-)                (a-; b+; c+)
       N5                     (a-; b+; c+)               (a+; b-; c-)
        N6                     (a-; b+; c-)                (a+; b-; c+)
        N7                      (a-; b-; c+)                (a+; b+; c-)
         N8                       (a-; b-; c-)                (a+; b+; c+)

En lugar de trabajar directamente como hicimos antes con fracciones de probabilidad, lo que hemos ahora será indicar que para cada combinación de atributos de los pares de partículas habrá un cierto número (N1) que caerá en la combinación primera, N2 caerán en la combinación segunda, etc.

El número total de mediciones será pues N = N1+N2+...+N8 

En analogía con el caso anterior, decir que habrán ahora 3 aparatos Stern-Gerlach por cada partícula del par (3 * 2 = 6 aparatos midiendo en direcciones a, b, y c respectivamente), y que como aparato obtiene como salida dos líneas de intensidad (arriba o abajo), habrá en total 6 * 2 = 12 líneas. En este sentido, N2 va a representar por ejemplo la suma en la intensidad (el número de partículas que inciden en la pantalla de medición) de las dos líneas que corresponde a la salida arriba de los aparatos apuntando a lo largo de a y b, junto con la suma de la intensidad de la línea abajo del detector del aparato a lo largo de c. Y esa suma de intensidad concreta, que se corresponde con el impacto de ese determinado número n de partículas, es lo que denominamos como N2; siendo entonces N la suma de todos los impactos detectados en general.

Dicho lo cual, si ahora queremos calcular la probabilidad de que la partícula primera apunte hacia arriba en la dirección a, y que la partícula compañera apunte también hacia arriba en la dirección b, tenemos lo siguiente:

Pr(a+ en (1), b+ en (2)) = (N3 + N4) / N

La partícula 1 gira arriba en a en las cuatro primeras combinaciones de la tabla, pero sólo coincide con un giro arriba en b para la partícula compañera en la 3ª y 4ª línea, por lo que la probabilidad será, aplicando la regla de Laplace, igual al número de casos favorables (impactos favorables N3 + N4), dividido entre el número de impactos totales N.

Si, por ejemplo, repetimos un experimento de este tipo en muchas ocasiones y siempre esperamos hasta que sucedan 1000 impactos en total (N = 1000), y si obtenemos luego que de media el número de impactos en N3 {(a+; b-; c+), (a-; b+; c-)} es igual a 125 y que en N4 {(a+; b-; c-), (a-; b+; c+)} aproximadamente las deteccciones también se aproximan a 125, entonces podemos decir -si la muestra es abundante y el experimento se repite un número suficiente de ocasiones- que:

Pr(a+ en (1), b+ en (2)) = (N3 + N4) / N = (125 + 125) / 1000 = 0.25 = 1/ 4,

con lo que reproducimos perfectamente el caso anterior donde se medía en sólo dos direcciones.

Y si medimos en direcciones opuestas, por ejemplo a+ en (1) y a- en (2), tenemos ahora:

Pr(a+ en (1), a- en (2)) = (N1 + N2 + N3 + N4) / N, 

y si, siguiendo a nuestro sentido común, tomamos a N1, N2,...,N8 como equiprobables, entonces:

Pr(a+ en (1), a- en (2)) = (125 + 125 + 125 + 125) / 1000 = 500 / 1000 = 1/2,

con lo que reproducimos igualmente el otro caso particular visto anteriormente.

Pero de todas formas, independientemente de los valores concretos para cada combinación Ni (de los que la equiprobabilidad es sólo un ejemplo), se puede derivar lógicamente lo siguiente:

Pr(a+ en (1), b+ en (2)) = (N3 + N4) / N
Pr(a+ en (1), c+ en (2)) = (N2 + N4) / N
Pr(c+ en (1), b+ en (2)) = (N3 + N7) / N

y, teniendo en cuenta que cada Ni se corresponde con el número de impactos favorables con un giro concreto de spin en cierta dirección se puede construir de manera lógicamente consistente la siguiente inecuación:

N3 + N4 <= N2 + N4 + N3 + N7

Puesto que N3 y N4 aparecen en ambos lados de la inecuación, y dado que N2 y N7 son siempre valores positivos (o cero), esta inecuación siempre será cierta en tales condiciones. Y si ahora simplemente dividimos ambas partes de la inecuación por una misma cantidad N, la inecuación seguirá siendo válida:

(N3 + N4) / N <= (N2 + N4 + N3 + N7) / N =>
(N3 + N4) / N <= (N2 + N4) / N + (N3 + N7) / N, 

pero si nos fijamos bien, hemos acabado en la izquierda con la definición que dimos antes a la probabilidad Pr(a+ en (1), b+ en (2)) , mientras que en la derecha hemos terminado con la definición que dimos a Pr(a+ en (1), c+ en (2))  y Pr(c+ en (1), b+ en (2)). Tenemos así que:

Pr(a+ en (1), b+ en (2)) <= Pr(a+ en (1), c+ en (2))  + Pr(c+ en (1), b+ en (2))


Este ejemplo concreto es precisamente lo que se conoce como la desigualdad de Bell (Bell inequality), y es generalizable y perfectamente válida para cualquier número de poblaciones (y no solamente 8 como hemos tenido en cuenta aquí con 3 direcciones y 8 combinaciones posibles). 

Y lo importante del asunto es que si el Realismo local es cierto (y como afirma EPR no hay superposición ni entrelazamiento alguno), esta desigualdad debe cumplirse obligatoriamente para mantener la congruencia.

Por otra parte, la mecánica cuántica (con superposición y entrelazamiento de por medio), ofrece un resultado totalmente diferente del derivado antes para el cálculo de la probabilidad del spin de dos partículas. En mecánica cuántica, Pr(a+ en (1), b+ en (2)) NO es igual a (N3 + N4) / N, sino que es

Es decir, que si la MC es cierta, la probabilidad en la medición del spin de dos partículas compañeras ¡va a depender del ángulo que formen las direcciones (los vectores) sobre los que se coloquen los aparatos Stern-Gerlach!

De hecho, es posible, por ejemplo colocar los 3 aparatos del caso en que se miden 3 direcciones de modo que el ángulo de medición entre cada par de ellos sea igual a un mismo valor Θ:


En este caso concreto en que los aparatos se colocan de esta manera tan particular, la fórmula del cálculo propuesto por la MC para la desigualdad de Bell pasa de ser:


a la expresión más sencilla y simplificada:


teniendo en cuenta que:

Pues bien, ¡la desigualdad de Bell falla para valores en los que!:


y esto se debe a que para valores suficientemente pequeños de ángulo se debería cumplir que:


y esta desigualdad es evidentemente incorrecta y absurda.

No es posible por tanto mantener los resultados de la MC en concordancia con la propuesta EPR del Realismo local, por lo que un experimento como el aquí propuesto podría definitivamente desechar la resistencia de Einstein y otros colegas en contra de la superposición de estados, el entrelazamiento y la acción a distancia; condenando por tanto las ideas del sentido común en favor del realismo local.

Tal experimento se llevó a cabo de hecho alrededor de 1980 por el científico Alain Aspect, y el resultado fue favorable a la tesis de la MC. El Realismo local sencillamente no es posible, y debemos acostumbrarnos a la idea de que las partículas no poseen estados definidos hasta el acto de medición, al mismo tiempo que tal medición puede afectar instantáneamente al estado de cualquier partícula entrelazada en dicho sistema aunque la misma se encuentre a millones de kilómetros de distancia en el momento del colapso de la función de onda.

Es interesante señalar y hacer notar, por último, que el hecho de que la desigualdad de Bell falle en MC es consecuencia directa de la correlación existente en el estado superpuesto y entrelazado del par de partículas en consideración: la aparición, de hecho, de la dependencia del ángulo de medición en la fórmula de la probabilidad es consecuencia directa de la deducción matemática tras el axioma inicial sobre la combinación lineal de los estados superpuestos de las dos partículas bajo consideración. Y la "concordancia" o "éxito" que obtuvo la propuesta EPR en los dos primeros casos que vimos al principio se debió simplemente a la casualidad de tener en cuenta en el primer caso direcciones de medición donde b = -a (con lo que el ángulo Θ de la fórmula mecánico cuántica resultaba ser igual a π, dando como resultado por casualidad lo mismo que postulaba el realismo local, es decir; 1/2), y por tener en cuenta en el segundo caso ángulos de medición de Θ = 90º (como el formado entre los ejes ortogonales de coordenadas z y x), en cuyo caso la fórmula de la MC también coincidía por casualidad con la propuesta EPR al devolver la parte del seno al cuadrado 1/2 que multiplicado por el 1/2 que tenemos delante del seno nos da como resultado el 1/4 predicho por la tabla del realismo local. Sin embargo, ya vimos que tales casos de concordancia eran puntuales, y que por ejemplo para Θ < π /2 no hay más remedio que abandonar totalmente el Realismo local de variables ocultas y abrazar los postulados de la MC con todas sus consecuencias filosóficas.

Para aquellos que deseen más detalles matemáticos sobre toda esta derivación os dejo el siguiente vídeo:

Measurements on the singlet state of two spin one-half particles




IV. Discusión sobre las consecuencias filosóficas del asunto.

Filosóficamente hablando, todo lo tratado hasta ahora tiene unas consecuencias absolutamente desconcertantes (como ocurre casi siempre que se intenta comprender al mundo cuántico). Se puede concluir a partir de lo dicho que nada en el mundo tiene un estado real bien definido e independiente del resto de cosas que lo rodean. Todo es un conglomerado de posibilidades y probabilidades superpuestas y entrelazadas que no se pueden siquiera llamar fenómeno hasta que se produce algún tipo de fuerte medición (o interacción), momento en que produce un, aún no del todo comprendido; proceso de colapso de este difuso estado de probabilidades en un único estado "real".

Pero, ¿qué narices es todo eso? ¿Qué necesidad tiene el mundo Natural de comportarse de este modo? Fijémonos por ejemplo en ese proceso que se entiende como el decaimiento del muón en dos mesones:

¿Es acaso "real" ese mesón η0 el cual a veces decae (se "convierte" espontáneamente) en otras dos partículas llamadas muones µ? Las leyes de conservación requieren que las dos partículas mantengan constante toda cantidad conservativa antes y después del decaimiento: por lo tanto, la suma de la energía de los dos muones deben sumar la misma energía que poseía el mesón, y lo mismo ocurre con la carga eléctrica y el resto de propiedades. Pero es que resulta que todas esas propiedades y atributos de los muones están entrelazadas entre sí, lo mismo que el mesón original podría estar entrelazado en algún sistema con otras partículas; el cual podría formar parte de otro proceso causal de equilibrio conservativo. Es decir; que si nos fijamos con detalle, todo fenómeno natural pasado, presente y futuro está en realidad relacionado e interconectado de una manera u otra con todo lo demás. De hecho, si damos "marcha atrás" causalmente el suficiente tiempo, podemos llegar a la conclusión de que cualquier partícula actual debe formar parte de algún sistema entrelazado pasado, por remoto que sea, y que por lo tanto todo depende de algún colapso que quede por llegar.

Damos por supuesto que las partículas se "crean" y que "decaen" (se transforman) en otras, pero en realidad bien parece, cuando se profundiza en ello, que nada "realmente" existe, y que todo parece formar parte de una especie de ilusión cósmica. Quizás podría ser que el misterioso colapso de la función de onda no sea más que el truco de prestidigitador con el que el mundo Natural produce el engaño.  ¿Cómo si no explicar el hecho de que de una abstracta función (matemática) de probabilidad pueda surgir el fenómeno?

Imagina un sistema fuertemente entrelazado y superpuesto: ¿qué es ese sistema sino una función matemática? En realidad tal sistema no es otra cosa más que una gran cantidad de números (lo que vimos al principio como los números complejos α1, α2, α3, etc.). Y resulta que luego, a partir únicamente de esos innumerables números, se supone que un acto de interacción convierte de alguna manera a uno de esos números complejos en el número 1 y al resto de números los transforma en el valor 0, de modo que aparece en el mundo fenoménico casi como por arte de magia algo distinto del mero número (un "estado" que se supone que acompañaba a cada número complejo pero que no se representa como fenómeno real hasta que uno de tales números llega a valer 1) : ¿cómo es eso posible? ¿Qué son esos números y funciones matemáticas en realidad y cómo pueden apañárselas para traer existencia al mundo fenoménico? ¿Es acaso real una función elevada al cuadrado o un conjunto de números?

Sinceramente, en lo personal cada vez creo con más ganas la hipótesis de que nada existe en realidad; que todo el fenómeno a nuestro alrededor no es más que un baile de números produciendo una ilusión de cambio y realidad que en esencia luego no son nada. Aunque para ser justos tampoco podemos desechar la hipótesis de la Realidad simulada, la cual explicaría perfectamente el proceso de colapso que trae de cabeza desde hace más de un siglo a los físicos. ¿Qué sería el proceso de colapso de la función de onda en esta hipótesis de la simulación? Pues simplemente el modo en que un Computador trascendental decide mediante algún tipo de Algoritmo aleatorio (o pseudoaleatorio) cómo va a colapsar cierta función de probabilidad que tiene en su Memoria cuando detecta una fuerte interacción en la simulación.

Estas dos posibilidades metafísicas las trate por cierto con más detalles en las siguientes entradas de este mismo blog:

http://quevidaesta2010.blogspot.com.es/2016/09/diseno-inteligente.html
http://quevidaesta2010.blogspot.com.es/2016/09/diseno-inteligente-y-ii.html
http://quevidaesta2010.blogspot.com.es/2016/10/diseno-inteligente-iii.html
http://quevidaesta2010.blogspot.com.es/2015/07/parmenides-de-elea-y-la-fisica-moderna.html

Un saludo, compañeros.

domingo, 14 de mayo de 2017

The God Theory: Universes, Zero-point Fields, and What's Behind It All (Bernard Haisch)


"La Matemática no es real, pero «parece real». ¿Dónde está ese lugar?"
(Richard Feynman)

Mientras escribía mi anterior artículo en el blog, recomendé en algún momento el libro de Bernard Haisch: The God Theory: Universes, Zero-point Fields, and What's Behind It All. Y como ya hacía tiempo que lo había leído (y la obra me había intrigado bastante en su día), me propuse darle un repaso; y ya puestos pues decidí subir y compartir con vosotros los capítulos fundamentales del trabajo. Tenéis el contenido a continuación (con opción de subtítulos en inglés) para que podáis valorar por vosotros mismos la hipótesis del autor. Más tarde haré un pequeña y breve reseña con mi opinión sobre la misma:


Pues bien. Una vez oído lo que el autor nos tiene que decir, paso a ofreceros mi reseña y opinión sobre el asunto:

Lo primero que quiero decir es que esta obra se trata sin duda de una aproximación muy interesante que, aún siendo una propuesta deísta (a veces incluso algo teísta), se aleja bastante de la mera revelación de las religiones tradicionales, haciendo por contra Bernard Haisch un honesto esfuerzo intelectual por intentar cuadrar los hechos del mundo con esa supuesta realidad trascendental defendida en el trabajo. El autor afianza de hecho sus premisas, como no debería ser nunca de otra forma, de manera que intenta siempre poder lograr consistencia y congruencia entre su hipótesis metafísica y la física del mundo inmanente del fenómeno, postulando para ello siempre a partir de parte de nuestro conocimiento de la física del mundo. Bien por él.

Dicho esto, voy procurar a continuación hacer un pequeño resumen esquemático de las palabras del autor (aunque sin duda lo ideal sería que pudieseis estudiar directamente la obra con el anterior audio y sacar así vuestras propias conclusiones):

En principio, según Bernard Haisch, existe un Dios en el sentido más tradicional: un ser que vive fuera del espacio y del tiempo: infinito, eterno, absoluto; una inimaginable (o inefable) perfección la cual simplemente Es. A este Dios lo denomina el Dios no manifestado (o no representado): "God the unmanifest". Hasta aquí no hay mucha novedad, y probablemente muchos al llegar a estas palabras ni siquiera hayan continuado con el audio; pero esa no debería ser nuestra postura. Todo aquel que se preocupe realmente por el problema ontológico del mundo debe ser honesto, abierto de mente y ser capaz de sobreponerse a sus prejuicios. Y aunque luego tras el estudio del cualquier obra de este tipo sigamos manteniendo nuestra opinión original, lo justo como digo, es que se haya estudiado seriamente cualquier alternativa de manera sincera y por muy lejos que parezca estar de nuestras creencias particulares.

Pues bien, según el autor, este Dios no manifiesto limitado como estaba a que su propio Ser fuese todo lo existente, tenía consecuentemente la limitación de no poder experimentarse a sí mismo. Porque aunque este Dios (no manifestado) constituya un infinito potencial, la cuestión es que lo potencial  (infinito o no), no es lo mismo que lo experimental. Así pues, este Dios (no manifestado) decidió (deseo) modificar dicho potencial para poder realmente experimentar su propia esencia. En ese sentido, Dios (el no manifesto) se transformó de manera que pudiera manifestar su infinito potencial existencial en un continuo acto de creación (como dice el autor: "and being becomes doing"). Así pues, ese infinito Ser (el Dios no manifestado) decidió manifestarse transformando lo absoluto en relativo (lo unitario en múltiple). Pero para lograr este paso a lo relativo, Dios necesitó hacer uso de lo que se entiende como polaridad (la manifestación de cualidades y propiedades opuestas que permitan de esa forma la posibilidad de poder diferenciar y detectar cambios y movimientos dentro de lo que será el nuevo fenómeno creado). De esta manera esa necesaria polaridad se representa por todo el fenómeno: existe lo frío vs. lo caliente, la luz vs. la oscuridad, el bien vs. el mal, materia vs. anti-materia, carga eléctrica positiva vs. carga eléctrica negativa, etc. Es decir, que todo en el mundo debe y de hecho va siempre acompañado de su opuesto; cuestión que cuando se tienen en cuenta tributos abstractos resultan en que en última instancia se reducen y manifiestan en sus polaridades físicas más básicas. Así pues, en polaridades de más alto nivel como por ejemplo lo frío vs. lo caliente, o el bien vs. el mal; todo se reduce a la confrontación que la polaridad permite en la suma de los atributos físicos en los constituyentes más básicos de estos fenómenos: como su carga eléctrica negativa vs. carga positiva, su momento lineal en un eje positivo vs. el momento lineal en el mismo eje del lado negativo, su carga de color positiva (para la fuerza nuclear fuerte) vs. carga de color negativa, etc. Pero lo importante es hacer notar que sin esta polaridad (que en algunas tradiciones místicas se denomina yin-yang), la experiencia como tal sería imposible. Y este asunto es importante porque explica fácilmente como una necesidad el problema del mal que las tradiciones religiosas teístas son incapaces de comprender.

Más tarde, el autor hace un símil entre esta necesidad que tuvo Dios (el no manifiesto) de querer experimentar su potencial, con la necesidad que tenemos todos nosotros de experimentar (crear o construir) lo que nuestra imaginación es capaz de  pensar e idear. El ser humano en cuanto puede hace manifiesto aquello que idea; valga como ejemplo cualquier cosa que necesita de nuestra creatividad: cine, música, video-juegos, etc. Y en el mismo sentido, ese infinito potencial del Dios absoluto no manifiesto, literalmente querría simplemente experimentar con todas y cada una de las combinaciones imaginables y posibles en que generar mundos que "vivir", cada uno de los cuales tendrá sus propiedades particulares (aunque todos presentarán la polaridad de la que hablamos antes, requisito para la experiencia).

Así pues, acabamos en un punto muy similar a donde acaba la cosmología moderna, proponiendo una infinidad de Universos paralelos, aunque con la excepción de que no es un proceso mecánico e insustancial el que genera toda la variedad de mundos existentes en el Multiverso, sino que sería una Causa incausada (el Dios no manifestado) el que decidiría las características concretas de cada mundo donde experimentarse (y "vivir") Él mismo, y de todas las maneras posibles e imaginables (que desee). Se modifica únicamente por tanto en el proceso de creación el hecho espontáneo que presentaría según la "ciencia" moderna una especie de matriz cuántica generadora de infinitos mundos (mediante una supuesta eterna inflación), por un muy similar proceso de creación intencionado cuya única meta es la de experimentar todo de todas las maneras posibles (y deseables).

Me gustaría decir un par de cosas al respecto de lo hablado hasta ahora: en primer lugar me gustaría mencionar cómo de esotérica suena la moderna cosmología del Multiverso cuando se la piensa bien. Ciertamente la propuesta de la eterna inflación soluciona en gran parte el misterio existencial, pero lo hace a un coste que pocas veces nos paramos a pensar: infinitos Universos creados por una eterna matriz cuántica generadora de Big Bangs...Ufff, cuando se piensa bien es una propuesta que realmente cuesta digerir. ¡Y es además lo mejor que la "ciencia" ha logrado hasta ahora encontrar al problema ontológico! Pero es que, ya puestos a andar especulando con la eternidad, con un infinito potencial, y con Causas incausadas; no parece tan descabellado después de todo alternativas como las propuestas por Bernard Haisch. Tampoco es que haya en el fondo una diferencia tan abismal como puede parecer a primera vista.

También me gustaría comentar cómo de parecida es la metafísica de este autor con la cosmovisión de otros autores anteriores. Por ejemplo, cuando uno escucha sobre ese simple deseo del Dios no manifiesto para experimentarse de todas las maneras posibles, no puede evitar acordarse por ejemplo de la Voluntad propuesta por Schopenhauer. Es más, en gran medida este libro viene a servir incluso como un soporte renovado (gracias a la física moderna) a las ideas de este viejo filósofo alemán.

Veamos por tanto con más profundidad cuál es este soporte de la física moderna de la que se hace uso en el trabajo de Bernard Haisch: principalmente se utiliza en el argumento lo que se conoce como Energía del punto cero ("Zero-point Fields"). Teoríacamente este concepto tiene soporte desde la relatividad y la mecánica cuántica (en la teoría de campos cuántica), y experimentalmente tiene varios soportes, siendo la evidencia más simple y clara el llamado Efecto Casimir el cual viene a ser un efecto predicho por la teoría cuántica de campos que resulta medible directamente en dispositivos nanométricos, y  queconsiste en que, dados dos objetos metálicos separados por una distancia pequeña comparada con el tamaño de los objetos, aparece una fuerza atractiva entre ambos debido a un efecto asociado al vacío cuántico; siendo precisamente la energía del punto cero la energía más baja que un sistema físico mecano-cuántico puede poseer, y constituyendo así la energía del estado fundamental de todo sistema. Como decimos, en la teoría de campos cuántica la energía del punto cero es un sinónimo de la energía del vacío o de la energía oscura, una cantidad de energía que se asocia con la vacuidad del espacio vacío. En cosmología, la energía del vacío es tomada como la base para la constante cosmológica, y debido a que la energía del punto cero es la energía más baja que un sistema puede tener (y cuyo valor NO es cero), no puede ser eliminada de dicho sistema. Un término relacionado es el campo del punto cero que es el estado de energía más bajo para un campo, su estado base que, insistimos, no es cero.

¿Y qué quiere todo esto decir en pocas palabras? Que alrededor nuestra, en cada punto infinitesimal del espacio, existe un potencial infinito y continuo de creación. Según la teoría cuántica de campos, para cada cualidad particular de la materia (color, carga eléctrica, etc.) existe un campo de infinito potencial compuesto por una infinidad de partículas "virtuales" entrando y saliendo muy rápidamente de la existencia. Tan rápido se crean y se destruyen de hecho estas partículas virtuales, que no hay manera de visualizarlas o detectarlas directamente (de ahí el apelativo de "virtuales"), aunque sí que es posible detectar y medir el efecto que tales partículas ejercen sobre el resto de partículas "reales" que sí son estables y que se pueden detectar. Por lo tanto la física moderna habla de que existen diferentes campos cuánticos (uno por cada cualidad de la materia), y que dichos campos lo conforman una (literalmente) infinidad de partículas entrando y saliendo de la existencia ocupando estos infinitos campos que cubren todo el espacio completo del Universo. Así que sumemos estos campos de infinito potencial de creación de nuestro mundo a la propuesta del Multiverso, y tendremos como resultado una infinidad de Universos cada cual con una infinidad de partículas entrando y saliendo de la existencia en cada instante...Insisto: ¡cuánto cuesta digerir la socorrida salida panteísta de los múltiples Universos cuando se la piensa en profundidad! De hecho, nos surge de inmediato una pregunta: ¿de dónde narices surge todo ese (meta)infinito potencial del que hace gala esa matriz esencial generadora de mundos? ¿Y por qué además dicho potencial pasa constantemente a representarse mediante sucesos inflacionarios en lugar de permanecer en su ser sin inmutarse?

Según la propuesta de Bernard Haisch por contra, este infinito potencial que observamos representado a nuestro alrededor en el fenómeno no es otra cosa más que la mano de ese especulado infinito y eterno Dios (no manifestado) dirigiendo el mundo según su designio e ingenio. Sería Dios el que jugaría por decirlo de alguna manera con las leyes del Universo utilizando su infinito potencial esencial, y ajustando en cada ciclo (en cada Universo) las leyes y contantes de modo tal que pueda experimentar con todas esas combinaciones (interesantes) imaginables. Algunas combinaciones no serán interesantes, y posiblemente Dios no se preocupe demasiado por ellas; y otras combinaciones serán tal que permitan la aparición de vida inteligente y consciente. Precisamente es en el momento en que ese Dios decide manifestarse y experimentarse en estos mundos cuando aparecen seres conscientes como nosotros; seres que pueden considerarse de algún modo por tanto como los "cuerpos" manifiestos de la Verdadera esencia potencial. Así pues, nosotros, como seres conscientes en un mundo creado y sustentado por y para el disfrute y la experimentación del propio Dios, somos en realidad parte de dicha Deidad. Dios experimenta conscientemente a través nuestra, y nosotros somos en realidad meros fragmentos materiales de un mismo y único Dios.

Pero, ¿no es acaso también muy difícil de digerir la propuesta de este autor? Sin duda lo es, y mucho. Sin embargo la verdadera pregunta es, ¿qué es más complicado de digerir?:

1) ¿Que nuestro Universo particular fue creado en un proceso espontáneo ya repetido una infinidad de veces antes durante una infinidad de ciclos previos (o simultáneos) sostenido además por una extraña eterna matriz cuántica esencial de infinito potencial (sin Causa ni Origen) capaz de crear y destruir instantáneamente una infinidad de partículas (en los campos cuánticos de cada mundo) durante una eterna infinidad de tiempo?

2) ¿O que nuestro Universo particular ha sido diseñado a propósito como parte de un ciclo de creaciones ajustadas de tal manera que una esencia de infinito potencial (un Dios "Consciente") pueda experimentarse de todas las maneras imaginables (deseables) mediante la manifestación de sus ideas más aptas para permitir una "consciencia" relativa y material capaz de aprehender en acto lo que como Dios no manifestado solo puede imaginar en potencia?

Si os soy honesto, hoy por hoy, y a pesar de lo que dije en mi anterior artículo (de ayer xD) sobre este tema, no lo tengo ya tan claro tras esta reflexión. Conforme estudio en más detalle la física moderna, la cosmología, y la filosofía oculta en los postulados "científicos" del Multiverso, más complicado y complejo lo veo todo. En realidad no tengo tan claro ya qué postulado es más afín al principio de economía o principio de parsimonia (navaja de Occam). Hay tantos infinitos (y meta-infinitos) implícitos en este moderno panteísmo científico que cada vez se me hace más complicado darle credibilidad. ¿No será después de todo una hipótesis deísta congruente y acorde a los fenómenos del mundo más económica en principios?

Aunque quiero dejar claro que no estoy para nada diciendo que sea la propuesta concreta que defiende Bernard Haisch en este libro la Verdadera metafísica, ni mucho menos; sino que simplemente me estoy seriamente replanteando si no es más sencillo aceptar por principio alguna especie de Diseño inteligente frente a la propuesta panteísta que abala por esa extraña y compleja eterna esencia cuántica de infinito potencial (de desconocida procedencia) capaz de generar y controlar por toda una eternidad una meta-infinidad de mundos, partículas y campos.

No obstante, y a pesar de todo; las consecuencias lógicas en lo relevante a nosotros como sujetos siguen siendo igual de desalentadoras en ambos casos: en el primer caso, el nihilismo campa a sus anchas, y en el segundo, resulta que somos causa de alguna especie de Deidad preocupada por satisfacer algún tipo de Necesidad esencial, pero a la cual no le preocupa lo más mínimo causar daño y dolor a su propia creación y mucho menos el destino de la misma. Y es que, si nos fijamos bien por ejemplo el Dios propuesto por Bernard Haisch, éste no resultaría ser más que un juguetón egocentrista (¿Sádico, quizás?) al cual no le importaría más que experimentar todo lo imaginable de todos los modos posibles mediante el uso de la polaridad necesaria para crear mundos relativos (y experimentales). Siendo de hecho tal polaridad necesaria la causante en última instancia de que exista el mal (en contraposición al bien) en el mundo; mientras que tal potencial fuente de infinito dolor y sufrimiento no parece molestar o preocupar mucho al Dios no manifiesto para llevar a cabo de todas formas su plan de creación: pudiendo más su deseo de experimentar que las consecuencias de tal cración. Es más, si nos fijamos en otras alternativas prometedoras, como la Voluntad de Schopenhauer, resulta que todo de una manera u otra acaba siempre de manera similar con algún tipo de Deidad de infinito potencial diseñando y creando nuestro mundo inmanente a la vez que se desentiende de su propia creación permitiendo el dolor y el mal en el mundo (o incluso buscándolo).

En fin. Que no le veo la gracia a ninguna de las dos alternativas; mientras que la alternativa teísta me suena (y creo que siempre me sonará) a cuento Chino inventado por y para el hombre pero sin un verdadero sustento lógico detrás.

Un abrazo, compañeros.