domingo, 21 de octubre de 2018

Teoría de cuerdas: ¿El último callejón sin salida de la física?

Nota: Este artículo es una traducción libre de un interesante artículo de la revista "The Guardian": www.theguardian.com/science/2006/oct/08/research.highereducation. Como digo es una traducción libre por lo que no pretendo que sea exacta sino que se entienda bien. He añadido además notas propias entre medias que he diferenciado del texto original metiéndolas entre corchetes [así que todo lo que veáis entre corchetes es una observación mía ;)].
____________________________________________________________
Durante décadas, los físicos han estado seguros de que podrían explicar el universo en un puñado de ecuaciones complejas: ahora muchos están empezando a temer que han sido conducidos por un callejón sin salida.
La idea más ambiciosa jamás esbozada por los científicos ha sufrido un revés notable. Se ha descartado como un callejón sin salida teórico que ha desperdiciado la vida académica de cientos de los hombres y mujeres más inteligentes del mundo.
Esta alarmante acusación ha sido hecha por físicos frustrados, incluidos varios ganadores del Premio Nobel, que dicen que la teoría de cuerdas, que busca delinear la estructura completa del universo en unas pocas breves ecuaciones, es un callejón sin salida intelectual.
Dos nuevos libros publicados en América cuestionan su base. Lejos de proporcionar a la humanidad las respuestas al misterio del cosmos, la teoría es falsa, afirman.
Como recientemente ha dicho un reconocido científico: "La injustificada defensa de la teoría de cuerdas está literalmente dañando a la ciencia".
Sin embargo, los defensores de la teoría de cuerdas, que también incluyen a varios ganadores del Premio Nobel, han denunciado las críticas y han defendido sólidamente su campo. Ya han conducido a muchos avances importantes en matemáticas y física, dicen.
Pero lo que está claro es que, de repente, la teoría de cuerdas se ha convertido una fuente de frustración y preocupación para los propios científicos, aunque los orígenes de la idea son lo suficientemente inocuos y pueden rastrearse a los primeros (y desesperados) intentos de los físicos por salir de un callejón sin salida intelectual en el que llevamos más de 40 años atascados.
El siglo pasado, los físicos crearon la mecánica cuántica [su modelo matemático] para explicar cómo se comportan las cosas muy pequeñas, átomos y electrones, mientras que Einstein produjo su teoría de la relatividad general para explicar el comportamiento de objetos enormes como las galaxias.
Ambas teorías funcionan bien, pero son incompatibles. La física cuántica no puede explicar las cosas muy masivas y la relatividad general no puede aplicarse a lo muy pequeño. En comparación, los biólogos tienen en este sentido a la teoría de la selección natural de Darwin para explicar los seres vivos, grandes y pequeños, desde las ballenas hasta las bacterias. Sin embargo, como decimos, los físicos no tienen un código unificado. Una perspectiva que molestó tanto por ejemplo al mismísimo Einstein que se pasó los últimos 20 años de su vida buscando infructuosamente una teoría que lo pudiese unificar todo.
Luego, en los años ochenta [una vez que el actual modelo estándar de partículas estuvo ya más que establecido y finiquitado], un grupo de científicos creó lo que se conoce como la teoría de cuerdas [un modelo matemático con el que se pretendía lograr dar respuesta fenomenológica a todo lo que el modelo estándar dejaba fuera]. La materia no está formada por pequeñas entidades similares a puntos, como neutrones o quarks, afirmaban, sino por hilos de energía increíblemente pequeños que vibran. De este modo, una cuerda que vibra de una cierta manera representa a lo que entendemos por electrón, mientras que otra cuerda que vibra de manera diferente se corresponde por ejemplo al quark up. Y remarcablemente, de entre todas estas cuerdas habría una muy especial que representaría con su vibración al portador de la fuerza de gravedad: el gravitón.
"Se puede pensar al universo como una sinfonía o una canción, ya que ambas están compuestas por notas producidas por cuerdas que vibran de manera particular", dijo el profesor Michael Green, de la Universidad de Cambridge.
Suena sin duda muy interesante. Pero desafortunadamente, para hacer que sus ecuaciones funcionen, los científicos tuvieron que agregar otras seis dimensiones al universo: cuatro [tres espaciales y una temporal] no eran suficientes. Sin embargo, no podemos ver estas dimensiones extras porque están tan estrechamente compactificadas que son invisibles, se argumentó. Para el público en general, por supuesto, todo esto es algo desconcertante [por decirlo con suavidad].
De todas formas la teoría de cuerdas demostró ser alentadoramente efectiva a nivel teórico para explicar lo muy pequeño y lo increíblemente grande, y así comenzó a dominar el estudio de la física fundamental en las universidades de todo el mundo [en la década de los 80 del siglo anterior]. Según los protagonistas de aquel entonces, pronto sería posible describir el cosmos en unas simples ecuaciones que podrían caber en una camiseta.
Pero a medida que pasaron los años, los científicos no produjeron una sola observación práctica para apoyar la teoría. Un problema, dijeron [y dicen], era [y es] que la energía necesaria para romper la materia y estudiar su esencia interior como cuerda es tan colosal que requeriría máquinas lo suficientemente grandes para cubrir el planeta entero [otros son menos cautos y hablan de que haría falta en realidad un acelerador de partículas del tamaño del sistema solar].
Pero además de estos problemas [de soporte experimental], los cálculos más recientes [los últimos modelos matemáticos] han producido una sorprendente predicción dentro de la teoría de cuerdas: es posible que existan un número casi infinito de universos diferentes, algunos de los cuales serían similares al nuestro y otros que serían muy diferentes.
Y es en este punto donde comenzó la clara decadencia del modelo. Una teoría no comprobable [es decir, que escapa experimentalmente de nuestra capacidad actual y futura] que habla de universos paralelos invisibles y de un espacio-tiempo de 11 dimensiones [Las 11 dimensiones de la teoría más actual son: las 3 del espacio tradicional, 1 temporal, y 6 adicionales compactificadas e invisibles (de momento)...más 1 que las engloba a todas formando "membranas"] ha demostrado ser demasiado para algunos físicos. 'Cuasi-teología posmoderna' la llaman los disidentes más moderados; mientras que es denominada directamente 'falsa' y 'sin sentido' por entre los menos indulgentes.
"Lejos de una maravillosa esperanza tecnológica para un futuro mejor, la teoría de cuerdas es la consecuencia trágica de un sistema de creencias obsoleto", dijo Robert Laughlin de la Universidad de Stanford, ganador del Premio Nobel de física de 1998.
Para una teoría que pretende explicar toda la estructura del universo, tal ataque de alto nivel es muy serio. Laughlin tampoco está solo: por ejemplo, Peter Woit, de la Universidad de Columbia, y Lee Smolin, del Perimeter Institute de Canadá, acaban de publicar libros que atacan muy seriamente la teoría de cuerdas.
"Demasiada gente ha estado exagerando ideas muy especulativas", dijo Woit, autor de "Not Even Wrong", la semana pasada. 'La teoría de cuerdas no ha producido nada'.
Este punto fue respaldado por Smolin, cuyo libro se llama "El problema con la física". Los científicos han vertido todas sus energías en un enfoque teórico que está demostrando ser estéril, dijo. "Es como si todos los investigadores médicos en el mundo hubieran decidido que solo había una forma de combatir el cáncer y se hubieran concentrado en esta línea de ataque a expensas de todas las demás vías", dijo. "Entonces se encuentra que el enfoque no funciona y los científicos descubren que han perdido 20 años. Ese es el paralelismo con la teoría de cuerdas.
Una parte del problema, dicen los críticos, es que en los años ochenta los profesores alentaron a casi todos los jóvenes físicos con talento a estudiar la teoría de cuerdas debido a su inmensa promesa. Ahora son jefes de departamento de mediana edad que han comprometido sus vidas a dicho modelo y que no pueden aceptar a estas alturas que todo sea un camino sin salida.
No es sorprendente pues que tales acusaciones sean rechazadas por los teóricos de cuerdas. Una teoría de todo no puede ser creada de la noche a la mañana, argumentan. Es como quejarse del sonido que hace un violín sin terminar. "La teoría de cuerdas está en el camino correcto", dice por ejemplo David Gross, de la Universidad de California, Santa Bárbara, otro ganador del premio Nobel. "Pero este camino es bastante largo. Se requieren más avances".
Tampoco es correcto argumentar que la teoría es errónea porque no hace predicciones demostrables o desechables, dijo Sanjaye Ramgoolam, de Queen Mary, Universidad de Londres. "Hay varias formas en que podríamos probar, o refutar, la teoría de cuerdas. Por ejemplo, el nuevo Gran Colisionador de Hadrones de Europa bien puede ser lo suficientemente poderoso como para proporcionar evidencia que sugiere que estamos en el camino correcto " [Huelga decir que esta predicción ha resultado fallida y el LHC no ha logrado nada en este sentido. Muchos pensaban incluso, siguiendo las propuestas más actuales de la Teoría M, que las dimensiones extras (e incluso las propias p-branas) serían lo suficientemente grandes para ser detectadas empíricamente por este multimillonario acelerador. Craso error: überhaupt nichts]
Y en cuanto a la idea de que los teóricos de cuerdas tienen sus cabezas atrapadas en la arena y se niegan a ver la verdad, esto es firmemente rechazado por físicos como Green [el cual es, paradójicamente, un claro ejemplo de físico que ha dedicado toda su vida académica a esta teoría]: 'Todos los científicos están entusiasmados con las nuevas ideas. Por eso somos científicos. Pero cuando se trata de una teoría unificada, no ha habido nuevas ideas. No hay alternativa a la teoría de cuerdas. Es el único espectáculo en la ciudad, y el universo".
[Muy interesante esta última cita de Green: "...cuando se trata de una teoría unificada, no ha habido nuevas ideas. No hay alternativa a la teoría de cuerdas". Esto viene a cuadrar perfectamente con todo lo que dije hace unos días en un artículo que escribí también por aquí y que denominé: "Malas noticias para el futuro de la física teórica". Repito de nuevo la conclusión a la que que allí llegamos: "...puede sonar pesimista, pero si la cosa continúa de este modo, es muy probable que la física teórica (confirmada con respaldo experimental) quede atascada tal y como la conocemos ahora mismo durante siglos...o incluso milenios. De hecho, ya llevamos casi 40 años sin ningún nuevo aporte (siendo el famoso Higgs el último soporte experimental a una idea de finales de los años 60 del pasado siglo)."]
Una breve guía de iniciación para entender lo que dice la teoría de cuerdas:
· La materia [una partícula] se compone de una encadenación infinitesimalmente pequeña de energía en vibración. [Esta encadenación se pensó originalmente como analogía de una pequeña cuerda vibrando, y de ahí vino el nombre inicial de la teoría]
· Diferentes vibraciones producen diferentes partículas, como el quark y el electrón.
· Vivimos en un universo de 11 dimensiones [las 3 del espacio tradicional, 1 temporal, y 6 adicionales compactificadas e invisibles (de momento)...más 1 dimensión que las engloba a todas formando membranas. Esta dimensión adicional de la Teoría M me recuerda por cierto a aquello del anillo único del que nos hablaba en su novela Tolkien:"Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas". Pues aquí tenemos algo similar, una dimensión extra matemáticamente "sacada de la manga" que sirve precisamente para atar a todas las cuerdas (previamente había 5 modelos matemáticos -5 teorías de cuerdas- que competían entre sí hasta que la Teoría M las unificó al añadir esta dimensión)].
· Existe casi una infinidad de formas en que estas dimensiones extras (invisibles) se pueden compactificar (como esferas, como cuadrados, como triángulos, con forma de Estrella de David,..., y así hasta 10^500 -un diez seguido de 500 ceros- alternativas) , siendo cada alternativa una propuesta de universo con propiedades distintas. Es decir, que según sea el modo en que se enrollen y se compactifiquen entre sí estas dimensiones adicionales, así será la forma espacial por las que podrán las cuerdas [las p-branas en realidad] moverse y vibrar, dando como resultados distintas propiedades físicas para dichas partículas. De este modo podemos imaginar cientos de miles de trillones de universos (landscape) con partículas y leyes muy distintas a las que nosotros vemos en nuestro mundo. Y cada uno de estos universos es tan probable como el nuestro, por lo que para eliminar el asombro de la casualidad se echa mano del principio antrópico y se afirma que vivimos dentro de un multiverso donde todos estos universos alternativos conviven de algún modo junto al nuestro. [Realmente es innegable que la física teórica se encuentra en una etapa tan extraña y desesperada que las últimas propuestas recuerdan cada vez más a las tradicionales historietas religiosas y místicas]
· Los defensores dicen que es la única esperanza que tenemos de producir una teoría unificada de todo, el santo grial que eludió al mismísimo Einstein [pues si esta propuesta es lo mejor que tenemos quizás sea hora de dejar un poco de lado la incuestionabilidad matemática y volver de nuevo al estudio de la filosofía clásica porque incluso los presocráticos decían cosas con más sentido lógico...o quizás sea más correcto decir que proponían el mismo sinsentido pero de manera menos enfangada y críptica].

miércoles, 17 de octubre de 2018

Malas noticias para el futuro de la física teórica

Hoy hemos visto en la portada de diversos medios el siguiente artículo: news.northwestern.edu/stories/2018/october/unprecedented-look-at-elect
"Un examen de la forma de la carga de un electrón con una precisión sin precedentes ha confirmado que es perfectamente esférico, lo que apoya el modelo estándar de la Física de Partículas. "Si hubiéramos descubierto que la forma no era redonda, ése sería el mayor titular en física de las últimas décadas --afirma Gerald Gabrielse, quien dirigió la investigación en la Universidad de Northwestern. El experimento actual era un orden de magnitud más sensible que su predecesor. En español: bit.ly/2ykinYw"

En principio, y para variar, parece que quieren vender el hallazgo como algo positivo, cuando en realidad se trata de una muy mala noticia.
El modelo estándar de partículas es hasta la fecha la mejor teoría física disponible para explicar la mayor parte de los fenómenos del Universo...pero sabemos que es una propuesta incompleta, en el sentido de que deja fuera soluciones para cuestiones tan importantes como: qué es la materia y la energía oscura, por qué hay más materia que antimateria, cómo unificar la relatividad general y la mecánica cuántica, etc.
Sin embargo, la cuestión es que no hay manera de lograr un experimento capaz de refutar dicho modelo. Ni los más de 50.000 millones de euros (y subiendo) invertidos en el LHC han servido para otra cosa que no haya sido contrastar una y otra vez sus predicciones. Y el caso de la noticia que tratamos aquí no es ni más ni menos que otra constatación más del modelo estándar.
Es decir, y para aclarar, que tenemos por una parte el modelo estándar de partículas que es capaz de explicar una gran cantidad de fenómenos empíricos, y por otra parte tenemos fenómenos que no cuadran en absoluto con el modelo. De modo que hay por lo tanto en el mundo dos grandes grupos de experiencias actualmente: aquellas que matemáticamente el modelo estándar explica y predice, y aquellas que caen fuera del ámbito matemático de dicho modelo.
E insistamos una vez más: las matemáticas del modelo estándar sirven para explicar y predecir ciertos fenómenos, pero no sirven en absoluto para explicar otros. No obstante, el hecho de que las matemáticas de un modelo no apliquen a cierto ámbito fenoménico no invalidan al propio modelo como tal, simplemente señala que es un modelo incompleto de la realidad, cosa que se sabe de todas formas desde hace décadas. Este es de hecho el callejón o punto muerto donde se encuentra la física teórica:
Se necesita desesperadamente una refutación experimental del modelo estándar, un experimento claro que "rompa" las matemáticas del modelo estándar dentro de su ámbito fenoménico (donde se sabe que aplican sus fórmulas). Ese hecho, que hasta la fecha no se ha logrado, sería sin duda el punto de partida que ayudaría a comprender por dónde extender al modelo. Qué parte en concreto falló y cómo se podría enmendar. ¡Algo! ¡Lo que sea!...pero como decimos, tras miles de experimentos (algunos de ellos multimillonarios) no se consigue más que una confirmación tras otra. Y eso es algo realmente desastroso para la física como disciplina.
Y es desastroso mucho que nos pese, porque todas estas confirmaciones logran como efecto colateral ir refutando poco a poco alternativas e hipótesis que eran muy prometedoras hasta hace bien poco, como es el remarcable caso de la supersimetría. De hecho, la extensión supersimétrica del modelo estándar prometía grandes cosas en este sentido, como por ejemplo explicar la materia oscura y la asimetría entre materia y antimateria...y experimentos como el aquí tratado (y también el LHC, uno de cuyos fundamentales objetivos era encontrar evidencia de esta supersimetría) han casi descartado su posibilidad (hasta un enorme grado de precisión). Así pues valga a modo de ejemplo el hecho de que estas repetidas (y cada vez más precisas) corroboraciones del modelo estándar han descartado experimentalmente (a niveles de energía humanamente abarcables) lo mejorcito que teníamos en la recámara: la supersimetría.
El LHC, por poner otro ejemplo, tampoco ha logrado hallar evidencia (y era algo que muchos esperaban) de las compactas dimensiones extras propuestas por la teoría de supercuerdas, lo cual pone también muy complicado que algún día se pueda confirmar experimentalmente otra de las extensiones más famosas del modelo estándar.

En resumen.

Que por mucho que se quieran vender este tipo de publicaciones como exitosas, cada nueva contrastación del modelo estándar en experimentos cada vez más precisos y complejos (y caros), supone a su vez la refutación de muchos modelos hipotéticos alternativos. Pero, y aquí viene lo realmente importante, la física teórica está MUY falta de opciones explicativas que estén a la altura del modelo estándar, y las pocas que había nos la estamos ventilando rápidamente (en el mejor caso "empujándolas" experimentalmente a niveles de energía que nos llevaría cientos de años alcanzar, si es que es viable lo cual en ciertos casos tampoco es seguro).
Es decir, que se trata de una verdadera catástrofe puesto que cada vez hay que tirar de ideas más y más extravagantes que requieren además para su contrastación de experimentos a niveles de energía que ya van cayendo fuera de nuestro alcance presente y posiblemente futuro (siendo remarcable en este sentido la teoría de cuerdas).
Así que puede sonar pesimista pero si la cosa continúa de este modo, es muy probable que la física teórica (confirmada con respaldo experimental) quede atascada tal y como la conocemos ahora mismo durante siglos...o incluso milenios. De hecho, ya llevamos casi 40 años sin ningún nuevo aporte (siendo el famoso Higgs el último soporte experimental a una idea de finales de los años 60 del pasado siglo).

lunes, 8 de octubre de 2018

Los expertos de la ONU urgen a tomar medidas contra el cambio climático...pero no servirá de nada



Ayer nos levantamos con una noticia que decía: "Los expertos de la ONU urgen a tomar medidas drásticas contra el cambio climático". Una noticia importante y preocupante pero que en realidad no viene a decir nada nuevo. Esta es la enésima vez que los científicos alertan de todo esto...pero no cambia nada. Así pues reflexionemos:

Teniendo en cuenta que hace décadas que se sabe perfectamente qué es lo que debemos hacer y las consecuencias de no hacerlo; y observándose además cómo no se ha dado en todo este tiempo ni un solo paso a favor, sino más bien en contra (haciendose justo lo contrario de lo que se supone que debemos hacer). La pregunta es: ¿existe la posibilidad de que simplemente el ser humano, actuando como sociedad, no tenga la capacidad efectiva de controlar su propia dinámica? Es decir, que ocurra que a pesar de nuestra indignación personal, luego como especie toda nuestra conducta social atienda en realidad a un ciclo natural autónomo, espontáneo e inevitable (sin servir para mucho en este sentido nuestro conocimiento racional).

Y es que todas las personas que reflexionan sobre este asunto acaban normalmente achacando la culpa de nuestra inactividad social sobre el clima (y otros asuntos) de un modo u otro siempre a deficientes decisiones políticas. Es decir, que se podrían poner medios pero "Fulano" o "Mengano" no quiere y claro, así no hay manera. Pero llevamos décadas igual, y parece evidente que la política en general es totalmente impotente para actuar contra el problema. Quizás, como venimos diciendo, habría que buscar más bien la causa de nuestra pasividad ante el cambio climático en nuestra propia esencia natural y preguntarnos si no será que simplemente no hay nada que hacer por mucho que le veamos las orejas al lobo.

Es una alternativa que está ahí mucho que le pese a nuestro ego; y además tiene desde la ciencia algún soporte empírico y teórico (teniendo en cuenta que la vida en general, y nuestra especie en particular, en esencia es un mero medio termodinámico).

jueves, 27 de septiembre de 2018

Hormigas


-Buenos días, hormiga obrera: ¿qué hace usted hoy?

-Trabajar, por supuesto. Es necesario que todas las hormigas obreras trabajemos a diario para mantener y mejorar el estado social de nuestro hormiguero. Es importante, por ejemplo; que las hormigas soldado obtengan su sustento para que logren defendernos y mantener el orden interno, y también es necesario para que los servicios para con nuestra hormiga reina y toda su innumerable prole sea el mejor y más óptimo posible.

-Ya veo. ¿Y me podría explicar, señora hormiga, por qué exactamente cree que es tan importante que su hormiguero siga funcionando y que lo haga de manera óptima?

-Ummm...Bueno, es necesario que todo funcione con armonía y eficiencia para que nuestra prole logre crecer sana y pueda ayudar de este modo en el futuro sobre la continuidad de nuestra especie.

-No lo dudo, pero mi pregunta era más bien sobre cuál piensa usted que es la causa última que persiguen todas ustedes con esa vehemente lucha por la continuidad de la especie. Es indudable que todas sus hermanas comparten su mismo entusiasmo instintivo en deslomarse por el bien del conjunto del hormiguero pero no logro entender para qué cree que es útil vuestra propia existencia como tal.

-Me hace usted una extraña pregunta. Yo soy una hormiga obrera y mi deber es trabajar para que mi sudor sirva de apoyo al conjunto global de la complejidad social que me rodea. Sin embargo, es cierto que no conozco razón alguna que me haga comprender para qué puede servir esta encadenación de generaciones de hermanas hormigas. Yo sólo sé que siento la necesidad de actuar de este modo.

-¿Está entonces de acuerdo, querida obrera, en que su esfuerzo diario es algo que le surge instintivamente de su ser interno pero que no ve clara ninguna meta u objetivo concreto en que su hormiguero siga existiendo y funcionando? Es decir, ¿concuerda con la idea de que lucha con pasión por la mera existencia y supervivencia individual y comunal pero sin ver claro un fin objetivo útil en relación a vuestro propio ser como hormigas?

-Supongo que así es. A mí me gratifica trabajar y darme en lo posible al resto de mis hermanas, es un sentimiento que simplemente poseo y me sale de dentro. Necesito sentirme útil y saber que aporto al bien social común. Saber, en resumen, que ayudo dentro de mis posibilidades a que mis compatriotas puedan vivir del mejor modo posible. Pero también es cierto que no soy capaz de discernir un objetivo claro para nuestra propia existencia. Creo que en el fondo se trata de sobrevivir por sobrevivir, y punto.

-Le comprendo perfectamente, honesta hormiga. Afanarse por sobrevivir y punto, buena respuesta. Una última pregunta, por favor, no me gustaría interrumpirla mucho más de sus quehaceres diarios: si yo le dijese ahora mismo que por mucho que se esfuercen el destino de su hormiguero y el de su especie en general está condenado a desaparecer por motivos naturales insoslayables, ¿continuarían no obstante trabajando como lo hacen ahora mismo? ¿Les supone alguna diferencia conocer este fatal sino que asegura que el tiempo borrará del mundo todo rastro de vuestro esfuerzo pasado, presente y futuro?

-¡Claro que seguiremos trabajando y luchando! Somos hormigas y no importa lo que lleguemos a comprender sobre el mundo, el hecho es que nuestra satisfacción es actuar como lo que en esencia somos. Y no importa lo que nos depare el futuro ni nos importa que nuestra existencia no posea objetivamente un sentido en lo relativo a nuestro ser como hormigas: trabajaremos y trabajaremos hasta que la última de nuestras hermanas caiga rendida.

-Por supuesto, amiga. En cierto modo entiendo que son presas de su esencia natural: esclavas programadas evolutivamente por y para la supervivencia y la reproducción. Títeres dentro de un escenario natural indiferente a vuestro destino. Así que veo lógico que no puedan parar de trabajar, de procrear y de moverse en general, porque máquinas para realizar trabajo es en el fondo lo que son.

-Estoy de acuerdo. Pero no olvide que lo mismo se puede aplicar a su querida especie humana. En esencia ya sabe que material y mecánicamente no somos distintos en nada, y que incluso compartimos evolutivamente un lejano antepasado común.

-Lo sé, lo sé, no le quepa duda compañera. Lograr maximizar el trabajo neto y el flujo de movimiento es lo único que le importa al Universo, y para ello se vale de cualquier medio estructural. Nuestras especies son simplemente dos modelos naturales más de entre una infinidad de combinaciones posibles. El mundo en cierto sentido nos utiliza para este "fin" térmico, la única meta objetiva esencial con la que dirige y determina luego todo el fenómeno.

-Que así sea pues, humano. No hay nada que su especie o la mía puedan hacer al respecto a parte de acatar las órdenes que nos dicta nuestro ser. Dicho lo cual me marcho a continuar con mis labores. Me imagino que usted hará lo mismo.

-Claro que sí. Un abrazo, querida amiga.

domingo, 16 de septiembre de 2018

Anaximandro y el concepto de multiverso en la filosofía griega

"El principio originario de las cosas es el apeirón. Allí es donde surgen, es donde después perecen por razón de la necesidad" (Anaximandro, filósofo de la antigua Grecia)



A partir de los comentarios de un amigo sobre el antiguo filósofo griego Anaximandro, quedé intrigado y busqué más información sobre su obra. Y es muy curioso y asombroso que alguien en aquella época (aprox. 600 años antes de cristo) afirmara que los mundos nacían del Infinito: "Hay muchos mundos y muchos sistemas de Universos que existen todos al mismo tiempo, todos ellos perecederos". Se puede ver que el autor afirma algo así como que la causa primera de nuestra realidad es una naturaleza infinita, a partir de lo cual emerge todo lo que entendemos como real. Es decir, ¡que ya Anaximandro nos habló varios siglos antes de cristo del actual concepto de multiverso!...sólo que él lo denominó apeiron.

Y las similitudes entre sus ideas y las propuestas de la cosmología moderna sobre la eterna inflación cósmica son más que remarcables. Porque no es nada nuevo que los físicos pretenden esquivar la idea del fino ajuste presentado por las leyes y constantes físicas (que son justo las que permiten la vida) apelando al principio antrópico y al multiverso. Pero resulta que el ajuste es tan fino y tan improbable, que hace falta apelar para sortear a la inadmisible casualidad a una infinidad de alternativas: es decir, que si hay un multiverso, éste debe ser infinito en número y potencial (capacidad). No vale un millón (ni mil millones) de Universos cuando se quiere justificar un ajuste de proporciones tan astronómicas que en ocasiones requiere de una precisión conjunta de decenas de decimales entre otras tantas decenas de constantes naturales.

Pero es que de ser este el caso (y muchos físicos así lo afirman, entre ellos el recientemente fallecido Stephen Hawking) estaríamos apelando en realidad a un proceso natural PREVIO a toda creación (una existencia anterior a cada Universo generado), y además este "mecanismo" natural debería poseer un potencial infinito (puesto que infinitos serían los Universos dentro de este multiverso generado mediante la denominada eterna inflación cósmica). Un acto de creación por tanto que sería de naturaleza indefinida e interminable puesto que el concepto de tiempo no tiene cabida dentro de un acto infinito. La esencia del multiverso sería por tanto un acto o movimiento sempiterno: un infinito potencial creador anterior al propio concepto fenoménico de materia. Es decir, que hablaríamos así de un infinito poder inmaterial y sempiterno (eterno) de creación primigenia.

Pero lo importante es lo bien que cuadra esta propuesta cosmológica del multiverso con las palabras de Anaximandro cuando decía éste que: "lo indefinido (o apeiron) es la fuente de todas las cosas". O cuando decía que: "Hay muchos mundos y muchos sistemas de Universos que existen todos al mismo tiempo, todos ellos perecederos" (!!).

¡Qué barbaridad! Es realmente asombroso que un pensador de aquel tiempo, cuando aún las matemáticas y la física ni siquiera se podían llamar así, fuese capaz de racionalizar una idea que más de 2500 años después es bastante aceptada por la comunidad científica, y que incluso cuenta con ciertas evidencias empíricas indirectas (fundamentalmente a partir del fondo cósmico de microondas).

Ciertamente la filosofía clásica se encuentra desgraciadamente infravalorada en estos momentos, pero hay que destacar como estos pensadores fueron capaces de adelantar ideas y conceptos que más tarde la física no ha hecho más que reafirmar. Y es además indignante e incomprensible que se repudie a la propia filosofía como disciplina, más aún a la luz de evidencias tan claras como la aquí comentada de Anaximandro (la cual es sólo un ejemplo).

No pasa nada: cuando los grandes aceleradores de partículas no den más de sí y la física experimental no tenga nuevos datos empíricos que recoger (momento que no queda tan lejos), será entonces la hora en que el resurgir de la filosofía sea inevitable. Quizás de hecho sea eso lo que necesita la física teórica actual, la cual no lo olvidemos lleva ya más de 35 años de estancamiento teórico (siendo el "viejo" modelo estándar su última contribución corroborada y contrastada).

viernes, 7 de septiembre de 2018

La extrañeza de la física cuántica (para dummies)

"El gran arquitecto parece ser un matemático; a aquellos que no saben matemáticas les resulta realmente difícil sentir la profunda belleza de la naturaleza." (Richard P. Feynman)


A comienzos del siglo XX el mundo de la física recibió un par de revoluciones que vendrían a trastocar completamente nuestra percepción humana del mundo. En concreto hablamos de la relatividad y la física cuántica. Pero mientras que la primera dejaba aún en pie ciertas concepciones de nuestro sentido común, el mundo cuántico vino a destruir por completo nuestro sentido de la realidad.

En esta entrada vamos a intentar explicar (para dummies) algunos aspectos de este asombroso comportamiento del mundo microscópico. Lo haremos sin introducir una sóla ecuación, de la manera más cualitativa y simple posible.

Pero antes de nada, y aunque sea de perogrullo, comentar que la mecánica cuántica apareció gradualmente durante el pasado siglo en un intento por explicar el reino de los fenómenos extraordinariamente pequeños: es decir, aquellos que no se podían "ver" u observar de una manera tradicional. Veamos qué es lo que aquellos científicos se encontraron:

Indeterminación en la trayectoria.

Si disparamos una pistola, podemos seguir el recorrido de la bala (por ejemplo de 9 mm) hasta que finalmente alcance una diana colocada en la pared. Existen cámaras especiales de hecho capaces de seguir el recorrido de la bala a cámara superlenta durante todo su trayecto.

Sin embargo, cuando se "dispara" un objeto subatómico (cuyo "tamaño" se puede aproximar grosso modo al rango del femtometro: 0,0000000000001 mm), ocurre que la trayectoria de este ente NO se puede seguir sin alterar completamente sus propiedades físicas.

Es decir, que la bala de 9 mm recibe de continuo el impacto de billones de fotones (partículas de luz) que rebotan en ella hasta llegar a la cámara superlenta que los recibe y procesa para mostrarnos de manera certera la posición y el camino que la bala va siguiendo. Pero dada la enorme diferencia entre la "gran" masa de la bala y la relativa diminuta energía de los fotones, el proyectil sigue todo su camino sin apenas verse perturbado por dichos impactos.

Sin embargo, si procedemos del mismo modo a lanzar fotones para "ver" y seguir la trayectoria de objetos microscópicos de tamaños (energía-masa) equivalentes a los del propio fotón, el resultado esta vez es distinto, puesto que la posición y la trayectoria de la partícula a seguir se verá muy (muy) afectada por esta medición nuestra. Es como sin lanzaramos balas de 9mm para detectar la trayectoria de otras balas de 9mm: el resultado sería que la bala no llevaría su dinámica normal y acabaría en cualquier sitio, probablemente destrozada (muy perturbada).

Pues bien: esta era (y es) la situación en el mundo microscópico. NO podemos seguir la trayectoria efectiva de estos objetos minúsculos sin perturbar su estado hasta el punto de que lo que finalmente medimos no tiene nada que ver con lo que habría ocurrido sin ese intento nuestro por seguir su rastro. ¡Y no hay nada que hacer al respecto!

Indeterminación en el impacto final.

Pero bueno, a pesar de todo aún tenemos la "diana" al final del trayecto. Eso es lo que pensaron los científicos de principios del siglo pasado. Así que se pusieron a investigar qué ocurría con la distribución en los impactos (interacciones) de estos objetos diminutos.

En cuanto comenzaron los experimentos en este sentido aparecieron nuevos problemas: se dieron cuenta de que no había manera de predecir dónde iba a impactar un objeto microscópico una vez "disparado". Y daba igual con cuánta precisión se preparasen los experimentos y con cuánto énfasis se pretendiese utilizar siempre las mismas condiciones iniciales, el resultado final parecía impredecible (recordemos que en física clásica un experimento que se repita siguiendo las mismas condiciones iniciales siempre dará el mismo resultado final -con cierto pequeño margen de error práctico-).

No había manera. Tras un gran número de repeticiones sin duda se observaban ciertos patrones en los impactos (mediciones), pero por mucho que se intentase parecía en principio imposible predecir dónde concretamente iba a impactar un objeto subatómico concreto: siempre se observaban desviaciones y comportamientos inesperados.

La cosa se complica.

Inicialmente se supuso (como algo lógico) que esta doble indeterminación era un problema práctico y no teórico: es decir, que tales objetos minúsculos poseían un estado de movimiento muy bien definido (i.e., que seguían una trayectoria equivalente al de la bala de 9 mm que usamos antes como ejemplo), de manera que el hecho de no se pudiese determinar con precisión la zona de impacto de una partícula se debía, pensaron los científicos, a que su pequeño tamaño haría que se viera perturbada en su camino por gran cantidad de otros fenómenos (moléculas en el aire circundante, etc.). En otras palabras, que del mismo modo en que no se podía seguir su trayectoria sin modificar a la misma (como vimos arriba), no se podía determinar su lugar preciso de impacto por el mismo motivo; dado que no importa con cuánto tacto se pretendiese replicar las mismas condiciones para el experimento siempre habría una gran cantidad de parámetros ("ocultos") que no podían controlar.

Pero entonces ocurrió lo inesperado. Algo que hizo trizas el sentido común de ese cerebro nuestro evolucionado por completo dentro del mundo macroscópico: el realismo tradicional se vino abajo. Veamos qué sucedió:

Se procedió a realizar el experimento de Young, más conocido como el experimento de la doble rendija, utilizando electrones y otras partículas materiales. Grosso modo, este experimento consiste en disparar elementos sobre una pared con dos aberturas ("agujeros") colocando una "diana" detrás de dicha pared. De este modo, en el caso de las balas de 9 mm la diana mostrará sólo los impactos de los proyectiles que lograron pasar por una de las dos aberturas. Así que el resultado observado tras disparar muchas balas es siempre similar al siguiente

Imagen relacionada  
Y la lógica más elemental, siguiendo el dictado del realismo de nuestro sentido común, indica que cada partícula (de manera similar a estas balas) debía también poseer en todo momento una posición y una trayectoria (vector velocidad) bien definidos; independientemente de que podamos o no seguir tal trayectoria. De este modo, los científicos pensaron que el hecho de imponer las dos aberturas harían disminuir el efecto de las perturbaciones impredecibles que pudieran ocurrir en el trayecto, puesto que impactarían en la "diana" sólo aquellas partículas que fueron capaces de llegar a una de las dos aberturas (es decir, se reduciría mucho las posibles perturbaciones "indetectables" del camino).

Por lo tanto era de esperar (todos los esperaban) que el resultado del experimento anterior tras lanzar un chorro, por ejemplo de electrones, mostrase en la"diana" una distribución muy similar a la anterior mostrada para las balas de 9 mm (quizás con un ángulo de impacto mayor dado que las partículas todavía se verían más perturbada que las balas en su trayecto tras pasar la abertura hasta llegar a la "diana").

Sin embargo, los investigadores (atónitos) descubrieron que el patrón de impactos no se parecía en nada a lo esperado, mostrando siempre que se repetía este experimento con cualquier tipo de partícula (e incluso con objetos mayores como átomos completos) algo similar a lo siguiente:

Imagen relacionada

La cara de los científicos de la época sería un cuadro cuando vieron este panorama. ¿Pero qué narices estaba pasando allí? Se habría esperado cualquier cosa menos este patrón de impactos tan extraño (incluso una completa aleatoriedad perturbativa se habría asimilado mejor).

Enseguida los físicos se pusieron manos a la obra para pretender explicar este resultado. Y una de las primeras hipótesis propuestas fue la de que, de alguna manera, el beam (el haz de electrones) estaba interfiriendo consigo mismo de alguna manera tras pasar las aberturas. Así que se repitió de nuevo el experimento, pero esta vez lanzando una sola partícula cada diez segundos. Sin embargo al cabo de un tiempo (y tras varios miles de impactos)...¡el patrón acabó siendo el mismo!


Consternados, lo siguiente que hicieron fue coger el aparato y modificarlo tapando una de las dos rendijas:

Resultado de imagen de experimento dos rendijas una rendija abierta 

Y ahora sí, cuando se procedía a realizar el experimento con una sola rendija abierta se encontraba el patrón esperado por el sentido común (el mismo mostrado por las balas). Es decir, que si sólo había una rendija abierta se eliminaba esa extraña interferencia que daba lugar al asombroso patrón observado antes con dos rendijas abiertas:

Resultado de imagen de experimento dos rendijas una rendija abierta


La explicación.

Ante estos hechos los físicos estaban absolutamente desconcertados. Con una rendija todo parecía seguir los dictados del sentido común, pero al abrir la segunda el patrón de impactos pasaba a mostrar una extraña figura donde se observaba un patrón de zonas donde no acontencía ningún impacto y otras zonas donde sí ocurrían...¡y eso a pesar de que se lanzaban las partículas de una en una!

La única explicación posible pasaba por abandonar el prejuicio del realismo tradicional: después de todo parecía que las partículas no eran esas balas en miniatura que se había supuesto desde el principio. ¡Debían ser "otra cosa"! Algo distribuido (esparcido) por el espacio y capaz de interferir consigo mismo!

Y resulta que el único fenómeno conocido en la naturaleza capaz de presentar tal comportamiento es el de una onda. Así pues el mundo microscópico debía estar compuesto por entes ondulatorios. No había más alternativa. Unos entes microscópicos dispersos en el espacio que debían presentar el efecto ondulatoria de difracción, lo que llevaría a esa interferencia "consigo mismo" observada durante su trayecto a la "diana" tras las rendijas. El efecto propuesto sería algo similar a lo siguiente:


Imagen relacionada

Todo esto implicaba que cuando se lanzaba un electrón, en realidad se lanzaba una onda plana (y NO una bala pequeñita) que tras pasar por la rendija producía difracción e interactuaba consigo misma (debido a los picos y valles de la ondas) de manera que las ondas llegaban a la "diana" con más "fuerza" en algunos lugares que en otros (habiendo partes de la "diana" que no presentaba ningún impacto -zonas oscuras- debido a que allí una cresta y un valle coincidían y se aniquilaban). El sentido común se había venido abajo.

¿Ondas de qué?

En la naturaleza observamos distintos tipos de ondas: ondas sonoras, ondas de fluidos, ondas sísmicas, etc., ¿pero con qué tipo de sustancia o sustrato podíamos identificar estas "ondas de electrones"? Una onda de agua en un estanque, por ejemplo; está compuesta por el movimiento del conjunto de billones de moléculas de agua (H2O) siguiendo una dinámica concreta que finalmente produce el proceso de difracción pero, ¿qué sentido tiene decir que una sóla molécula de H2O es por sí misma una onda y al pasar por una (doble) rendija produce difracción e interferencia consigo misma? No parecía desde luego algo fácil de digerir.

Seguimos con la indeterminación.

Más aún. A pesar de que esta identificación del electrón como una onda plana dispersa en el espacio (en oposición a la idea del electrón como una pequeña bola o bala con posición y trayectoria bien definida) es capaz de dar cuenta de los patrones de impacto obverdados con una y con dos rendijas abiertas, y cuando se disparaba un electrón tras otro de manera independiente...¡todavía no había manera de determinar y prever con certeza a priori donde concretamente iría a parar un electrón concreto tras su disparo! Lo más que se podía hacer era observar la densidad de impactos en las líneas de la "diana" y concluir a posteriori que donde más claras eran esas líneas más probable sería que acabase impactando allí un nuevo electrón cualquiera.

Por lo tanto, a pesar de nuestra incapacidad para prever con certeza dónde iría a parar el siguiente electrón, sabíamos que éste posiblemente iría a parar a una de las zonas más claras de la "diana" (donde en el pasado más impactos se recibió).

Ondas de probabilidad.

Así que finalmente se tuvo que relacionar de este modo el patrón de impactos con un patrón de probabilidad, puesto que se podía observar claramente que había zonas que parecían más probables que otras a la hora de recibir impactos (algunas zonas literalmente con probabilidad igual a cero).

Este hecho supuso además una respuesta implícita a la pregunta que nos hicimos anteriormente: ¿qué tipo de onda es esa "onda del electrón"? ¡Pues "simplemente" una onda de probabilidad! El hecho es que las franjas de impactos en el experimento de la doble rendija es consecuencia directa de la naturaleza ondulatoria del electrón individual (que produce difracción e interfiere consigo mismo con sus valles y crestas), y por lo tanto es esta misma naturaleza ondulatoria la que determina la distribución de probabilidad final en los impactos de la diana. Por lo tanto podemos interpretar (al cuadrado matemático) de esta "onda-electrón" directamente como una onda de probabilidad que se dispersa y se mueve por el espacio.

Por lo tanto finalmente nació así una nueva disciplina llamada mecánica cuántica, la cual se encargaba precisamente de ayudarnos a calcular de manera precisa y para cualquier sistema microscópico (del cual el experimento de la doble rendija es sólo un pequeño ejemplo) la distribución de probabilidad de observar algún resultado concreto.

Resumen.

Partimos de la (errónea) premisa de que el mundo microscópico era una versión en miniatura del mundo macroscópico tal y como lo observamos nosotros (realismo tradicional o de sentido común). Pero pronto nos dimos cuenta de que no hay manera de "ver" o seguir la trayectoria de tales entes puesto que son tan pequeños que cualquier intento por detectarlos destruye y altera completamente su estado de movimiento y localización. Tampoco había (ni hay) manera de poder predecir con certeza dónde acabará un objeto microscópico por mucho que se refinen y controlen las condiciones iniciales experimentales; habiendo incluso ocasiones donde la partícula acaba (impacta) en lugares que clásicamente (macroscópicamente) no tienen sentido alguno (están prohibidos).

Para más inri aparecieron experimentos donde una partícula parecía interferir consigo misma de una manera ondulatoria, pero al mismo tiempo no era fácil interpretar qué tipo de onda puede generar un único objeto (y no una colección de objetos, como ocurre con todas las gotas de un lago ondulante). Esta "onda-partícula" además parecía determinar de algún modo la distribución de probabilidad en el estado final (el impacto, medición, u observable) de los experimentos.

Así pues, y tras un shock intelectual, nuestro sentido común como decimos se vino abajo: el mundo microscópico es muy extraño, y su parecido con nuestra realidad cotidiana es, siendo generosos, una mera metáfora. Las partículas no son esas bolitas pequeñitas que pensábamos, ni tienen una posición y momento bien determinados, ni siguen trayectorias fijas que podamos seguir, ni dan como resultado estados que podamos predecir con certeza.

Cuando hablamos de objetos en el rango de los 0,0000000000001 mm, el mundo es radicalmente distinto. A esta escalas dichos entes "materiales" vemos que "son" en realidad ondas de probabilidad: entidades matemáticas en forma de ondas senoidales y cosenoidales cuyo cuadrado determinan la densidad de probabilidad para el observable en el estado final de cualquier sistema microscópico. Unas ondas que normalmente se aglutinan y se mezclan en el espacio-tiempo, de manera que el estado y la disposición de varias partículas se ven así a veces también entrelazadas y superpuestas hasta que algún acto de medición las devuelve a la individualidad (ondulatoria).

Por lo tanto, a estas escalas, en el mundo todo son ondas de probabilidad dispersas espacialmente: ondas que como decimos se mezclan, se superponen, se entrelazan, ondas en resumen que con sus picos y valles determinan la distribución de probabilidad para cualquier evento a medir.

Lanzamiento de dados.

Pero todavía nos queda una última extrañeza más antes de terminar con el artículo: el famoso lanzamiento de dados que tanto disgustó a nuestro amigo Einstein.

Hemos visto que todo a escalas subatómicas funciona en base a ondas de probabilidad que se esparcen y mueven en el espacio (de manera similar a las ondas de un estanque) siguiendo la famosa ecuación de Schrödinger; pero la esencia natural todavía nos guarda una sorpresa más:

Puesto que en el laboratorio no vemos en ningún momento ondas sino "impactos" (mediciones que son arbitrarias pero que como ya vimos siguen una clara distribución de probabilidad), entonces de algún modo debe ocurrir que estas (invisibles e indetectables) ondas "materiales" de probabilidad deben colapsar: es decir, que deben dejar de ser ondas y convertirse en "otra cosa"; algo tangible a lo que físicos llaman un observable.

- Vamos a concretar todo lo visto hasta ahora utilizando de nuevo el experimento de la doble rejilla donde se lanza un electrón cada 10 segundos:

Cuando la "pistola" crea y lanza un electrón, no dispara en realidad una bolita diminuta sino una onda plana de probabilidad. Esta onda plana (que en realidad se dispersa en las tres dimensiones por entre todo el Universo, ahí es nada) pasa a la vez por las dos rendijas produciendo el conocido efecto de difracción y la consiguiente interacción entre valles y picos, lo cual perturba la onda de probabilidad entre la abertura y la "diana" (como un estanque cuando se le tira una piedra). Finalmente esta onda(-electrón) de probabilidad que permea ya todo el espacio (todo el Universo, recuerda) con cierta altura en cada posición x indica (al elevarse al cuadrado la misma) la probabilidad de que el electrón acabe ("impacte") en cierta posición concreta (el observable). En el caso de la "diana" tras las dos aberturas, es también el cuadrado de la altura en la onda de probabilidad lo que indica cuán probable es que se produzca un impacto en cada posición x de la "diana". Ese "impacto" en sí (de acontecer) supone un tipo de medición, por lo que la onda de probabilidad se ve obligada a colapsar, desapareciendo de todo el Universo y transformándose en "otra cosa": un observable (en este caso un punto fosforescente en una pantalla). Este colapso supone además la elección natural (no se sabe todavía cómo) de un resultado (estado) final concreto de entre todos los posibles (siendo los posibles estados aquellos que tenían una probabilidad no nula justo antes del proceso de medición). Es decir, que el mundo a la hora de colapsar cualquier onda de probabilidad realiza el equivalente a "tirar un dado" para seleccionar así un estado final concreto dentro del abanico (ponderado) de opciones posibles.

Por lo tanto el patrón que muestra la "diana" tras el experimento de la doble rendija supone la sucesión de colapsos en la onda de probabilidad lanzada desde la "pistola" cada 10 segundos, por lo que es normal que se presente ese patrón de interferencia tan concreto puesto que es en el fondo una proyección de la mismísima onda de probabilidad que no podemos "ver" de ninguna manera más que de forma indirecta tras las mediciones en la distribución de probabilidad de un sistema concreto de estudio.

La mecánica cuántica.

Fueron precisamente estas observaciones que os he descrito las que se fueron formalizando matemáticamente durante la primera mitad del siglo XX (por científicos de gran renombre) hasta dar lugar finalmente a lo que hoy día se conoce como mecánica cuántica. Una teoría probabilista y no local que choca frontalmente con nuestro sentido común, y a la cual todavía no se la sabe interpretar bien más allá de los buenos (buenísimos) resultados matemáticos que consigue en cuanto a su respaldo experimental.

Pero debe quedar claro que nadie sabe realmente cómo funciona en esencia el mundo natural a estas escalas (por mucho que las matemáticas sean certeras): nadie comprende por qué el mundo microscópico funciona a base de este tipo de ondas, la razón de toda esa indeterminación que vimos al principio (que formalmente toma luego la forma del principio de indeterminación de Heisenberg), nadie sabe si realmente las partículas(-ondas) siguen "físicamente" trayectorias como tal o si simplemente "saltan" de aquí para "allá" según las matemáticas que las determinan. Y tampoco nadie sabe que son "realmente" en sí estas ondas "materiales" de probabilidad (invisibles e indetectables), nadie comprende por qué se produce el colapso de estas extrañas ondas, por qué es el cuadrado matemático de dichas ondas lo que guía la realidad, ni tampoco se sabe cómo selecciona el mundo en esencia ese aleatorio (pero ponderado) resultado final observable (¿cómo tira el Universo los dados?). Es decir, que fuera de las matemáticas todo sigue siendo en general duda y controversia.


  • Nota para quisquillosos:

El proceso histórico descrito en esta entrada (para dummies) no es 100% preciso, y me he tomado ciertas libertades literarias para intentar explicar de la forma más asequible posible las propuestas de la mecánica cuántica. Así pues hay estudios anteriores, posteriores, intermedios y la línea histórica en general no es rigurosa. No obstante la idea es que cualquier persona sin conocimientos previos pueda entender la enorme extrañeza oculta tras los postulados de la física cuántica ;).

miércoles, 29 de agosto de 2018

Otro fracaso del LHC que nos venden como un éxito...

Acaba de salir del horno esta noticia: phys.org/news/2018-08-long-sought-higgs-boson.html
Sin entrar en detalles técnicos simplemente comentar que tras 6 años de duros experimentos en el LHC...de nuevo no se han encontrado indicios de esa supuesta física existente más allá del modelo estándar.
Y es que, como digo, lo que se ha observado no es ni más ni menos que una constatación más (y van miles) del modelo estándar. Pero sin embargo, lo que realmente se desearía encontrar ya de una vez es justo lo contrario: algo que no cuadre con el modelo estándar y que de señales de física más allá de este modelo estándar. No ha sido el caso en este largo experimento (como bien dicen en el artículo, eso sí tras un maquillaje "triunfal" de marketing).
De hecho, con el LHC corriendo desde hace tiempo a su máxima potencia ya se están acabando las expectativas de que vaya a ser capaz de lograr evidencia experimental alguna de nueva física, y eso constituiría sin duda un monumental fracaso. Existe en marcha por cierto un nuevo intento para encontrar discrepancias en el 'rate' de decaimiento del Higgs en muones...y si al final este experimento también cuadra con el modelo estándar estamos, con perdón, bastante jodidos: sería ya casi seguro que habríamos gastado más de 50.000 millones de euros en un cacharro que de poco habría servido en cuanto a su objetivo fundamental que fue siempre (desde plano) encontrar indicios experimentales de fenómenos que no cuadrasen con el modelo estándar...que es justo lo que no se está logrando tras casi 10 años de funcionamiento y cada vez con menos margen (puesto que los experimentos más prometedores hace bastante tiempo que ya se realizaron y no dieron resultado positivo).
En realidad es casi una vergüenza que vendan este tipo de resultados casi como un triunfo haciendo uso de un "maldito" marketing diseñado para "engañar" (o despistar como poco) a los legos en la materia y poder seguir de este modo chupando de la teta de la financiación pública.
Notas para quisquillosos:
  • Ciertamente el LHC ha descubierto el Higgs, pero este Higgs no deja de ser una constatación más del modelo estándar. Además, dado que ya se habían descubierto en la década de los 80 los bosones masivos W+- y Z era casi una certeza que el Higgs estaría ahí donde se encontró. Más revelador e importante habría sido no hallar al Higgs, que encontrarlo justo donde se encontró: en el sitio (nivel de energía) predicho por el modelo estándar.
  • Los avances en ingeniería han sido tremendos, pero eso no quita que físicamente el aporte experimental del proyecto está siendo muy deficiente, por no decir un completo fracaso. Tampoco parece que los avances en ingeniería requeridos para construir la monstruosidad del LHC vayan a tener aplicaciones prácticas para la masa civil (o que dichas aplicaciones, de existir, no pudiesen haber sido desarrolladas en otros proyectos mucho más viables y/o menos costosos).
  • El hecho de que el LHC no esté logrando a máxima potencia alcanzar resultados relevantes en su objetivo fundamental de encontrar indicios de nueva física supone un peligro evidente para el futuro desarrollo de mejoras en el LHC (como el planeado High Luminosity Large Hadron Collider) y más aún para el desarrollo de nuevos aceleradores de partículas más potentes (puesto que el coste en relación a la potencia requerida crece de manera no lineal). Precisamente como consecuencia de este peligro en la financiación surge ese descarado marketing con el que nos pretenden vender que todo va de lujo y que sigamos invirtiendo en el cacharrete de marras.

miércoles, 22 de agosto de 2018

¿Las matemáticas describen al mundo...o lo determinan?

"Para aquellos que no conocen las matemáticas, es difícil sentir la belleza, la profunda belleza de la naturaleza... Si quieres aprender sobre la naturaleza, apreciar la naturaleza, es necesario aprender el lenguaje en el que habla." (Richard Feynman)
Es comúnmente aceptada la idea de que las matemáticas simplemente son un instrumento creado por el hombre que se limita a describir el fenómeno del mundo y su comportamiento dinámico. Es decir, que el mundo tiene una existencia física autónoma e independiente, y que las matemáticas son una mera manera que el ser humano ha encontrado para facilitar el cálculo de los patrones ya presentes en esta realidad fenoménica independiente del hombre y de sus herramientas lingüísticas (entendiendo así a las matemáticas como un críptico lenguaje humano de baja ambigüedad y alto contenido relacional y lógico).
Sin embargo, normalmente esta forma de pensar es mantenida por personas que suelen ser legos en lo que respecta a los modelos físicos modernos (los acontecidos durante el siglo XX). Porque ciertamente la mecánica clásica parece encajar bastante bien en lo dicho en el párrafo anterior (una vez se acepta al espacio y el tiempo como un "escenario" absoluto e independiente en el que todo el fenómeno transcurre), pero hoy día sabemos que las cosas no son tan sencillas. La relatividad (especial) y la mecánica cuántica unidas han dado paso con las décadas a lo que se conoce como el modelo estándar de partículas. Y aquí la cosa cambia. El espacio-tiempo ahora es un "escenario" relativo donde se fuerza a que observadores en sistemas de referencia distintos midan para un evento distintas velocidades, distintas longitudes, distinto paso del tiempo, ¡e incluso distinto número y tipo de partículas!
En cuanto intervienen condiciones extremas de energía (velocidad, masa, etc.) un observador A puede, por ejemplo; decir que "ve" en cierta posición una cantidad n de partículas del tipo x moviéndose a tal velocidad v, mientras que B (que se mueve en relación a A y no pertenece al mismo sistema de referencia) dice que él "ve" m partículas de tipo y moviéndose a velocidad v'¡Y la cosa es que ambos tienen razón! ¿Pero cómo es esto posible? Pues es posible, en pocas palabras, porque eso es lo que las matemáticas determinan.
Es un hecho que la realidad permite este tipo de "incongruencias" con la única condición de que se "respeten" ciertos valores invariantes para todo observador. Es decir, que aunque A y B "ven" cosas (fenómenos) distintos, ambos estarán sin embargo siempre de acuerdo en el valor medido para ciertas variables matemáticas abstractas que aparecerán con el mismo valor matemático invariante para todos estos observadores.
En el caso más simple en que A y B miden para un evento distinta velocidad, longitud y transcurso del tiempo; el valor matemático que permanece invariante es bastante sencillo (sobre todo en el caso ideal de un espacio-tiempo plano sin observadores acelerando). Se trata de lo siguiente:
(1)
Grosso modo esto quiere decir que A y B pueden "ver" valores distintos para dx, dy, dz y dt; pero cuando A y B calculen el resultado de la ecuación (1) ambos obtendrán el mismo valor escalar (real); es decir, el mismo número.
Ciertamente la cosa ya no está tan clara como en el caso clásico. Ahora bien parece que no es que estemos describiendo con símbolos crípticos el modo natural físico en que de manera independiente funciona el mundo del fenómeno, sino que más bien parece lo contrario: que el mundo físico parece seguir unos dictados matemáticos cuya representación física natural depende de nuestra subjetiva interpretación neuronal. Es decir, que lo que entendemos por física bien podría ser un subproducto "ilusorio" de nuestro intelecto: yo "veo" esto, tú "ves" lo otro; pero siendo la esencia natural en realidad un conglomerado de dictados matemáticos inamovibles.
Con el caso del modelo estándar quizás la cosa quede aún más clara. Este exitoso modelo (experimentalmente de acuerdo con la teoría en hasta diez decimales de precisión) depende clamorosamente de una profusión matemática extraordinaria no apta para quien no tenga la voluntad de dedicar una década completa de su vida en entenderlo formalmente. Pero en pocas palabras podemos comentar que aquí también se depende de invariantes para que todo tenga sentido causal. Los observadores A y B (cuando se encuentran en sistemas inerciales diferentes) no se van a poner de acuerdo en cuanto al tipo o número de partículas que "ven", ni a su velocidad, longitud, tiempo, etc.; pero sí van a acordar en cuanto a la invarianza de lo que se viene a llamar la densidad Lagrangiana (en realidad la acción S, pero no vamos a profundizar tanto).
(2)
¿Y qué es esta densidad Lagrangiana? Pues es un resultado puramente matemático que tras décadas de investigación (mayormente por ensayo y error mediante constatación experimental) es capaz de dar cuenta de ese deseado valor invariante e independiente del observador y de cualquier otra circunstancia del sujeto que mida un hecho fenoménico. La densidad Lagrangiana determina matemáticamente lo que puede y no puede ocurrir en la dinámica de los campos cuánticos; y ya luego A y B "verán" cualquier cosa sin ponerse de acuerdo en nada más que en el valor invariante medido para este Lagrangiano: el cual en el fondo es un constructo lleno de restricciones puramente matemáticas que requieren de un uso (y abuso) descaradamente metafórico a la hora de interpretarse en sentido físico natural. Sin embargo, como venimos diciendo, una vez se entra en este modelo con detalle cada vez queda más claro que poco de físico hay en tanta descripción matemática, y que más bien parece que la esencia del mundo es precisamente esta misma matemática y que lo físico es algo que subjetivamente conforma nuestro cerebro de manera emergente.
Así pues este lagrangiano L del modelo estándar requiere ser invariante bajo transformaciones de Lorentz [algo "similar" a (1)] y también bajo simetrías gauge (un concepto matemático muy abstracto -y sin connotaciones físicas- que es necesario precisamente para que L sea invariante para todos sin importar nuestro estado de movimiento). Esta L además debe ser consistente con el resto de datos experimentales, por lo que se ha ajustado durante muchos años ad hoc hasta que ha sido capaz de amoldarse a las cargas, masas, spin, tipos de partículas, tiempos de vida, y demás parámetros medidos en el laboratorio. Sea como fuere, para aquellos curiosos, os pongo el resultado final de esta ecuación capaz de dar cuenta de (casi) todo el fenómeno en el mundo de partículas. El lagrangiano L del modelo estandar es igual a:
Asusta, ¿verdad? Ya dije que hace falta como poco una década para llegar a entenderlo en profundidad ;). De todas formas no es necesario entender esta mega-ecuación para lo que venimos tratando aquí. La cosa es que por mucho que muchos intenten interpretar este "chorizo" con el hecho de que físicamente de la nada salen y entran una infinidad (literalmente) de partículas que de manera totalmente aleatoria (probabilista) aparecen, desaparecen, decaen y se transforman; me parece que lo más acertado es interpretar la cosa justo al contrario: quizás de la nada no salga nada (por muy "cuántica" que sea), e incluso es posible que no exista eso que llamamos realidad física "independiente". Posiblemente eso que nosotros, humanos, "vemos" como el mundo físico no sea más que una representación subjetiva ilusoria: un proceso puramente emergente.
Y si este fuera el caso, lo real no sería ya lo físico y la matemática el modo en que nuestro cerebro de mono venido a más comunica al vecino de manera no ambigua el modo de predecir este fenómeno físico independiente; sino que sería más bien nuestro cerebrito el encargado de generar y hacer emerger ante nuestra conciencia una realidad física y fenoménica totalmente simulada, siendo la verdadera esencia en realidad esa matemática que determinaría la densidad de probabilidad para el patrón fenoménico que acontece. En este sentido sería la evolución la encargada de moldear en el tiempo "seres" capaces de asimilar y moldear estos patrones matemáticos en una especie de "mundo interior" (física simulada), hasta llegar al caso extremo del ser humano cuya capacidad intelectual le hace capaz incluso de describir la propia esencia matemática de la que la evolución se sirvió para darle forma...pero que confunde (¿de momento?) su "mundo interior físico" como lo esencial y su matemática como una herramienta lingüística, cuando la situación más bien parece ser justo la contraria: que nuestra matemática parece describir (aproximar de momento) la esencia de la realidad mientras que la física no es más que una herramienta evolutiva.
Notas para quisquillosos:
Nota 1. Cuando hablamos de que nuestra matemática es la esencia del mundo, no queremos decir que los símbolos matemáticos concretos que usamos tengan un valor especial. El hecho, por ejemplo, de pintar la integral como una S alargada tiene una explicación contingente histórica para nada esencial: lo esencial es lo que el concepto de integral representa (sin importar el símbolo utilizado).
Nota 2. Es evidente que el modelo estándar tiene carencias y no es esa deseada teoría del todo. Pero lo que se ha pretendido explicar aquí va más allá de ningún modelo concreto. Es más, todo lo dicho aquí se debería aplicar al modelo que finalmente sea capaz de dar cuenta de todo (lleguemos como humanos a descubrirlo o no). Es decir, que lo que se postula aquí no es que el modelo estándar en concreto sea la esencia de nuestra realidad, sino que la esencia de nuestra realidad es puramente matemática (a pesar de que todavía no tengamos en nuestras manos las ecuaciones "definitivas").

viernes, 17 de agosto de 2018

LeelaFish: cómo usar una red neuronal para sustituir la mejor función de evaluación de ajedrez hecha a mano por programadores

LeelaFish

UCI chess playing engine derived from Stockfish and LeelaChess Zero: https://github.com/LeelaChessZerohttps://github.com/official-stockfish/Stockfish

Introduction

This is a chess engine based in the Stockfish tree search but where we use the LCZero value head as evaluation function. So in this project we are just using the Stockfish code but replacing the human developed evaluation function for the neural network value head of the LeelaChess Zero project.
This is a kind of experiment in which we try to figure out if the results are good even without the use of the MCTS LCZero does.

Results

Results are very promising and in a 1:1 ratio (when the number of nodes used by the original Stockfish or LCZero are forced to be equal to the number of nodes used by LeelaFish) our development is able to beat both SF and LCZero. We used for these tests the LCZero network tesnet 10510.
One thing is clear: the value head of the network is as good as the original manually programmed evaluation function of SF.

Future work

  • It would be great to test depthly the performance of LeelaFish and the optimal ratio in which it's able to perform as good or better than SF and/or LCZero.
  • It would be a good idea to use instead of LCZero the more recent lc0 source code of the LeelaZero project.
  • Right now the project has been compiled and tested only in Windows machines (using Visual Studio 2017). It should be changed the make files in order to run the project in Linux systems.

Licence

LeelaFish Copyright (C) 2018 Samuel Graván and contributors. Based on: Leela Chess Copyright (C) 2017 benediamond Leela Zero Copyright (C) 2017-2018 Gian-Carlo Pascutto and contributors Stockfish Copyright (C) 2017 Tord Romstad, Marco Costalba, Joona Kiiski, Gary Linscott
LeelaFish is free software: you can redistribute it and/or modify it under the terms of the GNU General Public License as published by the Free Software Foundation, either version 3 of the License, or (at your option) any later version.
Leela Chess is distributed in the hope that it will be useful, but WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License for more details.
You should have received a copy of the GNU General Public License along with Leela Chess. If not, see http://www.gnu.org/licenses/.