domingo, 15 de julio de 2018

Sobre el futuro acelerador de partículas: High Luminosity LHC (HL-LHC)


El pasado 15 de junio se puso la primera piedra de lo que será el "nuevo" acelerador de partículas del CERN: naukas.com/2018/07/13/la-primera-piedra-del-futuro-del-lhc/
Os resumo el asunto con pocas palabras: "como no es posible construir a precio razonable un acelerador que colisione con una energía mayor a los 14 TeV del LHC (la relatividad se encarga de ello), vamos a modificar el LHC para que colisionen más partículas por unidad de tiempo (luminosidad) a esta misma energía de 14 TeV".


El hecho es que cada colisión individual en el LHC supone un "lanzamiento de dados" cuántico donde dos partículas chocan y se convierten en partículas distintas (cada una con cierta energía cinética). Pero ese "lanzamiento de dados" no es en absoluto aleatorio, sino que está sujeto a la conservación de varias cantidades (la energía inicial y final deben ser igual, la cantidad de momento lineal y angular también, la cantidad de carga eléctrica también, etc.) y también depende de la dinámica descrita por el modelo estándar. Si, por ejemplo, en el momento del choque tenemos dos partículas con cierta energía cinética y cierta energía en forma de masa en reposo, como resultado del choque se pueden producir n partículas, pero siempre y cuando sus energías y momentos (y carga eléctrica, etc.) sumen la misma cantidad que poseían las dos partículas iniciales. El "lanzamiento del dado" supone en realidad que la Naturaleza va a "elegir" de manera aleatoria por entre esa distribución de probabilidad que constituyen los procesos que cumplen esas restricciones de simetría.
Para aclarar: si chocan dos partículas de energía total X; la probabilidad de que se "transformen" en n partículas que sumen una energía total != X es igual a 0. Ya luego, de entre todos los procesos que están permitidos por las leyes de conservación (en este ejemplo, de entre todos los procesos que acaban con n partículas que suman una energía total X), la naturaleza "conforma" una distribución de probabilidad que depende de muchos factores enmarcados dentro del modelo estándar de partículas (y que se simbolizan visualmente en los diagramas de Feynman). Es decir, que todo lo que está permitido (todo lo que cumple las leyes de conservación) puede ocurrir, pero existen unas normas "matemáticas" que dictan qué es más probable que ocurra de entre todo lo posible.
Ahora bien, en el LHC hay 14 TeV de energía disponible, y eso abre un gran abanico de posibilidades de "ver" aparecer partículas con gran masa que sería casi imposible de ver con energías menores. Cuanto más masiva es una partícula, por ejemplo, más energía es necesaria para que todas las leyes de la conservación se ajusten al mismo tiempo que aparece en la realidad esa partícula de gran masa. El bosón de Higgs, por ejemplo, se ha descubierto que posee una masa aproximada de 125 GeV. Es decir, que en principio con un acelerador de colisiones de, pongamos, 200 GeV habría sido en teoría posible descubrir el Higgs...pero la probabilidad era muy baja. Se habría requerido la enorme suerte de que de entre la casi infinidad de alternativas posibles, la naturaleza eligiese transformar los 200 GeV en un bosón de Higgs con una energía cinética de exactamente 75 GeV (este ejemplo no es para nada formalmente exacto pero es un símil para dar una idea)...pero hay tantas cosas que se pueden hacer con esos 200 GeV que el hecho de transformar casi toda la energía en 1 sóla partícula con unas propiedades de movimiento tan concretas era casi nula. 
¿La solución? Colisionar a mucha más energía (14 TeV, por ejemplo) de modo que la naturaleza tenga más energía con la que "jugar" de modo que pueda crear n partículas distintas una de las cuales fuese un Higgs. 
Pero hay un problema. A parte del Higgs, el LHC no ha descubierto ninguna otra nueva partícula a energía cercanas (cosa fundamental para la teoría más prometedora capaz de llevar más allá del modelo estándar: la supersimetría). La supersimetría (y cualquier otra teoría que pretenda completar el modelo estándar) necesita del descubrimiento de nuevas partículas, pero ya a estas alturas parece claro que el LHC no posee las características necesarias para que la probabilidad de descubrir algo "nuevo" sea lo suficientemente alta para no tener que estar más de 1000 años experimentando hasta que "algo" nuevo pase por casualidad.
¿Solución? Lo mejor sería construir un acelerador que colsionase a energías de pongamos 100 TeV o todavía más. Pero ya los hadrones del LHC van a una velocidad muy cercana a la de la luz 0.99997 aprox., y llegar a 100 TeV podría suponer acelerar las partículas a algo así como 0.9999997 (un orden o dos de magnitud más -las cifras que doy son aproximaciones-). Sin embargo, la relatividad especial implica que conforme un objeto acelera, cada vez cuesta más trabajo (energía) acelerarlo. De modo que llegar a 100 TeV supondría un coste de recursos (dinero y tiempo) que escapa a cualquier intento serio (ni siquiera internacional). De modo que se ha optado por otra alternativa: en vez de aumentar la energía de colisión...vamos a aumentar la tasa de colisiones. A más colisiones, más probable es "ver" algo improbable.
¿Tendrá éxito el HL-LHC? Pues depende de cuán improbable sea "ver" algo más allá del modelo estándar dentro del rango de energías de los 14 TeV. Por ejemplo, en el supuesto caso de que la partícula supersimétrica menos masiva estuviese rondando 1 TeV (por poner un ejemplo), el HL-LHC posiblemente no sería capaz de detectar un evento fortuito que dé lugar a tal partícula partiendo de los 14 TeV ni en mil años de experimentos. Es decir, que el HL-LHC sólo tendrá éxito si la nueva física no se encuentra muy lejos de los 500 GeV (siempre datos aproximados). En caso contrario serán unos cuantos miles de millones de euros tirados a la basura (junto con el trabajo de una generación completa de físicos experimentales e ingenieros). El tiempo lo dirá...con suerte alrededor del 2025.

Pero, ¿por qué es tan complicado mejorar la energía de colisión del actual LHC?

No es una pregunta tan fácil de responder como puede parecer. Grosso modo se puede decir que la "culpa" la tiene el modo en que se relaciona en relatividad la masa aparente de una partícula que varía en el tiempo según sea su velocidad:

1) Por una parte tenemos que M = γ*m (M = masa aparente de la partícula en movimiento, m = masa en reposo de la partícula), y el factor de Lorentz es γ = 1 / (1 - (|v|^2 / c^2))^1/2

Cuando un objeto (una partícula por ejemplo) va despacio, v << c y el factor γ~1 por lo que masa aparente y masa en reposo son casi iguales. Pero conforme la partícula se va acercando a la velocidad de la luz c, el factor γ tiende a infinito (alcanzandolo si v = c, cosa prohibida físicamente). Es decir, que a mayor velocidad mayor γ y por lo tanto mayor masa aparente M para la partícula.

2) Y por otra parte tenemos la siguiente consecuencia de que la masa M no sea constante sobre la variación del momento lineal en el tiempo (fuerza):
- Si la masa M != constante, entonces no podemos sacarla de la derivada como hizo Newton: F = M·dv/dt = M·a (Newton)
- Lo que debemos hacer en realidad es derivar la masa como algo dependiente del tiempo de manera que: F = dp/dt = (dM/dt)·v + M·(dv/dt) = (dM/dt)·v + M·a

3) Así pues vemos ahora que la fuerza aplicada (la energía invertida en realizar trabajo) sobre una partícula masiva se emplea en dos cosas:

- Modificar en el tiempo la velocidad de la partícula (término clásico newtoniano)
- Modificar en el tiempo la masa aparente de la partícula (nuevo término aparecido arriba por "culpa" de γ)

Conclusión) A velocidades bajas γ~1, y por tanto la masa aparente M apenas cambia en el tiempo (dM/dt~0) por lo que casi toda la energía aplicada se emplea en acelerar a la partícula (cambiar su velocidad en el tiempo); sin embargo, conforme la velocidad v crece y se acerca a c el cambio de masa aparente M en el tiempo tiende a infinito dM/dt->∞ por lo que ahora el primer término de la ecuación anterior domina. Si se añade en este caso más energía al estado de la partícula casi toda ella irá a parar en aumentar su masa (y muy poco en aumentar su aceleración).

Es decir, que conforme nos acercamos a c, invertir más y más energía en el haz de partículas dentro de un acelerador supone hacer a las partículas más masivas en el tiempo, pero no supone que vayan a ir mucho más rápidas. Hacer, por ejemplo, que las partículas vayan de 0 m/s a 0.2·c m/s es algo muy fácil de conseguir; pero sin embargo conseguir que pasen de 0.99997·c a 0.999997·c requiere de un aumento energético enorme (y para nada lineal). 

Y como la energía de colisión va en relación directa con la energía cinética de las partículas que chocan, es necesario aumentar cada vez más la velocidad de las partículas. Y el problema es que en el LHC hemos llegado ya a un punto en que la velocidad es tan cercana a la de la luz que mejorar esos 14 TeV supone un aumento tal del tamaño y la capacidad de las instalaciones que sencillamente no hay manera de pasar de ahí a un precio razonable, ni siquiera mediante una cooperación internacional.

Los 14 TeV de LHC bien podrían constituir un límite práctico (de recursos monetarios y de tiempo) para la experimentación en física de partículas. Es una certeza que todos los que leemos estas líneas jamás veremos nada mejor que el LHC (en cuanto a energía de colisión), y es incluso posible que pasen muchas (muchas) generaciones antes de que se llegue a hacer algo mejor (si es que tal día llega).