domingo, 18 de noviembre de 2018

Rendimientos decrecientes en el campo de la ciencia (estancamiento científico)

Hoy nos hemos levantados con un interesantísimo artículo del científico e investigador Michael Nielsen, donde nos describe de una manera clara y amena un hecho sabido pero poco reconocido que dice que la ciencia (en especial la física) muestra actualmente la apariencia de ofrecer un rendimiento decreciente bastante evidente, a pesar de que tal hecho intente ser tapado por muchos profesionales debido posiblemente a que de los fondos público vive el científico, y también ellos tienen familias que mantener. Así pues normalmente se niega la mayor y se tacha de pesimista al que divulga una noticia que por otra parte tiene un soporte empírico muy claro que incluso muchos investigadores de primer nivel respaldan (aunque sea con la boca pequeña, por ejemplo la física Sabine Hossenfelder, entre muchos).
Pero bueno, el artículo de Nielsen en cuestión en su versión original (disponible para todos aquellos que hablen la lengua de Theresa May -por lo visto la expresión para los que hablen la lengua de Shakespeare es poco precisa y suena pedante :P-) es el siguiente.
Por mi parte voy a continuación a hacer una libre (y parcial) traducción de este trabajo para aquellos que no quieran (o no puedan) leer el artículo en su versión íntegra. Quede claro que todo lo que viene a continuación es una traducción libre y personal del original [y que cualquier cosa que veas entre corchetes serán comentarios o añadidos personales míos].

¿Qué son los rendimientos decrecientes y por qué suponen un problema?

[No cabe duda de que] [...] la ciencia y la tecnología son la base del avance del bienestar humano y del progreso a largo plazo de nuestra economía. Esto se ha visto reflejado durante décadas en un extraordinario crecimiento de la inversión pública en ciencia. Hoy en día, hay más científicos, más fondos para la ciencia y más artículos científicos publicados que nunca antes:
Y esto es alentador. Pero a pesar de todo este aumento en el esfuerzo, ¿estamos obteniendo un aumento proporcional en nuestra comprensión científica? ¿O estamos invirtiendo mucho más simplemente para sostener (o incluso ver una disminución en) la tasa de progreso científico?
[...]Es sorprendentemente difícil medir el progreso científico de manera significativa. [Y] Parte del problema es que es muy difícil evaluar con precisión cuán importante es cualquier descubrimiento científico dado.[...] Así pues, con esto en mente, hicimos una encuesta en la que pedimos a los científicos que comparasen los descubrimientos ganadores del Premio Nobel en sus campos. Luego utilizamos esas clasificaciones para determinar cómo creen los científicos que la calidad de los descubrimientos ganadores del Premio Nobel ha cambiado a lo largo de las décadas.
Para el premio de física, encuestamos a 93 físicos de los mejores departamentos de física del mundo (según el "Ranking de Universidades del Mundo" de Shanghai), que juzgaron 1.370 papers con descubrimientos. Las barras en la siguiente figura muestran los puntajes de cada década. El puntaje de una década es la probabilidad de que un descubrimiento de esa década se considere por un encuestado más importante que los descubrimientos de otras décadas. Tenga en cuenta que el trabajo se atribuye al año en que se realizó el descubrimiento, y no a cuando se otorgó posteriormente el premio.
La primera década tiene un mal desempeño. En esa década, el Comité del Nobel aún estaba pensando exactamente para qué era el premio. Hubo, por ejemplo, un premio por una mejor manera de iluminar los faros y las boyas en el mar. Es una buena noticia si estás en un barco, pero puntuó mal para los físicos modernos encuestados. Pero en la década de 1910, los premios fueron otorgados principalmente por cosas que concuerdan con la concepción moderna de la física.
Siguió una edad de oro de la física, desde la década de 1910 hasta la década de 1930. Este fue el momento de la invención de la mecánica cuántica, uno de los mayores descubrimientos científicos de todos los tiempos, un descubrimiento que cambió radicalmente nuestra comprensión de la realidad. También vio varias otras revoluciones: la invención de la cristalografía de rayos X, que nos permite sondear el mundo atómico; el descubrimiento del neutrón y de la antimateria; y el descubrimiento de muchos hechos fundamentales sobre la radiactividad y las fuerzas nucleares. Fue uno de los grandes periodos de la historia de la ciencia.
Después de ese período, hubo una disminución sustancial, con un renacimiento parcial en la década de 1960. Esto se debió a dos descubrimientos: la radiación de fondo cósmico de microondas y el modelo estándar de física de partículas, nuestra mejor teoría de las partículas fundamentales y las fuerzas que componen el universo. Incluso con esos descubrimientos, los físicos juzgaron cada década desde la década de 1940 hasta la década de 1980 como peor que la década de 1910 a 1930. Los mejores descubrimientos en física, según lo juzgan los propios físicos, se han ido volvieron con el tiempo cada vez menos importantes.
Nuestra gráfica se detiene a finales de los años ochenta. ¡Y la razón es que en los últimos años, el Comité Nobel ha preferido otorgar premios por el trabajo realizado en los años 70 y 80! De hecho, solo tres descubrimientos realizados desde 1990 han recibido premios Nobel [...]. Esta escasez de premios desde 1990 es en sí [muy, muy] sugerente. Las décadas de 1990 y 2000 tienen la dudosa distinción de ser las primeras décadas que el Comité del Nobel ha preferido saltarse [no han tenido más remedio ante el poco rendimiento obtenido por los científicos en estos años], otorgando en su lugar premios por trabajos anteriores [a los 90]. Y dado que los años 70 y 80 en sí tampoco fueron gran cosa [en relación a épocas anteriores], esto bien parece ser una [muy] mala noticia para la física [es decir, parece ser un claro ejemplo de lo que se conoce como distribución de rendimientos decrecientes: donde con cada vez más inversión y recursos sólo puedes obtener cada vez una menor rentabilidad].
[Pero] Incluso si a la física no le va tan bien, ¿quizás otros campos lo están haciendo mejor? Realizamos encuestas similares para el Premio Nobel de química y el Premio Nobel de fisiología o medicina [pero se ha visto que tampoco les va bien a estos campos científicos y que también presentan rasgos de rendimientos decrecientes: tenéis la gráfica y más detalles de los resultados en el artículo original].
[...] Una persona crítica podría responder que la calidad de los descubrimientos del Premio Nobel no es la misma que la tasa general de progreso en la ciencia. Ciertamente hay muchas limitaciones en esta medida. Hay por ejemplo partes de la ciencia que no están cubiertas por los Premios Nobel, especialmente las áreas más nuevas como la informática. Y el Comité Nobel ocasionalmente se pierde así un trabajo importante. Quizás podría también ocurrir que un sesgo psicológico haga que los científicos encuestados sean más propensos a venerar los premios más antiguos. Y quizás lo que más importa es la mayor parte del trabajo científico, es decir; los descubrimientos ordinarios que conforman la mayor parte de la ciencia.
Y ciertamente reconocemos estas limitaciones, y que aunque los resultados de la encuesta son sorprendentes (y apabullantemente claros), es cierto que sólo proporcionan una imagen parcial. Sin embargo, pronto veremos que existen otro tipos de evidencias independientes que sugieren que se está haciendo mucho más difícil hacer descubrimientos importantes en todos los ámbitos. Que se requiere cada vez de equipos más grandes y una preparación científica mucho más extensa, y que el impacto económico [tecnológico] en general se está reduciendo. Tomados en conjunto, estos resultados sugieren fuertes rendimientos decrecientes de nuestros esfuerzos científicos.
Cuando informamos a nuestros colegas científicos de estos rendimientos decrecientes, a veces nos dicen que esto no tiene sentido, e insisten en que la ciencia está pasando por una edad de oro. Señalan sorprendentes descubrimientos recientes, como la partícula de Higgs y las ondas gravitacionales, como evidencia de que la ciencia está en mejor forma que nunca.
Estos son, de hecho, descubrimientos asombrosos. Pero las generaciones anteriores también hicieron descubrimientos que fueron mucho más notables. Compare, por ejemplo, el descubrimiento de las ondas gravitacionales con el descubrimiento de Einstein en 1915 de su teoría general de la relatividad. La relatividad general no solo predijo las ondas gravitacionales, sino que también cambió radicalmente nuestra comprensión del espacio, el tiempo, la masa, la energía y la gravedad. El descubrimiento de las ondas gravitacionales, aunque enormemente impresionante desde el punto de vista técnico, hizo mucho menos para cambiar nuestra comprensión del universo [en realidad de momento no ha hecho nada a parte de confirmar una vez más la relatividad general, la cual data como vemos de 1915].
Y aunque el descubrimiento de la partícula de Higgs es notable, palidece al lado del panteón de partículas descubiertas en la década de 1930, incluido el neutrón, uno de los principales constituyentes de nuestro mundo cotidiano, y el positrón, también conocido como el antielectrón. El mundo de la antimateria, los quarks, etc. En cierto sentido, el descubrimiento de la partícula de Higgs es notable porque es como una especie de retorno a un estado de cosas común en la primera mitad del siglo 20, pero que es muy raro en las últimas décadas [el Higgs, además es, como el caso de las ondas gravitacionales, un mero soporte experimental -muy complejo y caro, eso sí- de una teoría que proviene nada menos que de la década de los 70. Es decir, que no ha supuesto realmente un aporte nuevo para la física teórica en ningún sentido].
[...] Considérese el progreso de la física entre 1924 y 1928. Durante ese tiempo, los físicos aprendieron que los constituyentes fundamentales de la materia tienen una naturaleza de partícula y de onda; formularon las leyes de la mecánica cuántica, llevando al principio de incertidumbre de Heisenberg; predijeron la existencia de antimateria; y muchas otras cosas además. Como dijo uno de los principales protagonistas, Paul Dirac, fue un momento en el que "incluso los físicos de segunda categoría podrían hacer descubrimientos de primera categoría" [todo era sencillo y barato, y se producían avances cada año: es decir, el rendimiento en esos momentos era muy alto].

¿Por qué la ciencia se ha vuelto mucho más cara, sin producir ganancias proporcionales en nuestra comprensión del mundo?

Un trabajo realizado por los economistas Benjamin Jones y Bruce Weinberg sugieren una respuesta parcial a esta pregunta. Han estudiado cómo los viejos científicos hacían sus grandes descubrimientos. Descubrieron que en los primeros días del Premio Nobel, los ganadores del Nobel tenían de media 37 años de edad. sin embargo con los años eso ha ido aumentado a un promedio de 47 años, un crecimiento de alrededor de una cuarta parte de la carrera laboral total de un científico.
Los científicos de hoy necesitan saber mucho más para hacer descubrimientos importantes. Como resultado, necesitan estudiar más tiempo y, por lo tanto, son mayores, antes de poder realizar su trabajo más importante. Es decir, los grandes descubrimientos son cada vez más difíciles de hacer. Y si son más difíciles de hacer, eso sugiere que habrá menos o que requerirán mucho más esfuerzo [conforme el tiempo siga transcurriendo].
De manera similar, las colaboraciones científicas ahora a menudo involucran a muchas más personas que hace un siglo. Cuando Ernest Rutherford descubrió el núcleo del átomo en 1911, lo publicó en un artículo con un solo autor: ¡él mismo! En contraste, los dos documentos de 2012 que anunciaron el descubrimiento de la partícula de Higgs tenían aproximadamente ¡mil autores cada uno! [e incluso así muchos quedaron injustamente fuera de mención] En promedio, los equipos de investigación casi cuadruplicaron su tamaño a lo largo del siglo XX, y ese aumento continúa hoy. Para progresar [un poco] en muchos campos de investigaciones actuales se requieren de muchas más habilidades que antes, de recursos costosos [normalmente millonarios o multimillonarios] y de un gran equipo de investigadores [y a pesar de toda esta inversión creciente, como vemos los resultados son cada vez peores].
Si de verdad hacer ciencia [rentable y útil] se está volviendo más difícil, ¿por qué es así?
Supongamos que pensamos que la ciencia, la exploración de la naturaleza, es similar a la exploración de un nuevo continente. En los primeros días, poco se sabe. Los exploradores exponen y descubren nuevas características importantes con facilidad. Pero poco a poco van completando el conocimiento del nuevo continente. Para hacer descubrimientos significativos, los exploradores deben ir a áreas cada vez más remotas, en condiciones cada vez más difíciles. La exploración se hace más difícil. Desde este punto de vista, la ciencia es una frontera limitada, que requiere cada vez más esfuerzo para "completar el mapa". Un día, el mapa estará casi completo y la ciencia se agotará en gran medida. Desde este punto de vista, cualquier aumento en la dificultad de descubrimiento es intrínseco a la estructura del conocimiento científico en sí mismo.
[Es decir, que el rendimiento obteniendo va decreciendo en el tiempo a pesar de mantenerse e incluso aumentarse los recursos invertidos. De hecho, este rendimiento supone que es necesario un aumento exponencial en los costes para avanzar cada vez menos lo cual supone que más pronto que tarde llegaremos a un estancamiento práctico -económico- en el avance científico en general. Siendo un claro ejemplo el hecho de que el LHC apenas aportó ningún avance teórico -repito, teórico- aún siendo el experimento más caro de la historia de la humanidad].

Si la ciencia está sufriendo rendimientos decrecientes, ¿qué significa eso para nuestro futuro a largo plazo? ¿Habrá menos ideas científicas nuevas para inspirar nuevas tecnologías de la clase que han modificado tanto nuestro mundo durante el siglo pasado?

De hecho, los economistas ven evidencia de que esto está sucediendo, en lo que llaman la desaceleración de la productividad.
Cuando hablan de la desaceleración de la productividad, los economistas están utilizando la "productividad" de una manera especializada, aunque cercana al significado cotidiano: en términos generales, la productividad de un trabajador es el ingenio con el que se hacen las cosas. Por eso, la productividad crece cuando desarrollamos tecnologías y hacemos descubrimientos que facilitan la creación de cosas.
Por ejemplo, en 1909, el químico alemán Fritz Haber descubrió la fijación de nitrógeno, una forma de extraer el nitrógeno del aire y convertirlo en amoníaco. Ese amoníaco podría entonces, a su vez, ser usado para hacer fertilizante. Esos fertilizantes permitieron que la misma cantidad de trabajadores produjeran muchos más alimentos, y así aumentó la productividad.
El crecimiento de la productividad es un signo de una sociedad económicamente saludable, una que produce continuamente ideas que mejoran su capacidad de generar riqueza. La mala noticia es que el crecimiento de la productividad en Estados Unidos ¡está bajando! ¡Ha estado cayendo desde la década de 1950, cuando era aproximadamente seis veces más alta que la de hoy! ¡Eso significa que los avances que hoy vemos en una década ocurrían cada 18 meses en la década de 1950!
Eso puede sonar sorprendente. ¿No hemos visto muchos inventos en las últimas décadas? ¿No es hoy una edad de oro para acelerar el cambio tecnológico?
No es así, argumentan los economistas Tyler Cowen y Robert Gordon. En sus libros "The Great Stagnation" y "The Rise and Fall of American Growth", señalan que la primera parte del siglo XX fue testigo del despliegue a gran escala de muchas tecnologías poderosas de propósito general: la electricidad, el motor de combustión interna, la radio, teléfonos, viajes aéreos, la línea de ensamblaje, fertilizantes y mucho más.
En contraste, reúnen datos económicos que sugieren que las cosas no han cambiado tanto desde la década de 1970. Sí, hemos tenido avances asociados a dos tecnologías poderosas de propósito general: la computadora e Internet. Pero muchas otras tecnologías han mejorado solo de manera incremental [es decir, que son meras mejoras -en ocasiones muy marginales- de tecnologías ya existentes].
Piense, por ejemplo, en la forma en que los automóviles, los viajes aéreos y el programa espacial transformaron nuestra sociedad entre 1910 y 1970 ampliando la experiencia de las personas en el mundo. Para 1970, estas formas de viaje habían llegado a algo cercano a su forma moderna; y proyectos ambiciosos como el Concorde y el Programa Apollo no lograron expandir aún más el transporte [...] el progreso reciente en el transporte ha sido sin embargo incremental [marginal] en comparación con el gran progreso de las primeras décadas del pasado siglo XX.

¿Qué está causando la desaceleración de la productividad?

El tema es controvertido entre los economistas, y se han propuesto muchas respuestas diferentes. Algunos han argumentado que es simplemente que las medidas de productividad existentes no hacen un buen trabajo midiendo el impacto de las nuevas tecnologías. Nuestro argumento aquí sugiere una explicación diferente: que son los rendimientos decrecientes en la ciencia [un proceso que sería natural e inevitable] los que están contribuyendo en realidad a una verdadera desaceleración de la productividad [en resumen: que la ciencia no aporta con nueva tecnología útil al ritmo adecuado].
Y no somos los primeros en sugerir que el descubrimiento científico está mostrando rendimientos decrecientes. En 1971, el distinguido biólogo Bentley Glass escribió un artículo en Science argumentando que los días de gloria de la ciencia habían terminado, y que ya se habían hecho los descubrimientos más importantes:
"Es difícil de creer pero se ve complicado que lleguen a volver a ocurrir descubrimientos tan asombrosos como la propuesta de Darwin sobre la evolución de la vida o la comprensión de Mendel de la naturaleza de la herencia. Después de todo, ¡estos hechos ya han sido descubiertos!"
En su libro de 1996 "The End of Science", el escritor científico John Horgan entrevistó a muchos científicos destacados y les preguntó sobre las perspectivas de progreso en sus propios campos. Lo que encontró no fue alentador. Aquí, por ejemplo, está Leo Kadanoff, un destacado físico teórico, sobre el progreso reciente en la ciencia:
"La verdad es que no hay nada nuevo a la vista. No se espera nada del mismo orden de magnitud que los logros de la invención de la mecánica cuántica, de la doble hélice de ADN, o de la relatividad. Nada de eso ha sucedido en las últimas décadas ni se espera nada similar."
Horgan le preguntó a Kadanoff si ese estado de cosas era permanente. Kadanoff se quedó en silencio, antes de suspirar y responder: "Una vez que ya has probado gran parte de las leyes naturales a las que el mundo es conforme, no puedes volver a hacerlo [las novedades dispuestas a ser descubiertas se agotan]".
Pero aunque muchas personas han expresado su preocupación por la disminución de los retornos en la ciencia, ha habido poca respuesta institucional. [...] Quizás esta falta de respuesta es en parte porque algunos científicos creen que reconocer los rendimientos decrecientes es algo así como traicionar el interés personal colectivo de todos los científicos. Al contrario, la mayoría de los científicos están a favor de una mayor financiación en la investigación [los científicos son personas, y como tal necesitan comer, siendo en este sentido el dinero público el recurso más sencillo y apetitoso]. Les gusta representar la ciencia de manera positiva, enfatizando los beneficios y minimizando lo negativo. Si bien es comprensible, la evidencia es que la ciencia se ha ralentizado enormemente por unidad de dólar invertido. Esta evidencia exige una respuesta institucional a gran escala [hay muchas cosas que hacer con el dinero público a parte de malgastarlo en derroches que en el mejor caso lleven a mejoras tecnológicas incrementales y marginales]. Debe [debería] ser un tema importante en la política pública, y en las agencias de becas en las universidades. Comprender mejor la causa de este fenómeno es importante [aunque lo primero es reconocer el propio problema], e identificar formas de revertirlo [si es que es posible] es una de las mejores oportunidades para mejorar nuestro futuro.

jueves, 15 de noviembre de 2018

Le energía de fusión que (probablemente) nunca llegará

Hoy hemos visto en portada dos artículos relacionados con la experimentación en reactores de fusión: qvhumanitas.com/los-poderosos-destellos-del-sol-artificial-chino/, y www.iter.org/newsline/-/3169.
Y la cuestión es que, aunque nadie lo diga, no hay ninguna garantía teórica que confirme que sea posible que algún día un reactor de fusión pueda ser rentable energéticamente: es decir, que pueda ofrecer energía restante una vez descontada la que consume para funcionar. Así que todas esas tradicionales afirmaciones del tipo de "habrá que esperar aún 30 años" (afirmaciones que por cierto se llevan haciendo desde hace ya más de 70 años sin que jamás se cumplan) son: o bien puro marketing por parte del científico que busca más financiación pública, o simplemente pura ignorancia del periodista que escribe lo que otros le dicen sin tener ni idea.
Vamos a intentar explicar para el profano (de manera clara, pero aproximada y no rigurosa) qué es la fusión y por qué es tan complicado que algún día llegue a ser rentable.

La fusión nuclear.

Un átomo es básicamente un conjunto de electrones "orbitando" un denso núcleo central. Este núcleo del átomo está a su vez formado por un conjunto de protones y neutrones. Y en esencia todos los elementos de la tabla periódica son esta misma cosa, variando únicamente el número de protones y neutrones que contiene su núcleo.
Pues bien, el proceso de fusión (entendido en su sentido físico más usual), supone el hecho de que, dadas ciertas condiciones, es posible que dos núcleos atómicos lleguen a fusionarse (unirse o mezclarse) produciéndose en el proceso la transformación de un tipo de átomo en otro (al modificarse el número total de elementos en el núcleo, que como vimos es lo único que diferencia a los distintos elementos). Sin embargo esta fusión nuclear requiere de un aporte de energía (de un "empujón" de los núcleos a fusionar) ya que se debe superar un potencial natural que intenta evitar precisamente esta unión. Por lo tanto la fusión "fría" es un proceso que no se da naturalmente.

La fusión en las estrellas.

Pero en las estrellas la cosa cambia, puesto que en ellas ocurre que se dispone de un gigantesco potencial gravitatorio (siempre atractivo) dispuesto de manera natural. Este potencial supone la existencia espontánea de una fuerza proporcional a la cantidad de masa que "empuja y aplasta" centralmente los elementos presentes, de modo que en el centro de la estrella (donde la temperatura es mucho mayor) los electrones que "orbitan" los átomos adquieren sin problemas la energía necesaria como para abandonar su "ligamiento" con el núcleo, de modo que lo que resta son núcleos atómicos "sueltos" sin electrones fijos a su alrededor. A ese estado de la materia se lo conoce como plasma.
Pues bien, este plasma está tan caliente, y el potencial gravitatorio de la masa total de la estrella prensa con tanta fuerza los núcleos entre sí, que finalmente se activa de manera autónoma un proceso de fusión nuclear. Sencillamente decimos en este sentido que la energía necesaria para superar la "repulsión" natural a la fusión la ofrece de manera natural la gravedad de la propia estrella, siendo por lo tanto el colosal potencial gravitatorio el que permite los procesos de fusión en los cuerpos celestes ultra masivos.

Energía y fusión.

Cuando en una estrella dos núcleos se fusionan, el resultado final es la "desaparición" de los dos núcleos iniciales y la "aparición" de un núcleo final el cual contiene (ligado) la suma de protones y neutrones de los núcleos originales. Pero además el proceso libera una gran cantidad de energía. Es decir, que al final acabamos con un núcleo más "pesado" y con un remanente de energía libre extra. Esta energía suplementaria es, por cierto, la que ejerce una presión hacia fuera de la estrella, gracias a la cual se contrarresta la presión central hacia el interior que ejerce el potencial gravitatorio. Se produce así un balance o equilibrio que permite que las estrellas duren y "quemen" su combustible nuclear durante miles de millones de años en lugar de acabar todo rápidamente mediante una gran explosión (lo cual ocurre de hecho al final de la vida de ciertas estrellas -cuando ya no tienen más "combustible"- en lo que se conoce como supernova). Por cierto que una pequeña parte de esta energía excedente escapa de la estrella navegando hacia el espacio exterior, como ocurre por ejemplo con la energía Solar que baña nuestro planeta.
En resumen: que el proceso de fusión nuclear no procede a menos de que se "fuerce" a ello mediante el uso de un potencial energético externo. En el caso de las estrellas esta "fuerza" necesaria la otorga la gravedad.

Fusión en la Tierra.

Los científicos llevan ya casi 70 años pretendiendo imitar el comportamiento estelar en la superficie de nuestro planeta, mediante la pretendida creación de reactores de fusión nuclear. El resultado hasta la fecha, huelga decirlo, ha sido nefasto. Y lo es, en gran parte, porque aquí no disfrutamos del formidable potencial gravitatorio central que sirve de fuente energética natural para la fusión en las estrellas.
En estos astros, la gravedad no sólo funciona a modo de ignición (calentando y creando el plasma necesario para la fusión), sino que también actúa a modo de contenedor: es decir; que impide gracias a su atracción central que el plasma "escape" o de desintegre, favoreciendo y manteniendo automáticamente el proceso de fusión durante millones de años. Pero aquí en la Tierra no poseemos una fuerza natural central capaz de hacer todo esto, así pues debemos hacer uso (utilizar activamente) un potencial energético alternativo.
Sin embargo la ignición y contención del plasma ocurre a temperaturas capaces de derretir cualquier recipiente (sin importar de qué esté fabricado). Y puesto que no hay un contenedor material capaz de soportar estas temperaturas, no queda más remedio que contener el plasma separado (casi "levitando") de todos los demás componentes del reactor mediante el uso de técnicas electromagnéticas (imanes, superconductividad, etc), lo cual requiere del uso continuado y activo de una cantidad gigantesca de energía libre para mantener dicho proceso.
Pero debe quedar claro que, a diferencia de lo que ocurre en las estrellas, aquí NO disponemos de una fuente espontánea de energía que nos sirva al uso, y debemos por contra conseguir producir activamente energía libre para usarla en modo de contención y de ignición (para que el plasma no se enfríe). Y en este sentido es en el que no está para nada claro que la fusión sea rentable: i.e., que pueda ofrecer una energía neta positiva una vez descontada toda la que se consume en el propio proceso de ignición y contención.

Hay poco soporte teórico.

Hasta la fecha no hay un soporte teórico firme capaz de demostrar que es posible que la idea de crear reactores de fusión rentables sea viable. Al contrario, las leyes de la termodinámica parecen apuntar justo en la dirección opuesta. Y es que, como hemos comentado, en el caso de la Tierra necesitamos hacer uso activo de un flujo constante de energía libre que retroalimente al aparato de fusión para que no se apague o "reviente", pero las propias leyes termodinámicas avisan de que es imposible que tales "circuitos" de retroalimentación duren mucho tiempo a causa de la obligada pérdida de energía en forma de calor (aumento de entropía). Todo movimiento energético es "imperfecto" en el sentido de que por el camino siempre se pierde algo de energía útil de modo que la exergía disminuye siempre con el tiempo.
En el caso de un reactor terrestre, a parte del enorme coste energético inicial de calentar el plasma y activar los instrumentos contenedores (energía que hay que producir y transportar con una fuente alternativa como por ejemplo la fósil), luego tenemos que "reaprovechar" el excedente energético de la reacción de fusión en el plasma para mantener estable al propio plasma, lo cual supone "coger" parte de esa energía útil generada por la fusión, y "llevarla" (transportarla) a la maquinaria de contención e ignición, perdiéndose inevitablemente por el camino en cada ciclo energía en forma de un aumento de entropía.

Logros hasta la fecha.

Tras muchas décadas de investigación y cientos de miles de millones de euros gastados, no se ha logrado dar con un aparato electromagnético capaz de contener el plasma a un coste energético inferior al de producción. De hecho, hemos sido incapaces de mantener el ciclo de fusión ni siquiera durante segundos (sin importar en este caso el coste o la rentabilidad), mientras que este mismo proceso de fusión en las estrellas sutilmente acontece durante miles de millones de años sin problema alguno.
Evidentemente esto no dice mucho a favor de la viabilidad teórica de que existan mecanismos electromagnéticos viables capaces de imitar las condiciones estelares para producir una fusión continuada en un reactor. Por el contrario, es como decimos bastante probable que se trate de un Santo Grial inalcanzable bajo las circunstancias físicas terrestres.
Es más, lo que los resultados actuales (como los descritos en los artículos enlazados al principio) demuestran es simplemente la manera en que los científicos están mejorando estos carísimos aparatos buscando la máxima eficiencia de funcionamiento posible (batiéndose con el tiempo algún que otro "récord"), pero NADIE garantiza que la máxima eficiencia teórica (es decir, física) sea suficiente para producir más energía libre de la que consume en el proceso.
De hecho, el relativo "poco" avance logrado durante las últimas décadas parecen indicar que posiblemente estemos ya bastante cerca del posible límite natural para este tipo de aparatos (los cuales repitamos una vez más, están lejos no sólo de permitir un ciclo de fusión estable y continuado -que dure años y no milisegundos-, sino que todavía consumen mucha más energía de la que produce luego en la reacción dentro del plasma). A modo de símil, y para entender bien lo que estos "avances" podrían representar, sería algo similar a lo que ocurre, por ejemplo, con los atletas profesionales cuyos "récords" son cada vez más raros y de magnitud más pequeña conforme nos acercamos a los límites físicos de nuestro cuerpo. Probablemente la promesa de la "inagotable y limpia" fusión nuclear sea el equivalente a esperar que algún día un atleta haga los 100 metros lisos en 5 segundos (cosa que sencillamente es un logro imposible dadas nuestras circunstancias fisiológicas).
A modo de resumen concluir que muy posiblemente lo más cerca que vamos a estar de poder aprovechar de manera rentable la energía de la fusión nuclear sea mediante el uso de los paneles solares, en los cuales "recogemos" una parte (marginal) de la energía producida en el proceso de fusión acontecido en el Sol.

martes, 13 de noviembre de 2018

¿Qué es la materia (III)?

Vamos a continuar en esta entrada con la serie de divulgación que empezamos hace un par de semanas sobre el asunto de la materia. En concreto en estos dos enlaces: http://quevidaesta2010.blogspot.com/2018/10/que-es-la-materia.htmlhttp://quevidaesta2010.blogspot.com/2018/11/que-es-la-materia-ii.html. Esto significa que para poder entender algo de esta entrada no hay más remedio que echar aunque sea un leve vistazo a las dos entradas anteriores. Y ciertamente comprendo que esta petición es atrevida y hará que más de uno no continúe leyendo el presente artículo, pero me temo que no hay más remedio. Así pues, para aquellos curiosos y atrevidos, continuemos por donde lo dejamos la última vez y adentrémonos en un tema que seguro va a interesar a muchos: ¿qué son las partículas "virtuales"?

Mmmm...¿partícula "virtual"?

Es posible que cierta parte de los lectores del presente artículo no hayan escuchado nunca este término, y es bastante probable que la mayor parte de los que sí conozcan el término, lo hayan escuchado de "refilón" sin saber demasiado bien qué quieren decir los físicos con semejante "virtualidad". Es más, incluso muchos físicos de carrera tienen dificultades para comprender bien la esencia de este asunto. Así pues, y sin más dilación, vamos a intentar explicar a continuación el tema de la manera más simple posible (aunque me temo que será obligatorio que eches antes un vistazo al menos a esta primera entrada de la serie http://quevidaesta2010.blogspot.com/2018/10/que-es-la-materia.html).
De todas formas, y como es bien sabida nuestra tendencia al mínimo esfuerzo, vamos a recordar de todas formas brevemente qué fue lo que acordamos en posts anteriores sobre lo que entiende la física más actual en relación al concepto de partícula. Según la física moderna, la noción de partícula se reduce al de una mera excitación ondulatoria (sinusoidal) que se propaga dentro de cierto campo cuántico. En este sentido realizamos una analogía simbólica que nos permitía entender estos "palabros" físicos mediante la metáfora de que en el mundo existe algo así como un "mar" de "mares" que cohabitan y existen de manera ubicua en cada rincón infinitesimal del espacio-tiempo. Estos "mares" presentan ciertos lugares sin apenas flujos y alteraciones ondulatorias (vacío cuántico en estado fundamental), y otros lugares con grandes alteraciones ondulantes (partículas) que se propagan y acoplan (trasvasan) de un "mar" a otro con cierta probabilidad. Finalmente determinamos que existe como mínimo un "mar" distinto para cada partícula conocida. 

La partícula "real".

El anterior concepto de partícula como una vibración ondulatoria en un cierto "mar" (campo cuántico) necesita de un refinamiento teórico del que no necesitamos hasta este momento: en concreto, se trata de añadir a la descripción previa que las partículas (la perturbación ondulatoria que representan en esencia) deben presentar un movimiento regular, suave y constante. Un movimiento espacial de traslación (senoidal) periódico en el tiempo (simulando el movimiento del armónico simple). Es concretamente esta suave y continua propagación ondulatoria (este tipo de "ola" o flujo en cierto "mar") lo que entendemos por partícula "real" (del tipo que sea). Recordemos por cierto que el tipo de partícula -vibración- lo determinará el tipo de "mar" -campo cuántico- en que ésta uniforme vibración sucede.

La partícula "virtual".

La partícula "virtual" en física teórica es un término bastante confuso de partida, pero gracias al símil de los "mares" que venimos haciendo desde el principio, podemos acordar que será "virtual" aquella partícula que no cumpla con el último requerimiento que acabamos de mencionar antes: esto es, que sea una perturbación en un "mar" (campo cuántico) pero que ¡no presente un movimiento estable, regular, suave y periódico!
Por lo tanto, partículas "reales" y "virtuales" son en esencia la misma cosa: perturbaciones y alteraciones en sus "mares" correspondientes las cuales alteran el estado fundamental de reposo ("mar" sin "olas" -o técnicamente, campo cuántico en su estado de vacío-). Siendo de remarcar que la única diferencia entre ambos fenómenos físicos es el hecho de que las partículas "virtuales" constituyen perturbaciones (alteraciones dinámicas) no periódicas, semi-caóticas, y abruptas que sin embargo acontecen en el mismo "mar" (campo cuántico) que las suaves perturbaciones (senoidales) capaces de permanecer y trasladarse como un flujo en dicho "mar" (las partículas "reales").

Ejemplos de partículas "reales".

Un electrón es una partícula "real", una suave onda (senoidal) periódica en el campo cuántico ("mar") de electrones; puedes sostener uno en tu mano, por así decirlo; puede hacer un haz de ellos y enviarlos a través de una habitación o dentro de un televisor de rayos catódicos. Por otra parte, también un fotón es una partícula "real" de luz, una onda en el campo electromagnético (nombre que recibe el "mar" de los fotones), y puedes también hacer un haz de fotones (como en el caso de un láser).

Ejemplo de partículas "virtuales".

Imagina ahora que tenemos dos electrones "reales" que pasan cerca uno del otro como en la figura de arriba. Debido a su carga eléctrica (una propiedad esencial y distinguida que cada "mar" -campo cuántico- puede poseer o no), estos electrones (excitaciones ondulatorias periódicas) perturban el campo electromagnético (a veces llamado campo de fotones, puesto que sus ondulaciones son fotones). Pero debe quedar claro que esta alteración en el "mar" de fotones, dibujada arriba en verde, ¡no son "realmente" fotones! Y no lo son porque no representan una onda moviéndose o trasladándose (fluyendo) por el espacio. De hecho no son ondas en absoluto, y ciertamente no tienen la obligación de moverse a ninguna velocidad.
Como vimos en entradas anteriores, las excitaciones en los campos cuánticos (partículas) poseen ciertas características intrínsecas que trasladan con ellas conformen se mueven por el espacio (nivel energético, momento, carga eléctrica, carga de color, spin, etc.), y el hecho de que dos ondas de este tipo se aproximen modifican en general la probabilidad de acoplamiento entre los campos "mares" existentes. Y recordemos que este acoplamiento no es ni más ni menos que un parámetro (un número) que viene a indicar la probabilidad de que se produzca una interacción entre varios tipos de "mares". Existen en las matemáticas del modelo estándar varios parámetros de este tipo los cuales determinan la probabilidad de que una excitación de cierto campo interactúe con otro campo. De hecho, las ecuaciones del modelo estándar de partículas vienen a ser un compendio (casi un batiburrillo) de términos que vienen a representar cada tipo de interacción posible entre los campos ("mares") descubiertos experimentalmente hasta ahora (¡incluso el valor numérico concreto de los parámetros de acoplamiento fueron puestos en el modelo ad hoc para hacer cuadrar esta larga ecuación con la fenomenología del mundo!).

Interacción entre mares a base de partículas "virtuales".

De lo dicho anteriormente se puede concluir que la función de las partículas "virtuales" es la de perturbar los diferentes campos cuánticos según sean las propiedades intrínsecas que las partículas "reales" posean a la hora del acoplamiento efectivo. En el caso anterior de los dos electrones que se aproximan, visual y simbólicamente se podrían interpretar los hechos como sigue:
Empezamos con dos suaves y periódicas ondas ("olas") en el "mar" de electrones que se van moviendo y trasladando por el espacio (los puntos azules de la ilustración). El simple movimiento de cada electrón individual produce (debido a la carga eléctrica que transporta de manera intrínseca) una perturbación abrupta, caótica y no periódica en el "mar" de fotones (campo cuántico electromagnético). Estas alteraciones ("olas") no periódicas (no ondulatorias) ya vimos que no se mueven por el espacio y desaparecen casi tan pronto como aparecen: ¡se trata de fotones "virtuales"!
Pero aunque las alteraciones -"virtuales"- en el "mar" de fotones no se trasladen como tal, el hecho es que siempre aparecen y desaparecen de manera contínua de modo que de todas formas una especie de "nube de fotones virtuales" siempre acompaña al electrón, siendo la probabilidad de que un electrón genere un abrupto fotón "virtual" en cierta posición x del espacio inversamente proporcional a la distancia entre el electrón y x -aunque el rango efectivo es en realidad infinito, y cualquier electrón puede generar con cierta probabilidad (cada vez menor) un fotón "virtual" a cualquier distancia no importa cuan lejos miremos-. Por lo tanto, conforme más cerca de la suave onda del electrón nos coloquemos, más probable es que surja de manera espontánea una áspera perturbación en el "mar" de fotones. Así pues podemos imaginar esa suave onda periódica que se mueve (el electrón) rodeada de círculos concéntricos de fotones "virtuales" (perturbaciones que no son ondas, y que aparecen y desaparecen rápidamente) conformando una especie de "nube" cuya densidad disminuye conforme nos alejamos espacialmente del electrón.
Pues bien, cuando dos electrones se aproximan ocurre algo muy interesante. La densidad de fotones "virtuales" que acompañan a ambos electrones empiezan a armonizar y compaginarse de tal suerte que van dictando una dinámica muy particular para ambas partículas "reales". En el caso de que las cargas eléctricas sean iguales (como el caso de dos electrones) estas aditivas alteraciones (abruptas -"virtuales"-) en el "mar" de fotones determinará un flujo repulsivo contra la suave onda (perturbación ondulatoria en el "mar") del electrón, modificando de este modo su camino recto (el cual se habría visto inalterado de no ser por esta interacción con el "mar" de fotones).
Es decir, que las alteraciones ("los fuertes y caóticos oleajes") generados por cada electrón (debido a su carga) en el "mar" de fotones, son los que "empujan" las ondas de las partículas "reales" modificando su momento (sentido de movimiento y velocidad). ¡Es precisamente en este sentido en el que se dice que las partículas "virtuales" son las encargadas de transmitir las "fuerzas" en la naturaleza! De no ser por ellas, todas las partículas se moverían libremente sin interactuar unas con otras en modo alguno, y por lo tanto las trayectorias de éstas jamás se verían alteradas: todo iría siempre siguiendo el camino más recto posible...y punto.
Como nota mencionar que si en lugar de dos electrones, hubiésemos tenido un electrón y un positrón (antielectrón) acercándose, la densidad en la turbulencia o flujo en el "mar" de fotones habría en este caso"empujado" al electrón y el positrón uno hacia el otro (debido a las distintas cargas que poseen) en lugar de repelerlos como ocurrió en el caso de los dos electrones.

Las matemáticas de la naturaleza.

Visto lo visto uno puede preguntarse qué narices determina entonces la dinámica de toda la fenomenología en el mundo, y la respuesta es bien clara: las matemáticas. Hemos visto que los fenómenos (las ondulaciones y las fuerzas -interacciones-) dependen absolutamente del concepto de probabilidad (que en el modelo estándar se simboliza mediante parámetros -números- para los distintos acoplamientos entre "mares"), dependen del concepto de ecuación de onda, de los principios cuánticos (fundamentalmente el principio de incertidumbre y la exclusión de Pauli), y del concepto de simetría (es decir; de la conservación de ciertos valores a los que les damos nombre físicos -momento, energía, carga eléctrica, carga de color, spin,...- pero que en el fondo sólo representan variables numéricas que cambian en el tiempo de manera algebraica).
De este modo los físicos durante casi un siglo se esforzaron por aunar todos estos preceptos (junto con los propios de la relatividad especial), de modo que el resultado ha sido un modelo matemático teórico capaz de predecir (con muchos decimales de precisión) todo lo que hemos podido corroborar hasta ahora de manera experimental en los aceleradores de partículas. Pero en el fondo se puede entrever que el fenómeno en el mundo parece carecer de otra "esencia o sustrato" que no sea pura matemática. Porque aunque el modelo estándar es de sobra conocido que no es todavía un modelo completo del mundo natural, no obstante su gran éxito nos permite extrapolar sin miedo a equivocarnos que sea cual sea finalmente ese modelo capaz de dar cuenta de todo, el mismo resumirá con certeza sus premisas sobre la propia realidad del número, de la función, del cambio algebraico, la ecuación de onda, la probabilidad...y poco más.
Y ciertamente nuestra (prejuiciosa) mente se resiste a renegar de la física, o de desplazarla como una mera ilusión fenomenología que emerge por entre los potenciales eléctricos de nuestro cerebro, pero es que es lo que todo parece indicar. ¿Qué es, por ejemplo, un electrón? Por lo que sabemos simplemente un conjunto de números. Identificamos a su carga eléctrica con un número, a su espín también con un número, su posición la indican varios números, lo mismo que su velocidad, su energía, su masa, etc. Y también son números la probabilidad de sus acoplamientos, y las ecuaciones algebraicas (ecuación de onda, lagrangianos, etc.) que relacionan y modifican todos sus números con los números de otras partículas (que son la misma cosa pero con otros valores numéricos y otra cantidad de variables: otras cargas como la carga de "color" de los quarks, etc.).
Y si alguien de verdad reniega de este ideal matemático que recuerda mucho a las propuestas platónicas, le reto a que me diga, por favor; qué es entonces en su opinión y a la vista de la física moderna, un electrón. Qué realidad física -no matemática- presenta dentro de las descripciones del mundo cuántico que descubrimos ya a principio del siglo pasado. ¿Qué "sustrato o sustancia" física nos queda ya hoy día? Dudo que nadie sepa qué responder de manera honesta y congruente, porque en este momento resulta evidente que todo en el fenómeno se reduce a ondas de probabilidad, a distribuciones de números, a modificaciones en dichas variables numéricas, y siempre todo de acuerdo a leyes de simetría que en el fondo lo único que indican es que matemáticamente todos estos números deben conservarse de manera global y local de modo que la ilusión de cohesión y causalidad física permanezca coherente ante nuestra mente de simio venido a más.

sábado, 10 de noviembre de 2018

¿Por qué se expande el Universo?

En un intento por continuar en la línea divulgativa que empezamos en las dos entradas anteriores donde tratamos el interesante asunto de qué es la materia: https://quevidaesta2010.blogspot.com/2018/10/que-es-la-materia.html y http://quevidaesta2010.blogspot.com/2018/11/que-es-la-materia-ii.html, voy a intentar transmitir en este artículo, al mismo nivel introductorio (sin matemáticas ni frases grandilocuentes con "palabros" físicos inefables), qué es eso que se nos cuenta desde la moderna cosmología sobre la expansión del Universo.

Sí, el Universo se expande.

Lo creas o no, hasta bien entrado el pasado siglo XX la comunidad científica pensaba en general que el Universo era algo estático. Es decir; que las galaxias, estrellas y demás cuerpos celestes se movían relativamente de tal modo que de manera global todo quedaba más o menos estructurado espacialmente de manera digamos estacionaria. Todo se movía, por supuesto, pero al final todo quedaba dispuesto de manera similar tras ciclos o lapsos de tiempo. Algo así como ocurre en nuestro sistema solar, que se mueve pero que siempre nos presenta un orden similar: con los planetas orbitando en elipses alrededor del Sol sine die.
De hecho, incluso el famosísimo Albert Einstein introdujo ad hoc un parámetro en su famosa teoría de la relatividad general (la cual incluye a la gravedad) para permitir que esta visión del Universo como algo estático y eterno (algo sin inicio ni fin, en resumidas cuentas) permaneciera inalterada a pesar de que sus fórmulas, sin este añadido, predecían un Universo que se expande o se encoge irremediablemente. Y desde luego no podemos culpar a los físicos de esa época por mantener esta postura tan "corta" de miras: ¡es la propuesta que menos necesidades explicativas requiere! Sin inicio ni fin, nos ahorramos tener que explicar que había antes del Universo, cómo acabará, y fundamentalmente de dónde surgió (su causa primigenia).
Pero las cosas no iban a ser tan sencillas, y tras varias observaciones astronómicas y teóricas (realizadas en gran parte, pero no exclusivamente, por el físico Edwin Hubble), la comunidad científica tuvo que admitir que el Universo no es estático ni estacionario, sino que se mueve de una manera muy determinada y fuera de orden...de hecho ¡todo se aleja de todo lo demás!
En resumen, y por no complicar mucho el asunto, podemos decir que el equipo de Hubble pudo "ver" cómo por entre todo el Universo visible las galaxias se alejaban unas de otras. I.e.; que no permanecen en el tiempo a una distancia similar sino que la distancia que las separa crece y crece cada vez más. Grosso modo, se descubrió que las galaxias de hecho se separaban de media unas de otras a cada vez mayor velocidad mediante una aceleración exponencial. Una aceleración exponencial que supone que (hablando cualitativamente y de manera aproximada), conforme el tiempo transcurre de manera lineal (segundo tras segundo), la distancia entre las galaxias aumenta en general de manera multiplicativa (con una velocidad variable v = H · D. Donde H es la constante de Hubble (un número), y D la distancia que en cierto instante separa dos galaxias cualesquiera).
Así que el pobre Einstein tuvo que borrar (literalmente) el parámetro extra que añadió a sus ecuaciones (la famosa constante cosmológica), para permitir que su teoría se ajustase a los hechos empíricos: el Universo no era estático, sino que se movía de modo que todas las galaxias se alejaban unas de otras a cada vez mayor velocidad.

El Universo tuvo un inicio y tendrá un final.

El descubrimiento de Hubble y la claudicación de Einstein (y del resto de la comunidad científica que en general compartía su visión), hicieron pasar a la historia la idea de que nuestro Universo es estacionario y eterno. Al contrario, al mirar al cosmos el Universo parecía ahora expandirse aceleradamente y de media todo se alejaba de todo lo demás (todo lo que no estaba sujeto a un potencial gravitatorio, por supuesto). Y el hecho de que todo se alejara siempre en el tiempo (al mirar al espacio profundo hemos de recordar que miramos en realidad al pasado, y que cuanto más lejos miramos más antiguo es el evento observado), supuso que si imaginariamente diéramos "marcha atrás" al tiempo (como al rebobinar una cinta de vídeo), las cosas empezarían a acercarse constantemente unas a otras hasta llegar a un inicial e ideal punto imaginario: el famoso Big Bang. Precisamente discutimos la semana pasada en esta entrada sobre este Big Bang. Cómo piensa la cosmología moderna que aconteció y la manera en que cuadra con nuestros conocimientos actuales en física de partículas.
Pero la expansión acelerada también nos enseña que nuestro Universo tendrá un final bien definido. En realidad hay actualmente varias propuestas cosmológicas que compiten a la hora de explicar cómo acabará toda la fenomenología que entendemos por nuestro mundo, aunque hoy por hoy son dos las propuestas más probables y ambas comparten un trasfondo común: en nuestra realidad futura no habrá lugar para lo que entendemos como materia e interacciones (partículas y movimiento efectivo).
Son como decimos dos teorías las que se disputan actualmente la descripción del futuro de nuestro mundo: el Big Rip (el gran desgarramiento) y el Big Freeze (la "muerte" térmica). La diferencia fundamental entre ambas teorías radica en el tiempo que tardará el Universo en "desaparecer", y en que la primera predica que el espacio-tiempo llegará literalmente a colapsar en una singularidad (similar a la del Big Bang) debido al infinito implícito en el concepto de crecimiento exponencial del espacio (algo que se ve claramente en cuanto se observa una gráfica con una línea exponencial donde visualmente se comprende la tendencia asintótica hacia el infinito):
El Big Rip predice que si la energía oscura (energía causante de la expansión del Universo, pero de cuya naturaleza no se conoce gran cosa parte de su oscuro nombre) posee cierta propiedad característica crítica (relacionada con su densidad) el universo acabará por ser "desgarrado" (destruido en una singularidad). Según esta propuesta el orden de acontecimientos será el siguiente: durante miles de millones de años las galaxias se habrán separado entre sí a un ritmo cada vez mayor (algo que se observa empíricamente ya en la actualidad). Aproximadamente 1000 millones de años antes del "Rip" la gravedad resultará demasiado débil incluso para mantener integra a las galaxias en sí, de manera que a partir de este momento sólo quedarán en el mundo estrellas aisladas y dispersas. Conforme transcurra más tiempo, incluso los sistemas planetarios perderán su cohesión gravitatoria y todo acabará lleno de estrellas y planetas vagando individualmente. Más adelante los propios cuerpos celestes acabarán reducidos (descompuestos) en sus átomos constituyentes, los cuales deambularán también de manera independiente...pero aquí no acaba la cosa. Los mismísimos átomos se verán "desligados" igualmente cuando se acerque el fin del espacio-tiempo, por lo que sólo quedará una radiación remanente. En este instante el universo se parecerá al Big Bang inicial sólo que se presentará de manera infinitamente menos densa (el gigantesco volumen final del espacio será justo el inverso de la singularidad inicial). Justo en el momento del desgarramiento (el "Rip"), el Universo carecerá por completo de partículas (excitaciones energéticas en los campos cuánticos -"sus mares"-). Todo consistirá en ser un "mar" de "mares" en reposo absoluto (estado fundamental). No será posible que nada interactúe con nada puesto que no existirá cohesión gravitacional ni energía alguna (salvo las pequeñas fluctuaciones cuánticas de los campos que de media se cancelan resultando 0). Todo estará tan alejado de todo lo demás (más allá del horizonte causal que impone la máxima velocidad c de la luz) que no se podrá hablar de que realmente exista algo físico, puesto que el concepto de tiempo, evento, suceso, causalidad y cambio son incongruentes en este estado natural de aislamiento absoluto. El mundo dinámico de la multiplicidad como tal habrá desaparecido, y lo que quedará no tendrá como decimos sentido físico real, restando en el ser un mero artificio matemático ideal (¿platónico?).
Los autores de esta hipótesis calculan que este final para nuestro Universo ocurriría dentro de aproximadamente 20.000 millones de años a contar desde ahora; algo que puede sonar muy lejano pero que no lo parece tanto teniendo en cuenta que actualmente la vida estimada para nuestro mundo es de 13.800 millones de años. Finalmente comentar que, puesto que se estima que el 70% del contenido energético del Universo está formado por energía oscura, el Big Rip parece ser una de las teorías más aceptadas en estos momentos por la comunidad científica a la hora de explicar cómo será el fin del Universo.​
Remarcar de nuevo, por cierto, que la principal diferencia entre el Big Rip y el Big Freeze (la "muerte" térmica) radica principalmente en los tiempos implicados. La "muerte" térmica predica un final casi idéntico al del Big Rip sólo que en lugar de estimarse 20.000 millones de años (20.000.000.000) antes del fin, el Big Freeze calcula tiempos (muy variables según el autor del estudio) de alrededor de 10^500 años (un 1 segundo de 500 ceros). Pero a fin de cuentas, al final todo quedaría (casi) igual: un mundo totalmente desconectado causalmente donde los campos cuánticos ("mares" de partículas) no presentarían excitaciones ni interactuarían entre sí, el movimiento, el devenir, la multiplicidad, y el tiempo carecerán de sentido físico, y lo máximo que podríamos interpretar de tal situación natural sería un estado atemporal e ideal con cierto potencial matemático pero sin propiedades físicas distinguibles (¡justo lo mismo que la teoría inflacionaria propone para explicar el origen del Universo!). Desde luego el platonismo nunca pasa de moda ;).

Muy bien pero, ¿por qué se expande el Universo?

En pocas palabras decimos que el Universo se expande porque existe en la esencia natural del mundo una fuerza energética repulsiva (energía oscura) que se opone a la fuerza atractiva gravitatoria. La "cantidad" de fuerza gravitatoria (que todos sabemos que es siempre atractiva) depende de la cantidad total de materia bariónica (la normal de toda la vida :P) y de la materia oscura que existe en el Universo; mientras que la energía oscura es siempre repulsiva y su "cantidad" depende...¡del volumen del propio Universo!
De la naturaleza concreta de esta repulsiva energía oscura (que algunos relacionan con la constante cosmológica que Einstein primero añadió y luego borró de sus ecuaciones de la relatividad general) no se conoce apenas nada en estos momentos. Así que si alguien os pregunta qué es la energía oscura, podéis decir casi sin falta de precisión (puesto que no se conoce mucho más) que se trata de: "una fuerza natural siempre repulsiva de origen -esencia o causa- desconocida, y que se presenta infinitesimalmente distribuida -presentando una densidad constante- por entre todo el espacio del Universo, de manera que su acción aumenta de manera directamente proporcional a la cantidad de volumen existente en el mundo".
En resumen: que si en un metro cúbico de espacio existe una fuerza repulsiva total x debida a la energía oscura, al duplicar el volumen de espacio en consideración se duplica igualmente la fuerza repulsiva. Sin embargo, si en ese metro cúbico inicial no introducimos ni sacamos materia (ni radiación), ¡la fuerza gravitatoria total permanecerá invariante al duplicar el volumen del espacio!
Así pues, muy grosso modo, podemos entender la expansión acelerada como el hecho de que la fuerza repulsiva total de la energía oscura supera la fuerza atractiva gravitatoria producida por toda la materia. Y aquí viene la clave (la retroactividad que lleva al crecimiento exponencial en las distancias que separa las galaxias): la cantidad total de radiación-materia en el Universo es constante (no pueden aparecer nuevas partículas estables si no es mediante la aniquilación de otras, respetándose las simetrías y leyes de la conservación) por lo que la fuerza gravitatoria neta total del Universo está acotada o limitada superiormente (desde el mismo momento en que decae el inflatón). Pero sin embargo, ya vimos que la fuerza repulsiva de la energía oscura crece en relación directa al volumen de espacio existente. Por tanto, el hecho de que la fuerza atractiva debida a la densidad de materia está limitada superiormente, junto con el hecho de que la energía repulsiva (energía oscura) aumenta conforme el volumen del espacio aumenta, obtenemos la posibilidad del resultado ya comentado: que conforme pase el tiempo las cosas cada vez se separan más rápidamente (porque la "cantidad" de atracción gravitatoria está fijada desde el propio Big Bang, mientras que la "cantidad" de repulsión aumenta con cada metro cúbico que gana el Universo).

Pero esto no fue siempre así.

Podemos decir que la historia del cosmos ha pasado por dos grandes fases. Al principio, poco después del decaimiento del inflatón, la proporción (o ratio) entre el volumen de espacio existente y la cantidad de materia-energía hizo que la fuerza repulsiva de la energía oscura (que sabemos que depende del volumen total) fuese a la par con la fuerza de atracción gravitatoria (debida a la materia-radiación), por lo que durante millones de años tras la inflación el Universo no sufrió de un nuevo proceso de expansión (mucho menos acelerado), sino que incluso aconteció una pequeña fase de frenado (o desaceleración). Vamos a verlo visualmente:
Al inicio fueron las fluctuaciones cuánticas del inflatón y el decaimiento del potencial de dicho campo compensado espontáneamente por una enorme y repentina expansión del espacio (la inflación en sí misma). Cuando el potencial decae por completo el proceso de "frenado" produce repentinamente la aparición de una gran cantidad de radiación y materia cuya cantidad total debe conservarse (a pesar de que las partículas decaigan y se transformen unas en otras). Pues bien, en aquellos primeros millones de años tras la inflación la radiación y la materia total se atraían con más fuerza de lo que la ubicua repulsión de la energía oscura podía contrarrestar, y por tanto la distancia entre los objetos no aumentó de media. Es decir, que durante miles de millones de años el Universo presentó una figura estática muy similar a la soñada por Einstein y sus coetáneos: las cosas se movían y evolucionan estacionariamente pero la atracción hacía que las distancias medias entre los objetos macroscópicos no cambiaran relativamente "demasiado".

Cambio de fase.

En este punto es importante hacer notar que, aunque durante millones de años la repulsión debida a la densidad de energía oscura (directamente relacionada con el volumen total del espacio) era incapaz de desplazar de media los objetos cósmicos; la densidad de radiación y de materia sufrió variaciones debido a la dinámica natural de las partículas y a la propia fuerza de la gravedad (siempre atractiva). Es decir, que a pesar de la "irrelevancia" inicial de la energía oscura, el mundo evolucionó siguiendo sus leyes y la densidad (cantidad de energía-materia-radiación por unidad de volumen) fue variando con los años. Pues bien, en este estado de cosas hace aproximadamente 5.000 millones de años aconteció un hecho fundamental: la densidad media de materia en el espacio cayó por debajo de cierto umbral matemático, y se produjo lo que en física se conoce como un repentino cambio de fase: las matemáticas implicadas en la cosmológica dan un vuelco de signo y las ecuaciones de la relatividad general aplicadas a la evolución del cosmos indican teóricamente un cambio fenomenológico abrupto, marcado, y corroborado experimentalmente.
Este cambio supuso precisamente la claudicación de la fuerza gravitatoria total (debida a la densidad y distribución de la materia total en cierto momento en el Universo) frente a la repulsión latente de la energía oscura (¡cuya densidad no varía con el tiempo puesto que se distribuye equitativamente e infinitesimalmente por entre todo el volumen del espacio!). Desde este momento el futuro del cosmos cambió por completo.

Retroalimentación y exponenciación.

Una vez que la energía oscura tomó el mando, el destino del mundo estuvo decantado hacia el Big Rip o el Big Freeze. Y el hecho de tal fatalidad es consecuencia una vez más de la constancia en la densidad de la energía oscura. Porque una vez que esta fuerza repulsiva dominó el panorama la consecuencia más inmediata fue la retroalimentación. La energía oscura aparece espontáneamente (de alguna manera que desconocemos) en cada nueva posición infinitesimal del espacio; por lo que el hecho de que repentinamente el Universo se expandiera supuso la aparición evidente de nuevo espacio (más volumen) el cual fue aparejado al instante por la aparición de más energía oscura; la cual aportó aún más fuerza repulsiva (mientras que la atracción gravitatoria seguía estancada como hemos repetido ya en varias ocasiones). Así pues, cuando hace aproximadamente 5.000 millones de años la energía oscura toma el mando, lo hizo de una manera tal que se inició un proceso espontáneo donde la expansión genera nueva energía oscura, la cual estira aún más el espacio con la consiguiente aparición instantánea de más energía oscura, lo cual lleva a que ésta se sume a la cada vez mayor fuerza total repulsiva en un proceso ya sin fin.
De este modo vemos que la expansión se retroalimenta y que conforme todo se estira aparece infinitesimalmente más energía oscura que convierte este dinámica en exponencial. Este hecho se visualiza gráficamente en la ilustración anterior por el modo en que las líneas crecen a partir de cierto momento de manera exponencial; y de hecho es la causa principal que explica los dos escenarios más probables para el fin del mundo: el espacio entre los objetos aumenta y aumenta exponencialmente mientras que la densidad de materia-radiación decrece y decrece también exponencialmente (puesto que el volumen disponible es asintóticamente cada vez mayor).
De hecho, con un poco de imaginación podemos imaginar la dinámica cósmica predicha por la cosmología, y extrapolar en nuestra mente la evolución de la ilustración anterior donde las líneas que simbolizan el "borde" espacial crecen y crecen verticalmente hasta acabar en una infinita línea vertical compuesta por una densidad infinitesimalmente pequeña de materia distribuida en ese espacio singular. En este particular sentido se puede decir incluso que el inicio y el final de nuestro Universo serán (casi) lo mismo: una singularidad sin sentido físico aparente. Todo será de nuevo puro potencial matemático sin esencia física "real". No existirán fenómenos ni habrá movimiento ni tiempo, todo será unidad singular; o mejor dicho "todo" formará parte una unidad atemporal matemática, un puro potencial de ser...o quizás habría que decir una unidad inmutable con la capacidad esencial para otorgar una apariencia física (ilusoria) de devenir y multiplicidad.

Intento de simplificación.

Vamos como siempre a intentar simplificar finalmente todo lo dicho de nuevo con un símil llevado al extremo, aunque sea a expensas de perder precisión:
Imagina que tienes una olla y la pones al fuego hasta que empieza a hervir. En cierto momento empiezan a burbujear aleatoriamente pequeñas pompas que aparecen y desaparecen. Sin embargo, imagina que en cierto momento una de las pompas fluctúa de tal suerte que posee una configuración extraña y poco usual: posee un potencial inmanente cuyo estado fundamental no posee excitaciones (partículas) pero sí una energía media v en reposo distinta de cero (estando en un estado inestable de falso vacío). Esta pompa no puede permanecer en esta fortuita configuración por mucho tiempo, por lo que casi inmediatamente y de manera natural se produce un proceso de decaimiento del potencial a su estado de verdadero vacío (energía potencial igual a 0). Pero la diferencia entre la energía potencial inicial v en cada punto infinteismal x de la pompa y la energía potencial final igual a 0 produce un enorme gradiente energético (una gigantesca diferencia entre la energía inicial y final). Así que este energía "sobrante" del proceso se invierte, también de manera natural, en un acto espontáneo de reacción "mecánica": el volumen ocupado por la pompa aumenta (se expande) a un ritmo capaz de "consumir" (exponencialmente) toda esta energía disponible, lo cual lleva a que la pompa tome en millonésimas de segundos un tamaño astronómico.
Luego, una vez el potencial casi ha decaído por completo se produce un frenazo o ("golpe" de desaceleración) en el interior de la pompa, lo cual altera los "mares" (campos cuánticos) que se encontraban en reposo dentro de la misma. Esto supone la generación masiva de las partículas conocidas (excitaciones y vibraciones de campos cuánticos), mientras que la posterior dinámica sucedió de acuerdo a las simetrías esenciales y produjo la posterior evolución y dinámica de las vibraciones (partículas) por el interior de la pompa.
Es un hecho que la pompa en sí posee de algún modo algún tipo de repulsión intrínseca (una energía oscura dependiente del volumen) que la hace tender hacia su propia expansión, mientras que también es un hecho que la materia-radiación de su interior posee (entre otras) una fuerza siempre atractiva (gravitatoria) que tiende por contra a la contracción.
Tras finalizar el periodo inflacionario la pompa tenía un tamaño astronómico pero la cantidad de energía contenida en su interior en forma de materia-radiación era de una densidad tan grande que la fuerza gravitatoria del conjunto se sobrepuso con facilidad a la fuerza repulsiva (presión negativa) esencial de la pompa (energía oscura), así que la pompa por un tiempo dejó de extenderse al estar dicha presión negativa anulada por la presión positiva del potencial gravitatorio.
Sin embargo, los millones de años pasaron y la configuración y estructuración (la dinámica, en pocas palabras) de la materia-radiación del interior de la pompa se vio deformada conforme ésta seguía las leyes naturales de simetría, conservación y termodinámica. De hecho, la densidad media (cantidad de partículas por unidad de volumen) de materia-radiación fue en descenso hasta que en cierto instante se traspasó el umbral crítico en que la repulsión esencial de la pompa se sobrepuso a la contracción gravitatoria. En ese justo momento (hace aproximadamente 5.000 millones de años) comenzó un nuevo cambio de fase en el que la pompa empezó a crecer de nuevo...y cada pequeño aumento de volumen supuso un nuevo aporte aditivo a la presión negativa esencial de la pompa. De este modo, la pompa comenzó una expansión acelerada de orden exponencial, en donde cada vez había más y más volumen (más densidad de esa energía oscura) pero menos y menos densidad de materia (partículas por unidad de área). Este hecho supone que cada vez el contenido de la pompa se irá aislando más y más entre sí, conformándose horizontes causales que la relatividad especial separará físicamente para siempre debido a la máxima velocidad de la luz.
Llegará un momento en que el volumen de la pompa será tan grande que el poder gravitacional local no será capaz de formar ya ningún tipo de estado compuesto o ligado. Ningún potencial podrá superar la fuerza de la energía oscura, y por lo tanto los clusters de galaxias se disgregarán en galaxias, estas en sistemas solares aislados, luego estos en planetas y soles vagantes y finalmente toda la materia quedará diluida en partículas individuales cuyas vibraciones y estados también serán estirados por la propia expansión de la pompa. Tras muchos miles de millones de años (años que varían según la propuesta teórica), todo acabará con nuestra pompa tomando un tamaño infinito (o tendiendo al infinito) en cuyo interior sólo habrá fluctuaciones cuánticas de densidad infinitamente pequeñas (o tendiendo a ser singulares). La pompa se habrá en ese momento "desgarrado" del todo, devolviendo probablemente en este momento el potencial energético (matemático) inicial que tomó prestado el inflatón (la pompa) para iniciar todo este proceso comentado.
Comentar para finalizar que en este símil la caldera inicial sería una metáfora del multiverso en el que la gran mayoría de físicos creen hoy día, las pompas serían procesos cuánticos (fluctuaciones) con propiedades estocásticas muy diversas, y Universos como el nuestro serían representaciones de aquellas pompas con los estados arbitrarios iniciales adecuados para proceder a generar un ciclo de inflación, expansión acelerada y "desgarramiento" (vuelta al matemático estado esencial) siguiendo posiblemente un dictado cuántico fundamental: el principio de incertidumbre de Heisenberg, según el cual es posible que un sistema aparezca (o se cree) "virtualmente" (o en apariencia) de la nada simplemente con tal de que devuelva el préstamo energético necesario para su formación en un tiempo determinado por la famosa ecuación matemática de dicho principio.

La realidad matemática.

Como ya comentamos en el artículo anterior, en el fondo parece que nuestra realidad se basa en una vuelta de tuerca más al consabido principio antrópico (llevado quizás al extremo):
No es sólo, como indica la ciencia moderna, que posiblemente exista una infinidad de Universos ("pompas" matemáticamente adecuadas o "permisibles") dentro de un multiverso esencial en el cual a veces aparecen sujetos conscientes dadas las circunstancias (las leyes y constantes particulares de algunos de estos mundos), sino que podría muy bien ser el caso de que lo que verdaderamente existe como tal sea el propio multiverso: un ente matemático único, eterno e inmutable; apareciendo fortuitamente luego ciertas representaciones ilusorias en modo de Universo particular cuando las circunstancias permiten que surjan sujetos capaces de (mal)interpretar la unidad por multiplicidad, lo inmóvil por cambio, y lo homogéneo por heterogéneo: es decir, la pura matemática atemporal por una ilusoria física y su devenir.