jueves, 27 de diciembre de 2018

Hipótesis de la simulación (realidad simulada computacionalmente)


"The belief that there is a significant chance that we will one day become posthumans who run ancestor-simulations is false, unless we are currently living in a simulation." (Nick Bostrom)

El argumento de que nuestra realidad podría ser una simulación trascendental de la cual los entes simulados (entre ellos nosotros) no podemos ser conscientes viene de lejos (nada menos que del filósofo René Descartes), pero fue realmente en el año 2003, tras este magnífico paper (debes leerlo) de Nick Bostrom, cuando la hipótesis llamó realmente la atención de la comunidad especializada (muchos físicos de renombre, por ejemplo; aceptan hoy día su posibilidad sin ambages). De hecho, el razonamiento de Nick se está viendo reforzado en los últimos años gracias al enorme avance vivido en el campo de la computación cuántica.
Vamos a ver de qué trata el asunto:
Grosso modo, la propuesta es la siguiente (más detalles en el paper). Se parte de la premisa de que una de las tres proposiciones siguientes es cierta:
  1. La fracción de civilizaciones inteligentes que alcanzan un estado posthumano es muy cercana a cero (~0%); ó
  2. La fracción de civilizaciones posthumanas interesadas en ejecutar simulaciones de su propio mundo es muy cercana a cero (~0%); ó
  3. La fracción de todos los seres inteligentes (en estado posthumano o no) que viven y experimentan, lo hacen dentro de una simulación con una probabilidad muy cercana a uno (~99.9999...%).
Nota: Se entiende como estado posthumano, a aquel en el cual una entidad inteligente (humana o no, eso no importa) es capaz de construir un computador capaz de ejecutar simulaciones de su propia realidad con una alta fidelidad.
Si (1.) es verdadera, entonces es casi seguro que nos extinguiremos como entes (junto con el resto de posibles civilizaciones, presentes y futuras, esparcidas por el Universo) antes de alcanzar el estado posthumano. Si (2.) es cierta, entonces debe existir una fuerte convergencia en el comportamiento entre civilizaciones (una especie de esencia común que determine por completo el comportamiento de todos los miembros de cientos de civilizaciones -en gran parte incomunicadas dadas las distancias que las separan-). De este modo, en ninguna de estas civilizaciones avanzadas llegarían a aparecer nunca individuos con la libertad y/o la capacidad para ejecutar simulaciones de su mundo (a pesar de poseer la tecnología necesaria para ello). Por último, si (3.) es verdadera, entonces es casi seguro que vivimos en una simulación: es decir, que tiende a cero la probabilidad de que estemos por casualidad en el "primer mundo" donde (1.) y (2.) son falsas (es decir, que el estado posthumano sea posible y abundante, y donde todos estén además deseando recrear computacionalmente su propio mundo, pero que sin embargo no formemos parte de una simulación previa a pesar de la recursividad del proceso).
Finalmente, y a modo de corolario de lo anteriormente expuesto, Nick Bostrom propone que: "a menos de que ahora mismo estemos viviendo en una simulación, es casi una certeza que nuestros descendientes nunca llegarán a ejecutar una simulación de nuestro mundo". Es decir, que o bien el estado posthumano es inviable, o bien hay "algo" en nuestra esencia natural (compartida con el resto de posibles entes inteligentes que pueblan o poblarán el Universo) que impide que nunca jamás un individuo con los recursos suficientes llegue a simular computacionalmente la realidad -de manera que (1.) ó (2.) serían ciertas-.

La computación cuántica.

Cuando en el 2003 se propuso esta hipótesis, el campo de la computación cuántica estaba en pañales. Pero eso ha cambiado recientemente. Cada año se bate un nuevo récord en el número de qubits que los científicos son capaces de manejar de manera eficiente (con cada vez más bajos niveles de error), y muy pronto se espera que empezarán a aparecer las primeras computadoras cuánticas capaces de superar en poder de cálculo a los supercomputadores clásicos. De hecho, si el número de qubits continúa creciendo al mismo ritmo de los últimos años, ¡llegará en cuestión de décadas el momento en que será posible simular computacionalmente el estado de los miles de billones de partículas que pueblan nuestro Universo (dentro del horizonte cosmológico)!
Y esto es así precisamente gracias al fundamento cuántico de nuestra realidad. El estado de superposición de los qubits (los cuales no "almacenan" como valor un 0 ó 1, sino o y 1 al mismo tiempo; ponderados y normalizados por dos parámetros alpha y beta) hacen que la capacidad de cómputo aumente siguiendo una progresión exponencial con cada qubit que se añade al proceso, lo cual implica que únicamente con unos pocos cientos de qubits trabajando juntos -500, por ejemplo- , es posible procesar en paralelo nada menos que 2500 estados...¡un número mucho mayor que el de partículas que pueblan nuestro Universo (visible)!
Valga notar que actualmente Google va en busca de la supremacía en la computación cuántica con un futurible procesador de 49 qubits, lo cual da una idea de lo "poco" que falta para que ese estado posthumano del que hablamos antes sea viable.

En resumen.

Que si las promesas teóricas del computador cuántico se hacen realidad (y todo apunta en ese sentido), y si en el Universo existen (o existirán) suficientes civilizaciones inteligentes capaces de alcanzar dicha tecnología (la cual al ser humano parece que le llevará algo así como 10.000 años -momento en que se asentaron nuestros inicios culturales como civilización-), entonces la premisa (1.) de Bostrom casi la podemos descartar. Dado lo vasto del Universo es complicado que seamos la única civilización existente, y dada la "facilidad" con la que hemos dominado la tecnología cuántica es difícil creer que otros entes inteligentes no harán lo propio en un periodo de tiempo similar al nuestro. El estado posthumano parece en este sentido que es bastante viable y abundante (es decir, que lo es ya en el presente por entre las galaxias, o que lo será en el futuro, dependiendo de cómo de "rápido" haya actuado -cognitivamente- la evolución en la Tierra en relación a la "evolución" en otros planetas habitables).
Por otra parte, la premisa (2.) es, siguiendo un razonamiento antrópico, bastante poco plausible. De hecho, una de las primeras cosas que hizo el ser humano en cuanto adquirimos el poder de procesar la información (clásicamente) tras la segunda guerra mundial fue crear pequeñas "simulaciones" de nuestro mundo (valga de ejemplo el mítico juego del Pong). Más aún, cada nueva generación de videoconsolas (y procesadores gráficos GPU) no tienen más aliciente que el de permitir mejorar la fidelidad con la que podemos recrear simulaciones del mundo. Así pues parece que nuestra esencia natural tiende más bien en sentido contrario de lo que dice (2.): instintivamente parece que estamos ávidos de mejorar nuestra capacidad de procesar información para generar cada vez realidades más complejas y fieles a la nuestra. Por tanto, es bastante plausible rechazar también esta segunda premisa. De esta manera, una vez rechazados los puntos (1.) y (2.) gracias al aceptable soporte empírico del que disponemos (nuestro cercano dominio de la computación cuántica generalizada y nuestro instintivo comportamiento en favor de simular la realidad), nos queda elegir entre aceptar (3.): vivimos en una realidad simulada computacionalmente dentro de un proceso recursivo, o aceptar que da la astronómica casualidad de que vivimos en el "origen" o "primer mundo"; aquel en donde (1.) y (2.) son falsos, pero donde (3.) tampoco se cumple.
En concreto, de ser cierto el último caso, nuestro mundo sería entonces algo así como la "raíz" de un proceso computacional iterativo que algún ente (humano o no) de nuestro Universo echará a andar tarde o temprano: una primera generación de computadores cuánticos simularán con una fidelidad asombrosa una copia idéntica de nuestra realidad, y los seres simulados dentro de esa primera generación harán lo propio, puesto que su "mundo", aunque simulado, también poseerá el fundamento cuántico capaz de permitir una segunda generación simulada. Y de este modo el proceso continuará siguiendo un curso recursivo en principio sin fin.
Sin embargo, cuesta creer que por pura casualidad vayamos a estar en la cúspide o en el "origen" de la gigantesca pirámide que conforma posiblemente esta anidación de simulaciones cuánticas, por lo que sí; posiblemente (3.) sea cierto y nos encontremos casi con toda certeza (~99.9999...%) formando parte de una realidad simulada externamente (esto es, de manera trascendente).
Y es cierto que todo esto suena a ciencia ficción, pero es que la cercana realidad de la computación cuántica, junto con nuestro comportamiento instintivo natural parecen que no dejan mucho espacio para no aceptar esta posibilidad como cierta (o probablemente cierta). De hecho, pensad en lo siguiente: el día en que alcancemos la capacidad de cómputo necesaria, ¿cuál será la mejor manera que tendremos a mano para justificar la viabilidad de la realidad simulada? ¡Exacto! ¡Generando experimentalmente una!

sábado, 22 de diciembre de 2018

El movimiento: la verdadera esencia del mundo

"Todo fluye, nada permanece" Heráclito de Éfeso (540 a.C. - 480 a.C.) 

Hay un hecho sorprendente de la realidad que solemos pasar por alto, quizás por culpa de la costumbre: en el mundo todo se encuentra en continuo movimiento. Pero no es sólo que todo, absolutamente todo, esté siempre cambiando en un interminable devenir; es que la esencia del propio Universo, esa base intangible e inmaterial que da forma de manera trascendente a las mismísimas leyes naturales que dicen luego cómo debe comportarse el fenómeno...directamente prohíben eso que solemos entender como reposo.
En el laboratorio observamos hace tiempo (conforme mejoraron las técnicas experimentales) que nada estaba en el mundo microscópico totalmente quieto, pero la cuestión más importante es que este hecho no refleja una limitación instrumental (práctica) nuestra, sino que representa un comportamiento esencial de la propia existencia, la cual dictamina por principio y como fundamento insoslayable, que la ausencia de movimiento es imposible. En este sentido, cada punto infinitesimal del espacio se ve obligado a participar en un flujo incesante de cambio fenomenológico. De todas formas este conocimiento teórico no es nuevo, y la física moderna dió cuenta de ello hace ya casi un siglo con sus matemáticas, siendo en este sentido posiblemente el principio de indeterminación de Heisenberg su máximo exponente:


Este principio, de hecho, es una descripción matemática asombrosamente sencilla de entender, donde mediante una simple inecuación vemos representada nada menos que la esencia más pura de lo que trasciende a nuestra realidad. Una regla matemática que pone cota inferior a la cantidad mínima de movimiento permitida en el mundo, siendo ésta la causa fundamental de que ningún fenómeno pueda permanecer inmutable en el tiempo. Como decimos todo cambia, cada minúsculo punto del Universo reverbera siempre sin remedio, aunque sólo sea gracias a las fluctuaciones del "vacío" cuántico. Y la demostración no podría ser más evidente: si algo en el mundo pudiese permanecer realmente inmutable entre dos instantes de tiempo, su posición no cambiaría, y por tanto no habría indeterminación alguna en su posición (Δx = 0; es decir, xfinal - xinicial = 0, o lo que es lo mismo: posición final = posición inicial = inmutabilidad). Del mismo modo tampoco poseería indeterminación su cantidad de movimiento (Δp = 0). Pero este hecho, de ser cierto, haría que la parte izquierda de la inecuación de Heisenberg valiese cero, lo cual contradice a la misma puesto que a la derecha tenemos la constante de Planck h, que es un número positivo distinto de cero. Por tanto, mediante reducción al absurdo se demuestra fácilmente que, puesto que el principio de indeterminación es indiscutiblemente parte fundamental de la existencia, no es posible que algo permanezca en reposo absoluto (inmutable) dentro del Universo ni siquiera por un instante: jamás.
Por lo tanto sí, querido Heráclito, todo fluye y nada permanece. El movimiento es inevitable, y la total aniquilación ("erosión") de toda estructura, sistema o ser fenoménico es simplemente cuestión de tiempo. Sin embargo, en el momento en que entendemos que absolutamente todo cambia sin cesar, ¿cómo podemos atrevernos ya a decir que algo "es"? Si nada es permanente, a excepción del incesante cambio, ¿cómo podemos defender siquiera que realmente exista algo aparte de este continuo flujo del conjunto de lo inmanente? Posiblemente, y a pesar de lo contraintuitivo que suene, es probable que todo lo que identificamos como objetos o sistemas independientes sean meras ilusiones cognitivas de nuestra mente evolutiva, siendo quizás lo único real el propio movimiento del continuo fenoménico.
Por último, llegados a este punto parece más que evidente que también eso que entendemos como Homo Sapiens (el ser humano), no es en sí nada independiente y externo del constante flujo del ser; y por tanto está condenado desde el principio a derivar y terminar cambiando por completo, más pronto que tarde, dentro de este fluir hasta acabar siendo irreconocible como el fenómeno que actualmente conformamos; borrándose además por el camino todo nuestro rastro existencial pasado, dada la constante erosión causada por el propio discurrir fenomenológico. Ciertamente ante estos pensamientos uno no puede más que reírse de la vehemencia con la que las personas (todas) perseguimos tantos objetivos que, a la vista de los hechos, sabemos ya a priori que pasarán irremediablemente a la historia universal como un mero centelleo cosmológico.
Pone uno las noticias en el televisor, y dan ganas de mofarse (por no llorar) ante la falta de visión de toda esa gente: cuánto enfrentamiento y sufrimiento, cuánta ira y rencor, que apasionado ímpetu en pos de absurdos, leves y ecuánimes ideales condenados desde el principio a desaparecer junto con todo lo demás en el fluir del tiempo. Realmente actuamos sin ser conscientes de que lo eterno es imposible; y de que el fruto o beneficio de cualquier tipo de lucha (personal o social) es realmente fugaz y efímero (siendo generosos). Creo que todos necesitaríamos leer más libros de historia, de geología, de biología, de física, y por supuesto, de cosmología. Quizás así, gracias al conocimiento del sinsentido existencial, podríamos por fin lograr un mundo mejor. ¡Qué mejor que la burla y la falta de aprecio ante nuestro absurdo destino (condenado desde el principio al olvido), como perfecto antídoto racional con el que refrenar ese impulsivo ardor instintivo que la evolución inscribió en nuestros cerebros de mono hace un par de millones de años!


domingo, 16 de diciembre de 2018

Sobre el mito de la caja negra en el campo de la inteligencia artificial

En relación a esta buena entrada de Santiago donde trata el hito que DeepMind ha logrado con el sistema de inteligencia artificial Alpha Zero, me gustaría comentar algo sobre la cuestión que más se malinterpreta actualmente de la moderna IA: ¿es cierto que no sabemos cómo hace lo que hace? ¿Se trata realmente de una misteriosa caja negra inexpugnable?
Pues bien, la respuesta es no y no. Sabemos perfectamente (los que se dedican e investigan en este campo) por qué la moderna IA hace lo que hace y cómo lo hace. Y lo de "la caja negra" pues...sencillamente es un mito sensacionalista. Todo el machine learning actual (Alpha Zero incluido) es el resultado de procesos matemáticos algebraicos trabajando sobre números reales. Más en concreto, millones de operaciones de sumas y multiplicaciones tensoriales sobre un conjunto de (millones) de números reales almacenados en un fichero para tal fin. Como veis no hay misterio ni "magia" por ninguna parte.
Y tampoco hay de momento misterio en por qué esos números y no otros (diferentes conjuntos de números aplicados a estructuras algebraicas distintas producen finalmente un resultado casi idéntico). Hay que entender que el entrenamiento de una red neuronal (en todas sus variantes), consiste simplemente en ajustar (derivar o modificar) poco a poco números reales sobre un (estático) "molde" operacional (algrebráico) concreto de modo que finalmente se logra encontrar una función (matemática) que permite correlacionar muy bien un gran (casi infinito) conjunto de entradas (información fenomenológica), con un gran (casi infinito) conjunto de salida (lo que se entiende como generalización). Este proceso de ajuste (entrenamiento) utiliza una cantidad de información finita, por un periodo de tiempo finito, con un hardware muy limitado, y trabaja sobre una estructura algebraica (red neuronal) finita ¡y sin embargo conseguimos como resultado encontrar una función matemáticacapaz de relacionar con poco margen de error los elementos de dos subconjuntos de fenómenos (casi) infinitos!
Es decir, que si hay de verdad en el campo de la IA algo que podamos llamar misterioso, no es otra cosa que el hecho de observar (con asombro) cómo es posible que nuestro mundo funcione de modo tal que una larga cadena de operaciones algebraicas con una cantidad limitada y finita de constantes numéricas (una vez entrenada la red, los números ya no cambian) pueda aprehender un patrón capaz de relacionar dos subconjuntos fenomenológicos (casi) infinitos de entradas y salidas. ¡Sin embargo esto mismo se puede aplicar igualmente a nuestro propio cerebro y a nuestra propia cognición!...lo cual trae sin duda a cuento al socorrido principio antrópico: el mundo es como es porque de ser de otro modo no sería posible que un cerebro como el nuestro pudiese generalizar la realidad. Pero una vez aceptado ésto la poca "magia" que quedaba desaparece y ya no es tan sorprendente que nosotros hayamos podido imitar este asombroso comportamiento natural (esencial) de una manera "artificial" (usando silicio en lugar de carbono).
En resumen: que de misteriosa la moderna inteligencia artificial tiene más bien poco, lo mismo que de caja negra no tiene nada a parte de que nos cuesta poder seguir el rastro de las operaciones que se deben ejecutan en cada momento al procesar la información de entrada (limitación práctica). Y si hay algo de "mágico" en todo ésto, es el prodigioso hecho de que las leyes del mundo permiten que CUALQUIER objeto capaz de procesar cierto tipo de información siguiendo un cierto proceso algebraico concreto (recordemos que nuestro cerebro hace ésto mismo), obtiene automáticamente la capacidad para poder generalizar patrones fenomenológicos: es decir, que la verdadera fascinación de la IA se aplicaría también a todo sistema nervioso central en animales, y no sería otra cosa que el descubrir que con una cantidad finita de información y de procesado matemático ("estructura" algebraica operacional y números reales en el caso de la IA, estructura sináptica y umbrales de potenciales eléctricos en el caso biológico), es posible relacionar un conjunto (casi) infinito de entradas y salidas fenomenológicas.
Repitamos una vez más: la "magia" que parece rodear a la inteligencia artificial es extrapolable a nuestra propia inteligencia, y gira todo en torno al hecho de que la esencia de nuestra realidad genera lo que entendemos como fenómeno natural siguiendo unas leyes físicas tan concretas y restringidas, que hacen posible ¡a priori! que un procesado matemático de información finita (sin importar el sustratoque haga los cálculos) pueda conectar (relacionar) dos conjuntos casi infinitos de hechos naturales ¡simplemente mediante el uso de una función algebraica!
Ya luego, si este maravilloso hecho esencial (condición necesaria para que "funcione" Alpha Zero pero también para que "funcione" nuestro cerebro), es fruto de la casualidad, del principio antrópico, o si por contra tiene una base o sentido teleológico (o directamente teológico), es una cuestión que pertenece al mundo de la metafísica. Y en este sentido cada cual puede creer en lo que más le convenza. ¿Es más digerible la idea de una infinidad de Universos -con leyes naturales diversas- conviviendo en un multiverso? ¿Que sólo existe un mundo que es del modo en que es por casualidad? ¿O quizás que algún tipo de "Intencionalidad" trascendental afinó las leyes para que la cognición pudiera aparecer? Hoy por hoy es ésta una cuestión subjetiva que cada cual libremente puede racionalizar como mejor le convenga ya que no hay evidencia empírica que apoye o refute una postura de la contraria.
Yo personalmente apuesto por lo que Max Tegmark denominó como multiverso de nivel IV: una realidad matemática (platónica) donde todas las estructuras matemáticas realmente existen, siendo sólo en aquellas donde las leyes físicas (las matemáticas que la sustentan) son tales que permiten la generalización fenomenológica (esto es, la cognición) donde aparecen seres que se preguntan asombrados por su propia condición. Pero como digo, se trata de pura especulación.

domingo, 18 de noviembre de 2018

Rendimientos decrecientes en el campo de la ciencia (estancamiento científico)

Hoy nos hemos levantados con un interesantísimo artículo del científico e investigador Michael Nielsen, donde nos describe de una manera clara y amena un hecho sabido pero poco reconocido que dice que la ciencia (en especial la física) muestra actualmente la apariencia de ofrecer un rendimiento decreciente bastante evidente, a pesar de que tal hecho intente ser tapado por muchos profesionales debido posiblemente a que de los fondos público vive el científico, y también ellos tienen familias que mantener. Así pues normalmente se niega la mayor y se tacha de pesimista al que divulga una noticia que por otra parte tiene un soporte empírico muy claro que incluso muchos investigadores de primer nivel respaldan (aunque sea con la boca pequeña, por ejemplo la física Sabine Hossenfelder, entre muchos).
Pero bueno, el artículo de Nielsen en cuestión en su versión original (disponible para todos aquellos que hablen la lengua de Theresa May -por lo visto la expresión para los que hablen la lengua de Shakespeare es poco precisa y suena pedante :P-) es el siguiente.
Por mi parte voy a continuación a hacer una libre (y parcial) traducción de este trabajo para aquellos que no quieran (o no puedan) leer el artículo en su versión íntegra. Quede claro que todo lo que viene a continuación es una traducción libre y personal del original [y que cualquier cosa que veas entre corchetes serán comentarios o añadidos personales míos].

¿Qué son los rendimientos decrecientes y por qué suponen un problema?

[No cabe duda de que] [...] la ciencia y la tecnología son la base del avance del bienestar humano y del progreso a largo plazo de nuestra economía. Esto se ha visto reflejado durante décadas en un extraordinario crecimiento de la inversión pública en ciencia. Hoy en día, hay más científicos, más fondos para la ciencia y más artículos científicos publicados que nunca antes:
Y esto es alentador. Pero a pesar de todo este aumento en el esfuerzo, ¿estamos obteniendo un aumento proporcional en nuestra comprensión científica? ¿O estamos invirtiendo mucho más simplemente para sostener (o incluso ver una disminución en) la tasa de progreso científico?
[...]Es sorprendentemente difícil medir el progreso científico de manera significativa. [Y] Parte del problema es que es muy difícil evaluar con precisión cuán importante es cualquier descubrimiento científico dado.[...] Así pues, con esto en mente, hicimos una encuesta en la que pedimos a los científicos que comparasen los descubrimientos ganadores del Premio Nobel en sus campos. Luego utilizamos esas clasificaciones para determinar cómo creen los científicos que la calidad de los descubrimientos ganadores del Premio Nobel ha cambiado a lo largo de las décadas.
Para el premio de física, encuestamos a 93 físicos de los mejores departamentos de física del mundo (según el "Ranking de Universidades del Mundo" de Shanghai), que juzgaron 1.370 papers con descubrimientos. Las barras en la siguiente figura muestran los puntajes de cada década. El puntaje de una década es la probabilidad de que un descubrimiento de esa década se considere por un encuestado más importante que los descubrimientos de otras décadas. Tenga en cuenta que el trabajo se atribuye al año en que se realizó el descubrimiento, y no a cuando se otorgó posteriormente el premio.
La primera década tiene un mal desempeño. En esa década, el Comité del Nobel aún estaba pensando exactamente para qué era el premio. Hubo, por ejemplo, un premio por una mejor manera de iluminar los faros y las boyas en el mar. Es una buena noticia si estás en un barco, pero puntuó mal para los físicos modernos encuestados. Pero en la década de 1910, los premios fueron otorgados principalmente por cosas que concuerdan con la concepción moderna de la física.
Siguió una edad de oro de la física, desde la década de 1910 hasta la década de 1930. Este fue el momento de la invención de la mecánica cuántica, uno de los mayores descubrimientos científicos de todos los tiempos, un descubrimiento que cambió radicalmente nuestra comprensión de la realidad. También vio varias otras revoluciones: la invención de la cristalografía de rayos X, que nos permite sondear el mundo atómico; el descubrimiento del neutrón y de la antimateria; y el descubrimiento de muchos hechos fundamentales sobre la radiactividad y las fuerzas nucleares. Fue uno de los grandes periodos de la historia de la ciencia.
Después de ese período, hubo una disminución sustancial, con un renacimiento parcial en la década de 1960. Esto se debió a dos descubrimientos: la radiación de fondo cósmico de microondas y el modelo estándar de física de partículas, nuestra mejor teoría de las partículas fundamentales y las fuerzas que componen el universo. Incluso con esos descubrimientos, los físicos juzgaron cada década desde la década de 1940 hasta la década de 1980 como peor que la década de 1910 a 1930. Los mejores descubrimientos en física, según lo juzgan los propios físicos, se han ido volvieron con el tiempo cada vez menos importantes.
Nuestra gráfica se detiene a finales de los años ochenta. ¡Y la razón es que en los últimos años, el Comité Nobel ha preferido otorgar premios por el trabajo realizado en los años 70 y 80! De hecho, solo tres descubrimientos realizados desde 1990 han recibido premios Nobel [...]. Esta escasez de premios desde 1990 es en sí [muy, muy] sugerente. Las décadas de 1990 y 2000 tienen la dudosa distinción de ser las primeras décadas que el Comité del Nobel ha preferido saltarse [no han tenido más remedio ante el poco rendimiento obtenido por los científicos en estos años], otorgando en su lugar premios por trabajos anteriores [a los 90]. Y dado que los años 70 y 80 en sí tampoco fueron gran cosa [en relación a épocas anteriores], esto bien parece ser una [muy] mala noticia para la física [es decir, parece ser un claro ejemplo de lo que se conoce como distribución de rendimientos decrecientes: donde con cada vez más inversión y recursos sólo puedes obtener cada vez una menor rentabilidad].
[Pero] Incluso si a la física no le va tan bien, ¿quizás otros campos lo están haciendo mejor? Realizamos encuestas similares para el Premio Nobel de química y el Premio Nobel de fisiología o medicina [pero se ha visto que tampoco les va bien a estos campos científicos y que también presentan rasgos de rendimientos decrecientes: tenéis la gráfica y más detalles de los resultados en el artículo original].
[...] Una persona crítica podría responder que la calidad de los descubrimientos del Premio Nobel no es la misma que la tasa general de progreso en la ciencia. Ciertamente hay muchas limitaciones en esta medida. Hay por ejemplo partes de la ciencia que no están cubiertas por los Premios Nobel, especialmente las áreas más nuevas como la informática. Y el Comité Nobel ocasionalmente se pierde así un trabajo importante. Quizás podría también ocurrir que un sesgo psicológico haga que los científicos encuestados sean más propensos a venerar los premios más antiguos. Y quizás lo que más importa es la mayor parte del trabajo científico, es decir; los descubrimientos ordinarios que conforman la mayor parte de la ciencia.
Y ciertamente reconocemos estas limitaciones, y que aunque los resultados de la encuesta son sorprendentes (y apabullantemente claros), es cierto que sólo proporcionan una imagen parcial. Sin embargo, pronto veremos que existen otro tipos de evidencias independientes que sugieren que se está haciendo mucho más difícil hacer descubrimientos importantes en todos los ámbitos. Que se requiere cada vez de equipos más grandes y una preparación científica mucho más extensa, y que el impacto económico [tecnológico] en general se está reduciendo. Tomados en conjunto, estos resultados sugieren fuertes rendimientos decrecientes de nuestros esfuerzos científicos.
Cuando informamos a nuestros colegas científicos de estos rendimientos decrecientes, a veces nos dicen que esto no tiene sentido, e insisten en que la ciencia está pasando por una edad de oro. Señalan sorprendentes descubrimientos recientes, como la partícula de Higgs y las ondas gravitacionales, como evidencia de que la ciencia está en mejor forma que nunca.
Estos son, de hecho, descubrimientos asombrosos. Pero las generaciones anteriores también hicieron descubrimientos que fueron mucho más notables. Compare, por ejemplo, el descubrimiento de las ondas gravitacionales con el descubrimiento de Einstein en 1915 de su teoría general de la relatividad. La relatividad general no solo predijo las ondas gravitacionales, sino que también cambió radicalmente nuestra comprensión del espacio, el tiempo, la masa, la energía y la gravedad. El descubrimiento de las ondas gravitacionales, aunque enormemente impresionante desde el punto de vista técnico, hizo mucho menos para cambiar nuestra comprensión del universo [en realidad de momento no ha hecho nada a parte de confirmar una vez más la relatividad general, la cual data como vemos de 1915].
Y aunque el descubrimiento de la partícula de Higgs es notable, palidece al lado del panteón de partículas descubiertas en la década de 1930, incluido el neutrón, uno de los principales constituyentes de nuestro mundo cotidiano, y el positrón, también conocido como el antielectrón. El mundo de la antimateria, los quarks, etc. En cierto sentido, el descubrimiento de la partícula de Higgs es notable porque es como una especie de retorno a un estado de cosas común en la primera mitad del siglo 20, pero que es muy raro en las últimas décadas [el Higgs, además es, como el caso de las ondas gravitacionales, un mero soporte experimental -muy complejo y caro, eso sí- de una teoría que proviene nada menos que de la década de los 70. Es decir, que no ha supuesto realmente un aporte nuevo para la física teórica en ningún sentido].
[...] Considérese el progreso de la física entre 1924 y 1928. Durante ese tiempo, los físicos aprendieron que los constituyentes fundamentales de la materia tienen una naturaleza de partícula y de onda; formularon las leyes de la mecánica cuántica, llevando al principio de incertidumbre de Heisenberg; predijeron la existencia de antimateria; y muchas otras cosas además. Como dijo uno de los principales protagonistas, Paul Dirac, fue un momento en el que "incluso los físicos de segunda categoría podrían hacer descubrimientos de primera categoría" [todo era sencillo y barato, y se producían avances cada año: es decir, el rendimiento en esos momentos era muy alto].

¿Por qué la ciencia se ha vuelto mucho más cara, sin producir ganancias proporcionales en nuestra comprensión del mundo?

Un trabajo realizado por los economistas Benjamin Jones y Bruce Weinberg sugieren una respuesta parcial a esta pregunta. Han estudiado cómo los viejos científicos hacían sus grandes descubrimientos. Descubrieron que en los primeros días del Premio Nobel, los ganadores del Nobel tenían de media 37 años de edad. sin embargo con los años eso ha ido aumentado a un promedio de 47 años, un crecimiento de alrededor de una cuarta parte de la carrera laboral total de un científico.
Los científicos de hoy necesitan saber mucho más para hacer descubrimientos importantes. Como resultado, necesitan estudiar más tiempo y, por lo tanto, son mayores, antes de poder realizar su trabajo más importante. Es decir, los grandes descubrimientos son cada vez más difíciles de hacer. Y si son más difíciles de hacer, eso sugiere que habrá menos o que requerirán mucho más esfuerzo [conforme el tiempo siga transcurriendo].
De manera similar, las colaboraciones científicas ahora a menudo involucran a muchas más personas que hace un siglo. Cuando Ernest Rutherford descubrió el núcleo del átomo en 1911, lo publicó en un artículo con un solo autor: ¡él mismo! En contraste, los dos documentos de 2012 que anunciaron el descubrimiento de la partícula de Higgs tenían aproximadamente ¡mil autores cada uno! [e incluso así muchos quedaron injustamente fuera de mención] En promedio, los equipos de investigación casi cuadruplicaron su tamaño a lo largo del siglo XX, y ese aumento continúa hoy. Para progresar [un poco] en muchos campos de investigaciones actuales se requieren de muchas más habilidades que antes, de recursos costosos [normalmente millonarios o multimillonarios] y de un gran equipo de investigadores [y a pesar de toda esta inversión creciente, como vemos los resultados son cada vez peores].
Si de verdad hacer ciencia [rentable y útil] se está volviendo más difícil, ¿por qué es así?
Supongamos que pensamos que la ciencia, la exploración de la naturaleza, es similar a la exploración de un nuevo continente. En los primeros días, poco se sabe. Los exploradores exponen y descubren nuevas características importantes con facilidad. Pero poco a poco van completando el conocimiento del nuevo continente. Para hacer descubrimientos significativos, los exploradores deben ir a áreas cada vez más remotas, en condiciones cada vez más difíciles. La exploración se hace más difícil. Desde este punto de vista, la ciencia es una frontera limitada, que requiere cada vez más esfuerzo para "completar el mapa". Un día, el mapa estará casi completo y la ciencia se agotará en gran medida. Desde este punto de vista, cualquier aumento en la dificultad de descubrimiento es intrínseco a la estructura del conocimiento científico en sí mismo.
[Es decir, que el rendimiento obteniendo va decreciendo en el tiempo a pesar de mantenerse e incluso aumentarse los recursos invertidos. De hecho, este rendimiento supone que es necesario un aumento exponencial en los costes para avanzar cada vez menos lo cual supone que más pronto que tarde llegaremos a un estancamiento práctico -económico- en el avance científico en general. Siendo un claro ejemplo el hecho de que el LHC apenas aportó ningún avance teórico -repito, teórico- aún siendo el experimento más caro de la historia de la humanidad].

Si la ciencia está sufriendo rendimientos decrecientes, ¿qué significa eso para nuestro futuro a largo plazo? ¿Habrá menos ideas científicas nuevas para inspirar nuevas tecnologías de la clase que han modificado tanto nuestro mundo durante el siglo pasado?

De hecho, los economistas ven evidencia de que esto está sucediendo, en lo que llaman la desaceleración de la productividad.
Cuando hablan de la desaceleración de la productividad, los economistas están utilizando la "productividad" de una manera especializada, aunque cercana al significado cotidiano: en términos generales, la productividad de un trabajador es el ingenio con el que se hacen las cosas. Por eso, la productividad crece cuando desarrollamos tecnologías y hacemos descubrimientos que facilitan la creación de cosas.
Por ejemplo, en 1909, el químico alemán Fritz Haber descubrió la fijación de nitrógeno, una forma de extraer el nitrógeno del aire y convertirlo en amoníaco. Ese amoníaco podría entonces, a su vez, ser usado para hacer fertilizante. Esos fertilizantes permitieron que la misma cantidad de trabajadores produjeran muchos más alimentos, y así aumentó la productividad.
El crecimiento de la productividad es un signo de una sociedad económicamente saludable, una que produce continuamente ideas que mejoran su capacidad de generar riqueza. La mala noticia es que el crecimiento de la productividad en Estados Unidos ¡está bajando! ¡Ha estado cayendo desde la década de 1950, cuando era aproximadamente seis veces más alta que la de hoy! ¡Eso significa que los avances que hoy vemos en una década ocurrían cada 18 meses en la década de 1950!
Eso puede sonar sorprendente. ¿No hemos visto muchos inventos en las últimas décadas? ¿No es hoy una edad de oro para acelerar el cambio tecnológico?
No es así, argumentan los economistas Tyler Cowen y Robert Gordon. En sus libros "The Great Stagnation" y "The Rise and Fall of American Growth", señalan que la primera parte del siglo XX fue testigo del despliegue a gran escala de muchas tecnologías poderosas de propósito general: la electricidad, el motor de combustión interna, la radio, teléfonos, viajes aéreos, la línea de ensamblaje, fertilizantes y mucho más.
En contraste, reúnen datos económicos que sugieren que las cosas no han cambiado tanto desde la década de 1970. Sí, hemos tenido avances asociados a dos tecnologías poderosas de propósito general: la computadora e Internet. Pero muchas otras tecnologías han mejorado solo de manera incremental [es decir, que son meras mejoras -en ocasiones muy marginales- de tecnologías ya existentes].
Piense, por ejemplo, en la forma en que los automóviles, los viajes aéreos y el programa espacial transformaron nuestra sociedad entre 1910 y 1970 ampliando la experiencia de las personas en el mundo. Para 1970, estas formas de viaje habían llegado a algo cercano a su forma moderna; y proyectos ambiciosos como el Concorde y el Programa Apollo no lograron expandir aún más el transporte [...] el progreso reciente en el transporte ha sido sin embargo incremental [marginal] en comparación con el gran progreso de las primeras décadas del pasado siglo XX.

¿Qué está causando la desaceleración de la productividad?

El tema es controvertido entre los economistas, y se han propuesto muchas respuestas diferentes. Algunos han argumentado que es simplemente que las medidas de productividad existentes no hacen un buen trabajo midiendo el impacto de las nuevas tecnologías. Nuestro argumento aquí sugiere una explicación diferente: que son los rendimientos decrecientes en la ciencia [un proceso que sería natural e inevitable] los que están contribuyendo en realidad a una verdadera desaceleración de la productividad [en resumen: que la ciencia no aporta con nueva tecnología útil al ritmo adecuado].
Y no somos los primeros en sugerir que el descubrimiento científico está mostrando rendimientos decrecientes. En 1971, el distinguido biólogo Bentley Glass escribió un artículo en Science argumentando que los días de gloria de la ciencia habían terminado, y que ya se habían hecho los descubrimientos más importantes:
"Es difícil de creer pero se ve complicado que lleguen a volver a ocurrir descubrimientos tan asombrosos como la propuesta de Darwin sobre la evolución de la vida o la comprensión de Mendel de la naturaleza de la herencia. Después de todo, ¡estos hechos ya han sido descubiertos!"
En su libro de 1996 "The End of Science", el escritor científico John Horgan entrevistó a muchos científicos destacados y les preguntó sobre las perspectivas de progreso en sus propios campos. Lo que encontró no fue alentador. Aquí, por ejemplo, está Leo Kadanoff, un destacado físico teórico, sobre el progreso reciente en la ciencia:
"La verdad es que no hay nada nuevo a la vista. No se espera nada del mismo orden de magnitud que los logros de la invención de la mecánica cuántica, de la doble hélice de ADN, o de la relatividad. Nada de eso ha sucedido en las últimas décadas ni se espera nada similar."
Horgan le preguntó a Kadanoff si ese estado de cosas era permanente. Kadanoff se quedó en silencio, antes de suspirar y responder: "Una vez que ya has probado gran parte de las leyes naturales a las que el mundo es conforme, no puedes volver a hacerlo [las novedades dispuestas a ser descubiertas se agotan]".
Pero aunque muchas personas han expresado su preocupación por la disminución de los retornos en la ciencia, ha habido poca respuesta institucional. [...] Quizás esta falta de respuesta es en parte porque algunos científicos creen que reconocer los rendimientos decrecientes es algo así como traicionar el interés personal colectivo de todos los científicos. Al contrario, la mayoría de los científicos están a favor de una mayor financiación en la investigación [los científicos son personas, y como tal necesitan comer, siendo en este sentido el dinero público el recurso más sencillo y apetitoso]. Les gusta representar la ciencia de manera positiva, enfatizando los beneficios y minimizando lo negativo. Si bien es comprensible, la evidencia es que la ciencia se ha ralentizado enormemente por unidad de dólar invertido. Esta evidencia exige una respuesta institucional a gran escala [hay muchas cosas que hacer con el dinero público a parte de malgastarlo en derroches que en el mejor caso lleven a mejoras tecnológicas incrementales y marginales]. Debe [debería] ser un tema importante en la política pública, y en las agencias de becas en las universidades. Comprender mejor la causa de este fenómeno es importante [aunque lo primero es reconocer el propio problema], e identificar formas de revertirlo [si es que es posible] es una de las mejores oportunidades para mejorar nuestro futuro.

jueves, 15 de noviembre de 2018

Le energía de fusión que (probablemente) nunca llegará

Hoy hemos visto en portada dos artículos relacionados con la experimentación en reactores de fusión: qvhumanitas.com/los-poderosos-destellos-del-sol-artificial-chino/, y www.iter.org/newsline/-/3169.
Y la cuestión es que, aunque nadie lo diga, no hay ninguna garantía teórica que confirme que sea posible que algún día un reactor de fusión pueda ser rentable energéticamente: es decir, que pueda ofrecer energía restante una vez descontada la que consume para funcionar. Así que todas esas tradicionales afirmaciones del tipo de "habrá que esperar aún 30 años" (afirmaciones que por cierto se llevan haciendo desde hace ya más de 70 años sin que jamás se cumplan) son: o bien puro marketing por parte del científico que busca más financiación pública, o simplemente pura ignorancia del periodista que escribe lo que otros le dicen sin tener ni idea.
Vamos a intentar explicar para el profano (de manera clara, pero aproximada y no rigurosa) qué es la fusión y por qué es tan complicado que algún día llegue a ser rentable.

La fusión nuclear.

Un átomo es básicamente un conjunto de electrones "orbitando" un denso núcleo central. Este núcleo del átomo está a su vez formado por un conjunto de protones y neutrones. Y en esencia todos los elementos de la tabla periódica son esta misma cosa, variando únicamente el número de protones y neutrones que contiene su núcleo.
Pues bien, el proceso de fusión (entendido en su sentido físico más usual), supone el hecho de que, dadas ciertas condiciones, es posible que dos núcleos atómicos lleguen a fusionarse (unirse o mezclarse) produciéndose en el proceso la transformación de un tipo de átomo en otro (al modificarse el número total de elementos en el núcleo, que como vimos es lo único que diferencia a los distintos elementos). Sin embargo esta fusión nuclear requiere de un aporte de energía (de un "empujón" de los núcleos a fusionar) ya que se debe superar un potencial natural que intenta evitar precisamente esta unión. Por lo tanto la fusión "fría" es un proceso que no se da naturalmente.

La fusión en las estrellas.

Pero en las estrellas la cosa cambia, puesto que en ellas ocurre que se dispone de un gigantesco potencial gravitatorio (siempre atractivo) dispuesto de manera natural. Este potencial supone la existencia espontánea de una fuerza proporcional a la cantidad de masa que "empuja y aplasta" centralmente los elementos presentes, de modo que en el centro de la estrella (donde la temperatura es mucho mayor) los electrones que "orbitan" los átomos adquieren sin problemas la energía necesaria como para abandonar su "ligamiento" con el núcleo, de modo que lo que resta son núcleos atómicos "sueltos" sin electrones fijos a su alrededor. A ese estado de la materia se lo conoce como plasma.
Pues bien, este plasma está tan caliente, y el potencial gravitatorio de la masa total de la estrella prensa con tanta fuerza los núcleos entre sí, que finalmente se activa de manera autónoma un proceso de fusión nuclear. Sencillamente decimos en este sentido que la energía necesaria para superar la "repulsión" natural a la fusión la ofrece de manera natural la gravedad de la propia estrella, siendo por lo tanto el colosal potencial gravitatorio el que permite los procesos de fusión en los cuerpos celestes ultra masivos.

Energía y fusión.

Cuando en una estrella dos núcleos se fusionan, el resultado final es la "desaparición" de los dos núcleos iniciales y la "aparición" de un núcleo final el cual contiene (ligado) la suma de protones y neutrones de los núcleos originales. Pero además el proceso libera una gran cantidad de energía. Es decir, que al final acabamos con un núcleo más "pesado" y con un remanente de energía libre extra. Esta energía suplementaria es, por cierto, la que ejerce una presión hacia fuera de la estrella, gracias a la cual se contrarresta la presión central hacia el interior que ejerce el potencial gravitatorio. Se produce así un balance o equilibrio que permite que las estrellas duren y "quemen" su combustible nuclear durante miles de millones de años en lugar de acabar todo rápidamente mediante una gran explosión (lo cual ocurre de hecho al final de la vida de ciertas estrellas -cuando ya no tienen más "combustible"- en lo que se conoce como supernova). Por cierto que una pequeña parte de esta energía excedente escapa de la estrella navegando hacia el espacio exterior, como ocurre por ejemplo con la energía Solar que baña nuestro planeta.
En resumen: que el proceso de fusión nuclear no procede a menos de que se "fuerce" a ello mediante el uso de un potencial energético externo. En el caso de las estrellas esta "fuerza" necesaria la otorga la gravedad.

Fusión en la Tierra.

Los científicos llevan ya casi 70 años pretendiendo imitar el comportamiento estelar en la superficie de nuestro planeta, mediante la pretendida creación de reactores de fusión nuclear. El resultado hasta la fecha, huelga decirlo, ha sido nefasto. Y lo es, en gran parte, porque aquí no disfrutamos del formidable potencial gravitatorio central que sirve de fuente energética natural para la fusión en las estrellas.
En estos astros, la gravedad no sólo funciona a modo de ignición (calentando y creando el plasma necesario para la fusión), sino que también actúa a modo de contenedor: es decir; que impide gracias a su atracción central que el plasma "escape" o de desintegre, favoreciendo y manteniendo automáticamente el proceso de fusión durante millones de años. Pero aquí en la Tierra no poseemos una fuerza natural central capaz de hacer todo esto, así pues debemos hacer uso (utilizar activamente) un potencial energético alternativo.
Sin embargo la ignición y contención del plasma ocurre a temperaturas capaces de derretir cualquier recipiente (sin importar de qué esté fabricado). Y puesto que no hay un contenedor material capaz de soportar estas temperaturas, no queda más remedio que contener el plasma separado (casi "levitando") de todos los demás componentes del reactor mediante el uso de técnicas electromagnéticas (imanes, superconductividad, etc), lo cual requiere del uso continuado y activo de una cantidad gigantesca de energía libre para mantener dicho proceso.
Pero debe quedar claro que, a diferencia de lo que ocurre en las estrellas, aquí NO disponemos de una fuente espontánea de energía que nos sirva al uso, y debemos por contra conseguir producir activamente energía libre para usarla en modo de contención y de ignición (para que el plasma no se enfríe). Y en este sentido es en el que no está para nada claro que la fusión sea rentable: i.e., que pueda ofrecer una energía neta positiva una vez descontada toda la que se consume en el propio proceso de ignición y contención.

Hay poco soporte teórico.

Hasta la fecha no hay un soporte teórico firme capaz de demostrar que es posible que la idea de crear reactores de fusión rentables sea viable. Al contrario, las leyes de la termodinámica parecen apuntar justo en la dirección opuesta. Y es que, como hemos comentado, en el caso de la Tierra necesitamos hacer uso activo de un flujo constante de energía libre que retroalimente al aparato de fusión para que no se apague o "reviente", pero las propias leyes termodinámicas avisan de que es imposible que tales "circuitos" de retroalimentación duren mucho tiempo a causa de la obligada pérdida de energía en forma de calor (aumento de entropía). Todo movimiento energético es "imperfecto" en el sentido de que por el camino siempre se pierde algo de energía útil de modo que la exergía disminuye siempre con el tiempo.
En el caso de un reactor terrestre, a parte del enorme coste energético inicial de calentar el plasma y activar los instrumentos contenedores (energía que hay que producir y transportar con una fuente alternativa como por ejemplo la fósil), luego tenemos que "reaprovechar" el excedente energético de la reacción de fusión en el plasma para mantener estable al propio plasma, lo cual supone "coger" parte de esa energía útil generada por la fusión, y "llevarla" (transportarla) a la maquinaria de contención e ignición, perdiéndose inevitablemente por el camino en cada ciclo energía en forma de un aumento de entropía.

Logros hasta la fecha.

Tras muchas décadas de investigación y cientos de miles de millones de euros gastados, no se ha logrado dar con un aparato electromagnético capaz de contener el plasma a un coste energético inferior al de producción. De hecho, hemos sido incapaces de mantener el ciclo de fusión ni siquiera durante segundos (sin importar en este caso el coste o la rentabilidad), mientras que este mismo proceso de fusión en las estrellas sutilmente acontece durante miles de millones de años sin problema alguno.
Evidentemente esto no dice mucho a favor de la viabilidad teórica de que existan mecanismos electromagnéticos viables capaces de imitar las condiciones estelares para producir una fusión continuada en un reactor. Por el contrario, es como decimos bastante probable que se trate de un Santo Grial inalcanzable bajo las circunstancias físicas terrestres.
Es más, lo que los resultados actuales (como los descritos en los artículos enlazados al principio) demuestran es simplemente la manera en que los científicos están mejorando estos carísimos aparatos buscando la máxima eficiencia de funcionamiento posible (batiéndose con el tiempo algún que otro "récord"), pero NADIE garantiza que la máxima eficiencia teórica (es decir, física) sea suficiente para producir más energía libre de la que consume en el proceso.
De hecho, el relativo "poco" avance logrado durante las últimas décadas parecen indicar que posiblemente estemos ya bastante cerca del posible límite natural para este tipo de aparatos (los cuales repitamos una vez más, están lejos no sólo de permitir un ciclo de fusión estable y continuado -que dure años y no milisegundos-, sino que todavía consumen mucha más energía de la que produce luego en la reacción dentro del plasma). A modo de símil, y para entender bien lo que estos "avances" podrían representar, sería algo similar a lo que ocurre, por ejemplo, con los atletas profesionales cuyos "récords" son cada vez más raros y de magnitud más pequeña conforme nos acercamos a los límites físicos de nuestro cuerpo. Probablemente la promesa de la "inagotable y limpia" fusión nuclear sea el equivalente a esperar que algún día un atleta haga los 100 metros lisos en 5 segundos (cosa que sencillamente es un logro imposible dadas nuestras circunstancias fisiológicas).
A modo de resumen concluir que muy posiblemente lo más cerca que vamos a estar de poder aprovechar de manera rentable la energía de la fusión nuclear sea mediante el uso de los paneles solares, en los cuales "recogemos" una parte (marginal) de la energía producida en el proceso de fusión acontecido en el Sol.

martes, 13 de noviembre de 2018

¿Qué es la materia (III)?

Vamos a continuar en esta entrada con la serie de divulgación que empezamos hace un par de semanas sobre el asunto de la materia. En concreto en estos dos enlaces: http://quevidaesta2010.blogspot.com/2018/10/que-es-la-materia.htmlhttp://quevidaesta2010.blogspot.com/2018/11/que-es-la-materia-ii.html. Esto significa que para poder entender algo de esta entrada no hay más remedio que echar aunque sea un leve vistazo a las dos entradas anteriores. Y ciertamente comprendo que esta petición es atrevida y hará que más de uno no continúe leyendo el presente artículo, pero me temo que no hay más remedio. Así pues, para aquellos curiosos y atrevidos, continuemos por donde lo dejamos la última vez y adentrémonos en un tema que seguro va a interesar a muchos: ¿qué son las partículas "virtuales"?

Mmmm...¿partícula "virtual"?

Es posible que cierta parte de los lectores del presente artículo no hayan escuchado nunca este término, y es bastante probable que la mayor parte de los que sí conozcan el término, lo hayan escuchado de "refilón" sin saber demasiado bien qué quieren decir los físicos con semejante "virtualidad". Es más, incluso muchos físicos de carrera tienen dificultades para comprender bien la esencia de este asunto. Así pues, y sin más dilación, vamos a intentar explicar a continuación el tema de la manera más simple posible (aunque me temo que será obligatorio que eches antes un vistazo al menos a esta primera entrada de la serie http://quevidaesta2010.blogspot.com/2018/10/que-es-la-materia.html).
De todas formas, y como es bien sabida nuestra tendencia al mínimo esfuerzo, vamos a recordar de todas formas brevemente qué fue lo que acordamos en posts anteriores sobre lo que entiende la física más actual en relación al concepto de partícula. Según la física moderna, la noción de partícula se reduce al de una mera excitación ondulatoria (sinusoidal) que se propaga dentro de cierto campo cuántico. En este sentido realizamos una analogía simbólica que nos permitía entender estos "palabros" físicos mediante la metáfora de que en el mundo existe algo así como un "mar" de "mares" que cohabitan y existen de manera ubicua en cada rincón infinitesimal del espacio-tiempo. Estos "mares" presentan ciertos lugares sin apenas flujos y alteraciones ondulatorias (vacío cuántico en estado fundamental), y otros lugares con grandes alteraciones ondulantes (partículas) que se propagan y acoplan (trasvasan) de un "mar" a otro con cierta probabilidad. Finalmente determinamos que existe como mínimo un "mar" distinto para cada partícula conocida. 

La partícula "real".

El anterior concepto de partícula como una vibración ondulatoria en un cierto "mar" (campo cuántico) necesita de un refinamiento teórico del que no necesitamos hasta este momento: en concreto, se trata de añadir a la descripción previa que las partículas (la perturbación ondulatoria que representan en esencia) deben presentar un movimiento regular, suave y constante. Un movimiento espacial de traslación (senoidal) periódico en el tiempo (simulando el movimiento del armónico simple). Es concretamente esta suave y continua propagación ondulatoria (este tipo de "ola" o flujo en cierto "mar") lo que entendemos por partícula "real" (del tipo que sea). Recordemos por cierto que el tipo de partícula -vibración- lo determinará el tipo de "mar" -campo cuántico- en que ésta uniforme vibración sucede.

La partícula "virtual".

La partícula "virtual" en física teórica es un término bastante confuso de partida, pero gracias al símil de los "mares" que venimos haciendo desde el principio, podemos acordar que será "virtual" aquella partícula que no cumpla con el último requerimiento que acabamos de mencionar antes: esto es, que sea una perturbación en un "mar" (campo cuántico) pero que ¡no presente un movimiento estable, regular, suave y periódico!
Por lo tanto, partículas "reales" y "virtuales" son en esencia la misma cosa: perturbaciones y alteraciones en sus "mares" correspondientes las cuales alteran el estado fundamental de reposo ("mar" sin "olas" -o técnicamente, campo cuántico en su estado de vacío-). Siendo de remarcar que la única diferencia entre ambos fenómenos físicos es el hecho de que las partículas "virtuales" constituyen perturbaciones (alteraciones dinámicas) no periódicas, semi-caóticas, y abruptas que sin embargo acontecen en el mismo "mar" (campo cuántico) que las suaves perturbaciones (senoidales) capaces de permanecer y trasladarse como un flujo en dicho "mar" (las partículas "reales").

Ejemplos de partículas "reales".

Un electrón es una partícula "real", una suave onda (senoidal) periódica en el campo cuántico ("mar") de electrones; puedes sostener uno en tu mano, por así decirlo; puede hacer un haz de ellos y enviarlos a través de una habitación o dentro de un televisor de rayos catódicos. Por otra parte, también un fotón es una partícula "real" de luz, una onda en el campo electromagnético (nombre que recibe el "mar" de los fotones), y puedes también hacer un haz de fotones (como en el caso de un láser).

Ejemplo de partículas "virtuales".

Imagina ahora que tenemos dos electrones "reales" que pasan cerca uno del otro como en la figura de arriba. Debido a su carga eléctrica (una propiedad esencial y distinguida que cada "mar" -campo cuántico- puede poseer o no), estos electrones (excitaciones ondulatorias periódicas) perturban el campo electromagnético (a veces llamado campo de fotones, puesto que sus ondulaciones son fotones). Pero debe quedar claro que esta alteración en el "mar" de fotones, dibujada arriba en verde, ¡no son "realmente" fotones! Y no lo son porque no representan una onda moviéndose o trasladándose (fluyendo) por el espacio. De hecho no son ondas en absoluto, y ciertamente no tienen la obligación de moverse a ninguna velocidad.
Como vimos en entradas anteriores, las excitaciones en los campos cuánticos (partículas) poseen ciertas características intrínsecas que trasladan con ellas conformen se mueven por el espacio (nivel energético, momento, carga eléctrica, carga de color, spin, etc.), y el hecho de que dos ondas de este tipo se aproximen modifican en general la probabilidad de acoplamiento entre los campos "mares" existentes. Y recordemos que este acoplamiento no es ni más ni menos que un parámetro (un número) que viene a indicar la probabilidad de que se produzca una interacción entre varios tipos de "mares". Existen en las matemáticas del modelo estándar varios parámetros de este tipo los cuales determinan la probabilidad de que una excitación de cierto campo interactúe con otro campo. De hecho, las ecuaciones del modelo estándar de partículas vienen a ser un compendio (casi un batiburrillo) de términos que vienen a representar cada tipo de interacción posible entre los campos ("mares") descubiertos experimentalmente hasta ahora (¡incluso el valor numérico concreto de los parámetros de acoplamiento fueron puestos en el modelo ad hoc para hacer cuadrar esta larga ecuación con la fenomenología del mundo!).

Interacción entre mares a base de partículas "virtuales".

De lo dicho anteriormente se puede concluir que la función de las partículas "virtuales" es la de perturbar los diferentes campos cuánticos según sean las propiedades intrínsecas que las partículas "reales" posean a la hora del acoplamiento efectivo. En el caso anterior de los dos electrones que se aproximan, visual y simbólicamente se podrían interpretar los hechos como sigue:
Empezamos con dos suaves y periódicas ondas ("olas") en el "mar" de electrones que se van moviendo y trasladando por el espacio (los puntos azules de la ilustración). El simple movimiento de cada electrón individual produce (debido a la carga eléctrica que transporta de manera intrínseca) una perturbación abrupta, caótica y no periódica en el "mar" de fotones (campo cuántico electromagnético). Estas alteraciones ("olas") no periódicas (no ondulatorias) ya vimos que no se mueven por el espacio y desaparecen casi tan pronto como aparecen: ¡se trata de fotones "virtuales"!
Pero aunque las alteraciones -"virtuales"- en el "mar" de fotones no se trasladen como tal, el hecho es que siempre aparecen y desaparecen de manera contínua de modo que de todas formas una especie de "nube de fotones virtuales" siempre acompaña al electrón, siendo la probabilidad de que un electrón genere un abrupto fotón "virtual" en cierta posición x del espacio inversamente proporcional a la distancia entre el electrón y x -aunque el rango efectivo es en realidad infinito, y cualquier electrón puede generar con cierta probabilidad (cada vez menor) un fotón "virtual" a cualquier distancia no importa cuan lejos miremos-. Por lo tanto, conforme más cerca de la suave onda del electrón nos coloquemos, más probable es que surja de manera espontánea una áspera perturbación en el "mar" de fotones. Así pues podemos imaginar esa suave onda periódica que se mueve (el electrón) rodeada de círculos concéntricos de fotones "virtuales" (perturbaciones que no son ondas, y que aparecen y desaparecen rápidamente) conformando una especie de "nube" cuya densidad disminuye conforme nos alejamos espacialmente del electrón.
Pues bien, cuando dos electrones se aproximan ocurre algo muy interesante. La densidad de fotones "virtuales" que acompañan a ambos electrones empiezan a armonizar y compaginarse de tal suerte que van dictando una dinámica muy particular para ambas partículas "reales". En el caso de que las cargas eléctricas sean iguales (como el caso de dos electrones) estas aditivas alteraciones (abruptas -"virtuales"-) en el "mar" de fotones determinará un flujo repulsivo contra la suave onda (perturbación ondulatoria en el "mar") del electrón, modificando de este modo su camino recto (el cual se habría visto inalterado de no ser por esta interacción con el "mar" de fotones).
Es decir, que las alteraciones ("los fuertes y caóticos oleajes") generados por cada electrón (debido a su carga) en el "mar" de fotones, son los que "empujan" las ondas de las partículas "reales" modificando su momento (sentido de movimiento y velocidad). ¡Es precisamente en este sentido en el que se dice que las partículas "virtuales" son las encargadas de transmitir las "fuerzas" en la naturaleza! De no ser por ellas, todas las partículas se moverían libremente sin interactuar unas con otras en modo alguno, y por lo tanto las trayectorias de éstas jamás se verían alteradas: todo iría siempre siguiendo el camino más recto posible...y punto.
Como nota mencionar que si en lugar de dos electrones, hubiésemos tenido un electrón y un positrón (antielectrón) acercándose, la densidad en la turbulencia o flujo en el "mar" de fotones habría en este caso"empujado" al electrón y el positrón uno hacia el otro (debido a las distintas cargas que poseen) en lugar de repelerlos como ocurrió en el caso de los dos electrones.

Las matemáticas de la naturaleza.

Visto lo visto uno puede preguntarse qué narices determina entonces la dinámica de toda la fenomenología en el mundo, y la respuesta es bien clara: las matemáticas. Hemos visto que los fenómenos (las ondulaciones y las fuerzas -interacciones-) dependen absolutamente del concepto de probabilidad (que en el modelo estándar se simboliza mediante parámetros -números- para los distintos acoplamientos entre "mares"), dependen del concepto de ecuación de onda, de los principios cuánticos (fundamentalmente el principio de incertidumbre y la exclusión de Pauli), y del concepto de simetría (es decir; de la conservación de ciertos valores a los que les damos nombre físicos -momento, energía, carga eléctrica, carga de color, spin,...- pero que en el fondo sólo representan variables numéricas que cambian en el tiempo de manera algebraica).
De este modo los físicos durante casi un siglo se esforzaron por aunar todos estos preceptos (junto con los propios de la relatividad especial), de modo que el resultado ha sido un modelo matemático teórico capaz de predecir (con muchos decimales de precisión) todo lo que hemos podido corroborar hasta ahora de manera experimental en los aceleradores de partículas. Pero en el fondo se puede entrever que el fenómeno en el mundo parece carecer de otra "esencia o sustrato" que no sea pura matemática. Porque aunque el modelo estándar es de sobra conocido que no es todavía un modelo completo del mundo natural, no obstante su gran éxito nos permite extrapolar sin miedo a equivocarnos que sea cual sea finalmente ese modelo capaz de dar cuenta de todo, el mismo resumirá con certeza sus premisas sobre la propia realidad del número, de la función, del cambio algebraico, la ecuación de onda, la probabilidad...y poco más.
Y ciertamente nuestra (prejuiciosa) mente se resiste a renegar de la física, o de desplazarla como una mera ilusión fenomenología que emerge por entre los potenciales eléctricos de nuestro cerebro, pero es que es lo que todo parece indicar. ¿Qué es, por ejemplo, un electrón? Por lo que sabemos simplemente un conjunto de números. Identificamos a su carga eléctrica con un número, a su espín también con un número, su posición la indican varios números, lo mismo que su velocidad, su energía, su masa, etc. Y también son números la probabilidad de sus acoplamientos, y las ecuaciones algebraicas (ecuación de onda, lagrangianos, etc.) que relacionan y modifican todos sus números con los números de otras partículas (que son la misma cosa pero con otros valores numéricos y otra cantidad de variables: otras cargas como la carga de "color" de los quarks, etc.).
Y si alguien de verdad reniega de este ideal matemático que recuerda mucho a las propuestas platónicas, le reto a que me diga, por favor; qué es entonces en su opinión y a la vista de la física moderna, un electrón. Qué realidad física -no matemática- presenta dentro de las descripciones del mundo cuántico que descubrimos ya a principio del siglo pasado. ¿Qué "sustrato o sustancia" física nos queda ya hoy día? Dudo que nadie sepa qué responder de manera honesta y congruente, porque en este momento resulta evidente que todo en el fenómeno se reduce a ondas de probabilidad, a distribuciones de números, a modificaciones en dichas variables numéricas, y siempre todo de acuerdo a leyes de simetría que en el fondo lo único que indican es que matemáticamente todos estos números deben conservarse de manera global y local de modo que la ilusión de cohesión y causalidad física permanezca coherente ante nuestra mente de simio venido a más.