martes, 5 de marzo de 2019

El libre albedrío es una ilusión...y aquí tienes la prueba

¡Impactante! La mujer del vídeo de abajo demuestra claramente que si perdemos nuestra memoria a corto plazo, queda al descubierto que ante una misma situación (neurológica = fisico-química) y un mismo estímulo externo (sensible) actuamos siempre del mismo modo, lo cual implica que nuestras decisiones no son "libres" sino que vienen marcadas por algoritmos (heurísticos neuronales) subconscientes bastante deterministas.
Es decir, que es evidente que esta mujer tiene un problema neurológico...pero uno que ayuda a descubrir que sin la ayuda de la memoria a corto plazo es posible experimentar empíricamente con un paciente de manera que se puede replicar fácilmente con un estado cognitivo (neuronal) casi idéntico en varios ocasiones, y así descubrir que ante un mismo estímulo sensible la respuesta es siempre la misma: ¡lo cual va en contra de cualquier tipo de idea de "libertad" (por mucho que se quiera retorcer el término)! 
Os dejo con un extracto del último artículo de Francis de donde he sacado la información principal:
"Te recomiendo este vídeo que nos comenta Antonio José Osuna Mascaró (Tay‏, @BioTay) en Twitter: “El libre albedrío es una ilusión. Esta mujer ha perdido temporalmente su memoria a corto plazo y esto ha hecho que entre en un bucle, cada 90 segundos sus respuestas y expresiones se repiten. Mismos estímulos, mismas respuestas, como las máquinas que somos. Su hija estuvo 9,5 horas manteniendo la misma conversación, en bucles repetidos cercanos a los 2 minutos. Para más detalles de este caso (en palabras de ambas) os recomiendo el último episodio de @Radiolab, “Loops,” a partir del minuto 12:00. Alguien podría pensar que es un caso aislado, quizás pudo haber algún factor que llevaba a Mary Sue al bucle. No es así, el bucle aparece en casi todos los casos de AGT (Amnesia Global Transitoria) [wiki]. Bajo las mismas condiciones el libre albedrío desaparece, como la ilusión que es”".

martes, 19 de febrero de 2019

Arcadi Espada y la antinatalidad

Enorme polémica en las redes por lo que escribió Arcadi Espada en un artículo ¡de 2013! acerca de traer al mundo niños con enfermedades graves. El artículo se titulaba “Un crimen contra la humanidad” y allí decía: “Si alguien deja nacer a alguien enfermo, pudiéndolo haber evitado, ese alguien deberá someterse a la posibilidad, no solo de que el enfermo lo denuncie por su crimen, sino de que sea la propia sociedad, que habrá de sufragar el coste de los tratamientos, la que lo haga”. La polémica ha resurgido porque en una entrevista con Risto Mejide en el programa “Chester” se le preparó a Arcadi Espada una encerrona con un padre de un niño con síndrome de Down y, ante una impertinencia de Mejide, Espada abandonó el plató.

Pero es que probablemente el crimen sea traer niños al mundo independientemente de su condición genética.  ¿Alguien ha leído el argumento de la asimetría que defiende David Benatar en su libro "Better Never To Have Been" (Mejor no haber existido nunca)? Dice más o menos así:

- El que no nace evidentemente no puede sufrir de ningún modo. No sufrirá mal o necesidad alguna ni tampoco sufrirá por ausencia de placer: no haber podido disfrutar de "una puesta de Sol" o alguna otra "migaja" emocional que nos haga obtener puntualmente dopamina y endorfinas. El que no nace no tiene cerebro y no puede sufrir en modo alguno: punto. 

- Por otra parte, el que nace ciertamente obtendrá "chutes" ocasionales de neurotransmisores que lo harán sentirse bien (placer), pero también necesariamente se verá constreñido a padecer en muchas ocasiones sufrimiento, necesidad y frustración debido al modo en que funciona nuestro (evolutivo) sistema neuroendocrino.

En resumen:

- El no nato no sufre males (lo que está bien) ni obtiene placeres (lo que no está ni bien ni mal, ya que un ser inexistente y sin cerebro no puede echar de menos ni lamentarse por no poder recibir dopamina). Por lo tanto, por un lado bien y por otro ni bien ni mal.

- El que nace, sin embargo, sufrirá de muchos males existenciales (lo que está mal) y de ocasionales sentimientos positivos (lo que está bien). Por lo tanto, por un lado bien y por otro mal.

Vemos que existe asimetría entre ambos casos, y en opinión de David Benatar el hecho de que el que no nazca no pueda sufrir mal alguno al contrario de lo que le ocurre al que nace convierte la natalidad en general en un acto inmoral en su conjunto. Traer hijos a la existencia (crear nuevos cerebros) supone traer dolor al mundo. Un dolor que sencillamente no existiría sin nuestro acto de procreación. 

Y no tener hijos (no crear cerebros) es el único modo de evitar cualquier tipo de mal, ya que no hay un "limbo" de fetos que vayan a lamentar con sus cerebritos ya formados no poder experimentar "puestas de Sol". La ausencia de placer no es un mal por mucho que lo queramos extrapolar de ese modo. En realidad es casi lo mismo que defiende Arcadi en su artículo sólo que llevado un paso más allá. No importa la cantidad de dolor que vaya a sufrir el que nazca (por enfermedad genética o lo que sea), sino el hecho de que nacer (sano o enfermo), SIEMPRE va acompañado de dolor sin importar la predisposición (genética). 

Porque además: ¿Cuánto dolor estadístico -previsible- es la cantidad moral aceptable para abortar? ¿Quién cuantifica el umbral de dolor por el que es o no moral tener hijos? ¿Y si el niño nace bien pero luego sufre un cáncer, o sufre depresiones, o muere en un accidente de coche? David Benatar piensa que la cantidad moral es cero...pero la única manera de lograr evitar el sufrimiento por completo es mediante la antinatalidad.

martes, 12 de febrero de 2019

Dark matter new hypothesis

Talking about dark matter:

Now that SUSY hypothesis finally seems wrong, could be mathematically consistent to postulate that dark matter maybe a field whose particles don't interact at all with our "ordinary" matter (nor by the electroweak force neither by strong nuclear force) and that just by deforming the space-time with its mass(in a GR way) it disturbs indirectly the "ordinary" matter?

In other words, there could exists (transparents) fields unable to couple (in any way) to the known (accessible) ones? there could exists something like a separate set of fields forming a "dark" lagrangian ("dark" to us in the sense this L does not interact with our SM one) and that then this independient set of "dark" fields could be phenomenology presented to us only by the deformation their mass produce in the space-time?

Moreover, could an explanation of this type be behind also of dark energy in some way (maybe the equivalent of a "dark Higgs" mechanism with a special & different breaking potential)?

In summary: in contrast to the WIMPs hypothesis that talks about "interactions only through the weak nuclear force and gravity, or possibly other interactions with cross-sections no higher than the weak scale ", I refer to an hypothetical set of new fields that only interacts (with "ordinary" matter) indirectly though gravity in a general relativity manner (and nothing else). In fact, these fields would have their own lagrangian with no relation at all with the SM one (in low energy scales, possible unifying at very high energies).

And just to make it clear, I don't talk about the sterile neutrino hypothesis (a "simple" extension of the current standard model) because: "[sterile neutrino would] have Yukawa interactions with ordinary leptons and Higgs bosons, which via the Higgs mechanism lead to mixing with ordinary neutrinos". I.e.; they'd still could interact with (decay into) "ordinary" matter (they are WIMPs after all and I don't refer to that). By contrast, I'd like to know about the possibility of a fully non interacting massive particles as dark matter candidate. As I said we'd be a fully independent set of fields unable to interact at all with the SM particles except but the gravity generated by their mass in a GR way (just disturbing the space-time).

So, what do you think? There could exist two set of fields each one with its own lagrangian conforming a particular (and totally unrelated) gauge interaction model: something like an "ordinary" particle model ("light" standard model) and a independent -and unknown- "dark" particle model ("dark" standar model). We'd have also the classic general relativity that would feel the mass effects of the particles of the two set of fields and that'd be the responsible of the gravity interaction we observe between the "ordinary" matter and the "dark" matter. This hypothesis would be consistent at low energy scales but it could unify at very high energies where the quantum gravity would replace the classic general relativity approximation.


Mejor no haber nacido y no tener hijos: la filosofía que defiende la extinción humana

Hoy nos hemos levantado con esta noticia en el diario El País: verne.elpais.com/verne/2019/02/11/articulo/1549898606_574493.html
En concreto se trata de un artículo de opinión donde se trata un movimiento filosófico bastante en boga últimamente: el antinatalismo. Ya el artículo señala que esta filosofía tiene una amplia trayectoria, pudiendo rastrearse su origen a grandes pensadores de la talla de Schopenhauer y Zapffe, aunque olvidan mencionar al que fuera discípulo de Schopenhauer: Philipp Mainländer, el cual fue realmente el primer antinatalista propiamente dicho. Por cierto que la obra de este gran autor tristemente ignorado se puede conseguir en castellano y merece mucho la pena su lectura (especialmente su cosmovisión metafísica de fondo).
Pero, ¿en qué consiste el antinatalismo?
Es siempre complicado pretender explicar en pocas palabras una corriente filosófica pero voy a intentar dar una somera aproximación utilizando parte de un reciente libro dedicado por entero a la defensa del antinatalismo: "Better Never To Have Been" (Mejor no haber existido nunca), del filósofo sudafricano David Benatar. En concreto, y siempre grosso modo (lo ideal, por supuesto es leer el libro completo), el autor resume y defiende lógicamente su propuesta mediante un argumento al que llama “la asimetría”:
"[...] la ausencia de dolor es un bien, pero la ausencia de placer no es ni un bien ni un mal. Es decir, alguien que nace puede que disfrute de placeres (bien), pero también sufrirá algún mal a lo largo de su vida (mal). En cambio, quien no nace ni sufrirá ningún mal (bien) ni disfrutará de ningún placer (ni bien, ni mal). El hecho de que la ausencia de placer no sea algo malo inclina la balanza en favor de no haber nacido".
En su opinión, si ahora todos nos pusieramos de acuerdo y de sopetón nadie decidiera traer nueva descendencia hasta que la humanidad se extinguiera por completo, no causaríamos con tal acto ningún mal a nadie, puesto que no se puede hacer daño a quien no existe (mucho menos arguyendo ausencia de placer). Por contra, el mero hecho de no tomar esta decisión social implica que nuevos seres vendrán al mundo, y que inevitablemente sufrirán de muchos males a lo largo de su leve y breve existencia. Esa es “la asimetría”. El que no nace evidentemente no puede sufrir por no haber nacido, ni por no haber podido disfrutar de una puesta de Sol, ni por ninguna otra "migaja" emocional que nos haga obtener dopamina. Mientras que el que nace necesariamente se verá constreñido a padecer sufrimiento, necesidad y frustración debido al modo en que funciona nuestro (evolutivo) sistema neuroendocrino.
¿Por qué tener hijos?
La pregunta del millón. El debate sobre esta cuestión podría llenar bibliotecas completas, pero hay una cosa incuestionable: quienes deciden ser padres solo siguen sus propios intereses (egoísmo). Y la decisión suele ser en la mayoría de los casos instintiva (es decir, no racional sino fruto de un deseo interno heredado sin duda de nuestro pasado evolutivo). Y es cierto que nadie puede preguntar a su descendencia si quiere nacer o no, pero sí es posible detenernos a pensar por qué tenemos hijos y si lo hacemos por ellos o por nosotros. Una profunda reflexión racional debería como poco hacer dudar a más apasionado pre-papa. Por tanto, antes de traer vida al mundo, qué menos que mantener un pequeño debate previo con nuestra pareja sobre: "¿por qué queremos tener hijos?". Si resulta que no encontramos más que inefables emociones y sentimientos irracionales (instintivos) quizás deberíamos replantearnos el asunto hasta tener algún argumento racional más sólido. Y peor aún si notamos que parte de nuestra vehemencia por ser padres esconde algún motivo claramente egoísta como por ejemplo que tengamos quien nos cuide cuando nos llegue la vejez o cosas por el estilo; entonces sí que deberíamos repensar muy mucho el tema.
Y tú, ¿por qué tienes o vas a tener hijos?

sábado, 2 de febrero de 2019

Nuevos descubrimientos astronómicos dan soporte al Big Rip: el desgarramiento del Universo

Hace unos días un estudio astronómico publicado en Nature ha resultado finalmente en una revolución en el campo de la cosmología y de la física en general. En pocas palabras: la fuerza de repulsión de la energía oscura podría no ser constante en el tiempo (una idea por la que muchos identificaron -ahora sabemos que erróneamente- la constante cosmológica de las ecuaciones de la relatividad general de Einstein con dicha energía repulsiva). El resultado experimental apoya de hecho una propuesta que habla sobre que la fuerza con la que actúa la energía oscura crece conforme el Universo "envejece".
Es decir, que la famosa constante cosmológica Λ que se ha venido usando hasta ahora en los estudios cosmológicos (concretamente en el modelo ΛCDM), podría ser reemplazada en las ecuaciones por una función creciente positiva dependiente del tiempo Λ(t) > 0. Y esto tiene (tendrá en cuanto la evidencia sea contrastada con nuevos estudios) consecuencias muy importantes en lo que corresponde al futuro de nuestro Universo. Vamos a verlo:
Hasta ahora, y desde 1999, se pensaba en la energía oscura como una fuente de repulsión de densidad constante en el tiempo. Y a partir de eso, con un poco de álgebra no demasiado complicada de por medio, se llegó en su día a la conclusión de que el destino de nuestro mundo (visible) dependía de la relación entre la densidad de materia(ordinaria y oscura) y la cantidad de energía oscura existente. Pues bien, ya a finales del siglo XX -recordemos, tomando la energía oscura como constante- se midió toda la densidad de materia del Universo, y los cálculos no dejaban lugar a duda: la energía oscura (de "presión" negativa = repulsión) ganaba la batalla a la presión atractiva (positiva) de toda la materia(radiación) existente. Esto supuso comprender que el tejido espacial que separa dicha materia se expande aceleradamente cada vez más y más. Y esto, grosso modo, era así porque a pesar de que la densidad de la energía oscura se pensaba era constante, se sabe que su cantidad crece conforme aumenta el espacio disponible en el Universo, lo cual hace que; dado que la cantidad total de materia (ordinaria y oscura) es siempre la misma desde el Big Bang, la proporción entre presión positiva y negativa cada vez es mayor y por lo tanto el espacio se expande a un ritmo acelerado.
En pocas palabras: que más espacio significa más energía oscura, lo que implica mayor repulsión (presión negativa) del tejido espacial. Pero la atracción de la materia (ordinaria y oscura) viene fijada por las leyes de la conservación (la materia total del Universo no puede aumentar ni disminuir en el tiempo) por lo que, una vez que la cantidad de espacio total (volumen del Universo) supera cierto umbral numérico -cosa que ocurrió hace aproximadamente 5.000 millones de años- la presión negativa supera a la positiva y empieza un proceso de retroalimentación: el espacio disponible aumenta debido a la presión negativa, y ese nuevo espacio generado crea a su vez nueva energía oscura que empuja aún con más fuerza. La presión positiva de este modo va resultando marginal con el tiempo y la expansión del mundo continúa acelerando hasta que toda la materia queda poco a poco separada por un horizonte causal imposible de superar -ni siquiera viajando a la máxima velocidad de la luz-. A esto se lo conocía como la "muerte" térmica del Universo y suponía una trágica agonía que llevaría cientos de miles de billones de años alcanzar.
Pero el estudio que comentamos al inicio del artículo apoya un escenario mucho más brusco y violento. El hecho de que la energía oscura no sea constante (sino una función creciente en el tiempo), implica que la densidad de energía oscura tampoco es constante, lo cual indica que la cantidad de energía oscura no crece linealmente conforme se genera nuevo espacio...¡sino que aumenta de manera exponencial! Es decir, que si antes en cada nuevo milímetro cúbico de espacio generado aparecía una cantidad fija de energía oscura Λ, ahora sabemos que no aparece una cantidad fija sino una cantidad Λ(t) que depende del tiempo (y que de hecho aumenta con la edad del Universo). Esto significa que si, pongamos, en los primeros años del cosmos cada milímetro cúbico de espacio contenía 1 "unidad" de energía oscura, hoy día ese mismo volumen podría contener, por ejemplo; 5 "unidades", y dentro de 1.000 millones de años quizás podría contener 50 "unidades", etc.
¿Qué implica para el modelo cosmológico este nuevo hecho?
Este descubrimiento, de confirmarse, supone que la expansión del tejido espacial en nuestro Universo sigue una doble exponenciación: la primera, conocida desde 1999 y que ya vimos antes, debido a la retroalimentación que supone que cada aumento infinitesimal del espacio implica un aumento automático de energía oscura que cada vez descuadra más y más la proporción entre esta presión negativa (que aumenta en el tiempo) y la presión positiva de la materia (que no puede crecer de ningún modo); y ahora sabemos de una segunda exponenciación debido al hecho de que esta propia retroalimentación no es lineal puesto que la cantidad de presión negativa ganada con cada aumento de volumen también va en aumento con el tiempo. Si al inicio se ganaba 1 "unidad" de energía oscura por cada milímetro cúbico extra, ahora se podría estar ganando 10 veces más por la misma cantidad de volumen añadido, y en un futuro cercano esa cantidad sabemos que iría en aumento.
En pocas palabras: que una vez se ha superado el umbral que permite la retroalimentación de energía oscura -y como ya comentamos antes eso ya ocurrió hace 5.000 millones de años aproximadamente-, con el tiempo cada vez se extiende el espacio más y más siguiendo un crecimiento doblemente exponencial (es decir, una función positiva creciente que supone exponenciar dos veces un factor dependiente del tiempo)...y todo aquel que entienda algo de matemáticas básicas comprende lo que esta afirmación significa:
Big Rip: el desgarramiento del Universo
Ya incluso antes del reciente descubrimiento comentado, la teoría del Big Rip era una propuesta bastante aceptada en la comunidad científica para describir el final de nuestro Universo. Pero tras este descubrimiento parece que el apoyo recibido por esta teoría es casi definitivo. Simplemente esa doble exponenciación para la expansión del tejido espacial no deja mucho margen para las demás alternativas (siendo hoy día la "muerte" térmica un escenario incluso demasiado "optimista"). Vamos a describir brevemente qué es lo que este Gran Desgarramiento supone:
Con el tiempo, nos dicen, las galaxias se separarán entre sí a un ritmo cada vez mayor. Los clusters de galaxias por tanto dejarán de existir. Luego, la gravedad será demasiado débil para mantener integrada a las propias galaxias, las cuales acabarán desgarradas en un mar estrellas aisladas gravitacionalmente unas de las otras. Más tarde los sistemas planetarios perderían su cohesión gravitatoria, y por último, las mismísimas estrellas y planetas se despedazarán. El universo quedará reducido así a un gigantesco conjunto de átomos aislados...pero ahí no habrá acabado todo. Los unión atómica también será destruida en los últimos 10^-18 segundos antes del fin del espacio-tiempo, por lo que solo restará radiación. El Universo se convertirá por tanto en un "mar" de partículas subatómicas flotantes que permanecerán para siempre separadas causalmente entre sí. La realidad como la conocemos habrá desaparecido y ningún fenómeno, devenir o movimiento tendrá posibilidad de acontecer (ni siquiera tendrá sentido lógico en esta situación afirmar la existencia física real de nada).
Los físicos defensores de esta hipótesis calcularon que esto ocurriría aproximadamente dentro de 20.000 millones de años...¡pero eso fue antes de conocerse que la constante cosmológica no es constante sino que crece en el tiempo! Este hecho supone por lo tanto que dichos cálculos deberán ser revisados a la baja, por lo que el Big Rip podría tener lugar mucho mucho antes de lo esperado.
Es bastante posible que nuestro Universo no sólo haya pasado ya de la mediana edad (como se suponía hasta ahora tomando esos 20.000 años de "vida" restante), sino que incluso podría ser ya un "anciano" a punto de comenzar su acelerado declive y "muerte". De hecho, los nuevos cálculos van a dependen de la forma de la nueva función Λ(t), y es importante hacer notar (teniendo en cuenta lo que un crecimiento exponencial supone) que si la forma de esta función Λ(t) fuese demasiado pronunciada, el Universo podría tener muy pocos millones de años por delante. Y aunque algunos miles de millones de años para nosotros es mucho, a escalas cosmológicas (e incluso geológicas) esto supone relativamente bastante poco tiempo.
Nota final:
La (por ahora desconocida) función Λ(t) podría llegado el caso tener una forma matemática tal que el Big Rip podría acontecer casi de "sopetón" en el transcurso de pocos siglos. Quizás parezca poco probable pero hoy por hoy nadie puede negarlo. Es la magia de la exponenciación...todo parece que va más o menos como siempre y de repente ¡zas!

sábado, 26 de enero de 2019

Gran avance de Google DeepMind hacia una inteligencia artificial general


Nuevo hito logrado por DeepMind en el camino hacia una inteligencia artificial general. En esta ocasión han logrado entrenar una red neuronal capaz de vencer a los mejores jugadores humanos en un juego de compleja estrategia y de información imperfecta: StarCraft 2.
Y que nadie se engañe porque estemos hablando de un "juego": el hecho de que una red neuronal haya sido capaz de idear (literalmente) en tiempo real estrategias en un juego donde existen miles de billones de variantes, y donde además no se sabe qué es lo que el contrincante está planeando contra ti (sus unidades están ocultas gran parte del tiempo), ni se conocen todos los detalles del terreno de juego (donde hay recursos y donde no), indican que la red neuronal de Google DeepMind sencillamente tiene una gran "intuición", grandes dotes "imaginativas", y una capacidad "cognitiva" estratégica que sencillamente es (casi) indistinguible de la humana (sería totalmente indistinguible si no fuera porque, paradójicamente, juega "humanamente" mejor que cualquier humano).
Esta red neuronal es capaz literalmente de generalizar en situaciones donde hay información imperfecta, incompleta (con "ruido"), y tareas complejas y complicadas que hacer; donde hay que prever qué piensa hacer el enemigo, imaginar la mejor forma de jugar midiendo las consecuencias al medio-largo plazo de las acciones actuales, y todo en igualdad de condiciones que el jugador humano. Esto significa que la red neuronal tiene acceso a la misma información visual que el contrincante, y de hecho, está capada para que no pueda realizar más "clicks" (acciones por segundo) de lo que humanamente a nosotros nos permiten nuestros dedos y nuestra mente...y aún así ha logrado vencer a los mejores jugadores del mundo en el 100% de las ocasiones en dos torneos realizados.
Y es importante enfatizar que este hito supone algo mucho mayor que lo que supuso AlphaZero (donde esta red neuronal derrotaba sin fuerza bruta y usando una "intuición" casi humana a los mejores humanos en juegos de información perfecta: Go, ajedrez, etc.), ahora se trata de que hemos logrado "imitar" habilidades humanas que van mucho más allá de esta limitada "intuición" de AlphaZero: ahora se ha logrado generalizar no sólo situaciones donde basta algo de "intuición", sino situaciones donde es necesario "imaginar" qué está pensando hacer el oponente (teoría de la mente), "idear" estrategias complejas a medio-largo plazo, "entender y comprender" cómo manejar planos imprecisos e incompletos y cómo ordenar el uso de cientos de unidades distintas ("piezas") de manera cooperativa para lograr llevar a cabo esas metas previamente "planeadas", lo cual indica que también se ha logrado simular algo así como "memoria" a corto y largo plazo.
Pero lo más importante es que el modo en que se ha logrado entrenar esta complejísima red neuronal es aplicable a una enorme variedad de otras situaciones (que van más allá de los juegos de ordenador); algo que sin embargo no ocurría con AlphaZero debido a que sólo aplicaba a situaciones de información perfecta (las cuales son raras en el mundo real) y que no requería actuar en tiempo real. Con AlphaStar, sin embargo, DeepMind está en posesión de un "ente cognitivo" que puede hacer frente a situaciones muy similares a las de nuestro día a día, y posiblemente pasará a ser conocido históricamente como el verdadero primer paso logrado hacia la deseada inteligencia artificial general (la cual visto lo visto probablemente llegará en dos o tres décadas lo más tardar).

miércoles, 23 de enero de 2019

La física de partículas podría haber llegado a su final (II)

Os dejo a continuación una nueva traducción de otro artículo escrito por la física Sabine Hossenfelder nada menos que para el diario The New York Times. Espero os resulte de interés.
===================================================================
Diez años después, el Gran Colisionador de Hadrones no logró los descubrimientos apasionantes que los científicos prometieron para conseguir financiar su construcción.
Leslye Davis / The New York Times
El Gran Colisionador de Hadrones es el acelerador de partículas más grande del mundo. Es un anillo subterráneo de 16 millas de largo, ubicado en el CERN en Ginebra, en el que los protones chocan a casi la velocidad de la luz. Con un presupuesto inicial de $ 5 mil millones y un costo de operación anual de $ 1 mil millones, el LHC es el instrumento más caro jamás construido, y eso es a pesar de que reutiliza el túnel de un colisionador anterior.
El LHC ha recopilado datos desde septiembre de 2008. El mes pasado, se completó la segunda ejecución experimental (Run 2) y el colisionador se cerrará durante los próximos dos años para nuevas actualizaciones programadas. Ya con el LHC en pausa, los físicos de partículas están haciendo planes para construir un colisionador aún más grande. La semana pasada, el CERN reveló planes para construir un acelerador que sería mucho mayor y más poderoso que el LHC, el cual costaría más de $ 10 mil millones.
Yo solía ​​ser física de partículas. En mi tesis del doctorado hice predicciones para el LHC, y aunque con el tiempo dejé de trabajar en este campo de la física, sigo creyendo que golpear partículas entre sí es la ruta más prometedora para comprender de qué se compone la materia y cómo se mantiene unida. Pero $ 10 mil millones es un presupuesto que me parece demasiado fuerte. Y no estoy segura de que valga la pena.
En 2012, los experimentos en el LHC confirmaron el descubrimiento del bosón de Higgs , una predicción que se remonta a la década de 1960, y que sigue siendo el único descubrimiento realizado en el LHC. Los físicos de partículas se apresuran a enfatizar que han aprendido otras cosas: por ejemplo, ahora tienen un mejor conocimiento sobre la estructura del protón y han visto nuevas partículas compuestas (aunque inestables). Pero seamos honestos: el resultado general de la mil millonaria inversión en el LHC fue decepcionante.
Antes de que LHC comenzara a funcionar, los físicos de partículas tenían predicciones más emocionantes que meramente descubrir el famoso bosón. Pensaron que otras partículas nuevas también aparecerían cerca de la escala de energía a la cual se podría producir el Higgs. También pensaron que el LHC vería evidencia de nuevas dimensiones del espacio. Además, esperaban que este gigantesco colisionador diera pistas sobre la naturaleza de la materia oscura (que los astrofísicos creen que constituye el 85 por ciento de la materia en el universo) o sobre una fuerza unificada.
Las historias sobre nuevas partículas, materia oscura y dimensiones adicionales se repitieron en innumerables medios de comunicación desde antes del lanzamiento del LHC hasta hace unos años . ¿Qué pasó con todas esas predicciones? La respuesta es simple: Todas esas predicciones resultaron erróneas, eso está claro ahora.
El problema es que una "predicción" en la física de partículas es hoy por hoy poco más que conjeturar (especular). En los últimos 30 años, los físicos de partículas han producido miles de teorías cuyas matemáticas pueden utilizarse para "predecir" prácticamente casi cualquier cosa. Por ejemplo, en 2015, cuando una fluctuación estadística en los datos de LHC parecía ser una nueva partícula, los físicos produjeron más de 500 artículos en ocho meses para explicar lo que luego resultó ser simplemente ruido. Lo mismo ha ocurrido muchas otras veces para fluctuaciones similares, demostrando cuán inútiles son esas ilusorias "predicciones" disfrazadas de ecuaciones.
Hasta la fecha, los físicos de partículas no tienen realmente una predicción matemática sólida y confiable que apoye la idea de que debe haber algo nuevo que encontrar hasta nada menos que unos 15 órdenes de magnitud por encima de las energías actualmente accesibles (es decir, que las matemáticas sólo garantizan que hay algo nuevo al alcanzar estos nuevos 15 órdenes de magnitud en la energía de colisión, algo que escapa y escapará de nuestro alcance tecnológico durante siglos o milenios). Desafortunadamente, los físicos de partículas no han sido muy receptivos con esta información. El año pasado, Nigel Lockyer, el director interino de Fermilab, dijo a la BBC : "A partir de un simple cálculo de la masa de Higgs, tiene que haber nueva ciencia". Este "cálculo simple" predice precisamente que el LHC ya debería haber visto nueva ciencia. Pero no ha sido así.
Hace poco encontré un video promocional para el Future Circular Collider que los físicos se han propuesto construir en el CERN. Este video, que se encuentra en el sitio web del CERN, anuncia la máquina planificada como una prueba para la materia oscura y como una sonda para determinar el origen del universo. Es extremadamente engañoso: sí, es posible que un nuevo colisionador encuentre una partícula que forme la materia oscura, pero no hay ninguna razón particular para pensar que lo hará. Y tal máquina no nos dirá nada sobre el origen del universo. Paola Catapano, jefa de producciones audiovisuales del CERN, me informó que este video "obviamente está dirigido a políticos y no a otros físicos, y utiliza los mismos argumentos que los utilizados para promover el LHC en los años 90".
Pero los grandes experimentos científicos de este tipo son inversiones que hipotecan nuestro futuro. Las decisiones sobre qué financiar deberían basarse en hechos, no en publicidades brillantes. Pero para esto, necesitamos saber cuándo una predicción es una predicción y no solo una conjetura. Y si los físicos de partículas solo tienen actualmente suposiciones (especulaciones), tal vez deberíamos esperar hasta que tengan mejores razones con las que justificar que un colisionador más grande pueda encontrar algo nuevo.
Ciertamente algunos desarrollos tecnológicos, como los imanes potentes, se benefician de estos colisionadores de partículas, y también la física de partículas contribuye positivamente a la educación científica en general. Y sin duda estas son inversiones valiosas, pero si es esto en lo que nos queremos gastar dinero, no es necesario cavar un gigantesco túnel para conseguirlo.
Además hay otras vías a seguir. Por ejemplo, las observaciones astrofísicas que apuntan hacia la materia oscura deberían explorarse más a fondo. Comprender mejor esas observaciones nos ayudaría a hacer predicciones más confiables sobre si un colisionador más grande puede producir la partícula de materia oscura, incluso si es una partícula. Habría que estudiar mejor en qué invertir el dinero aquí y ahora antes de lanzarnos como locos a cavar a ciegas.
También hay interesantes experimentos de escala más modesta (presupuestos más pequeños) que se dejan de construir porque los proyectos gigantescos consumen todo el dinero. Un proyecto importante de modesto presupuesto sería, por ejemplo, el que intentar dilucidar la interfaz entre el reino cuántico y la gravedad, algo que ahora es accesible a pruebas experimentales. Otro lugar donde los descubrimientos podrían estar esperando es en los fundamentos de la mecánica cuántica. Estos experimentos más modestos podrían tener además importantes impactos tecnológicos (cosa dudosa en el caso de invertir en un nuevo acelerador).
Ahora que se está actualizando el LHC, y que los experimentos de física de partículas en el detector se están tomando un descanso, es hora quizás de que los físicos de partículas retrocedan y reflexionen sobre el estado actual de este campo de la física. Es hora de que se pregunten por qué ninguna de las emocionantes predicciones que prometieron han acabado finalmente en descubrimientos. Posiblemente el dinero no resolverá este problema de "predicciones" erróneas. Y tampoco lo hará un colisionador de partículas más grande.
Sabine Hossenfelder es investigadora en el "Instituto de Estudios Avanzados de Frankfurt" y autora del libro "Lost in Math: How Beauty Leads Physics Astray".

martes, 22 de enero de 2019

La física de partículas podría haber llegado a su final

Os dejo a continuación una traducción del último (y muy interesante) artículo de la física Sabine Hossenfelder. Espero os resulte de interés.
==================================================================== 
El comunicado de prensa del CERN sobre los planes para un colisionador de partículas más grande apareció finalmente en los titulares internacionales. Desafortunadamente, la mayoría de los artículos sobre el tema simplemente repiten el comunicado de prensa y no explican cuánto ha cambiado la situación en la física de partículas tras los datos del LHC. 
Desde fines de la década de 1960, cuando los físicos afrontaron el "zoo de partículas" en las energías nucleares, siempre se tuvo una buena razón para construir un colisionador más grande. Y eso era porque las teorías de la materia elemental estaban incompletas. Pero ahora, con el bosón de Higgs encontrado en 2012, la teoría (el "modelo estándar de la física de partículas") está completa. Todo está listo y todo cuadra. No hay nada que falte. Todos los Pokemon fueron "atrapados".
De hecho, el Higgs fue la última buena predicción que tuvieron los físicos de partículas. Esta predicción se remonta a la década de 1960 y se basó en matemáticas sólidas. En contraste con esto, las predicciones actuales para buscar nuevas partículas en un colisionador más grande (por ejemplo las partículas de supersimétricas o la partícula de materia oscura) no se basan en matemáticas sólidas. Estas predicciones se basan en lo que se llama el "argumento de la naturalidad", y estos argumentos son poco más que especulaciones vestidas con ecuaciones matemáticas. 
He explicado por qué esas predicciones no son buenas en gran detalle en mi libro (y también en este pequeño artículo), pero no importa si te crees (o incluso si entiendes) mis argumentos, solo tienes que observar los datos para ver que las predicciones de los físicos de partículas para la física más allá del modelo estándar no han funcionado en absoluto durante más de 30 años de esfuerzos: 
  • - Los físicos de partículas han predicho partículas de materia oscura desde mediados de los años ochenta...y ninguna ha sido vista. 
  • - Los físicos de partículas predijeron grandes teorías unificadas a partir de la década de 1980...y en la medida en que han podido probarse hasta el momento, todas estas hipótesis se han descartado. 
  • - El hecho es que predijeron que las partículas supersimétricas y/o las dimensiones adicionales del espacio deberían ser observables en el LHC (Según esas predicciones, esto ya debería haber ocurrido). Pero en el LHC no se ha observado nada de nada.
Lo importante ahora es comprender que estos métodos utilizados desde la década de los 80 se han visto que no funcionan. Los hechos ya han demostrado que el argumento de la "naturalidad" es defectuoso, y de hecho fue este argumento la única razón que usaron los físicos de partículas para pensar que el LHC iba a descubrir algo nuevo (además de los Higgs). Pero con este mismo método de predicción ("naturalidad") que ahora sabemos que no funciona, en estos momentos no hay razón para pensar que el LHC en sus próximas ejecuciones (Run 3, 4, etc.), o en un próximo colisionador de partículas más grande se verá algo más que refinamientos de la física predicha por las teorías ya conocidas (esto es, el modelo estándar). 
Por supuesto podría pasar. No estoy diciendo que sepa a ciencia cierta que un colisionador más grande no encontrará algo nuevo. Es posible que tengamos suerte. Simplemente estoy diciendo que actualmente no tenemos predicciones firmes y sólidas que indiquen que un colisionador más grande conduciría a algún avance. El modelo estándar bien podría ser todo lo observable en bastantes órdenes de magnitud de energía.
¡Y esta situación no tiene precedentes en la física de partículas! La única predicción realmente confiable (sólida) que tenemos actualmente para la física más allá del modelo estándar es que eventualmente deberíamos ver los efectos de la gravedad cuántica. Pero para eso tendríamos que alcanzar energías 13 órdenes de magnitud más altas de que lo que incluso el siguiente colisionador planeado lograría. Huelga decir que está hazaña escapa (y escapará) del alcance tecnológico de la humanidad durante siglos (o milenios). 
Por tanto, lo único que podemos decir con garantías que observará un próximo colisionador más grande es medir con más precisión las propiedades de las partículas fundamentales ya conocidas. Y el hecho de que finalmente nos diga algo sobre la materia oscura, la energía oscura, o la asimetría materia-antimateria es una esperanza, y no una predicción.
Los físicos de partículas tuvieron una buena excusa para construir el LHC gracias a la firme predicción matemática del bosón de Higgs. Pero con el Higgs ya descubierto, ese futurible colisionador de partículas más grande no tiene en absoluto una buena motivación. Estamos en el 2019, no en 1999.

La incongruencia de ser padre

Cada vez que paso una mala noche cuidando a alguno de mis hijos me da por reflexionar en las horas muertas. Precisamente ayer fue noche de fiebres, y entre cabezada y cabezada no pude evitar preguntarme por el sentido de la paternidad. Es decir, que sí, todos queremos a nuestros hijos con toda el "alma" pero, ¿qué sentido tiene todo este sinvivir cuando sabemos que la guerra está perdida de antemano?
Quiera yo o no quiera, es un hecho que mis hijos, lo mismo que todos nosotros, vamos a morir tarde o temprano. Es como se suele decir, ley de vida. ¿Por qué entonces tanto afán y vehemencia por mantener a la prole lo más sana posible el máximo de tiempo posible? ¿Qué tendencia o impulso nos hace, como padres, luchar con tanta pasión en favor de una causa perdida?
Y espero que no se malinterprete la cuestión: es de perogrullo que todos queremos lo mejor para nuestros hijos; salud y vitalidad sin fin, y es evidente que esta necesidad es natural, perseverante e incluso deseable pero: ¿por qué nos vemos imbuidos instintivamente con tanto arrebato y entusiasmo en una tarea que racionalmente sabemos que es imposible lograr? Nada es para siempre y nuestros hijos en unas pocas décadas envejecerán y acabarán muriendo, repitiendo quizás el ciclo de la vida trayendo al mundo una nueva generación de personas.
Pues bien, objetivamente, desde la biología y la psicología evolucionista, la respuesta parece bastante clara: simplemente el instinto evolutivo es más fuerte y dominante que la reflexión racional. Por mucho que sepamos que criar niños es el equivalente a construir, esculpir, y mimar castillos de arena a la orilla de un mar mientras de reojo miramos el reloj sabiendo que la marea acabará por subir y arrasarlo todo...sencillamente no podemos actuar de otro modo. La razón es estéril en este sentido, y el amor hacia los nuestros sale a borbotones por nuestra piel no importa lo que diga el destino. Todo aquel que tenga hijos sabrá sin duda de lo que hablo.
Hace tiempo que en biología se habla sin tapujos del hecho de que todas las personas conformamos algo que se ha venido a denominar como "soma desechable". Nuestra genética (las instrucciones de ADN que indican el modo en que construir nuestro cuerpo o fenotipo) se transmite, mezcla y recombina en cada generación, pero el fenotipo en sí (el cuerpo material concreto que se ha formado con la recombinación de dos copias de este tipo de instrucciones), conforman un mero medio temporal con el que continuar retroactivamente el propio proceso de copia de instrucciones: en este sentido todos nosotros somos un soma (un vehículo material) encomendados evolutivamente con la "noble" (y simple) tarea de continuar con la réplica de estas moléculas de ADN...y luego nada más. Adiós, chao, abur...de vuelta a esa nada existencial de la que efímeramente salimos.
Así pues, a la vista de la propuesta del soma desechable, podemos afirmar sin miedo a equivocarnos que ese ímpetu y esa pasión que mueve y conmueve a cada padre a la hora de la crianza se debe explica desde el instinto evolutivo, y no desde la racionalidad. Porque la razón por supuesto entiende la incongruencia de atender con tanto cuidado a un cuerpo destinado desde el principio a la fatalidad de una pronta vejez y muerte (seis o siete décadas son apenas un pestañeo a escalas naturales); pero es que racionalmente no podemos hacer nada a favor o en contra de este hecho. Nuestra esencia evolutiva es la encargada de que todos nosotros sintamos sin remedio amor y devoción por nuestros retoños.
Como buenas máquinas de replicar genes que somos, es nuestro sino velar por esos castillos de arena (esos somas que literalmente han salido de nuestras entrañas). Y aunque todos sabemos que el tiempo se llevará irremediablemente por delante cada castillo hacia el olvido...el mandamiento instintivo que llevamos marcado a fuego en el cerebro nos expone claramente que eso no importa; que lo único importante es que el castillo aguante lo suficiente en pie como para que replique esas instrucciones que den a luz una nueva generación de constructores de castillos. Y así por los siglos de los siglos, mientras el planeta aguante.