domingo, 12 de noviembre de 2017

Introducción a la teoría cuántica de campos (QFT) (II)

"There are no real one-particle systems in nature, not even few-particle
systems. The existence of virtual pairs and of pair fluctuations shows that
the days of fixed particle numbers are over."
(Viki Weisskopf)

Ayer terminé de seguir el curso que el profesor Leonard Susskind impartió para la Universidad de Stanford hablando sobre una introducción a la teoría cuántica de campos (Quantum Field Theory - QFT). La lectura es bastante amena y fácil de entender (desde un punto de vista matemático), pero a pesar de esta sencillez el profesor es capaz de transmitir la base esencial de la que es actualmente la teoría física más precisa y avanzada de la que disponemos: el modelo estándar de partículas. Podéis acceder a estas 10 charlas desde YouTubehttps://www.youtube.com/watch?v=2eFvVzNF24g.

El curso completo es excepcional, pero el último de los vídeos es realmente extraordinario. El vídeo es el siguiente y os lo recomiendo con mucho énfasis:


Hace unos meses ya os intenté transmitir una introducción a la QFT en esta entrada, pero creo que me quedó demasiado formal y matemática. Con el anterior vídeo (con el curso completo en realidad) me gustaría que aquellos que no llegaron a entender del todo lo que quise transmitir en aquel momento, puedan comprender el asunto ahora de una manera más cualitativa e interpretativa.

Un símil sobre la propuesta que se esconde tras la QFT.

Para entender la propuesta de la física moderna de partículas creo que es interesante pensar en el siguiente símil que, aunque no es ni de lejos exacto, creo que puede valer para que nos hagamos una idea de lo que propone la teoría cuántica de campos:

Pensemos por un momento en la superficie de una piscina llena de agua. Pues bien, eso se puede entender como el equivalente de un campo en física: una representación formal mediante la cual a cada posición del espacio y el tiempo se le asigna una propiedad o valor. En el caso de la superficie de la piscina el valor de cada posición infinitesimal de la misma puede venir representado por ejemplo con la altura de la cresta del agua en cierto lugar (y momento).

La superficie del agua en toda la piscina conforma una figura ondulada con valles y crestas, y dicha apariencia puede ser matemáticamente formalizada por lo que se conoce como la función del campo: una manera de describir la situación actual de la superficie de toda la piscina de tal manera que es posible describir la altura de cualquier posición de la misma. Por ejemplo, podemos trabajar matemáticamente con esa función φ(x, t) y pedirle que nos diga que altura tiene el agua en la posición (x=5, y=4.3) en cierto momento t. La función retornará un valor con la altura, por ejemplo: 1 mm (lo de utilizar milímetros es una licencia que me tomo con fines de claridad argumental).

Continuemos con otra analogía de la que nos vamos a servir: el hecho de que esta altura de la onda en cada posición infinitesimal de la superficie de la piscina nos va a indicar cuántas partículas y con qué momento (energía) hay en esa posición x de la misma. En realidad la situación incluso cualitativamente es más complicada, y lo que nos va a interesar son dos parámetros de la onda en cierta posición: su altura y el modo en que vibra. La altura va a representar el número de partículas (a más altura más partículas habrá), mientras que el modo en que la onda se encuentra vibrando en ese lugar va a indicar la velocidad (momento o energía) de todas esas partículas.


Mira el ejemplo del gráfico de arriba y quédate con la parte azul. Imagina que observamos el agua en cierto punto y que existe allí una cresta de altura igual a 3 mm. Esto nos indica que allí hay 3 partículas. Luego miramos la frecuencia a la que vibra la onda en ese punto (por ejemplo: 2.0 hercios (Hz)) y eso nos indica la velocidad (el momento en realidad) de cada una de esas 3 partículas.

Y eso es todo. Cuando sólo hay partículas de un tipo y cuando no interaccionan unas con otras, esa superficie de la piscina y esa función φ(x, t) nos dan toda la información que podemos captar del mundo microscópico. Una piscina tranquila, casi sin "oleaje" ni ondulaciones en la superficie se corresponde con un espacio de vacío cuántico; donde no hay partículas aunque sí energía (la energía del vacío cuántico que se corresponde con la de un oscilador armónico simple en su estado fundamental). Donde no hay partículas por tanto tenemos aún así una minúscula cresta de agua fluctuando con la mínima energía.

Por otra parte, si en cierto lugar de la piscina perturbamos el sistema lanzando por ejemplo una piedra, provocaremos en ese punto grandes ondulaciones. Ese hecho se puede interpretar como que la energía que poseía la piedra ha inducido la creación de numerosas partículas que se desplazarán por toda la piscina vibrando a gran frecuencia. Y cuanta más energía posea la piedra (ya sea porque posea más masa o más momento), mayor será la agitación de la piscina: es decir; más partículas se crearán y más velocidad llevarán.

¡De hecho esto es precisamente lo que hacen en el acelerador de partículas del LHC en el CERN! Hacen colisionar partículas con una velocidad tan alta (cercana a la máxima velocidad de la luz) que la perturbación en los campos cuánticos es explosiva. Decenas de miles de partículas "nacen" tras la colisión y posterior desintegración de sólo 2 partículas iniciales (hadrones).



Diferentes tipos de piscina.

Hemos hablado sobre las crestas y los valles de una piscina de agua, y hemos dicho que eso se corresponde con el concepto de campo, pero en realidad se corresponde con el concepto de un campo. En el mundo físico real existen simultáneamente cientos de campos físicos. Puedes imaginar, por ejemplo; que nuestra piscina de agua se corresponde con el campo cuántico de los fotones. Pero hay un campo distinto para cada partícula existente. Así pues, debemos extender nuestra analogía y pensar en la existencia de muchos otros tipos de piscina.

Una piscina llena de aceite, por ejemplo; podría representar a los electrones. Una piscina llena de mercurio podría representar a los bosones W y Z, etc. Lo importante del asunto es comprender que cada campo responde de manera distinta a las perturbaciones porque cada campo posee unas cualidades físicas esenciales distintas. Es decir; que la piedra de antes que sobre la piscina de agua provocó alta perturbación, provocará una perturbación muy distinta sobre la piscina de mercurio.

Se conocen hoy día cientos de partículas fundamentales por lo que debemos hacernos a la idea de que existen cientos de tipos de piscinas "conviviendo" e interaccionando en cada punto infinitesimal del espacio. Así pues debemos pensar nuestra realidad como si estuviésemos sumergidos en una combinación (no mezclada) de fluidos que se "molestan" unos a otros produciendo cambios de oleajes que podemos interpretar como destrucción de partículas de cierto tipo de campo y apariciones de partículas de otro tipo de campo.

Para entender ésto imagina el siguiente caso: nuestra piscina contiene dos tipos de líquidos que no se pueden mezclar (agua y aceite, pongamos por caso). Toda la agua conformaría por ejemplo el campo cuántico de los fotones, y todo el aceite sería el campo cuántico de los electrones. Vayamos a la superficie. Si todo el líquido está carente de olas (no hay crestas ni valles), podemos aventurar que en la piscina no hay partículas (vacío cuántico). Imagina ahora que producimos una pequeña perturbación en el aceite en las posiciones x e y. Si la perturbación es lo suficientemente pequeña lograremos la creación y posterior desplazamiento de dos pequeñas crestas de aceite de altura 1mm (que hemos supuesto que corresponde con la creación de 1 sólo electrón en x y otro único electrón en y). Pues bien, conforme esas dos crestas independientes de aceite se desplazan, llegará el momento en que se puedan aproximar una a la otra. Cuando estén a cierta distancia d, comenzará a ser probable la ocurrencia de un curioso fenómeno de interacción entre el aceite y el agua. En concreto, es posible que en cierto momento la distancia d sea tal que permita un acoplamiento entre una cresta "virtual" de agua (un fotón "virtual") y las dos crestas de aceite (los dos electrones). Precisamente este acoplamiento haría las veces de repulsión entre las dos crestas de aceite puesto que podemos imaginar como si la cresta de agua "virtual" se interpusiera entre las dos crestas de aceite y las "empujara" hacia direcciones opuestas.

Pero hay que dejar muy claro que se trata de una cresta "virtual", puesto que su aparición supone una violación de la conservación de la energía: en el caso descrito una partícula de agua (un fotón) salió de la nada y se interpuso entre los electrones, y por lo tanto la duración en la existencia de dicho fotón tuvo que ser tan pequeña que la Naturaleza no lo "notó" (gracias al principio de incertidumbre de la mecánica cuántica).

Este caso de ejemplo que acabamos de comentar supone la base teórica de la QED (Quantum electrodynamics-electrodinámica cuántica), y describe como entiende la física de partículas del modelo estándar lo que antiguamente en mecánica clásica se entendía como la fuerza a distancia de repulsion de Coulomb entre partículas con carga.

El bosón de Higgs.

Si alguna vez te has preguntado qué es en realidad el tan cacareado bosón de Higgs, ahora lo puedes entender como un nuevo tipo de campo (otro tipo de contenido líquido en nuestra piscina). Y no tiene gran cosa de especial a parte de tratarse de un campo con la propiedad de poder acoplarse e interaccionar con casi todos los demás campos. De hecho, es esta cualidad tan especial la que produce que el resto de partículas masivas conocidas posean dicha masa. Es decir, que es por ejemplo la interacción del campo del electrón con el campo de Higgs lo que produce que el electrón posea masa (resistencia al movimiento). Puedes imaginar el proceso como que continuamente una cresta de aceite se ve afectada en cada paso por una cresta "virtual" de Higgs (muy importante lo de virtual), lo que le impide entonces al electrón el movimiento a la máxima velocidad de la luz c. Las diferentes masas de las partículas se explican así según sea la frecuencia o probabilidad con la que estas interacciones con el campo de Higgs se producen. Si el acoplamiento entre ambos campos es alto la masa será alta (porque ocurrirán muchos más eventos de interacción en el tiempo).

¿Y qué fue entonces lo que descubrió el LHC? ¡Pues descubrió una partícula real de Higgs! Y es que, aunque hemos dicho que existe un infinito campo "virtual" de bosones de Higgs pululando alrededor de cada partícula real (masiva), dada esta virtualidad no son observables por definición. El LHC fue capaz de invertir la suficiente energía de colisión como para sacar a un bosón de Higgs real de su campo (produciendo uno de esos pesados bosones al lograrse perturbar lo suficiente el "líquido" del campo de Higgs y crear una cresta a la altura de 1 mm que hemos venido utilizando como símil). Hasta la llegada del LHC sencillamente no disponíamos de la suficiente capacidad de choque como para alterar lo suficiente ese campo de Higgs que lo cubre todo. Lo mismo se supone que podría ser cierto para otras partículas que aún no hemos logrado detectar ni siquiera con los 14 TeV del LHC.

La dinámica de los campos.

Cuando uno mira la superficie de una piscina "alterada" es evidente que existe una dinámica en el movimiento ondulado del conjunto. Valles y crestas se mueven siguiendo un patrón muy concreto y en ocasiones predecible a primera vista. Los campos físicos de la realidad también siguen una dinámica muy concreta y de características similares a la del símil del agua con la que venimos trabajando. En concreto, los diferentes campos poseen una dinámica que favorece aquellos estados de mínima acción.

Imagina la superficie de la piscina en cierto tiempo t1 (como si echaras una foto a la misma). La pregunta que nos podemos hacer es: de entre todos los posibles estados finales que puede presentar la piscina transcurrido cierto intervalo de tiempo (t2-t1), ¿cuál será el estado real que seguirá el sistema? Es decir, si vamos sacando fotos de la superficie del agua por ejemplo cada segundo, ¿cómo determinar el aspecto que presentará el agua en cada fotograma?

La respuesta viene del hecho de que la naturaleza es económica en todas sus acciones. La dinámica del campo será aquella que minimice la acción invertida; es decir, será aquella que mantenga estacionaria la diferencia entre la energía cinética y la potencial de entre el conjunto del sistema (a esa diferencia de energías se la denomina lagrangiano L = T -V). Así pues, si queremos prever el aspecto del campo cada cierto intervalo de tiempo, sólo tenemos que seleccionar de entre todas las trayectorias posibles aquellas que minimizan la variación de la acción.

Esa respuesta es sin embargo válida en mecánica clásica pero no en mecánica cuántica y mucho menos en la teoría cuántica de campos. De todas formas al entrar en juego grandes números de partículas la respuesta es no obstante similar: el aspecto del campo cada intervalo de tiempo será en principio imprevisible (debido a los postulados de la mecánica cuántica), pero la probabilidad de cada estado final posible irá relacionado directamente con lo cercano que dicho sistema se encuentre del estado de mínima acción del que hablamos antes. Cuanto más se asemeje cierto estado final al estado de mínima acción, más probable será encontrar al sistema microscópico en ese estado. Aunque como decimos de todas formas se pierde el determinismo en nuestra capacidad de observación.

Acoplamiento entre campos.

Ya hemos visto que el mundo fenoménico se encuentra constituido por cientos de campos que comparten (aunque no se mezclan) el espacio-tiempo. El símil es el de una piscina llena de cientos de líquidos insolubles. Todos ellos independientes o libres y poseyendo unas cualidades infinitesimales particulares (masa, carga, etc.). Pero si eso fuese todo, el mundo sería muy aburrido e inerte. No ocurriría gran cosa en realidad. No obstante, resulta que todos esos líquidos como hemos comentado anteriormente son capaces de interaccionar entre ellos cuando se dan las circunstancias adecuadas. En nuestra alegoría existe la probabilidad de que una gota de cierto líquido se transforme espontáneamente en una o varias gotas infinitesimales de otro líquido (aparecen crestas en un campo y quedan planos otros). Esta transformación supone en realidad la creación y aniquilación de partículas de distintos tipos, pero a nivel más fundamental sabemos que lo que ocurre es que una vibración de cierto tipo de líquido se convierte en una vibración de otro tipo de líquido, o se reparte en varias vibraciones (de menor energía) en distintos tipos de líquidos mientras que la vibración en el campo o fuente original desaparece y queda plana.

Imagina el caso de que la cresta de una onda de agua en nuestra piscina choca con la cresta de una onda de aceite y como resultado ambas crestas desaparecen al mismo tiempo que aparecen varias crestas de mercurio que se mueven en direcciones opuestas (por poner un ejemplo).

El caso es que estas apariciones y desapariciones de crestas en los campos suponen la aparición y desaparición de partículas del tipo de cada campo, y la única regla que la Naturaleza necesita respectar es la conservación en el estado inicial y final (sin importar los estados intermedios) de las tradicionales cantidades fundamentales denominadas masa, momento lineal, momento angular, energía, carga, color, número leptónico, etc. Es decir, que son las leyes de conservación y el principio de mínima acción las únicas herramientas de la que se vale el mundo natural para guiar y dirigir el fenómeno. Todo lo que en cierto estado sea viable que pase (al respetarse las leyes de conservación) puede pasar. Y dado que todo puede ocurrir, el Universo necesita de alguna guía que le permita decidir y dictaminar qué es lo que le "gusta" o "desea" que pase. Para eso se basa en el principio de mínima acción, y para el cálculo de dicha acción hace uso del ya mencionado lagrangiano L. Por último, ese lagrangiano viene determinado por una función de campo φ(x, t) (y su derivada espacio-temporal) para cada uno de los cientos de campos. De manera que el lagrangiano general está compuesto por cientos de términos dependientes de cientos de funciones de campo φ(x, t), Ψ(x, t), Φ(x, t), etc. Finalmente, aparte de los términos en L dependientes exclusivamente de las funciones de campo y sus derivadas, existen términos interrelacionados entre campos. Esos términos son de la forma: λ[Φ(x,t)Φ(x,t)Ψ(x,t)].

Son precisamente estos términos que mezclan funciones de varios campos los que son capaces de hacer desaparecer una cresta de onda en cierto campo y hacer aparecer dos crestas en campos distintos. En la fórmula anterior por ejemplo tenemos la posibilidad de que una cresta en Ψ desaparezca (acabe en un valle plano) y por contra aparezcan dos nuevas crestas de ola en Φ (siempre que se mantengan las leyes de conservación, puesto que en caso contrario la aportación al lagrangiano de esa combinación sería de 0). Mencionar por último que la probabilidad de que tal evento de creación y aniquilación se produzca viene determinado por la constante de acoplamiento λ

En resumen se puede entender que la dinámica del sistema la dictamina en último término un lagrangiano L compuesto por una grandísima cantidad de términos aditivos cada uno acompañado de su constante de acoplamiento. Gráficamente esta suma infinitesimal se representa por los famosos diagramas de Feynman, cada uno de los cuales representa uno de estos infinitos términos y su probabilidad. Finalmente, cuando observamos, la Naturaleza selecciona (colapsa a) un estado final de entre todos los posibles siguiendo la señalada distribución de probabilidad.



El símil en 3 dimensiones.

Si queremos acercar más el símil de la piscina al mundo real podemos imaginarnos no ya la superficie del agua, sino inmersos en el interior de la piscina. Y podemos además utilizar la analogía de corrientes en lugar de hablar de crestas y valles de olas. En cierto sentido realmente se puede decir que vivimos sumergidos en un inmenso mar de mares...y el cálculo que realiza el Universo en cada instante para determinar qué debe pasar en cada punto infinitesimal del Universo viene descrito por un complejo lagrangiano L muy similar al siguiente:

¿Qué probabilidad hay de pasar de un estado inicial |i>  a un estado final |f>?

Para poner en perspectiva todo lo dicho, tomar por ejemplo un periodo de tiempo determinado por t1 y t2, suma la aportación de cada una de las infinitas trayectorias (con creaciones y aniquilaciones de todo tipo) que el lagrangiano anterior permite en este intervalo de tiempo, premultiplica por el estado final  y multiplica por el estado inicial. Finalmente eleva este resultado al cuadrado y ya tienes la probabilidad de observar el estado final |f> partiendo de |i>. Esta es precisamente la máxima capacidad de previsión que permite el modelo estándar de partículas. Se acabo aquello de calcular observables con certezas puesto que ahora sabemos que debemos limitarnos a calcular distribuciones de probabilidad. Y cabe recordar que esta limitación no es algún tipo de incapacidad humana, sino que es causa del modo en que funciona el mundo en esencia: finalmente "Dios" sí juega a los dados, y lo hace incesantemente en cada momento y en cada lugar infinitesimal. Así pues no es ya sólo que vivamos en un mar de mares, es que vivimos en un gigantesco mar de probabilidades.

domingo, 5 de noviembre de 2017

A vueltas con la detección de la existencia de una inteligencia con consciencia en nuestro Universo

Os dejo a continuación un texto colaborativo escrito por mi buen amigo José Carlos Gil Jara. Se trata a grandes rasgos de un interesante contraargumento a mi último artículo escrito en este mismo blog.
--------------------------------------------------------------------------------------------

“Cuando se elimina lo imposible, por muy improbable que pueda parecer lo posible, puede ser lo factible.”

Con esta cita adaptada de Sir Arthur Conan Doyle por boca de su célebre Sherlock Holmes, me dispongo a recoger el guante que nos lanzaba Samu en su último post y así tratar de responder, desde otro punto de vista, a la pregunta que encabezaba el mismo: ¿estamos solos en el Universo?

Ciertamente la improbabilidad en el origen y la existencia de la consciencia/inteligencia es muy alta, pero no imposible. Y aunque así se dedujera de alguna de esas hipótesis estadísticas, no es menos cierto que podría darse el caso de que estuvieran aquí al lado, pero que no estén capacitados aún para transmitir señales en el espectro electromagnético y/o lo hagan de una forma que nosotros no comprendemos; bien porque lo hagan con alguna tecnología que desconocemos, bien porque esas señales no sigan patrones que nosotros identificamos como señales inteligentes conscientes.

En definitiva, la lotería puede tocar a un número y al siguiente en dos sorteos consecutivos. Es improbable que te toque dos veces seguidas con dos números seguidos, pero se trata del mismo rango de improbablildad que con otros dos números cualesquiera.

Sin duda se trata en el fondo de un tema estadístico (por ahora), pero hay que notar que se viene atacando por dos lados opuestos a la llamada paradoja de Fermi. Por una lado a partir de la ecuación de Drake y las modificaciones a la misma realizadas por varios investigadores, como Sara Seager y Luis Dévora. La otra versión viene a partir de los resultados del SETI y lo que apunta Max Tegmark en su libro “Life 3.0: Being Human in the Age of Artificial Intelligence” al respecto. Dos estadísticas contrapuestas. El bueno de Max concluye que con los órdenes de magnitud deducidos a partir del alcance que detecta SETI, y tras su fracaso hasta el momento en su objetivo, parece sesgar la balanza en favor de que la inteligencia en el Universo es extremadamente rara, y/o tan dispersa en el espacio y el tiempo, que es muy improbable detectar cualquier emisión realizada por éstas. Tan rara que bien podría ser nuestro caso, el de los humanos, un hecho aislado (o como poco parte de un exclusivo y selecto grupo de casos aislados aquí y allá). Singularidades conscientes que, con tan pocos especímenes disponibles no sería raro que en algún momento una serie de cataclismos naturales acaben borrando del Universo cualquier rastro de conciencia inteligente consciente de sí misma.


En resumen, partiendo de esas premisas y dejando a parte nueva física y señales desconocidas, se afirma que la vida inteligente y consciente es muy rara y/o muy dispersa basándonos exclusivamente en lo que sabemos de física y tecnología. Tan rara que, posiblemente, no exista nada ni nadie con parecida capacidad intelectual a la nuestra en el resto de la Vía Láctea. Esto dejaría solo un rango de 5 órdenes de magnitud donde buscar (hasta el borde del Universo visible); pero siendo  ese rango tan pequeño en comparación con los 21 órdenes de magnitud anteriores, la esperanza matemática de que haya mucha vida inteligente ahí fuera sería muy poca. Como ven el "fracaso" de SETI es la premisa fundamental que toma Max Tegmark, pero ya sabemos que los errores suelen estar en las premisas y no en los desarrollos posteriores.

Y ahí es donde el bueno de Max tiende a hacer hipótesis, con este tipo de dudosas premisas (como ocurre con su "Universo Matemático" con postulados también poco justificados y/o sin sentido físico, inclusive).

Abundando y volviendo a la posible detección de emisiones por parte de una civilización extraterrestre, hay que tener en cuenta que muchas zonas nos siguen siendo opacas en parte del espectro electromagnético. Si esas civilizaciones no emiten en todas las longitudes de onda entonces puede que en las que emitan no podamos detectarlas al estar en esas zonas de sombra, ¡y que podrían ser muchísimas! Es decir, el argumento-premisa de que SETI no ha detectado nada y que, por lo tanto en una radio de 10^21 no hay nadie ni nada que esté emitiendo en el espectro electromagnético es pretencioso, cuando menos, porque obvia muchas posibilidades que pueden ser perfectamente factibles. A parte de que haya civilizaciones menos desarrolladas que no emitan nada (como nos sucedía a nosotros hace un par de siglos más o menos).

Desde luego lo más difícil es que dos civilizaciones en un grado de desarrollo suficiente como para emitir coincidan en el tiempo. Pero ya sabemos que el tiempo es relativo, o al menos así lo experimentamos desde un sistema relativo, y puede que ya no estén, aunque sus emisiones sí continúen vagando por el Universo. Y quizá puede que las detectemos, si es que no están en una zona opaca (entre otras muchas dificultades): sería como encontrar una aguja en un pajar, pero si están en una zona detectable, puede que algún día las encontremos y/o nos encuentren a nosotros.

Es la misma razón por la que no vemos las estrellas en el centro de nuestra galaxia en luz visible pero sí las vemos en longitudes de onda más largas (infrarroja por ejemplo). Igualmente no podríamos detectar a una civilización que allí estuviera y que emitiera solo en luz visible, ya que nos serían opacas esas emisiones debido al gas formado por partículas neutrales y el polvo. Algo similar a lo que sucedía en los llamados “años oscuros” de la Historia de nuestro Universo, que se estima se extendió durante sus primeros 500 millones de años de media.


Un ejemplo ilustrado de lo que comento a este respecto es el siguiente:



A la izquierda tenemos los famosos y bellos “Pilares del Universo” en la parte del espectro de luz visible. A la derecha en el infrarrojo. En el primero no podemos ver las estrellas porque su luz visible está bloqueada por las partículas neutrales y el polvo de esa espectacular formación. Lo mismo sucedería con una emisión en la zona de luz visible que se produjera en alguno de los planetas que orbitan alrededor de esas estrellas. SETI no detectaría nada y pensaríamos que allí no hay nadie si seguimos a pies juntitas la premisa de Max. Pero puede que sí haya emisiones y no las veamos por el mismo motivo que no vemos las estrellas.

Se podría argumentar que una civilización con capacidad para emitir en el espectro de luz visible también lo haría en el infrarrojo. Podría ser así, pero también podría ser que no perfectamente. De hecho nosotros no emitíamos en infrarrojo hasta hace bien poco. Un poco antes sí lo hacíamos en el visible. Y cuando digo bien poco, es tan poco que es un intervalo de tiempo insignificante a escalas cosmológicas. De hecho se podría despreciar por ser infinitesimal. Pero ahí estamos y sin embargo, probablemente no nos detectarían tampoco.

Así que puede que la inteligencia con consciencia sea muy rara y/o dispersa en el espacio y el tiempo, pero que no las detectemos con SETI no es una premisa ni argumento válido para afirmarlo. Hay muchos más vericuetos en este, nuestro Universo, que todavía nos son opacos. Tan opacos que pueden estar en la “zona oscura” de nuestro Universo. Imaginen una civilización que emite en el espectro no electromagnético, por ejemplo en lo que llamamos el “Universo Oscuro”. Sí, esa parte que desconocemos y calificamos como materia y energía oscura. O, simplemente, emiten en una zona del espectro electromagnético que nos es opaca por alguna razón. O que lo hacen con ondas gravitacionales exclusivamente. O de una forma que para nosotros no nos parece ni inteligente ni consciente. Hay tantas “O” por estudiar antes de descartar que esto se pone tan erótico que podría titularse: “Historia de O”.


Retorciendo más el asunto y poniéndonos en plan porno intelectual, quizá su percepción del espacio y el tiempo influya en su comunicación de forma tan decisiva que nosotros no entendamos que ahí hay una civilización inteligente y consciente. Incluso nuestro concepto de inteligencia y consciencia no tiene porque ser universal (de hecho no lo es). Por lo tanto solo estaríamos buscando especies que cumplan nuestros protocolos de inteligencia y consciencia, lo cual no quiere decir que existan otras con otros diferentes.

Al final puede que la gran barrera para detectar otra inteligencia consciente sea la propia concepción de qué es una inteligencia consciente y con conciencia de sí misma para nosotros, unos humildes seres locales en un rincón de una galaxia de entre centenares de miles de millones de esta parte observable de nuestro Universo. Un problema conceptual, a parte de ser un problema de comunicación, que también lo sería, ¡y muy grande! Quizá tan tan grande que nos impida considerar una potencial detección de una emisión extraterrestre como una comunicación inteligente. Puede ser algo insuperable. Tanto como las siguientes cuestiones:

¿Qué es la inteligencia y qué es la conciencia?

Preguntas muy difíciles de contestar de forma universal. ¡Ya lo son desde la propia concepción humana local! Un prisma que deforma eso que llamamos realidad de forma tan aberrante que solo sabemos que no sabemos nada y que existimos porque somos una especie pensante. Al final Sócrates y Descartes al rescate.

Sin embargo, si nos hacemos estas preguntas de la forma adecuada ya tenemos media respuesta,como decía Albert Einstein. Así que formulémoslas en clave del teneismo existencial:

¿Qué propiedades debe tener la inteligencia? ¿Y la consciencia?

Quizá ahora sea más fácil abordar esas cuestiones cuando sólo tenemos que buscar propiedades. Lo complicado es encontrar aquellas que sean universales. Y para ello debemos deshacernos de nuestras intuiciones, todas ellas locales. Eso es tanto como decir que nos deshagamos de nuestra condición humana y pasemos de observadores materiales a metaobsevadores intelectuales. Incluso debemos alejarnos tanto de nuestro ordinario sistema relativo como para arribar a los conspicuos y selectos sistemas universales. Desde ahí es de donde debemos metaobsevar, evadiéndonos de todo sesgo local.

Termino con Descartes nuevamente y con énfasis mío añadido:

Nuestros sentidos nos engañan. ¡Nuestras observaciones también!

(Texto íntegramente escrito por José Carlos Gil Jara)


viernes, 3 de noviembre de 2017

¿Estamos solos en el Universo? Opinión de Max Tegmark

"Despite popular belief to the contrary, it’s quite plausible that we’re the only life form capable of making our observable Universe come alive in the future." (Max Tegmark)


Según un estudio reciente de la PNAS, parece ser que hay un planeta potencialmente habitable como la Tierra orbitando alrededor de al menos un 1% del total de estrellas del universo: esto es, un total de 100 millones de billones de planetas habitables parecidos a la Tierra. En otras palabras: hay 100 planetas análogos a la Tierra por cada grano de arena en nuestras playas -piensa en ello la próxima vez que estés en una ;). Y sin embargo...no hay ni rastro de señales de inteligencia extraterrestre por ninguna parte.

Piensa en ello: el SETI (Search for Extraterrestial Intelligence, o Búsqueda de inteligencia extraterrestre) es una organización dedicada exclusivamente a prestar atención a las señales de vida inteligente. Pues bien, si como muchos afirman hay 100.000 o más civilizaciones inteligentes en nuestra galaxia, e incluso si solo una fracción de ellas está enviando ondas de radio, rayos láser u otros modos de transmisión, ¿no debería esta colección de satélites del SETI haber captado en sus más de 30 años de funcionamiento todo tipo de señales? Pero no lo ha hecho. Ni una. Nunca. ¿Dónde está todo el mundo?

A este asombroso hecho se le conoce como la paradoja de Fermi, y según menciona el cosmólogo Max Tegmark en su último libro "Life 3.0: Being Human in the Age of Artificial Intelligence", esto podría ser una clara señal de que a pesar de todo el mencionado potencial de habitabilidad cósmica, podría ser que finalmente fuésemos los únicos seres inteligentes que pueblan el Universo.

Y no es que Max Tegmark niegue la posibilidad o la probabilidad de que exista vida ahí fuera, sino de que dicha vida haya logrado avanzar y evolucionar lo suficiente como para lograr un nivel de inteligencia adecuado para generar la ciencia y la tecnología necesarias para comenzar a utilizar para fines útiles los procesos electromagnéticos. Por lo tanto, el ser humano bien podría ser el único sistema vivo con la suficiente inteligencia como para poder transmitir radiológicamente al espacio, lo cual es un indicativo de que podemos ser el único ente consciente del Universo. Y es que, puesto que el razonamiento superior, la consciencia y las capacidades tecnológicas van tan de la mano, es difícil creer que existan muchos seres conscientes ahí fuera pero que luego no lleguen a dominar nunca estas técnicas que al Homo sapiens sapiens le llevo unos pocos milenios descubrir.

Y merece la pena insistir una vez más en que no se basa exclusivamente la paradoja de Fermi en el hecho de que no hayamos hasta ahora logrado un encuentro directo físico con una nave alienígena tipo película de Hollywood, sino de que no hemos recibido ni siquiera una sola señal electromagnética del espacio exterior que de cuenta de procesos complejos no explicables por fenómenos inertes. Como ya hemos comentado, el observatorio SETI de la NASA, por ejemplo; lleva recogiendo y procesando señales desde hace muchas décadas, y no se ha hallado absolutamente nada. Bien parece que la inteligencia en el Universo sea un evento extremadamente raro (incluso único).

Max Tegmark, de hecho va más allá y pone números al asunto. Descarta mediante hechos físicos Universales como son el límite de la velocidad de la luz, las ENORMES distancias espaciales implicadas, y la exponencial resistencia que un cuerpo opone en relación directa a su masa para aumentar su velocidad (acelerar) cualquier posibilidad de que existan civilizaciones capaces de lograr viajes galácticos (ni siquiera estelares); y se basa pues en la posibilidad más evidente: que el contacto entre civilizaciones, de llegar a existir, se produzca gracias a transmisiones electromagnéticas viajando a la velocidad de la luz. Pero a raíz de que ni siquiera este tipo de comunicaciones hayan llegado a ocurrir realiza la siguiente estimación:

Normalmente, dice el cosmólogo, la gente cree en la existencia de otras formas de vida inteligente basados en la estadística. Ya hemos comentado que se estima que existen 100 millones de billones de planetas similares a la Tierra en el Universo: ¿cómo no va a haber vida inteligente en ninguno de ellos? Pues bien, resulta que este argumento depende de un valor empírico que no se suele tener en cuenta: la distancia media o típica entre una civilización inteligente y su vecina más próxima.


Imaginemos que esta figura representa la historia cósmica acontecida desde el Big Bang, donde podemos ver como diferentes civilizaciones llegan a aparecer en distintos momentos (punto inferior de cada cono), y cómo tales civilizaciones han podido extenderse en el tiempo por el espacio al 50% de la velocidad de la luz (cono más opaco) y al 100% de la velocidad de la luz (cono más traslucido). Pues bien, la distancia típica a la que nos referíamos antes es precisamente la distancia media a la que se encontrarían todo ese conjunto de hipotéticos entes inteligentes (puntos en la figura) que, a parte de nosotros, poblarían el Universo.

Indudablemente nuestra aparición en el mundo no tiene ningún atributo no explicable mediante leyes físicas, y por lo tanto es de perogrullo que el mismo proceso se podría repetir, quizás con leves variaciones, en otros planetas; pero recalquemos que la cuestión de fondo es: ¿cómo de probable es el hecho de que surja en el cosmos una estructura inteligente? Dependiendo de esa probabilidad, la distancia media entre vecinos racionales será una u otra (y viceversa, esta distancia típica es un buen indicativo de lo probable que es el origen de la vida inteligente). Poniendo números podría ser que la distancia media (la distancia entre puntos en la figura de arriba) sea del orden de 10^20 metros (un uno seguido de 20 ceros), o podría ser del orden de 10^21, 22, 23,...,100, 101, etc.

Pues bien, si la distancia que suele separar una civilización de otra resulta ser mayor de 20.000 millones de años luz (y teniendo en cuenta que la región del espacio desde la cual la luz ha podido llegarnos hasta el momento desde el Big Bang es de 13.800 millones de años), se podría decir que la probabilidad de que estemos solos en la parte visible del Universo es inmensa. Por otra parte, tenemos el hecho de que hasta el momento no se ha recibido ninguna evidencia alienígena a pesar de nuestra insistencia durante décadas en el SETI, lo cual ha conseguido reducir el rango medio en el que pueden existir seres tecnológicos a una distancia de entre 10^21 (el borde de nuestra Galaxia) y 10^26 (el borde del Universo observable).

Y es que si la distancia típica fuese menor a 10^21 metros (lo cual supone que habría en nuestra Galaxia muchos otros seres inteligentes), inevitablemente ya habríamos recibido comunicaciones intencionadas (o por error) de alguno de todos esos seres. Pero como evidentemente no es así, es bastante atinado afirmar que la distancia media esperable entre civilizaciones es mayor que estos supuestos 10^21 metros (en realidad bastante mayor); lo que indica que como poco es casi una certeza que estamos solos en la Vía Láctea. Pero resulta que además la cota que este hecho nos deja para la separación media de vecinos inteligentes es muy estrecha. Es decir, que si en los primeros 21 órdenes de magnitud no se ha encontrado nada de nada, es complicado que en los 5 órdenes de magnitud que restan hasta el borde del Universo visible la cosa sea muy distinta: es decir; que bien podría ser el caso de que realmente el origen de una consciencia tecnológica sea un fenómeno tan raro (y deba pasar tantos filtros improbables), que realmente estemos solos (o MUY poco acompañados) en todo el Universo visible (esos 10^26 metros).

Para más inri, incluso si finalmente hay vida inteligente (o incluso si es abundante) más allá de esos 10^26 metros, resulta que estarán para siempre fuera de nuestro alcance comunicativo (debido al limite establecido por la velocidad de la luz), lo cual hace que a efectos prácticos podamos afirmar hoy por hoy que la probabilidad de que seamos los únicos seres sintientes en todo el cosmos (observable) es bastante alta y para nada descartable (a pesar de esos 100 millones de billones de planetas habitables).

Como señala Max Tegmark, si finalmente no hacemos nada al respecto y algún cataclismo natural acaba terminando con la existencia completa de nuestra especie (como le ocurrió por ejemplo a los dinosaurios), quizás la conciencia en todo el Universo desaparezca con nosotros, y quién sabe si dada su improbabilidad lo haga para siempre.

martes, 31 de octubre de 2017

Life 3.0 (Max Tegmark)

"The ultimate origin of goal-oriented behavior lies in the laws of physics, which involve optimization." (Max Tegmark)


Sorprendente y brillante el último libro de Max TegmarkLife 3.0: Being Human in the Age of Artificial Intelligence. Mientras lo leía no paraba de tomar notas para escribir futuras entradas en este blog, pero primero voy a introducir en este artículo lo que son los resúmenes que el propio autor realiza al finalizar cada capítulo de su obra. Creo que estos esquemas os pueden dar una idea de la calidad del trabajo, y quizás os puedan llevar a leer el libro completo, cosa que recomiendo con mucho ahínco. Especialmente interesante me ha parecido el capítulo 7, donde por cierto se menciona el trascendente trabajo del físico Jeremy England respecto al origen de la vida.

Chapter 1. Welcome to the Most Important Conversation of Our Time.

• Life, defined as a process that can retain its complexity and replicate, can develop through three stages: a biological stage (1.0), where its hardware and software are evolved, a cultural stage (2.0), where it can design its software (through learning) and a technological stage (3.0), where it can design its hardware as well, becoming the master of its own destiny.

• Artificial intelligence may enable us to launch Life 3.0 this century, and a fascinating conversation has sprung up regarding what future we should aim for and how this can be accomplished. There are three main camps in the controversy: techno-skeptics, digital utopians and the beneficial-AI movement.

• Techno-skeptics view building superhuman AGI as so hard that it won’t happen for hundreds of years, making it silly to worry about it (and Life 3.0) now.

• Digital utopians view it as likely this century and wholeheartedly welcome Life 3.0, viewing it as the natural and desirable next step in the cosmic evolution.

• The beneficial-AI movement also views it as likely this century, but views a good outcome not as guaranteed, but as something that needs to be ensured by hard work in the form of AI-safety research.

• Beyond such legitimate controversies where world-leading experts disagree, there are also boring pseudo-controversies caused by misunderstandings. For example, never waste time arguing about “life,” “intelligence,” or “consciousness” before ensuring that you and your protagonist are using these words to mean the same thing! This book uses the definitions in table 1.1.

• Also beware the common misconceptions in figure 1.5: “Superintelligence by 2100 is inevitable/impossible.” “Only Luddites worry about AI.” “The concern is about AI turning evil and/or conscious, and it’s just years away.” “Robots are the main concern.” “AI can’t control humans and can’t have goals.”

• In chapters 2 through 6, we’ll explore the story of intelligence from its humble beginning billions of years ago to possible cosmic futures billions of years from now. We’ll first investigate near-term challenges such as jobs, AI weapons and the quest for human-level AGI, then explore possibilities for a fascinating spectrum of possible futures with intelligent machines and/or humans. I wonder which options you’ll prefer!

• In chapters 7 through 9, we’ll switch from cold factual descriptions to an exploration of goals, consciousness and meaning, and investigate what we can do right now to help create the future we want.

• I view this conversation about the future of life with AI as the most important one of our time—please join it!

Chapter 2. Matter Turns Intelligent.

• Intelligence, defined as ability to accomplish complex goals, can’t be measured by a single IQ, only by an ability spectrum across all goals.

• Today’s artificial intelligence tends to be narrow, with each system able to accomplish only very specific goals, while human intelligence is remarkably broad.

• Memory, computation, learning and intelligence have an abstract, intangible and ethereal feel to them because they’re substrate-independent: able to take on a life of their own that doesn’t depend on or reflect the details of their underlying material substrate.

• Any chunk of matter can be the substrate for memory as long as it has many different stable states.
• Any matter can be computronium, the substrate for computation, as long as it contains certain universal building blocks that can be combined to implement any function. NAND gates and neurons are two important examples of such universal “computational atoms.”

• A neural network is a powerful substrate for learning because, simply by obeying the laws of physics, it can rearrange itself to get better and better at implementing desired computations.

• Because of the striking simplicity of the laws of physics, we humans only care about a tiny fraction of all imaginable computational problems, and neural networks tend to be remarkably good at solving precisely this tiny fraction.

• Once technology gets twice as powerful, it can often be used to design and build technology that’s twice as powerful in turn, triggering repeated capability doubling in the spirit of Moore’s law. The cost of information technology has now halved roughly every two years for about a century, enabling the information age.

• If AI progress continues, then long before AI reaches human level for all skills, it will give us fascinating opportunities and challenges involving issues such as bugs, laws, weapons and jobs—which we’ll explore in the next chapter.

Chapter 3. The Near Future: Breakthroughs, Bugs, Laws, Weapons and Jobs.

• Near-term AI progress has the potential to greatly improve our lives in myriad ways, from making our personal lives, power grids and financial markets more efficient to saving lives with self-driving cars, surgical bots and AI diagnosis systems.

• When we allow real-world systems to be controlled by AI, it’s crucial that we learn to make AI more robust, doing what we want it to do. This boils down to solving tough technical problems related to verification, validation, security and control.

• This need for improved robustness is particularly pressing for AI-controlled weapon systems, where the stakes can be huge.

• Many leading AI researchers and roboticists have called for an international treaty banning certain kinds of autonomous weapons, to avoid an out-of-control arms race that could end up making convenient assassination machines available to everybody with a full wallet and an axe to grind.

• AI can make our legal systems more fair and efficient if we can figure out how to make robojudges transparent and unbiased.

• Our laws need rapid updating to keep up with AI, which poses tough legal questions involving privacy, liability and regulation.

• Long before we need to worry about intelligent machines replacing us altogether, they may increasingly replace us on the job market.

• This need not be a bad thing, as long as society redistributes a fraction of the AI-created wealth to make everyone better off.

• Otherwise, many economists argue, inequality will greatly increase.

• With advance planning, a low-employment society should be able to flourish not only financially, with people getting their sense of purpose from activities other than jobs.

• Career advice for today’s kids: Go into professions that machines are bad at—those involving people, unpredictability and creativity.

• There’s a non-negligible possibility that AGI progress will proceed to human levels and beyond—we’ll explore that in the next chapter!

Chapter 4. Intelligence Explosion?

• If we one day succeed in building human-level AGI, this may trigger an intelligence explosion, leaving us far behind.

• If a group of humans manage to control an intelligence explosion, they may be able to take over the world in a matter of years.

• If humans fail to control an intelligence explosion, the AI itself may take over the world even faster.

• Whereas a rapid intelligence explosion is likely to lead to a single world power, a slow one dragging on for years or decades may be more likely to lead to a multipolar scenario with a balance of power between a large number of rather independent entities.

• The history of life shows it self-organizing into an ever more complex hierarchy shaped by collaboration, competition and control. Superintelligence is likely to enable coordination on ever-larger cosmic scales, but it’s unclear whether it will ultimately lead to more totalitarian top-down control or more individual empowerment.

• Cyborgs and uploads are plausible, but arguably not the fastest route to advanced machine intelligence.

• The climax of our current race toward AI may be either the best or the worst thing ever to happen to humanity, with a fascinating spectrum of possible outcomes that we’ll explore in the next chapter.

• We need to start thinking hard about which outcome we prefer and how to steer in that direction, because if we don’t know what we want, we’re unlikely to get it.

Chapter 5. Aftermath: The Next 10,000 Years.

• The current race toward AGI can end in a fascinatingly broad range of aftermath scenarios for upcoming millennia.

• Superintelligence can peacefully coexist with humans either because it’s forced to (enslaved-god scenario) or because it’s “friendly AI” that wants to (libertarian-utopia, protector-god, benevolent-dictator and zookeeper scenarios).

• Superintelligence can be prevented by an AI (gatekeeper scenario) or by humans (1984 scenario), by deliberately forgetting the technology (reversion scenario) or by lack of incentives to build it (egalitarian-utopia scenario).

• Humanity can go extinct and get replaced by AIs (conqueror and descendant scenarios) or by nothing (self-destruction scenario).

• There’s absolutely no consensus on which, if any, of these scenarios are desirable, and all involve objectionable elements. This makes it all the more important to continue and deepen the conversation around our future goals, so that we don’t inadvertently drift or steer in an unfortunate direction.

Chapter 6. Our Cosmic Endowment: The Next Billion Years and Beyond.

• Compared to cosmic timescales of billions of years, an intelligence explosion is a sudden event where technology rapidly plateaus at a level limited only by the laws of physics.

• This technological plateau is vastly higher than today’s technology, allowing a given amount of matter to generate about ten billion times more energy (using sphalerons or black holes), store 12–18 orders of magnitude more information or compute 31–41 orders of magnitude faster—or to be converted to any other desired form of matter.

• Superintelligent life would not only make such dramatically more efficient use of its existing resources, but would also be able to grow today’s biosphere by about 32 orders of magnitude by acquiring more resources through cosmic settlement at near light speed.

• Dark energy limits the cosmic expansion of superintelligent life and also protects it from distant expanding death bubbles or hostile civilizations. The threat of dark energy tearing cosmic civilizations apart motivates massive cosmic engineering projects, including wormhole construction if this turns out to be feasible.

• The main commodity shared or traded across cosmic distances is likely to be information.

• Barring wormholes, the light-speed limit on communication poses severe challenges for coordination and control across a cosmic civilization. A distant central hub may incentivize its superintelligent “nodes” to cooperate either through rewards or through threats, say by deploying a local guard AI programmed to destroy the node by setting off a supernova or quasar unless the rules are obeyed.

• The collision of two expanding civilizations may result in assimilation, cooperation or war, where the latter is arguably less likely than it is between today’s civilizations.

• Despite popular belief to the contrary, it’s quite plausible that we’re the only life form capable of making our observable Universe come alive in the future.

• If we don’t improve our technology, the question isn’t whether humanity will go extinct, but merely how: will an asteroid, a supervolcano, the burning heat of the aging Sun or some other calamity get us first?

• If we do keep improving our technology with enough care, foresight and planning to avoid pitfalls, life has the potential to flourish on Earth and far beyond for many billions of years, beyond the wildest dreams of our ancestors.

Chapter 7. Goals.

• The ultimate origin of goal-oriented behavior lies in the laws of physics, which involve optimization.

• Thermodynamics has the built-in goal of dissipation: to increase a measure of messiness that’s called entropy.

• Life is a phenomenon that can help dissipate (increase overall messiness) even faster by retaining or growing its complexity and replicating while increasing the messiness of its environment.

• Darwinian evolution shifts the goal-oriented behavior from dissipation to replication.

• Intelligence is the ability to accomplish complex goals.

• Since we humans don’t always have the resources to figure out the truly optimal replication strategy, we’ve evolved useful rules of thumb that guide our decisions: feelings such as hunger, thirst, pain, lust and compassion.

• We therefore no longer have a simple goal such as replication; when our feelings conflict with the goal of our genes, we obey our feelings, as by using birth control.

• We’re building increasingly intelligent machines to help us accomplish our goals. Insofar as we build such machines to exhibit goal-oriented behavior, we strive to align the machine goals with ours.

• Aligning machine goals with our own involves three unsolved problems: making machines learn them, adopt them and retain them.

• AI can be created to have virtually any goal, but almost any sufficiently ambitious goal can lead to subgoals of self-preservation, resource acquisition and curiosity to understand the world better—the former two may potentially lead a superintelligent AI to cause problems for humans, and the latter may prevent it from retaining the goals we give it.

• Although many broad ethical principles are agreed upon by most humans, it’s unclear how to apply them to other entities, such as non-human animals and future AIs.

• It’s unclear how to imbue a superintelligent AI with an ultimate goal that neither is undefined nor leads to the elimination of humanity, making it timely to rekindle research on some of the thorniest issues in philosophy!

Chapter 8. Consciousness.

• There’s no undisputed definition of “consciousness.” I use the broad and non-anthropocentric definition consciousness = subjective experience.

• Whether AIs are conscious in that sense is what matters for the thorniest ethical and philosophical problems posed by the rise of AI: Can AIs suffer? Should they have rights? Is uploading a subjective suicide? Could a future cosmos teeming with AIs be the ultimate zombie apocalypse?

• The problem of understanding intelligence shouldn’t be conflated with three separate problems of consciousness: the “pretty hard problem” of predicting which physical systems are conscious, the “even harder problem” of predicting qualia, and the “really hard problem” of why anything at all is conscious.

• The “pretty hard problem” of consciousness is scientific, since a theory that predicts which of your brain processes are conscious is experimentally testable and falsifiable, while it’s currently unclear how science could fully resolve the two harder problems.

• Neuroscience experiments suggest that many behaviors and brain regions are unconscious, with much of our conscious experience representing an after-the-fact summary of vastly larger amounts of unconscious information.

• Generalizing consciousness predictions from brains to machines requires a theory. Consciousness appears to require not a particular kind of particle or field, but a particular kind of information processing that’s fairly autonomous and integrated, so that the whole system is rather autonomous but its parts aren’t.

• Consciousness might feel so non-physical because it’s doubly substrate-independent: if consciousness is the way information feels when being processed in certain complex ways, then it’s merely the structure of the information processing that matters, not the structure of the matter doing the information processing.

• If artificial consciousness is possible, then the space of possible AI experiences is likely to be huge compared to what we humans can experience, spanning a vast spectrum of qualia and timescales—all sharing a feeling of having free will.

• Since there can be no meaning without consciousness, it’s not our Universe giving meaning to conscious beings, but conscious beings giving meaning to our Universe.

• This suggests that as we humans prepare to be humbled by ever smarter machines, we take comfort mainly in being Homo sentiens, not Homo sapiens.

miércoles, 18 de octubre de 2017

AlphaGo Zero

Previous versions of AlphaGo initially trained on thousands of human amateur and professional games to learn how to play Go. AlphaGo Zero skips this step and learns to play simply by playing games against itself, starting from completely random play. In doing so, it quickly surpassed human level of play and defeated the previously published champion-defeating version of AlphaGo by 100 games to 0.
If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society. 
(Profesor David Silver)



¡Realmente increíble las implicaciones que tiene este descubrimiento de DeepMind! Su modelo neuronal AlphaGo Zero es capaz de aprender SOLO sin necesitar de datos de ningún tipo (ya no necesita siquiera aprender de jugadas de humanos como su versión anterior); simplemente aprende jugando contra sí mismo. Los chicos de Google DeepMind hablan de un entrenamiento de "tabula rasa" mediante un proceso de Reinforce Learning autónomo (auto-sostenido). Este proceso de entrenamiento consiste en partir de una red neuronal profunda (similar a lo que sería un cerebro con sinapsis aleatorias), y mediante una iteración de entrenamiento autónomo mediante ensayo-error y pequeñas mutaciones esa tabula rasa (esa red neuronal con sinapsis aleatorias) poco a poco va ajustando su estructura hasta lograr sin ninguna ayuda algorítmica humana vencer al mejor jugador mundial de Go. Es decir, que a partir de eso que sería el equivalente computacional de neuronas unidas mediante sinapsis aleatorias, este modelo de red neuronal de DeepMind es capaz en pocas semanas de aprender y finalmente emular (y mejorar) la creatividad y la imaginación necesarias para jugar este juego milenario que ha necesitado de millones de años para su implantación cerebral en el hombre.

¡Además esta mejora de AlphaGo Zero supone que el programa ahora es capaz de vencer siempre (al 100%) a su versión predecesora (que ya era ella por cierto capaz de vencer al mejor jugador del mundo)! Es decir, que han conseguido una mejora no ya sobrehumana, sino exponencialmente mejor que su predecesora...¡y además han logrado disminuir (exponencialmente) los requisitos de hardware necesarios para su funcionamiento!



Realmente la IA general está despegando, y todo apunta a que no hace falta más que un modelo neuronal lo suficientemente grande y profundo, suficiente capacidad computacional, y un entrenamiento y modulación similar a la evolución natural.




Implicaciones reales del proyecto sobre el avance hacia una IA general.

Imagina que eres tú el que está jugando a Go: ¿cómo sabes qué movimiento hacer? Recuerda que en el Go la lógica no es fundamental: hay más jugadas disponibles que átomos en el Universo lo que hace que no sea posible racionalizar las jugadas, cosa que convierte en muy importante el proceso de creatividad, imaginación y sobre todo el instinto. De hecho, un gran maestro humano de Go juega  casi exclusivamente guiado por el instinto: mueve donde CREE que es más adecuado, pero NO sabe racionalmente por qué debe mover en cierto lugar concreto en lugar de en cualquier otro (algo que con el ajedrez por ejemplo NO pasa puesto que es mucho más asequible a la planificación racional).

Otro ejemplo: vas por la calle y ves pasar una chica (o un chico) y sientes atracción por ella (o por él): ¿por qué sientes realmente atracción por esa persona? No lo sabes, sólo sabes que sientes atracción por cierto estereotipo de persona y punto. Un ejemplo más: los artistas y su creatividad. Estos trabajos son frutos de ideas que le "salen" de dentro al artista, pero casi siempre de manera instintiva sin saberse bien cómo ni de donde (por eso hablan metafóricamente de la ayuda de su musa, que es en realidad parte de su subconsciente).

El ser humano tiene por lo tanto muchos comportamientos e ideas que son de origen inconscientes e instintivos, los cuales no tienen ni explicación ni soporte racional directo. Y son precisamente este tipo de comportamientos creativos e imaginativos los que DeepMind está logrando de momento simular con mucho éxito; demostrando  por ejemplo que AlphaGo Zero es capaz de adquirir tales habilidades instintivas con una capacidad sobrehumana (y sin soporte algorítmico humano). Se podría decir en cierta manera que; aunque por ahora sólo en el terreno del Go, este modelo neuronal es capaz de actuar con más creatividad, imaginación e instinto que cualquier jugador humano. Y eso es algo muy revelador del futuro que nos espera en IA.

Referencia original: https://deepmind.com/blog/alphago-zero-learning-scratch/

domingo, 15 de octubre de 2017

El misticismo oculto tras la física moderna

"La Matemática no es real, pero «parece real». ¿Dónde está ese lugar?"
(Richard Feynman)


Continuando con el estudio en física moderna que comencé hace ya 3 años, estoy estos días siguiendo una serie de lecturas que el profesor Leonard Susskind hizo para la Universidad de Stanford hablando sobre el modelo estándar de partículas. La lectura es bastante amena y fácil de entender (desde un punto de vista matemático), pero a pesar de esta sencillez el profesor es capaz de transmitir la esencia de la que es actualmente la teoría física más precisa y avanzada de la que disponemos en estos momentos. Podéis acceder a estas 10 charlas desde YouTube: https://www.youtube.com/watch?v=Igl8hE3Eac0

Sea como fuere, lo que más me ha llamado la atención de este primer paso cualitativo que he dado en avanzar sobre el modelo estándar una vez que ya estudié a fondo (de manera bastante formal) la QED (Quantum Electro Dynamics), es que conforme la teoría cuántica de campos fue desarrollándose el siglo pasado la complejidad fue en aumento a cada paso dado. Finalmente todo parece haber acabado en un teoría repleta de conceptos matemáticos cada vez más alejados de una interpretación física coherente con el mundo macroscópico de nuestro alrededor. 

Y no se trata de que las matemáticas lleguen un momento en que no sean asequibles, al contrario; llega un momento en que se detecta un patrón algebraico muy claro que te facilita entender cada vez mejor todo el conjunto; sino que lo que me parece a mí es que cada vez todo se vuelve más y más abstracto, hasta que parece como si las matemáticas tomaran el mando y la física quedara atrás relegada al papel de contrastar que las probabilidades calculadas por la teoría matemática cuadran con lo observado en el laboratorio (y por cierto que sí que lo hace con bastantes decimales de precisión).

Las descripciones matemáticas, de hecho, llevan tan lejos la teoría como para asegurar la existencia de una infinidad de partículas "virtuales" que interaccionan de manera "oculta" en cada instante con las partículas "reales" observables. Esas partículas virtuales son tan reales como las demás, sólo que no existen el suficiente tiempo como para que la violación de la energía que supone su espontánea aparición ex nihilo sea detectable. Existe de hecho una descripción gráfica que ayuda a intentar visualizar estos sucesos que acontecen durante el proceso de decaimiento, de creación-destrucción, y de interacción (fuerzas) de partículas o entre partículas. Se trata de los diagramas de Feynman:



Cada diagrama de arriba representa una posible forma en la que pueden repelerse dos electrones que se aproximan debido al intercambio de un fotón (a), dos fotones (b) y (c), un fotón que entre medias crea un par partícula/antipartícula que después se aniquila y vuelve a dar un fotón (c), un fotón que se intercambia y otro fotón que se emite y se absorbe independientemente: desde (e) a (j), etc. Los electrones vienen representado por las lineas rectas y los fotones por las líneas ondulantes. Así pues en (a) se puede entender que el evento sucedido es que dos electrones se aproximan hasta que el intercambio de un fotón los "empuja" y aleja uno del otro. Merece la pena mencionar que el caso de (d) es remarcable, puesto que supone un quebradero de cabeza matemático dado que se observa un loop (un bucle de creación destrucción virtual) que de hecho puede repetirse infinitas veces y de distintas maneras. 

El cálculo preciso (exacto) de todo el proceso en la repulsión de dos electrones requiere en sí de hecho de la integración en la probabilidad de todos y cada uno de los diagramas de este estilo que es posible imaginar (que son infinitos). Es decir, que la naturaleza parece que de algún modo es capaz de tener en cuenta para cada evento microscópico acontecido toda esta infinita mezcolanza de posibles eventos "virtuales" y conseguir siempre un coherente resultado probabilista para el devenir del fenómeno, mientras que, por otra parte, este cálculo nosotros sólo podemos realizarlo parcialmente aproximando (cortando arbitrariamente) la complicación permitida en nuestros cómputos (es decir; no teniendo en cuenta diagramas con muchos bucles o situaciones complejas de creación-destrucción, y quedándonos con los pocos diagramas que más aportan a la probabilidad global e ignorando el resto).

En resumen: que dado un evento microscópico cualquiera, lo que las matemáticas nos parecen querer decir es que el Universo se las apaña para tener en cuenta (sumar) la probabilidad de toda la infinidad de posibles circunstancias que podrían llevar a cada resultado final determinado (de manera que se respeten las leyes de conservación de energía, momento, carga, etc.). Es como si el mundo conociera en cada instante cada posible desenlace microscópico dado el estado infinitesimal actual del cosmos, y tuviera en cuenta además todos los infinitos procesos "ocultos o virtuales" que podrían llevar a cada uno de estos desenlaces determinando así la probabilidad para cada uno de ellos. La cuestión evidente que surge es: ¿cómo es capaz del Universo de hacer algo así? (léase también esta otra entrada sobre el asunto).

Nosotros como humanos podemos por ejemplo lanzar dos haces de hadrones entre sí, y aplicando aproximaciones numéricas sobre la teoría matemática que hemos desarrollado, realizar una estimación para la probabilidad de aquellos sucesos permitiros (dado el estado inicial). Podemos hacer este cálculo con mucho esfuerzo, de manera aproximada y estadística, y utilizando una gran cantidad de recursos para estudiar la información anterior y posterior a la colisión. En este sentido cientos de terabytes de información son procesados y almacenados para poder estimar estas probabilidades en el LHC, y el estudio experimental posterior lleva meses hasta poder alcanzar resultados contrastables con lo que la teoría dice.

Sin embargo la Naturaleza de algún modo se las apaña para realizar este tipo de cálculos de manera analítica exacta sin aproximaciones (teniendo en cuenta los infinitos diagramas de Feynman), y además lo hace de manera instantánea e infinitesimal teniendo en cuenta el estado del Universo completo en cada momento. De manera súbita el Universo en sí parece ser capaz de determinar la dinámica de una infinidad de partículas interactuando mediante infinitos procesos "ocultos o virtuales" y sin demora aparente: ¿cómo es posible que el mundo pueda llevar y guiar con tanta exactitud (e instantáneamente) al fenómeno teniendo en cuenta que debe contar con una infinidad de circunstancias diferentes en cada instante?  

Cada vez que tecleo en mi ordenador, por ejemplo; el cosmos se las arregla para calcular instantáneamente la mecánica que deben seguir esos varios cientos de trillones de procesos microscópicos que dan forma al mundo macroscópico de mi alrededor. Cientos de trillones de partículas con conforman las moléculas de mi cuerpo, de mi cerebro, de mi mesa y de mi ordenador se mueven sin fallo alguno al instante siguiendo las leyes naturales; y eso a pesar de que yo sé que cada nanosegundo el Universo en sí ha tenido de algún modo que determinar y "decir" a cada una de todas esas partículas cómo debían o no moverse determinando finalmente el estado final macroscópico de todo.

Es decir; que parece que el mundo puede calcular, computar o sabe prever (según quiera el lector entenderlo) continuamente a partir de cada estado inicial dado (el estado actual), la probabilidad de una infinidad de estados finales diferentes teniendo en cuenta además una infinidad de procesos "ocultos o virtuales" intermedios, y finalmente determinando de algún modo mediante un proceso de decoherencia el estado final macroscópico sacando de entre todas esas probabilidades calculadas el resultado final (eso que a Einstein tan poco le gustaba y que metafóricamente relacionaba como si "Dios" jugase a los dados). Y ocurre además todo infinitesimalmente en cada lugar del espacio-tiempo y teniendo en cuenta la infinita interconexión entre todo lo existente (y lo virtual). Finalmente, y para más inri, lo hace de manera instantánea sin aparente dilación o retardo durante este continuo proceso de cálculo natural.

Y es llegados a este punto cuando me asombra el hecho de cómo la comunidad científica ha logrado ocultar (o ignorar) el descarado misticismo que hay implícito tras toda la física moderna. ¿Cómo podría el cosmos realizar la monumental hazaña de procesar esta infinita computación instantánea si no fuera porque es en sí un ente omnipotente? ¿Y cómo se puede interpretar esta omnipotencia si no es mediante una relación panteísta admitiendo que el Universo es en sí una especie de auto-sostenido Ente todopoderoso?

Pero claro, este misticismo implícito (que por cierto el ya mencionado Albert Einstein defendía) tiene unas implicaciones que no agradan a ciertos grupos de personas que se aferran precisamente a la ciencia para negar cualquier postulado metafísico. Siento decirles que su postura no es legítima, y que, como poco y para no entrar en complicaciones deístas, hay que admitir la existencia de un Ente esencial omnipotente: el propio Universo auto-sostenido (panteísta).

Por lo tanto, y si se le quitamos al concepto de Dios cualquier connotación antropocéntrica o teísta, no cabe duda de que lo que la ciencia física moderna realmente parece favorecer de manera casi ineludible NO es el concepto ateísta de que no hay Dios; sino por contra la afirmación de que existe algo muy parecido a este ente Superior idealizado: nuestra propia realidad y todo lo contenido en ella (algo que no puedo evitar mencionar que cuadra muy bien con la cosmovisión de ciertos filósofos como es el caso de la propuesta de Spinoza o de Philipp Mainländer entre muchos otros) .

sábado, 7 de octubre de 2017

Nuestro legado entrópico

"This is how humankind contributes to the rise of en-
tropy in the Universe: We consume organized energy in the form of
structured foodstuffs, and we radiate away as body heat an equivalent
energy in the form of highly disorganized infrared photons. We, too,
are dissipative structures-highly evolved dissipators."
Eric Chaisson (Cosmic Evolution)

El mundo es diferente hoy día gracias a todos y cada uno de los seres vivos que han poblado nuestro planeta desde hace 4.000 millones de años. Y cada existencia, por leve y breve que haya podido ser, ha supuesto un antes y un después Universal. Una afirmación atrevida, ¿verdad? ¡Pues es cierta!

Dada la manera en que funciona la física en la naturaleza, el simple hecho de ser y de conformar un cuerpo complejo presupone el "pago" a cambio de un enorme coste energético de magnitud similar a la complejidad alcanzada por dicho cuerpo. Un coste y un consumo que siempre deja huella y que supone un legado irreversible. En pocas palabras: el futuro del mundo sin nuestro ser particular habría sido muy distinto. Pero, ¿en qué consiste ese legado que la humanidad en general y cada persona en particular dejará impreso en el fenómeno? ¡Un extraordinario aumento entrópico!

Cuanto más compleja es una estructura natural, mayor flujo de energía libre requiere para mantenerse y persistir reiteradamente en el tiempo, y el consumo de dicha energía libre supone una degradación en la calidad de la energía total (y constante del Universo). Una degradación y un aumento de entropía que desde el mismo momento que llega a acontecer no tiene ya vuelta atrás. Por su manera de actuar, el cosmos pierde (incluso "busca") siempre atenuar la calidad y la capacidad de la energía que contiene; y en el caso particular de la Tierra y de toda la complejidad que contiene, esto se traduce en la aparición y sustentación de procesos que toman la energética luz del Sol y la acaba convirtiendo en un desecho de desorganizada luz infrarroja que es "escupida" al espacio exterior.


Y ese será nuestro gran legado, el legado de todo ser que haya poblado nuestro planeta. Cada pequeña aportación vital ha supuesto y supondrá de manera más o menos directa un exponencial aumento entrópico. Cientos de miles de trillones de fotones solares degradados pueblan ahora el Universo; unos fotones que habrían escapado sin más rebotando en la superficie terráquea si no hubiesen sido atrapados primero por el proceso fotosintético del alguna bacteria o planta. Un proceso fotosintético que permite el florecimiento de un ciclo metabólico más complejo por el que unos seres devoran a otros mientras por el camino esa energía originaria acaba cada vez más y más descompuesta en un (activo) intento natural por maximizar el propio acto degenerativo.

Podemos entender de este modo como la Tierra es de manera global una enorme plataforma degenerativa, y como cada parte constituyente atrapada bajo su potencial gravitatorio es algo así como un resorte dentro de esta enorme maquinaria térmica. Y aunque esta visión todavía no es ortodoxia, no cabe duda de que es cuestión de tiempo de que esta esencia mecanicista llegue y sea reconocida por el mundo académico.

De manera que ya es hora de afrontar los hechos, reconocer que todo nuestro trabajo diario, y todo el esfuerzo existencial va unido irremediablemente a este destino natural que nos dio forma y nos mantiene como fenómenos persistentes. "Sólo" somos máquinas térmicas. Más concretamente, somos máquinas que comen máquinas para construir más máquinas constituyendo un ciclo de máximo flujo energético. Y además somos máquinas constituidas por millones de máquinas más pequeñas (células), y agrupadas en cooperación con otras máquinas (sociedad). Pero de todas formas, y a pesar de esta complicación presentada, todo es finalmente reducible a la misma guía y coordinación que determina cualquier otro movimiento natural: acelerar el consumo de la energía libre de calidad y disminuir tan pronto como sea posible el potencial generativo en el Universo.

En este sentido es interesante notar como Alan Watts, una famoso teólogo de los años sesenta, no sólo intuyó este estatuto termodinámico de la vida, sino que lo afrontó directamente, y encontró en él una fuente de revelación natural:
"Los estándares religiosos, sean judíos, cristianos, mahometanos, hinduistas o budistas, son -tal como se practican ahora- como minas agotadas: muy duras de excavar. Con algunas excepciones no fáciles de encontrar, sus ideas sobre el hombre y el mundo, su imaginería, sus ritos y sus nociones de la buena vida no parecen ajustarse al universo tal como lo conocemos, ni a un mundo humano que está cambiando tan deprisa que mucho de lo que uno aprende en la escuela ya ha quedado obsoleto el día de la graduación [...]. Porque hay un recelo creciente de que la existencia es una carrera de ratas en una trampa: los organismos vivos, personas incluidas, no son más que tubos que tragan cosas por delante y las echan por detrás, las cuales los mantienen haciendo lo mismo y a largo plazo los desgastan. Así que, para seguir con esta farsa, los tubos encuentran maneras de producir nuevos tubos, que también tragan cosas por delante y las echan por detrás. En el extremo de entrada incluso desarrollan ganglios nerviosos denominados cerebros, con ojos y oídos, que les facilitan la búsqueda de cosas que tragar. Siempre y cuando obtengan alimento suficiente, gastan su excedente energético en menearse de maneras complicadas, producir toda clase de sonidos inhalando y exhalando aire por el agujero de entrada y congregarse en grupos para luchar contra otros grupos. Con el tiempo, los tubos adquieren tal abundancia de aparatos adosados que apenas son reconocibles como simples tubos, y se las arreglan para hacerlo en una asombrosa variedad de formas. Existe una norma vaga de no comer tubos de la misma forma que la propia, pero en general hay una intensa competencia por ver quién se convierte en el tipo superior de tubo. Todo esto parece maravillosamente fútil, y sin embargo, si uno se pone a pensar en ello, comienza a parecer más maravilloso que fútil. De hecho, parece sumamente extraño."
Si nuestro destino como meros resortes entrópicos dentro de una maquinaria planetaria mayor (que algunos llaman Gaia) es o no fútil dependerá ya del juicio subjetivo del lector, pero no cabe duda de que nuestra mera existencia le supone objetivamente al Universo un antes y un después. El simple hecho de que usted, lector, y yo, estemos "disfrutando" de unas décadas de vida, supone que el mundo será irreversiblemente diferente a como habría sido sin nuestro paso por el ser. Nuestro paso existencial será "recordado" durante toda la eternidad; y nuestro rastro irá unido al de todos esos fotones viajando por el cosmos y a los que ayudamos a degradar para siempre de una manera u otra.

Probablemente más pronto que tarde nadie nos recordará una vez fallezcamos y nuestro ordenado cuerpo se diluya en átomos y moléculas independientes; pero el fruto de nuestro esfuerzo vital existirá por siempre, o al menos mientras el Universo aguante. Cada segundo de nuestras vidas supone de hecho un cambio definitivo en la historia Universal, y eso es algo que como poco debería de hacer reflexionar al nihilista más acérrimo (como lo fui yo mismo no hace tanto).

Es indudable que el mundo tiene una "preferencia" para el modo en que debe acontecer el fenómeno (su dinámica); y esta tendencia natural es clara e irreversible, tiene dirección y sentido, y conlleva a priori la propia posibilidad de nuestro origen como especie. Así pues somos consecuencia de una predilección natural, y a ella le rendimos (queramos o no, y lo sepamos o no) tributo con cada uno de nuestros suspiros.

Por lo tanto nuestro legado final, como personas pero también como miembros sociales de nuestra especie, será el de haber servido del mejor modo posible al Universo y a su "necesidad" térmica. Y todo ese esfuerzo y dolor vertido por el hombre tendrá finalmente una "recompensa" en modo de recuerdo histórico. El mundo nos recordará por siempre y llevará en él la impronta de todos y cada uno de nuestros actos vitales.

Así pues, amigo; vive, construye y consume de la manera más óptima dada tus circunstancias, el cosmos te lo "agradecerá".