viernes, 17 de agosto de 2018

LeelaFish: cómo usar una red neuronal para sustituir la mejor función de evaluación de ajedrez hecha a mano por programadores

LeelaFish

UCI chess playing engine derived from Stockfish and LeelaChess Zero: https://github.com/LeelaChessZerohttps://github.com/official-stockfish/Stockfish

Introduction

This is a chess engine based in the Stockfish tree search but where we use the LCZero value head as evaluation function. So in this project we are just using the Stockfish code but replacing the human developed evaluation function for the neural network value head of the LeelaChess Zero project.
This is a kind of experiment in which we try to figure out if the results are good even without the use of the MCTS LCZero does.

Results

Results are very promising and in a 1:1 ratio (when the number of nodes used by the original Stockfish or LCZero are forced to be equal to the number of nodes used by LeelaFish) our development is able to beat both SF and LCZero. We used for these tests the LCZero network tesnet 10510.
One thing is clear: the value head of the network is as good as the original manually programmed evaluation function of SF.

Future work

  • It would be great to test depthly the performance of LeelaFish and the optimal ratio in which it's able to perform as good or better than SF and/or LCZero.
  • It would be a good idea to use instead of LCZero the more recent lc0 source code of the LeelaZero project.
  • Right now the project has been compiled and tested only in Windows machines (using Visual Studio 2017). It should be changed the make files in order to run the project in Linux systems.

Licence

LeelaFish Copyright (C) 2018 Samuel Graván and contributors. Based on: Leela Chess Copyright (C) 2017 benediamond Leela Zero Copyright (C) 2017-2018 Gian-Carlo Pascutto and contributors Stockfish Copyright (C) 2017 Tord Romstad, Marco Costalba, Joona Kiiski, Gary Linscott
LeelaFish is free software: you can redistribute it and/or modify it under the terms of the GNU General Public License as published by the Free Software Foundation, either version 3 of the License, or (at your option) any later version.
Leela Chess is distributed in the hope that it will be useful, but WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License for more details.
You should have received a copy of the GNU General Public License along with Leela Chess. If not, see http://www.gnu.org/licenses/.

martes, 24 de julio de 2018

Todos viajamos a la velocidad de la luz

"La teoría de la relatividad no tiene un origen especulativo, sino que debe por entero su nacimiento al deseo de hacer que la teoría física concuerde con los hechos observados" 
(Albert Einstein)

Imagina que estás sentado en un sillón de tu casa, ¿a qué velocidad dirías que te estás moviendo por entre el espacio-tiempo? Si piensas que por estar quieto tu velocidad es nula estás equivocado...¡te estás moviendo a la velocidad de la luz (c = 299.792.458 m/s )!

Y este movimiento no tiene nada que ver con el hecho de que la Tierra se mueva por el espacio ni nada así, se trata simplemente de una consecuencia de la teoría de la relatividad.  El hecho es que, según descubrió en su día nuestro amigo Einstein, la cantidad de tiempo y de espacio recorrido por un cuerpo depende del sistema de referencia desde el que se "mire". O, en otras palabras, que todo suceso es relativo en cuanto a su duración y cantidad de movimiento según sea el estado de movimiento del observador que estudie y mida dicho evento.

Pongamos un ejemplo clásico y sencillo. Pensemos que vamos montados en un vagón de tren y que tenemos junto a nosotros un par de espejos sobre el que rebota un haz de luz. Desde nuestro sistema de referencia en reposo respecto a los espejos la luz, el haz se mueve verticalmente rebotando desde arriba hacia abajo y otra vez arriba. Pero sin embargo, desde la posición de un observador externo que vea nuestro tren moverse con un movimiento relativo v (hacia la derecha, por ejemplo) verá que este mismo haz de luz se desplaza no sólo verticalmente (como vemos nosotros) sino también horizontalmente en su camino de un espejo hacia el otro:


Sin entrar en detalles matemáticos podemos observar a simple vista como el mismo haz de luz recorre más o menos distancia en el espacio para cada rebote según sea el punto de vista del observador. Pero puesto que la velocidad de la luz c es una cantidad que debe permanecer constante para cualquier observador en cualquier punto de referencia, esto significa que desde nuestra posición en cierta cantidad de tiempo t van a acontecer más rebotes que los que verá el observador externo en este mismo intervalo t, y esto sólo es lógicamente congruente si se acepta que la distancia y el tiempo son conceptos relativos al propio sistema de referencia desde donde se procede a medir. Así pues, para que la velocidad del haz realmente sea constante (c) tanto para nosotros como para el observador externo, hay que admitir que el propio tiempo y el espacio fluyen a distinto ritmo según sea el sistema de referencia donde nos encontremos. En resumen: ¡que un reloj situado dentro de nuestro vagón debe marcar obligatoriamente la hora a un ritmo distinto al del reloj de un observador externo que se encuentre en movimiento relativo a nosotros!

Pero no nos engañemos, no todo es relativo en el mundo a pesar de estos hechos. Hay en concreto dos circunstancias que son invariantes para todo observador sin importar su estado de movimiento. Una ya la hemos comentado: la velocidad de la luz c es constante e igual en todo momento y para cualquier observador no importa cómo se mueva éste. La segunda circunstancia es que, a pesar de la relatividad, todos los observadores van a compartir una experiencia común e invariable no importa el estado de cada cual: en concreto (en un espacio-tiempo plano) la ecuación ds² = c²·dt² - dx² - dy² - dz² siempre debe cumplirse.

Es decir, que no importa lo que un observador particular mida en cuanto a la distancia (dx, dy, dz) y tiempo (c·dt) de un suceso concreto respecto a lo que midan otros observadores, el hecho es que pese a que todos pueden medir tiempos y distancias diferentes para un mismo suceso (por encontrarse en movimiento relativo unos respecto a otros), no obstante TODOS deben concordar estrictamente en el valor concreto de ds², puesto que se trata de un invariante natural.

Por lo tanto, y aquí viene la clave del artículo, si yo me encuentro en el sillón de mi casa en reposo en mi sistema de referencia tanto dx², como dy² y dz² valdrán cero, y por lo tanto según mi posición inercial la ecuación anterior se reducirá a ds² = c²·dt², lo cual implica que ds/ dt = c.

Estudiando la ecuación completa para ds podemos ver que (en unidades internacionales) s expresa metros y por lo tanto es la representación de una distancia (en este caso invariante); y según la cinemática sabemos que el diferencial de una distancia respecto al tiempo implica una velocidad. Por lo tanto, el hecho de que aún estando en reposo en nuestro sistema de referencia tengamos que ds/ dt = c, supone que a pesar de todo sí que nos movemos por entre el espacio-tiempo...¡y lo hacemos a la máxima velocidad de la luz c (c = 299.792.458 m/s )!

En realidad las matemáticas de la relatividad nos indican que todo se mueve siempre (en cualquier sistema de referencia) a la máxima velocidad de la luz, con la excepción de que esta cantidad se "reparte" normalmente entre las 3 coordenadas espaciales y la coordenada temporal. Es decir; que dada la invarianza de s todo suceso en el mundo fluye siempre y sin excepción a la misma velocidad c aunque luego según sea el estado particular de cada observador la cantidad de movimiento medida se "repartirá" por entre las diferentes 4 coordenadas del espacio-tiempo (con la certidumbre de que se cumplirá siempre -en un espacio plano- la invarianza de la ecuación ds² = c²·dt² - dx² - dy² - dz²).

En resumen: 

Que si estás ahora mismo sentado tranquilamente en algún sillón, las asombrosas y contraintuitivas matemáticas de la relatividad indican que aunque no tengas movimiento relativo en las coordenadas espaciales x,y o z...¡a pesar de todo te estás moviendo continuamente a 299.792.458 m/s en la coordenada temporal (c·t)!

domingo, 22 de julio de 2018

Las chanclas y el lado oscuro de la globalización

"[...] el proceso de supervivencia directa, o indirecta por medio de la reproducción, implica trivialmente la extracción de energía del medio, o bien directamente, o bien y sobre todo implicando al «otro» en un hacer simbiótico o parasitario. [...] en una realidad de recursos escasos se ha generado una situación de supervivencia entre estructuras en que unas «depredan» sobre otras para potenciar su propia existencia." 
("El flujo de la historia y el sentido de la vida", Carlos Castrodeza)

El otro día leí un interesante artículo en el diario El País. Su título era: "Las chanclas ponen al descubierto el lado oscuro de la globalización", y el subtítulo rezaba: "La conexión entre contrabandistas, trabajadores prescindibles, recolectores de basura y los consumidores más pobres: esta es una de las historias más siniestras que puedas leer".

La entrada era interesante en general pero hubo un párrafo que me llamó especialmente la atención:
"[...] Aunque mil millones de personas en el mundo aún andan descalzas[...]"
Mil millones de personas aún van descalzas cuales pobres individuos prehistóricos (y ni eso, puesto que ya muchos trogloditas se fabricaban con soltura sus propios "zapatos"). Un dato desde luego increíble que posiblemente no muchas personas conozcan.

Así pues, en este punto y sabiendo lo que sabemos, perdonen que me ría cuando hay todavía quien dice y cree que el mundo va a "mejor". Por desgracia no es cierto, al menos de manera general. Es más, en realidad NUNCA en la historia del hombre hubo tanta DENSIDAD de población sufriendo y padeciendo simplemente para mantener y sostener el bienestar de una élite de humanos (autodenominada en estos momentos como "Occidente"). Y por supuesto siempre hubo ricos y pobres, nobles y plebeyos, señores y vasallos, patronos y trabajadores, en definitiva: "ciudadanos" y esclavos. Pero nunca jamás la cantidad neta de personas desfavorecidas fue tan alta (independientemente de que la favorecida también hoy sea alta). Es decir, que no vale con mirase uno el ombligo y alardear de lo bien que viven miles de millones; porque el hecho es que estos millones viven tan bien a costa de otros tantos miles de millones que sobreviven casi como animales en condiciones infrahumanas. Y si por ejemplo en la época romana eran unos pocos millones los que sostenían el gran nivel de vida de otros pocos millones, hoy sabemos que son miles de millones los que sostienen a todos esos privilegiados (entre los que nos encontramos)...¡pero hay que ser conscientes de que el hecho de que hoy día seamos "ciudadanos" tantísimas personas no indica que el mundo vaya realmente a "mejor", pues el hecho es que este bienestar corre a cargo del padecimiento de una ENORME cantidad de "desgraciados"!

A causa del crecimiento neto (exponencial) de la población de humanos acontecido en los últimos siglos, es un hecho que cada vez más población precaria ha sido requerida para mantener el bienestar social de los "acomodados" del planeta (los de la cara buena del planeta). Y lo peor vino sin duda con la globalización. Una globalización que no es ni más ni menos que la tradicional esclavitud puesta al día como mucho ingenio (esclavitud 2.0). En resumidas cuentas alimentamos y damos las migajas justas a una gran parte de la población mundial simplemente para que puedan crecer al ritmo necesario como para servir de soporte efectivo a nuestra sociedad del bienestar occidental. Y que no nos engañen por favor, se trata sólo de esto. Lo mismo que en la esclavitud de la época clásica o en la más reciente esclavitud americana, la cuestión es tratar a una parte de la humanidad como meros "animales" mecánicos a los que simplemente hay que alimentar para que no perezcan y tengan las fuerzas justas para trabajar duro en nuestro beneficio propio. Y el que vea algo más en esos actos "altruistas" del primer mundo hacia los "desfavorecidos" es; con perdón, un gran iluso.

Si nos salimos del pellejo de haber tenido la suerte de nacer en el lado bueno del mundo, es fácilmente constatable que en general (sin excluir a nadie del censo) el mundo no va ni mejor ni peor que antes; va como siempre...si no peor. De hecho, como ya he dicho, el hecho de que la población de humanos hoy día sea tan alta implica que los que sufren y malviven como "animales" de carga oprimidos en favor de los otros (los "ciudadanos") sea la masa neta de humanos más alta de la historia.

En resumen: que la cantidad de personas que hoy disfrutan de un bienestar social es enorme, pero no olvidemos que la base de la pirámide que realmente carga con este bienestar es inmensamente mayor. Hoy día hay en vida quizás más pobres, oprimidos, desvalidos, y afligidos que en toda la historia de la humanidad en su conjunto. E insistamos una vez más en el asunto: aunque es cierto que hay hoy mucha masa "señorial" en el mundo, el ratio neto entre "señores" y "vasallos" (la división entre la cantidad de unos entre la cantidad de otros) es muy similar a la del resto de la historia de la humanidad. Poco ha cambiado esencialmente y a grandes rasgos la calidad de vida media del conjunto de toda la población (por mucho que el marketing y el autoengaño nos hagan pensar lo contrario).

Pero no se trata tampoco de demonizar este ratio entre "amos" y "esclavos"; quizás sea esta diferencia o gradiente entre humanos algo natural y necesario. En realidad, es posible que en este mundo donde es un hecho que no hay de todo para todos (como tanto repetía el biólogo español Carlos Castrodeza), la mismísima termodinámica requiera que una gran masa de mano de obra malviviente soporte una pequeña cúspide en la pirámide del bienestar. Siendo este el caso no se trataría por tanto el asunto de algo "Bueno" o "Malo"; como no es ni bueno ni malo que el león se coma a la gacela. Se trataría de algo natural y necesario, de un hecho inevitable. Pero no obstante, y pese a que pudiera ser irremediable aprovecharse del "otro", creo que es de justicia reconocer al menos a ese "esclavo" que nos da de comer. Comprender y reconocer como poco lo que realmente pasa en el mundo; y no dejarnos engañar por el marketing que más o menos inconscientemente desde Occidente nos vendemos, en donde nos representamos a nosotros mismos como adalid y apoyo de esos "pobres" del tercer mundo. ¡No y mil veces no! ¡Son los "pobres" del tercer mundo los que con su esfuerzo mantienen nuestra sociedad, son ellos los que nos apoyan a nosotros; ellos son la base de nuestra abundancia y felicidad!...Y esa "ayuda" económica de la que tanto hacemos gala en el fondo no es más que el reflejo de cómo le echamos pienso a ese "ganado" con el que los "señores" tiramos hacia adelante.



viernes, 20 de julio de 2018

La vida como un mero medio termodinámico

En nuestra sociedad materialista, crecientemente globalizada y capitalista, cuando se hace mención explícita del sexo las ventas del producto aumentan. La poderosa dinámica funciona en virtud de una inclinación al sexo instintiva y modulada bioquímicamente que, por decirlo de manera imaginativa, trabaja encadenada a la reproducción para un chulo llamado Segunda Ley.
("¿Qué es el Sexo?"Lynn Margulis y Dorion Sagan)


Acabo de terminar de leer uno de los libros más interesantes a los que le he echado el guante últimamente: "¿Qué es el sexo?", de Dorion Sagan (hijo del famoso Carl Sagan) y su madre Lynn Margulis (una gran bióloga). El libro no tiene desperdicio de principio a fin y es de lo mejor que he leído nunca. Aquí tenéis acceso gratuito online al libro completo: http://www.librosmaravillosos.com/queeselsexo/index.html


Como digo el libro es extraordinario, y como muestra os dejo unos pocos párrafos que son muy reveladores:
"La complejidad tridimensional real aparece espontáneamente, y es el resultado natural del hallazgo de atajos por parte de la energía siempre fluyente para reducir gradientes en la naturaleza.[...] Por encima y más allá de los detalles de su genética o de su fascinante historia, la vida es un medio termodinámico para degradar el gradiente solar. Sin embargo, a diferencia de una tormenta, que reduce las diferencias de presión atmosférica en cuestión de horas, la materia viva ha estado reduciendo el gradiente solar durante cerca de 4.000 millones de años. Naturalmente, el gradiente que la materia viva se encarga de deshacer es de una magnitud mucho mayor que el responsable de una tormenta de verano. Pero, así como un huracán existe para reducir un gradiente de presión, o el remolino de agua en el desagüe de nuestra bañera existe para reducir un gradiente gravitatorio, la química del carbono reciclante de la vida existe para reducir un gradiente solar. El gradiente en cuestión es la diferencia entre el caliente horno nuclear del Sol y el frío espacio exterior. La vida se alimenta de esta diferencia, que se da de forma natural, y acelera su desaparición.[...]
El sexo nos resulta placentero porque, ligado a nuestra reproducción, es la manera que tenemos de mantener a raya el equilibrio termodinámico, sin dejar de obedecer, si no acelerar, la tendencia natural del universo a deshacer gradientes a medida que avanzamos en el tiempo lineal.[...] A corto plazo (durante nuestras vidas individuales) producimos entropía manteniendo nuestra identidad, lo que necesariamente conlleva la eliminación de líquidos, gases y sólidos a través de nuestros orificios. A largo plazo aseguramos la producción de entropía a través del apareamiento, el cual produce nuevos organismos como nosotros que continúan la especial forma de disipación conocida como vida en la siguiente generación. La Segunda Ley de la Termodinámica, más que el sexo mismo, es la base física de nuestra concentración evolutiva en la cópula y otros actos sexuales. En otras palabras, la ligazón entre sexo y reproducción es contingente. Si otros procesos disipativos pueden reemplazarla, es probable que lo hagan. Pero la desvinculación entre sexo y reproducción nunca es una simple vuelta atrás. La vida siempre retiene indicios de su tortuosa y fantástica historia."
(Fragmentos del libro: ¿Qué es el Sexo?, obra de Lynn Margulis y Dorion Sagan, traducción de Ambrosio García Leal)

domingo, 15 de julio de 2018

Sobre el futuro acelerador de partículas: High Luminosity LHC (HL-LHC)


El pasado 15 de junio se puso la primera piedra de lo que será el "nuevo" acelerador de partículas del CERN: naukas.com/2018/07/13/la-primera-piedra-del-futuro-del-lhc/
Os resumo el asunto con pocas palabras: "como no es posible construir a precio razonable un acelerador que colisione con una energía mayor a los 14 TeV del LHC (la relatividad se encarga de ello), vamos a modificar el LHC para que colisionen más partículas por unidad de tiempo (luminosidad) a esta misma energía de 14 TeV".


El hecho es que cada colisión individual en el LHC supone un "lanzamiento de dados" cuántico donde dos partículas chocan y se convierten en partículas distintas (cada una con cierta energía cinética). Pero ese "lanzamiento de dados" no es en absoluto aleatorio, sino que está sujeto a la conservación de varias cantidades (la energía inicial y final deben ser igual, la cantidad de momento lineal y angular también, la cantidad de carga eléctrica también, etc.) y también depende de la dinámica descrita por el modelo estándar. Si, por ejemplo, en el momento del choque tenemos dos partículas con cierta energía cinética y cierta energía en forma de masa en reposo, como resultado del choque se pueden producir n partículas, pero siempre y cuando sus energías y momentos (y carga eléctrica, etc.) sumen la misma cantidad que poseían las dos partículas iniciales. El "lanzamiento del dado" supone en realidad que la Naturaleza va a "elegir" de manera aleatoria por entre esa distribución de probabilidad que constituyen los procesos que cumplen esas restricciones de simetría.
Para aclarar: si chocan dos partículas de energía total X; la probabilidad de que se "transformen" en n partículas que sumen una energía total != X es igual a 0. Ya luego, de entre todos los procesos que están permitidos por las leyes de conservación (en este ejemplo, de entre todos los procesos que acaban con n partículas que suman una energía total X), la naturaleza "conforma" una distribución de probabilidad que depende de muchos factores enmarcados dentro del modelo estándar de partículas (y que se simbolizan visualmente en los diagramas de Feynman). Es decir, que todo lo que está permitido (todo lo que cumple las leyes de conservación) puede ocurrir, pero existen unas normas "matemáticas" que dictan qué es más probable que ocurra de entre todo lo posible.
Ahora bien, en el LHC hay 14 TeV de energía disponible, y eso abre un gran abanico de posibilidades de "ver" aparecer partículas con gran masa que sería casi imposible de ver con energías menores. Cuanto más masiva es una partícula, por ejemplo, más energía es necesaria para que todas las leyes de la conservación se ajusten al mismo tiempo que aparece en la realidad esa partícula de gran masa. El bosón de Higgs, por ejemplo, se ha descubierto que posee una masa aproximada de 125 GeV. Es decir, que en principio con un acelerador de colisiones de, pongamos, 200 GeV habría sido en teoría posible descubrir el Higgs...pero la probabilidad era muy baja. Se habría requerido la enorme suerte de que de entre la casi infinidad de alternativas posibles, la naturaleza eligiese transformar los 200 GeV en un bosón de Higgs con una energía cinética de exactamente 75 GeV (este ejemplo no es para nada formalmente exacto pero es un símil para dar una idea)...pero hay tantas cosas que se pueden hacer con esos 200 GeV que el hecho de transformar casi toda la energía en 1 sóla partícula con unas propiedades de movimiento tan concretas era casi nula. 
¿La solución? Colisionar a mucha más energía (14 TeV, por ejemplo) de modo que la naturaleza tenga más energía con la que "jugar" de modo que pueda crear n partículas distintas una de las cuales fuese un Higgs. 
Pero hay un problema. A parte del Higgs, el LHC no ha descubierto ninguna otra nueva partícula a energía cercanas (cosa fundamental para la teoría más prometedora capaz de llevar más allá del modelo estándar: la supersimetría). La supersimetría (y cualquier otra teoría que pretenda completar el modelo estándar) necesita del descubrimiento de nuevas partículas, pero ya a estas alturas parece claro que el LHC no posee las características necesarias para que la probabilidad de descubrir algo "nuevo" sea lo suficientemente alta para no tener que estar más de 1000 años experimentando hasta que "algo" nuevo pase por casualidad.
¿Solución? Lo mejor sería construir un acelerador que colsionase a energías de pongamos 100 TeV o todavía más. Pero ya los hadrones del LHC van a una velocidad muy cercana a la de la luz 0.99997 aprox., y llegar a 100 TeV podría suponer acelerar las partículas a algo así como 0.9999997 (un orden o dos de magnitud más -las cifras que doy son aproximaciones-). Sin embargo, la relatividad especial implica que conforme un objeto acelera, cada vez cuesta más trabajo (energía) acelerarlo. De modo que llegar a 100 TeV supondría un coste de recursos (dinero y tiempo) que escapa a cualquier intento serio (ni siquiera internacional). De modo que se ha optado por otra alternativa: en vez de aumentar la energía de colisión...vamos a aumentar la tasa de colisiones. A más colisiones, más probable es "ver" algo improbable.
¿Tendrá éxito el HL-LHC? Pues depende de cuán improbable sea "ver" algo más allá del modelo estándar dentro del rango de energías de los 14 TeV. Por ejemplo, en el supuesto caso de que la partícula supersimétrica menos masiva estuviese rondando 1 TeV (por poner un ejemplo), el HL-LHC posiblemente no sería capaz de detectar un evento fortuito que dé lugar a tal partícula partiendo de los 14 TeV ni en mil años de experimentos. Es decir, que el HL-LHC sólo tendrá éxito si la nueva física no se encuentra muy lejos de los 500 GeV (siempre datos aproximados). En caso contrario serán unos cuantos miles de millones de euros tirados a la basura (junto con el trabajo de una generación completa de físicos experimentales e ingenieros). El tiempo lo dirá...con suerte alrededor del 2025.

Pero, ¿por qué es tan complicado mejorar la energía de colisión del actual LHC?

No es una pregunta tan fácil de responder como puede parecer. Grosso modo se puede decir que la "culpa" la tiene el modo en que se relaciona en relatividad la masa aparente de una partícula que varía en el tiempo según sea su velocidad:

1) Por una parte tenemos que M = γ*m (M = masa aparente de la partícula en movimiento, m = masa en reposo de la partícula), y el factor de Lorentz es γ = 1 / (1 - (|v|^2 / c^2))^1/2

Cuando un objeto (una partícula por ejemplo) va despacio, v << c y el factor γ~1 por lo que masa aparente y masa en reposo son casi iguales. Pero conforme la partícula se va acercando a la velocidad de la luz c, el factor γ tiende a infinito (alcanzandolo si v = c, cosa prohibida físicamente). Es decir, que a mayor velocidad mayor γ y por lo tanto mayor masa aparente M para la partícula.

2) Y por otra parte tenemos la siguiente consecuencia de que la masa M no sea constante sobre la variación del momento lineal en el tiempo (fuerza):
- Si la masa M != constante, entonces no podemos sacarla de la derivada como hizo Newton: F = M·dv/dt = M·a (Newton)
- Lo que debemos hacer en realidad es derivar la masa como algo dependiente del tiempo de manera que: F = dp/dt = (dM/dt)·v + M·(dv/dt) = (dM/dt)·v + M·a

3) Así pues vemos ahora que la fuerza aplicada (la energía invertida en realizar trabajo) sobre una partícula masiva se emplea en dos cosas:

- Modificar en el tiempo la velocidad de la partícula (término clásico newtoniano)
- Modificar en el tiempo la masa aparente de la partícula (nuevo término aparecido arriba por "culpa" de γ)

Conclusión) A velocidades bajas γ~1, y por tanto la masa aparente M apenas cambia en el tiempo (dM/dt~0) por lo que casi toda la energía aplicada se emplea en acelerar a la partícula (cambiar su velocidad en el tiempo); sin embargo, conforme la velocidad v crece y se acerca a c el cambio de masa aparente M en el tiempo tiende a infinito dM/dt->∞ por lo que ahora el primer término de la ecuación anterior domina. Si se añade en este caso más energía al estado de la partícula casi toda ella irá a parar en aumentar su masa (y muy poco en aumentar su aceleración).

Es decir, que conforme nos acercamos a c, invertir más y más energía en el haz de partículas dentro de un acelerador supone hacer a las partículas más masivas en el tiempo, pero no supone que vayan a ir mucho más rápidas. Hacer, por ejemplo, que las partículas vayan de 0 m/s a 0.2·c m/s es algo muy fácil de conseguir; pero sin embargo conseguir que pasen de 0.99997·c a 0.999997·c requiere de un aumento energético enorme (y para nada lineal). 

Y como la energía de colisión va en relación directa con la energía cinética de las partículas que chocan, es necesario aumentar cada vez más la velocidad de las partículas. Y el problema es que en el LHC hemos llegado ya a un punto en que la velocidad es tan cercana a la de la luz que mejorar esos 14 TeV supone un aumento tal del tamaño y la capacidad de las instalaciones que sencillamente no hay manera de pasar de ahí a un precio razonable, ni siquiera mediante una cooperación internacional.

Los 14 TeV de LHC bien podrían constituir un límite práctico (de recursos monetarios y de tiempo) para la experimentación en física de partículas. Es una certeza que todos los que leemos estas líneas jamás veremos nada mejor que el LHC (en cuanto a energía de colisión), y es incluso posible que pasen muchas (muchas) generaciones antes de que se llegue a hacer algo mejor (si es que tal día llega).

martes, 10 de julio de 2018

Hijos de una misma Voluntad

Saludos: 
Son las 5 de la madrugada y aquí me encuentro, en vela junto a mi hija: la cual sufre de 40 de fiebre. Lleva cuatro días luchando contra unas anginas: cientos de miles de bacterias alojadas en su garganta las cuales no hacen más que luchar naturalmente ellas también por no desaparecer.
Y en estos momentos me parece todo tan absurdo: tantos seres vivos al mismo tiempo luchando unos contra otros por la supervivencia, dispuestos todos por una desesperada vehemencia pero sin ningún motivo objetivo aparente más que ese férreo y ciego deseo natural de ser...y de querer seguir siendo. No cabe duda de que existe una extendida y compartida irracional voluntad de vida en el mundo.
Veo a mi hija luchando ahora, y también preveo todas sus futuras luchas. Toda una larga vida de pugna y padecimiento exclusivamente por y para satisfacer esta simple necesidad espontánea y natural de querer seguir siendo a toda costa.
Con este humor no es de extrañar que me venga a la cabeza la acertada cita de Schopenhauer cuando dijo aquello de que: "Bien puede decirse que la vida es un episodio que viene a perturbar inútilmente la sagrada paz de la nada".
Y no se trata de ser pesimista, no, ¡por favor! Se trata de ser realista: de mirar el mundo sin el velo del auto-engaño y la ilusión que nuestra propia esencia natural nos infunde con el único propósito de obligarnos a luchar todavía con más ahínco por el dichoso ser. Se trata de mirar la vida objetivamente tal cual es: un absurdo, una lucha constante y sin sentido simplemente por querer seguir existiendo pero sin saberse luego muy bien para qué.
Porque si fuésemos honestos (y valientes), todos deberíamos reconocer que nuestra razón se queda totalmente en blanco al contemplar y reflexionar sobre la irracionalidad que realmente mueve nuestro carácter vital.
Pero todo esto evidentemente ya nos lo adelantó Schopenhauer cuando dijo que:
"Querer es esencialmente sufrir, y como vivir es querer, toda vida es por esencia dolor. Cuanto más elevado es el ser, más sufre... La vida del hombre no es más que una lucha por la existencia, con la certidumbre de resultar vencido. La vida es una cacería incesante, donde los seres, unas veces cazadores y otras, cazados, se disputan las piltrafas de una horrible presa. Es una historia natural del dolor, que se resume así: querer sin motivo, sufrir siempre, luchar de continuo, y después morir... Y así sucesivamente por los siglos, de los siglos hasta que nuestro planeta se haga trizas".
Una frase que resume con maestría la realidad de la vida en el mundo. Una sabiduría filosófica del siglo XIX que hoy día todavía se mantiene en pié puesto que aún nadie pudo racionalizar la existencia del hombre. Como dijera más tarde Albert Camus: "El absurdo surge de la confrontación entre la búsqueda racional del ser humano y el silencio irracional del mundo". 
El nihilismo de la vida ha sido más que confirmado por la moderna biología evolutiva. La soberanía de esa Voluntad de vida que reina en nosotros se refleja en el poderío del gen, el dominio de la “esencia” del genoma sobre los actos del individuo (el fenotipo). Un genotipo ciego e irracional movido por la más básica física molecular.
En cierto modo Schopenhauer fue un visionario (posiblemente algo infravalorado e incomprendido) que nos adelantó, eso sí de manera algo inefable, lo que hoy todos conocemos como gen: un conjunto de moléculas movidas irracionalmente por leyes naturales (especialmente la termodinámica) que luego someten y subyugan el destino del ser al que dan forma. Precisamente es de esta manera como la esencia natural del mundo consigue siempre verter su ciego deseo innato por persistir en cada uno de los seres del fenómeno.
Lo dejo aquí; cansado y desvelado de madrugada: lleno de dolor y viendo a mi hija sufrir…por sufrir. Me voy a su lado, a consolarla, y a luchar junto a ella; cosa que haré mientras mi cuerpo aguante: porque no hay que olvidar que todos somos hijos de la misma Voluntad.
Buenas noches…

lunes, 25 de junio de 2018

¿Estamos solos en el Universo? Opinión de investigadores (Universidad de Oxford)

"Despite popular belief to the contrary, it’s quite plausible that we’re the only life form capable of making our observable Universe come alive in the future." (Max Tegmark)

"No busquéis más, estamos solos en el Universo", es la demoledora conclusión de un reciente estudio de varios investigadores de la Universidad de Oxford (paper original aquí). Este trabajo viene a complementar la opinión del cosmólogo Max Tegmark de la que ya hablamos en este otro artículo.


Estos autores basan su conclusión en una reinterpretación con rigor matemático de dos de los pilares de la astrobiología: la Paradoja de Fermi y la Ecuación de Drake. Según estos investigadores de Oxford, los cálculos hechos hasta ahora sobre la probabilidad de que exista vida inteligente fuera de la Tierra se basa en incertidumbres y suposiciones, lo que lleva a que sus resultados tengan márgenes de error de "múltiples órdenes de magnitud" y que, por lo tanto, sean inaceptables. En este sentido precisamente en su trabajo han tratado de reducir al máximo este enorme grado de incertidumbre. El resultado, afirman, es que "hay una probabilidad sustancial de que estemos completamente solos".

Y es que la extendida opinión actual de que debe haber vida inteligente "ahí fuera" se podría basar finalmente en un mero sesgo psicológico nuestro: miles de millones de galaxias, con cientos de miles de millones de estrellas cada una y billones de planetas orbitando alrededor de esas estrellas, ¿cómo no va a haber vida dados estos números? Pues bien, hablando en plata: mucho que nos cueste aceptarlo, estos enormes números no constituyen una condición necesaria y suficiente. El cálculo de probabilidad efectivo debe tener en cuenta muchos otros factores a parte del número de planetas existentes, y son dichos factores (resumidos en la famosa ecuación de Frank Drake) los que una vez puestos al día por estos investigadores hacen tender la balanza hacia el hecho de que es posible que como civilización estemos solos en el Universo visible.

En palabras de los autores del estudio: "Cuando tenemos en cuenta las incertidumbres de forma realista sustituyendo las [antiguas] estimaciones puntuales por distribuciones de probabilidad que reflejan la comprensión científica actual, no encontramos ninguna razón para sostener que en la galaxia, o en todo el Universo observable, existan otras civilizaciones [...] [Lo que sí encontramos por el contrario] es una probabilidad sustancial de que estemos solos en nuestra galaxia, y tal vez incluso en nuestro universo observable".

¿Dónde están, entonces todos los demás? (paradoja de Fermi) Para estos científicos de Oxford está claro: "probablemente muy lejos, más allá del horizonte cosmológico que será, para siempre, inalcanzable para nosotros".

lunes, 18 de junio de 2018

Hacia una inteligencia artificial general

In this work, published in Science (Open Access version), we introduce the Generative Query Network (GQN), a framework within which machines learn to perceive their surroundings by training only on data obtained by themselves as they move around scenes. Much like infants and animals, the GQN learns by trying to make sense of its observations of the world around it. In doing so, the GQN learns about plausible scenes and their geometrical properties, without any human labelling of the contents of scenes. The GQN model is composed of two parts: a representation network and a generation network. The representation network takes the agent's observations as its input and produces a representation (a vector) which describes the underlying scene. The generation network then predicts (‘imagines’) the scene from a previously unobserved viewpoint. (Google DeepMind)


Como ya es costumbre, Google DeepMind acaba de dar otro paso (o pasito si peca uno de escéptico y quiere ser conservador) hacia una inteligencia artificial general mediante un paper publicado en la revista Science...y la prensa apenas se hizo eco :(.
¿Qué pensarías si te digo que Google ha logrado un sistema formado por tres subredes neuronales interconectadas capaz de generalizar a partir de un entorno y sin ayuda de supervisión humana alguna, el número y tipo de objetos que hay en una escena, sus propiedades y la manera en que estos objetos se relacionan unos con otros? Pues es lo que han logrado.
DeepMind ha conseguido este hito como digo mediante la interconexión de tres subredes neuronales que trabajan juntas (la salida de una es la entrada de otra, etc.). Así pues, una primera red neuronal compuesta principalmente de capas convolucionales (como las que tenemos nosotros en el córtex visual) "codifica" una representación del mundo (de la escena), y luego otras dos subredes neuronales (que utilizan fundamentalmente redes recurrentes LSTM) se encargan de tomar esta representación interna del "mundo" e interpretar y extrapolar qué hay y que se puede esperar del mismo en el tiempo.
De este modo el modelo neuronal completo es capaz de observar por ejemplo una escena (nunca vista antes), detectar cuántos objetos hay y de qué tipo son (qué propiedades tienen y cual es el modo normal en que se suelen comportar en el tiempo cada uno de estos tipos de objeto), de manera que la red neuronal finalmente puede recrear y predecir con mucho éxito futuros estados de la escena sin ninguna otra ayuda. Es capaz, por ejemplo, de observar una escena cualquiera y dar respuesta a preguntas sobre qué podemos esperar que ocurra después dadas las circunstancias. Algo similar a que nosotros veamos un vaso volando por el aire y automáticamente sepamos (e imaginemos mentalmente) que en pocos segundos el vaso habrá chocado con el suelo y se habrá roto. De hecho, hay que notar que la manera en que este modelo neuronal aprende es bastante similar al modo en que lo hacen los bebés humanos conforme van creciendo y desarrollándose cognitivamente poco a poco.
Pero no sólo este novedoso modelo de red neuronal de Google es capaz de generalizar asombrosamente lo que ve, ¡sino que incluso es capaz de mantener cierto razonamiento algebraico (más detalles en el paper)!
Como colofón sólo mencionar que Google DeepMind reconoce que uno de los principales impedimentos que encontró para utilizar esta misma técnica en entornos más realistas (como nuestro mundo) es simplemente que no disponen de momento del hardware necesario (no tienen ni de lejos un poder de cómputo capaz de igual al de nuestro cerebro).
Por lo tanto, y a modo de resumen, remarcar el siguiente hecho: dado que al imitar el modo neuronal en que funciona, aprende, y se desarrolla nuestro cerebro se consiguen resultados tan similares a nuestra representación interna del mundo, junto con la afirmación de que el impedimento más importante encontrado para mejorar aún más el proceso sea que no se dispone de la suficiente potencia de cálculo; casi (casi) nos demuestra ya con poco margen para la duda de que lo único necesario para que TODAS nuestras habilidades cognitivas sean simuladas artificialmente es...¡más potencia! (http://quevidaesta2010.blogspot.com/2017/12/mas-potencia.html)

miércoles, 13 de junio de 2018

La "idiotización" del hombre

"Es muy probable que en 100 años hayamos sido sustituidos por otra clase de entidades. Y en dos o tres siglos es muy muy difícil que sigamos dominando el planeta." 
("Homo Deus: Breve historia del mañana", Yuval Noah Harari)


Hoy me he encontrado con este estudio que afirma que la inteligencia media de la humanidad está disminuyendo. Inmediatamente me vino a la cabeza una de las tesis que defendía el biólogo (y filósofo) Carlos Castrodeza según la cual afirmaba que nada disfuncional en la naturaleza tiene futuro. Parece un hecho que la evolución elimina siempre (muy gradualmente) cualquier facultad o cualidad fisiológica que no aporte nada a la supervivencia y reproducción del organismo. Y en este sentido en estos momentos (y sobre todo debido a los avances tecnológicos y en inteligencia artificial) nuestra inteligencia, e incluso la razón y la consciencia, corren el "riesgo" de convertirse en rasgos disfuncionales que podrían sufrir cierta involución e incluso llegar a desaparecer. Este estudio mencionado parece una clara muestra empírica de que esta posibilidad es real. La razón y nuestras habilidades cognitivas es evidente que no provienen de ninguna gracia divina, y que tampoco están blindadas por la naturaleza. Su única razón de ser y permanecer (como ocurre con todo en biología) es su utilidad práctica; y una vez esta utilidad se vea mermada, el propio proceso evolutivo se encargará gradualmente de remover del acervo génico las funciones cerebrales que nos otorgan estas capacidades.

Para que se entienda: es lo mismo que ese pez que empieza a vivir en (profundos) entornos marinos sin luz que con el paso de las generaciones se queda ciego, y lo mismo que el propio ser humano perdió la mayor parte del pelo del cuerpo y la cola (de la que sólo nos queda un vestigio al final de la columna). Pues bien, igualmente nuestra capacidad craneal puede verse alterada evolutivamente conforme ciertas habilidades cognitivas dejen de ser útiles para nuestros quehaceres diarios como especie.

En resumen: probablemente conforme las máquinas hagan más y más tareas (y procesos) que hasta ahora requerían de habilidades cognitivas complejas, estas tareas evidentemente dejarán de ser hechas por personas (que en el futuro próximo estarán en su mayoría desempleadas y ociosas), lo cual supondrá que tales capacidades cognitivas simplemente dejarán de tener funcionalidad adaptativa en nosotros e irán así desapareciendo muy gradualmente de nuestro fenotipo. Es decir; que más pronto que tarde el ser humano se "idiotizará" conforme su supervivencia no dependa de su inteligencia de una manera tan crucial y trascendental como ha sido el caso desde su origen hasta fechas recientes: un proceso que además se verá acelerado en cuanto las máquinas tengan la capacidad para autoensamblarse, automantenerse y autodiseñarse (mejorarse) por ellas mismas.


Como curiosidad práctica, hace unos días mi empresa me encargó la supervisión para el desarrollo de un proyecto donde una red neuronal fuese capaz de entresacar de manera autónoma información relevante de CVs de tipo Word (docx), PDF, o texto plano. La razón: el encargo de una famosa empresa textil que ha visto como la generación de los llamados "millennials" no saben/no quieren rellenar los típicos campos de los formularios web que la empresa ponía a disposición de los interesados en conseguir un trabajo en sus tiendas de ropa (como dependientes). Los "millennials" por lo visto (en general) tienen las ganas/conocimientos justos para escribir (seguramente con ayuda) un documento Word y adjuntarlo con un botón...¡y que no se les pida más! Yo esto lo veo un claro ejemplo real de todo lo dicho arriba: muchas de nuestras capacidades cognitivas están empezando ya en esta nueva generación a "sobrar". Y lo disfuncional como decimos la evolución gradual y espontáneamente lo barre del acervo génico. Si pudiéramos pintar en una gráfica las habilidades mentales medias del ser humano en las generaciones por venir, probablemente veríamos una curva descendente para las próximas décadas y centurias (como el estudio con el que empezamos este artículo ya parece mostrar). Más pronto que tarde nuestros tataranietos irán delegando más y más tareas en máquinas cada vez más y más autónomas y autosuficientes (incluso la propia crianza de nuestros hijos); y es muy posible que llegue el momento en que el ser humano como tal deje atrás (por involución) gran parte de las habilidades cognitivas que actualmente posee. Podría llegar el día que incluso nuestra conciencia y/o la razón dejen de ser parte de nuestro fenotipo (aunque quizás en ese momento ya estemos hablando de una especie distinta al Homo Sapiens Sapiens).