miércoles, 5 de julio de 2017

Principio del Límite Computable de la Naturaleza (PLCN)


Antes de meterme en harina, quería agradecer a Samu su invitación a participar en su blog. Para mi es un honor y un privilegio colaborar con él en esta aventura del saber, que dicen algunos que es la vida, aunque ¡qué vida esta! como bien reza el titulo de este foro (énfasis exclamativo mío incluido) mientras espero y desespero que resuene su propósito existencial entre el estruendo del silencio; ese que ni oímos ni, mucho menos, escuchamos, debido al mundanal ruido de esta vida de autoengaños y que se agazapa en esa tramoya que llamamos Universo.

Seguidamente y entroncando con la línea argumental de algunos de los posts aquí ya publicados por Samu, ahondaré sobre el trasfondo del concepto de complejidad computacional. Sin mas preámbulos arranco esta mi primera publicación y deseo que no sea el principio del fin sino el fin del principio.

Si bien el concepto de complejidad, en general, es una cuestión subjetiva nuestra -es una apreciación de nuestra ciencia y de las observaciones desde nuestro sistema- en el campo de la computación se define la llamada complejidad computacional, la cual sí que es objetiva y, por lo tanto, medible. Además está conectada con nuestra capacidad para determinar la "complejidad estructural" que se observa en la Naturaleza, la cual se incrementa a medida que ésta evoluciona, debido al concepto de entropía, fundamentalmente, y que va consumiendo la energía libre disponible en nuestro Universo de forma más y más eficiente según aumenta. 

Considerando que esa energía es finita, entonces la capacidad de computación tendría un límite superior. Esto se podría recoger en un principio universal, que denominé de la siguiente forma:

"Principio del Límite Computable de la Naturaleza" (PLCN):

"Si la computabilidad de una estructura matemática supera la capacidad de almacenamiento de la Naturaleza observable, entonces no es computable."

Definiciones:

- El Almacenamiento se produce en algoritmos para que éste sea comprensible y compresible por un razonador que pertenece a la Naturaleza observable.

- La capacidad de almacenamiento sería la capacidad de computar un algoritmo de manera factible en la Naturaleza observable.

- La computabilidad de una estructura matemática tiene como límite computable la capacidad de almacenamiento de la Naturaleza observable.

Es decir, la limitación última vendría del lado natural debido a la llamada complejidad computacional, como parte tenencial de la misma. Ahí entra el problema con la energía finita que tiene nuestro Universo y la limitación que introduce el concepto de "tiempo observable", para observaciones realizadas desde sistemas relativos.

El físico Max Tegmark expone en su paper del "Universo Matemático" y, en concreto, en su hipótesis "MUH" (Math Universe Hypothesis) lo siguiente:

"La complejidad de la totalidad de un conjunto es más pequeña que la suma de cada una de sus partes, e incluso menor que el de una sola y genérica parte del conjunto". 

Es decir, "la complejidad de la totalidad de un conjunto es menor o igual a la de un sólo y genérico subconjunto contenido en el conjunto".

Esto me llevó a la siguiente axiomatización:

Axiomas de la Complejidad Universal (ACU):

1. La complejidad de la totalidad de un conjunto es menor o igual que la suma de la complejidad de cada uno de sus subconjuntos contenidos en ese conjunto.

2. La complejidad de la totalidad de un conjunto es menor o igual a la complejidad de un sólo y genérico subconjunto contenido en ese conjunto.

COMPLEJIDAD COMPUTACIONAL Y EL TIEMPO.

Esto implicaría que la solución exacta de la ecuación de onda para todas las partículas que componen un sistema macroscópico es un problema "NP Hard", intratable computacionalmente en un tiempo observable, por lo que no se cumple P = NP, si se acepta la "hipótesis exponencial de tiempo", la cual imposibilita computar el algoritmo eficaz que proporcionaría la solución exacta de ese sistema macroscópico en un tiempo observable.

Incluso, si se pudiese descubrir un proceso computacional mucho más rápido que los actuales, sin importar si fuese viable tecnológicamente o no, los resultados serían inobservables al encontrarse el tiempo de computación por unidad de información muy por debajo de la escala de Planck.

Luego, para computar un sistema macroscópico en un tiempo observable, se debe recurrir a métodos estocásticos, sacrificando detalle, simplificando el sistema, y por lo tanto introduciendo indeterminación, en aras de obtener un algoritmo tratable computacionalmente en un tiempo aceptable a escala humana.

Entonces me asaltó la siguiente cuestión:

Ese principio de complejidad computacional (PLCN) impondría los límites a nuestra comprensión de la realidad?

Tratando de responder a esta pregunta arribé a un nuevo principio, que acuñé de la siguiente manera:

Principio de Computación Exacta y Eficiente para Objetos Macroscópicos (PCEEOM):

“La solución exacta de un sistema físico macroscópico (como conjunto de sus microestados) no es computable en un tiempo observable”.

Esto es debido a la imposibilidad de soslayar la indeterminación de la descripción cuántica y estocástica, en la versión clásica, para obtener una rigurosa derivación de todas las propiedades de objetos macroscópicos desde sus microestados debido al crecimiento exponencial de la complejidad computacional en el tiempo. No se podría resolver la ecuación de onda de todas sus partículas (elementos) constituyentes en una cantidad de tiempo observable, independientemente del algoritmo genérico aplicado, es decir, P ≠ NP.

Además, esta desigualdad justificaría el llamado “Heisenberg cut” (corte de Heisenberg) = separación entre un sistema cuántico microscópico y un aparato macroscópico.

Finalmente aparece, también, el fenómeno conocido como "decoherencia cuántica", al que dediqué un post, en mi página de Cienciasofía, debido a una nueva hipótesis sobre la consciencia que apareció, reciéntemente, pero esto daría para otro post aunque pueden saber más en el enlace, donde traté de sacar jugo a una teoría, que Sabine Hossenfelder criticó, también, e incluso afirmó que no veía cual era el interés de la misma, comentario publicado en su perfil de Facebook y que copié en los comentarios del siguiente enlace mencionado:



Prosiguiendo con la complejidad computacional y centrándolo en su desarrollo histórico, todo comenzó hace más de un siglo. El infierno terrenal alumbró un diabólico experimento mental que trajo de cabeza a toda la comunidad científica internacional. Fue uno de ellos, quizá el más insigne de su generación y que no necesita presentación, James Clerk Maxwell, el que liberó a este leviatán, conocido como el "Demonio de Maxwell". Este parecía quebrar la mayestática segunda ley de la termodinámica, aunque todos sospechaban que no debería, pero de entre sus coetáneos nadie conseguía demostrar por qué no la cumplía. Ahora sabemos que ese hijo de Satanás jamás impedirá el inevitable e inexorable rumbo universal hacia un destino mortal de necesidad. Para los que siempre ven la parte positiva, quizá nos lleve a otro "ciclo eónico", como los ha bautizado el físico Roger Penrose, uno de esos optimistas empedernidos. Pero, por fin, se demostró que la entropía puede disminuir localmente en un sistema cerrado, solo con seleccionar, adecuadamente, aquellos elementos del sistema que tengan menor energía de los que tienen más. 

Esto demuestra que existe una profunda conexión entre la termodinámica y el procesamiento de la información -o, en otras palabras, la computación-. El físico alemán-estadounidense Rolf Landauer mostró que, incluso si ese diablillo enredara con su cola y fuera capaz de recopilar la información para seleccionar las moléculas de menos energía (sin ninguna pérdida ni coste de la misma), un peaje siempre habría que pagar, finalmente. Debido a que no puede tener un registro de cada movimiento molecular, es decir, una memoria ilimitada -lo que implicaría una energía infinita- debe limpiarla de cuando en cuando, es decir, formatearla y empezar de nuevo, antes de que pueda seguir recolectando nueva información. Este acto de borrado tiene un precio inevitable: disipa energía, y por lo tanto aumenta la entropía, obviamente. Todas las ganancias conseguidas contra esa segunda ley, debidas ese ingenio del diablo, son canceladas por el conocido como "límite de Landauer", que es el coste finito del borrado de la información, o más generalmente, de la conversión de información de una forma a otra. En castellano llano: "el borrado de lo innecesario es necesario para aprender".

Esto es en general, pero de los organismos vivos se podría decir que somos dignos vástagos de ese "Demonio de Maxwell". Tenemos un ingenio endemoniado para maximizar el consumo de energía libre y aumentar la entropía de una forma muy eficiente. Los sistemas vivientes han estado evitando, colectiva e individualmente, el estado de equilibrio inerte desde el origen de la vida, hace aproximadamente 3.800 millones de años. Absorben la energía de su entorno para sostener este estado de no equilibrio, y lo hacen con "intención". Incluso las bacterias simples se mueven con "propósito" hacia fuentes de calor y nutrición. En su libro de 1944 ¿Qué es la vida?, el físico Erwin Schrödinger expresó esto diciendo que los organismos vivos se alimentan de entropía negativa y lo logran al capturar y almacenar información. También dio pié para que sus observaciones sean más adelante profundizadas por Ilya Prigogine, quien formalizó el concepto de Schrödinger de "orden a partir del desorden" llevándolo a demostrar que, lejos del equilibrio un sistema caótico sí puede auto-organizarse. Esto le otorgó el Nobel de Química en 1977.

Parte de esos datos recabados se impriman y codifican en sus genes y así se transmiten de una generación a la siguiente: un conjunto de instrucciones para mantener y extender esa entropía negativa. Por aquel entonces aún no se conocía dónde se guardaba la información o cómo se codificaba, pero su intuición de que estaba escrita en algo, que él lo llamó un cristal aperiódico inspiró a Francis Crick y a James Watson para descubrir que la información genética puede ser codificada en la estructura molecular de la molécula de ADN, en 1953 aprovechándose de los trabajos de Rosalind Franklin, también (vaya desde aquí mi pequeño homenaje, con esta mención y su foto, a esta gran científica que mereció el premio Nobel tanto o más que sus compañeros masculinos).



Desde este aséptico punto de vista, la vida puede considerarse como un cómputo que tiene como objetivo optimizar el almacenamiento y el uso de información significativa. Y los seres vivos resultan ser extremadamente eficientes en esta tarea. La resolución de Landauer del enigma del "Demonio de Maxwell" estableció un límite inferior absoluto sobre la cantidad de energía que un cálculo con memoria finita requiere. Ese límite es tan lógico como poético: "el costo energético del olvido"La noción de que el olvidar es una herramienta para el aprendizaje ya tiene más de cien años, también. El psicólogo alemán Hermann Ebbinghaus, tras una serie de estudios, encontró que cuando se vuelve a aprender, es más probable tener un mejor acceso, más adelante, a esa información. Seguramente porque se ha seleccionado lo importante de lo que no lo era, y así se minimiza la energía necesaria para almacenar los datos, solo los fundamentales, como un esqueleto que luego permite añadirle los músculos, piel, etc. con solo tener el armazón guardado. 

Nuestro propio cerebro está construido para manejar ese vaivén entre el recuerdo y el olvido. Algunos investigadores postulan que muchas de las células cerebrales asociadas con la actividad de la memoria están involucradas de forma directa con la pérdida de ella. Uno de ellos, Blake Richards, investigador de la Universidad de Toronto afrima lo siguiente: “Pareciera que el crecimiento de nuevas neuronas promueve el olvido. Si se añaden neuronas nuevas, se está escribiendo encima de los recuerdos y los está borrando”. También postulan que el foco predominante en el estudio de la memoria ha sido hasta ahora el recuerdo, llamado por ellos persistencia. Sin embargo, estudios recientes les indican que la neurobiología del olvidar, bautizada por ellos como transitoriedad (relacionada con lo efímero, lo fugaz, lo breve, lo temporal, de paso, quizá lo que se almacena en el hipocampo o memoria a corto plazo), juega un papel muy importante. De hecho se pueden establecer paralelismos entre los mecanismos neurobiológicos y los de computador, que están por detrás de lo transitorio. Una propuesta es que la interacción entre lo persistente y lo transitorio es lo que permite la toma de decisiones inteligentes en ambientes dinámicos y ruidosos. Así, se puede argumentar que lo transitorio aumenta la flexibilidad, reduciendo la influencia que tendría la información “vieja” en la toma de decisiones guiadas por la memoria atesorada en el cortex cerebral, y que evita gravitar sobre eventos pasados, promoviendo con ello la generalización. En resumen, el gran logro de la memoria no es la transmisión de la información en el tiempo. Más bien es optimizar la toma de decisiones y con ello el aprendizaje. De igual manera, los recuerdos transitorios pueden incluso llevar a un mejor razonamiento al obviar lo aprendido y fijarse en nuevos puntos de vista: “El conocimiento creativo necesita, no solo de nuestras propias habilidades para aprender, sino de las habilidades para olvidar”. Eso que ahora está tan de moda y que se resume en el siguiente lema marketinero de la omnipresente autoayuda y mantra del "coaching": "aprender a desaprender".

Por otro lado, y volviendo al consumo de energía, en los mejores ordenadores de hoy en día, la derrochan, consumiéndola y disipándola más de un millón de veces más que el "límite de Landauer". La computación cuántica promete ser un paradigma de eficiencia energética porque para una misma cantidad de tiempo y energía es posible procesar, cuánticamente, una cantidad de información exponencialmente más grande que con la computación clásica. De hecho, unos pocos miles de qubits podrían calcular una inmensa cantidad de información, y unos cientos de miles podrían procesar una cantidad casi infinita de información (y ya tenemos experiencia de lo que sucede con los "casis" en la ciencia, sin ir más lejos uno de esos "casis" fue la espita que dio lugar a la propia cuántica). Se espera que llegará el momento en que ese crecimiento exponencial hará que el poder entrelazar con éxito un sólo nuevo qubit más al procesador suponga un crecimiento enorme de cómputo. Si la llamada "ley de Moore" se mantuviera en el computación cuántica, esa correlación haría que el poder de cálculo fuera inmenso en poco tiempo, aunque no infinito, a pesar de que se piensa que "casi" podría tenerla. Pero si la computación cuántica adquiere con cada qubit una mejora exponencial de cálculo eso supone que cada vez se requeriría menos energía y menos tiempo para calcular, de manera que ese tiempo y energía tenderían a cero, aunque nunca lo alcanzaría por el límite de Landauer al ser la memoria limitada, como se expuso más arriba. Borrar información cuesta energía. En efecto, cambiar un bit (ya sea para escribirlo o borrarlo) conlleva una energía mínima igual a:.

 kB T ln2


donde kB es la constante de Boltzmann y T la temperatura. A temperatura ambiente, esta energía no llega ni a un electrón voltio (del orden de milielectrón voltios o zeptojulios). Por supuesto que en la práctica se usa más energía (ese es el límite inferior teórico, y los ordenadores actuales funcionan muy por encima de él, como comentaba). Además se ha medido experimentalmente y la revista Physics World recoge el experimento como uno de los diez avances más importantes del año 2012.

Sin embargo la computación cuántica no sería la más eficiente que conocemos, según el matemático y físico David Wolpert: "la computación vital" sería aún más eficiente, quizá porque utiliza la propia cuántica, pero dentro de unas condiciones ambientales que aún no sabemos cómo manejar para que no se destruya la delicada superposición y el propio entrelazamiento cuántico. Una estimación muy conservadora de la eficiencia termodinámica de los que podríamos llamar biobits, considerando el cálculo total realizado por una célula, sería de sólo unas 10 veces más que el "límite de Landauer". 

Parece que la evolución, basada en la selección natural, se ha preocupado enormemente de minimizar el coste termodinámico de la computación. Hará todo lo posible para reducir la cantidad total de cálculo que una célula debe realizar. La adaptación ha sido durante mucho tiempo vista como el sello distintivo de la evolución darwiniana. Pero el reconocido científico del MIT, Jeremy England, ha argumentado que la adaptación al medio ambiente puede ocurrir incluso en sistemas complejos no vivientes.

La definición de Mr. England de "adaptación" está más cerca de la de Schrödinger que la de Maxwell: "una entidad bien adaptada puede absorber la energía más eficientemente de un entorno impredecible y fluctuante". Utilizando los conceptos y métodos de la mecánica estadística en un contexto de no equilibrio, England y sus colegas sostienen que estos sistemas bien adaptados son los que absorben y disipan la energía del ambiente, generando entropía en el proceso.

Los sistemas complejos tienden a desarrollarse en estos medioambientes impredecibles y fluctuantes con una facilidad sorprendente, según afirma England: "La materia que fluctúa térmicamente, a menudo, es espontáneamente obligada a asociarse de forma compleja y son muy eficaces para absorber la energía del ambiente que les rodea y varía en el tiempo". Incluso, añadiría, que sin que haya de por medio ninguna fluctuación térmica, simplemente con un conjunto de reglas matematico-geométricas básicas, se forman estructuras complejas, como se demostró en el conocido "Juego de la Vida" (ideado por el famoso matemático y "jugador" John Horton Conway).

Esta imagen de estructuras complejas que se adaptan a un entorno fluctuante e impredecible en la práctica nos permite también deducir algo acerca de cómo estas estructuras almacenan información. En resumen, siempre y cuando tales estructuras, vivas o no, se vean obligadas a utilizar eficientemente la energía disponible, es probable que se conviertan en "máquinas de predicción"

Es casi una característica definitoria de la vida que los sistemas biológicos cambian su estado en respuesta a alguna señal del medio ambiente. Cuando algo sucede hay una respuesta. Por ejemplo las plantas crecen buscando la luz. Estas señales ambientales suelen ser impredecibles, pero los sistemas vivos aprenden de la experiencia, almacenan información sobre su entorno y la utilizan para guiar el comportamiento futuro. La vida inteligente es aún mejor en este trabajo predictivo, por lo que no es extraño que nosotros estemos aquí y pueda surgir en otros planetas, lógicamente, de hecho es inevitable siguiendo este razonamiento. Podría decirse que de seguirse estos principios y axiomas la vida inteligente es una consecuencia de los mismos, un teorema, el "Teorema de la Emergencia de la Inteligencia" lo podríamos bautizar.

Sin embargo, la predicción no es opcional. Según el trabajo de Susanne Still de la Universidad de Hawaii y sus colegas, predecir el futuro parece ser una propiedad fundamental que debe tener cualquier sistema que aspire a la eficiencia energética en un medio ambiente aleatorio y fluctuante. Existe un coste termodinámico para almacenar información sobre el pasado que no tiene valor predictivo para el futuro, muestran Still y sus colegas, también. Para ser eficiente al máximo, un sistema tiene que ser, además, selectivo. Si se almacenara, indistinta e indiscriminadamente, todo lo que sucedió, incurriría en un gran coste energético. Por otro lado, si no se preocupara de almacenar cualquier información sobre su entorno en absoluto, estaría luchando constantemente para hacer frente a lo inesperado. Según David Sivak, de la Universidad Simon Fraser en Burnaby, Columbia Británica: "Una máquina termodinámicamente óptima debe tener un balance entre la memoria y la predicción al minimizar su nostalgia". Osea, eliminar la información inútil y/o irrelevante  sobre el pasado. O algo parecido a como hacen los algoritmos de compresión de datos, los cuales codifican las partes repetidas aligerando el "peso" del archivo. En resumen, debe ser no sólo bueno en la recolección sino, además en almacenar solo la información significativa, es decir, guardar solo aquello que es probable que sea útil para la supervivencia futura.

Se esperaría que la selección natural favoreciera a los organismos que usan la energía eficientemente. Pero incluso los dispositivos biomoleculares individuales, como las bombas y los motores de nuestras células, deberían, de alguna manera, aprender del pasado para anticipar el futuro. Según Still, para obtener su notable eficiencia estos dispositivos deben "construir implícitamente representaciones concisas del mundo que han encontrado hasta ahora, lo que les permite anticipar lo que está por venir".

Si han llegado hasta aquí, lo cual ya tiene mérito, ahora les invito a un viaje a las fronteras mismas de lo observable. Acompáñenme a un lugar mucho más remoto e inhóspito, dejaremos de lado la dependencia de la tecnología y de la biología, la ciencia aplicada y la propia vida. Abandonaremos la práctica para ir a la teoría.

Sin duda la computación cuántica promete ser mucho más potente y eficiente que la actual, en varios órdenes de magnitud, incluso, aunque cada qubit, o el recién bautizado biobit natural, u otra tecnología aportara una capacidad de cálculo exponencial, estaríamos en la situación que comentaba antes por esa limitación de la escala de Planck. Una advertencia para navegantes nobeles: exponencial no implica que sea infinita, obviamente. Ya vimos que existe una asíntota del olvido o "límite de Landauer" para la energía, pero es que, además, hay otra limitación temporal, dada por el "tiempo de Planck". El problema al que nos enfrentamos en la computación va más allá de la tecnología y de la vida, como decía. Si es un problema "NP Hard", entonces el tiempo que se necesitaría, independientemente del algoritmo y/o la tecnología, sería tan grande que el tiempo de computación por unidad de información necesaria sería menor que ese "tiempo de Planck".  

Esto último implicaría que no podríamos obtener una solución ni en la práctica ni siquiera en teoría. Esos tiempos "transplanckianos" necesarios, que devienen de la naturaleza cuántica de la Naturaleza, valga la redundancia y la paradoja con la computación cuántica, impone unos límites a lo que es observable. En teoría, para obtener una solución observable, se necesitaría ir más allá de la edad del Universo para obtenerla, sin entrar por debajo de la escala de Planck en tiempos de computación por unidad de información, lo cual es impracticable y hace intratable la computación de esos tipos de problemas, por muy eficiente y poderosa que fuera la tecnología aplicada. Ni la computación cuántica, ni ninguna otra, puede traspasar ese "tiempo de Planck". El tema está en si es "NP Hard" o no. Si fuera NP en tiempo polinomial entonces sería tratable computacionalmente, en teoría, e incluso en la práctica. Pero, los límites naturales están ahí, tengan sentido o no. Quizá el sentido sea que no podamos conocer todos sus secretos, al menos no a la vez debido a la Relación de Heisenberg, y quizá tampoco todos si es "NP Hard". Quizá se podría especular que es una limitación que viene impuesta por el "programador", caso de que estuviéramos en una simulación, para prevenir que los simulados pudiéramos acceder al código del programa completo a la vez. De ser así, podríamos acceder a todas o algunas partes, pero no a la vez, por lo que podríamos saber que estamos en una simulación, quizá, pero no podríamos "hackearla" digamos.

Y esto nos lleva a profundas implicaciones filosóficas. La llamada "Gran Simulación" por algunos, el "Gran Diseño" por otros -incluso utilizado como título en su último libro de divulgación por el lucasiano Stephen Hawking- cobrarían fuerza y más respaldo del que ya tienen entre la comunidad científica, si ese Principio del Límite Computable de la Naturaleza (PLCN), fuese universal en su vertiente temporal. Para que así fuera solo sería necesario que hubiera un solo problema "NP Hard", es decir, que no perteneciera al conjunto de los problemas "NP completo" y/o "NP Easy" y/o "NP Equivalente", es decir, no fuera resoluble en un tiempo polinomial -ver gráfica-. La capacidad de computación es dependiente de la energía disponible y del tiempo observable, no de la tecnología, al menos si se parten de esos principios y axiomas. Es un tema teórico y/o conceptual. Una limitación natural, como lo es la Relación de Heisenberg -mal llamada Principio de Indeterminación y peor conocida como Principio de Incertidumbre-. Serían dos principios objetivos, observables y universales insalvables. La Naturaleza nos impide conocer todos sus secretos a la vez y computar todos los problemas en un tiempo observable y con una eficiencia infinita. Sabemos que por debajo de la escala de Planck no somos capaces de observar, por eso lo denomino "tiempo observable". También, por eso mismo, comentaba que se necesitaría más tiempo que la edad del Universo para obtener una solución observable a ese problema "NP Hard" porque los tiempos para los procesos por unidad de información no pueden traspasar el límite impuesto por el tiempo de Planck. 


Al final los conceptos de complejidad, estructura y orden están, en general, dentro del alcance de la inteligibilidad humana. Por ejemplo el caos es cualquier proceso/actividad que no encaja en nuestros criterios de orden. Sin embargo, si aceptamos la posibilidad razonable de que el orden o la estructura en general no pudieran estar restringidos por nuestras facultades cognitivas particulares (sesgo), Eso significa que podría haber otros posibles patrones y procesos estructurados, tal vez demasiado complejos para que los seres humanos seamos conscientes de ellos. Por lo tanto deberíamos evitar hacer una distinción "arbitraria" (dependiente del ser humano) entre el orden y el caos al considerar la complejidad en toda su potencialidad.

Todo este embrollo con la entropía  tiene que ver con la densidad de energía. También con la flecha "en el" tiempo. La flecha "del" tiempo es arena de otro costal, que ya se traté en el post: "La Cronohistoria Interminable. Una crónica histórica del Tiempo en el tiempo" en mi blog "Mecánica de la Naturaleza"). La flecha en el tiempo tendría el mismo sentido que el incremento de densidad de energía local. Según la Teoría de la Relatividad General (TRG) percibimos el tiempo de forma coordinada. Cada sistema inercial tiene un tiempo, el cual es relativo al mismo. Experimentamos el tiempo del pasado al futuro espontáneamente, y no al revés, porque la energía de un sistema relativo cerrado se concentra de menos a más energía por la gravedad, como demuestra un estudio llevado a cabo por Julian Barbour y sus chicos con una simulación en un potente computador. Algo que dejaré aquí en el aire para hablar de ello en un próximo post, porque merece la pena y no debo extenderme más de lo necesario en éste. Solo un párrafo y una frase más como avanzadilla de ese futuro post:

La vida es un proceso de incremento de la densidad de energía y por eso se da con más probabilidad en entornos de concentración de energía. Quizá por eso somos materia. En definitiva un estado de energía condensada. En principio la vida es improbable, pero en entornos de una densidad energética específica se debería dar de forma espontánea. Eso sí, hasta un límite superior donde no fuera aplastada por la acción gravitatoria y un límite inferior que no la permitiera. Digamos que exsite un intervalo energético para la vida, tal y como la conocemos y definimos -aparte quedaría el "Multiverso Metavivo", que escribí para la Revista Antrópika, con la que colaboro de forma regular, también-. Evidentemente un estado de infinita densidad de energía es inviable en la Naturaleza. Recordemos que en Física el concepto matemático del infinito no tiene existencia como tal. Por ejemplo la entropía maxima en un sistema fisico cerrado es finita. También podría existir una región con altísima densidad energética (no infinita), la cual tendría una entropía muy baja. Ciertamente esa área es lo que se suelen llamar agujeros negros y que prefiero renombrar como "agujeros oscuros", porque no sabemos realmente que son, igual que la materia o la energía oscura. De hecho, no son tan negros como se pintaban, sino oscuros, por mor de la postulada "Radiación de Hawking" y su brillante horizonte de sucesos.

La insoportable gravedad de la vida depende de la densidad de energía. El cosmos a partir del caos.


12 comentarios:

Samu dijo...

Felicidades por el artículo, Jose Carlos. Muy interesante y como bien dices bastante relacionado con otras entradas anteriores del blog.

Espero que sigas colaborando con más entradas de este nivel :).

Un abrazo.

Professor Moriarty dijo...

Muchas gracias a ti por la invitación a participar y colaborar en tu blog. Abrazos y me alegro que te haya gustado.

Professor Moriarty dijo...

Hoy se publica este artículo sobre el "Demonio de Maxwell", precisamente, con un experimento sobre termodinámica y cuántica, que confirma y ahonda lo expuesto en este post del PLCN, confirmando que el qubit consume energía respecto a la información en el procesamiento de la misma:

https://phys.org/news/2017-07-physicists-maxwell-demon-mind.html?utm_source=nwletter&utm_medium=email&utm_campaign=daily-nwletter

Professor Moriarty dijo...

Y hoy se ha publicado otro artículo apuntando que la vida podría ser como los agujeros oscuros, desde el punto de vista entrópico y generadores de nuevos Universos, como ya apuntaba en el post de: Los Agujeros Oscuros y el Multiverso Metavivo. Además proponen que el propósito de la vida es el de generar esos nuevos Universos.

https://theconversation.com/life-may-be-a-guide-to-the-evolution-of-the-cosmos-heres-how-79689

Professor Moriarty dijo...

Y este es el estudio publicado en Complexity, sobre el que se ha escrito el artículo publicado hoy y que comentaba en el comentario anterior:

https://www.hindawi.com/journals/complexity/2017/4745379/

Samu dijo...

Una línea de investigación muy interesante, Jose Carlos. Gracias por compartir esas referencias!!

Professor Moriarty dijo...

Y hoy se publica este nuevo intento de resucitar el "Demonio de Maxwell". Esta vez desde la medición cuántica:

https://phys.org/news/2017-07-maxwell-demon-quantum.html

Professor Moriarty dijo...

Y el paper confirmando que la medición tiene un coste energético:

https://arxiv.org/pdf/1702.01917.pdf

Professor Moriarty dijo...

PLCN práctico en la actualidad:

https://cosmosmagazine.com/technology/how-to-store-data-on-magnets-the-size-of-a-single-atom

Professor Moriarty dijo...

Confirmando el PLCN (Principio del Límite Computable de la Naturaleza) que publiqué en este blog, ayer se publicaba este paper que inserto al final y un extracto traducido del mismo de un artículo en prensa:

“...los investigadores calcularon que almacenar información y simular apenas un par de cientos de electrones requeriría un ordenador cuya memoria, físicamente, debería tener más átomos de los que existen en el Universo. Lo cual descarta por completo que todos nosotros pudiéramos estar viviendo en una gigantesca simulación.”



http://www.abc.es/ciencia/abci-demuestran-no-vivimos-simulacion-informatica-201710021433_noticia.html#ns_campaign=rrss-inducido&ns_mchannel=abc-es&ns_source=fb&ns_linkname=noticia.foto&ns_fee=0
El paper completo:

http://advances.sciencemag.org/content/3/9/e1701758.full

Samu dijo...

Gracias por las aportaciones :).

¿Tuvieron, por cierto, en cuenta al ordenador cuántico al hacer esa afirmación?

Professor Moriarty dijo...

http://www.abc.es/ciencia/abci-proponen-utilizar-universo-como-si-fuera-enorme-computadora-201711160942_noticia.html

Publicar un comentario