jueves, 28 de mayo de 2015

Estudio sobre la posible ilusión del libre albedrío (en su concepción más débil)


Este mes que termina es el cumpleaños de mi blog. Lo inauguré allá por el 2010 como un modo en que poder expresar por escrito mis ideas e inquietudes. No tenía ni idea por aquel entonces de que conseguiría tantos seguidores, ni mucho menos que llegaría a 30000 visitas. Además, estoy muy orgulloso de saber que gran parte de estas personas que siguen el blog son (sois) gente de alto nivel cultural (es fácil hacer un blog sobre fútbol o sobre coches con miles de visitas, pero creo que es meritorio conseguir que un blog de temas filosóficos y científicos sea seguido por tanta gente).

En fin, no me enrollo más. Gracias por vuestra fidelidad :).

Voy a compartir con vosotros a continuación, a modo de celebración :P, un nuevo y extenso (pero, creo, interesante) artículo, sobre el libre albedrío. Espero que os guste:

Introducción.
"Todos creen a priori en que son perfectamente libres, aún en sus acciones individuales, y piensan que a cada instante pueden comenzar otro capítulo de su vida... Pero a posteriori, por la experiencia, se dan cuenta —a su asombro— de que no son libres, sino sujetos a la necesidad; su conducta no cambia a pesar de todas las resoluciones y reflexiones que puedan llegar a tener. Desde el principio de sus vidas al final de ellas, deben soportar el mismo carácter..." (Arthur Schopenhauer)

Hace ya tiempo, en este artículo traté sobre una posible reducción al absurdo de la idea del libre albedrío clásica. He debatido bastante sobre el tema desde entonces, y la principal pega que se pone a mi argumentación se debe al concepto duro (o extremo) que usé del libre albedrío.

Para muchas personas, el libre albedrío se puede corresponder con una definición más débil que la que yo he usado en mi artículo, una concepción en donde sólo vale con que exista libertad de decisión entre un conjunto acotado de posibilidades. Es decir, que al poder elegir sin trabas de entre un limitado conjunto de alternativas, previamente seleccionadas de un modo involuntario e inconsciente por un heurístico evolutivo, lo siguen llamando libre albedrío; o le ponen otro nombre a la cosa, aunque lo siguen relacionando filosóficamente con las consecuencias que el libre albedrío clásico (su concepción fuerte) otorga al hombre con respecto a su ego (hay mucha resistencia a aceptar la falta de libre albedrío, y cada cual se agarra a donde puede para no resignarse).

Pues bien, vamos a intentar estudiar en detalle esta otra concepción débil del libre albedrío, a ver qué conseguimos:

Voy a partir de un principio bien estudiado y bien contrastado, aunque aún no sea tan ampliamente aceptado en la comunidad como seguro lo será en unos años:

1. La mente humana surge gracias a una complejísima computación neuronal ocurrida en el cerebro. Y hablo de computación, porque según la neurociencia moderna, el cerebro no sería más que un sistema encargado del procesamiento automático de la información. Automático, porque el proceso ocurre espontánea y mecánicamente, y procesador de la información, porque su función sería la de convertir (procesar) una entrada sensitiva de información (sentidos) en una salida o transmisión de resultados al exterior: TODA su conducta (incluyendo el resto del cuerpo -ritmo de los latidos del corazón, de la respiración, etc.- y el mundo externo al propio cuerpo -lenguaje, movimientos, etc.-).

Es, sin duda muy complejo el modo en que se obtiene la información por los sentidos, y el modo en que se realiza el procesado de dicha información, y por supuesto el modo en que se transmite. Además, sin duda, hay mucha retroalimentación entre estos tres elementos, y la complejidad se eleva so manera; sin embargo, lo fundamental que yo quiero proponer en (1), es que la mente surge (o puede ser que surja) mediante un procesado automático de información, lo que hace que se pueda hablar de que la mente es consecuencia del equivalente de una mera computación (neuronal en este caso).

Cualquiera que niegue este punto (1) no debería seguir leyendo, puesto que es evidente que va a negar la mayor de mi argumentación, y sólo va a perder el tiempo; puesto que pretendo deducir, a partir de (1) y de nuestro conocimiento sobre la computación y el tratamiento físico de la información, una conclusión mediante reducción al absurdo. Sin embargo, no le quepa duda al lector que la negación del punto (1) trae consigo muchos problemas (y grandes alternativas que proponer), y que dicha negación entra en contradicción con gran parte del estudio neuricientífico actual. Pero eso ya es problema del negacionista ;).

Bien. Vamos a suponer que todo el que sigue leyendo estas líneas está de acuerdo en (1), y veamos qué podemos concluir a partir de nuestros conocimientos científicos sobre el mundo:

Para facilitar la argumentación (pero sin perder precisión), vamos a considerar el caso más sencillo posible para estudiar esa hipotética libertad de decisión acotada a un grado de libertad finito (libre albedrío en su concepción débil):

2. Vamos a considerar en concreto, la posibilidad o no de una libre elección indeterminada en un entorno con sólo dos grados de libertad: es decir; elegir entre dos alternativas concretas A o B, blanco o negro, 0 ó 1, etc. 

Hay que destacar primero, que vamos a analizar en nuestro estudio, alternativas equivalentes en cuanto a valor o peso. En nuestro argumento, ninguna alternativa se va a ver condicionada por ningún tipo de valor añadido sobre la otra. Porque si, por ejemplo, A tiene mayor peso que B, habrá un sesgo en la probabilidad de que sea A la seleccionada, y por lo tanto no habrá una verdadera libertad de elección puesto que ese peso determina (aunque sea probabilísticamente) el resultado final. Por lo tanto:

3. Ambas alternativas A y B, serán equiprobables, lo que no hace más que señalar la necesidad de una indeterminación en la elección final del individuo de modo que podamos hablar de verdadera libertad. Si un individuo es realmente libre de elegir entre A y B, no estará condicionado ni siquiera parcialmente a elegir una alternativa sobre la otra, por lo que la probabilidad a priori de que seleccione cualquier opción será en principio del 50% (1/2).

Este punto (3) se ve incluso más claro mirado al revés: si entre dos alterativas A y B, hay un condicionamiento sobre el individuo, habrá una probabilidad (una especie de "determinaciónprobabilística) a favor de una de las opciones, por lo que la decisión final NO será jamás verdaderamente libre (indeterminada).

Este es, precisamente, un argumento que se suele tomar prestado de la psicología evolucionista en contra de cualquier tipo de libertad de decisión en el hombre (ni débil ni fuerte):  la evolución condiciona en gran medida gran parte (por no decir, toda) nuestras tomas de decisiones, con lo que la libertad brillaría por su ausencia. Ocurriría esa "determinación" probabilística de la que hablo en casi todas nuestras elecciones; sesgo que iría desde algo apenas medible (50,0...1%, a un sesgo de casi el 100%, como ocurre cuando directamente no tenemos casi libertad de decisión en ciertos casos: por ejemplo, cuando intentamos comer excrementos, mantener relaciones de incesto, etc.: sencillamente NO podemos).

Pero no voy a atacar por este camino la idea de libre decisión acotada. Mi idea es aceptar que (3) es posible y comprobar si dicha asunción se reduce a un absurdo:

Sigamos. Una verdadera libertad indeterminada, requiere de un proceso capaz de elegir entre dos opciones de un modo incondicionado, lo que significa que el proceso podrá elegir entra A y B con una probabilidad igual a 1/2 (50%). Tenemos así la entrada {elige entre A y B}, el proceso de selección {ten en cuenta la entrada y elige de un modo indeterminado entra A y B  -con una probabilidad del 50% entre ambas-}, y una salida {comunicación o transmisión de la decisión final}.

Centrémonos en el proceso de selección:

Debe ser un proceso indeterminado, en el sentido de que a priori debe haber un desconocimiento absoluto sobre el resultado final de la decisión. Ese desconocimiento absoluto, matemáticamente se relaciona (en nuestro caso con un agrado de libertad igual a 2) con el concepto de una probabilidad en el resultado de 1/2. Esta relación matemática que hago, se basa en el conocido principio de indiferencia (o principio de razón insuficiente).

Queda ya claro, que el proceso de toma de decisión (o proceso de selección) debe poder decidir equitativamente entre nuestras dos selecciones pero, ¿cómo puede llevarse esto a cabo?:

Este es un problema clásico en ciencias de la computación, que nos acompaña desde el inicio de esta rama del saber. Bien pronto surgió en el terreno de la computación, el problema de cómo hacer para realizar selecciones probabilistas entre diversas opciones. Por poner un pequeño ejemplo (de entre miles):

Los programadores de videojuegos, es normal que requieran de funciones capaces de generar elementos en el escenario que dependan de un rango de probabilidad. Por ejemplo, en un juego de puzzles tipo Tetris, habrá que determinar de qué tipo es la siguiente pieza que se le ofrecerá al usuario una vez ya ha salido la anterior (si es la alargada, la cuadrada, etc.). Imagina que te piden que programes un Tetris, y te ves en la encrucijada de generar un algoritmo que tenga como salida la pieza que se le mostrará al usuario (y que caerá de arriba hacia abajo) de entre 5 posibles tipos de pieza. ¿Cómo te las ingeniarías para que el algoritmo devuelva una pieza de entre las 5 posibles, con una probabilidad de 1/5?

En pseudocódigo, la cuestión queda más o menos como sigue:

Inicio_programa: Tetris
...
Pieza pieza_a_mostrar;
pieza_a_mostrar = obtener_pieza();
pieza_a_mostrar.mostrar();
...

fin_programa

función obtener_pieza()
   Pieza pieza_a_devolver;
  (¿?)
   devolver pieza_a_devolver;
fin_funcion 

Cómo rellenar el hueco (¿?) es la cuestión. ¿Cómo programar el equivalente a elegir una pieza de entre 5 de un modo equiprobable? ¿Cómo diseñar un método  capaz de hacer tal cosa? Pues la única solución hasta la fecha consiste en el uso de hacer uso de un generador de números aleatorios.

En concreto, para el caso que nos ocupa, se puede generar un número aleatorio, por ejemplo; en el rango ente el 1 y el 100, y posteriormente, y seleccionar una pieza a partir del resultado de éste número aleatorio. Por ejemplo, podemos dividir el rango [1-100] en 5 partes, y asignar a cada parte una pieza. En pseudocódigo, sería algo parecido a:

función obtener_pieza()
   Pieza pieza_a_devolver;
   Numero n = Generar_num_aleatorio(1,100) ;
   si n <=  20 entonces
          pieza_a_devolver.es(Pieza.LARGA);
  si_no si n <= 40 entonces
         pieza_a_devolver.es(Pieza.CUADRADA);
  si_no si n <= 60 entonces
         pieza_a_devolver.es(Pieza.CURVA);
  si_no si n <= 80 entonces
         pieza_a_devolver.es(Pieza.CURVA_2);
  si_no si n <= 100 entonces
         pieza_a_devolver.es(Pieza.CURVA_3);
  devolver pieza_a_devolver;
fin_funcion 

Sin embargo, aunque parezca que el asunto ya está resuelto; no es así. Aún tenemos que desarrollar esa función capaz de generar y devolver el número aleatorio...y aquí es donde empiezan los problemas de verdad. No hay, hasta la fecha, un método capaz de generar un número aleatorio de un modo totalmente eficiente, y lo único que se consiguen son aproximaciones, con lo que se suelen llamar generadores de números psuedoaleatorios (aquí tenéis un buen documento, donde se explica bien el problema, y también las aproximaciones paseudoaleatorias conseguidas).

No hay modo de simular computacionalmente la generación de un número realmente aleatorio. Siempre se termina con un proceso periódico, donde los procesos tienen en general los siguientes problemas:

Cualquier sistema de procesamiento de información, tiene obligatoriamente, una estructura física, la cual condiciona el sistema a un conjunto muy determinado de estados físicos posibles. Por lo tanto, debido a que los estados físicos del sistema son finitos, y a que las reglas o pasos realizados en el procedimiento son finitos, ocurren siempre los siguientes problemas que impiden la generación de verdaderos generadores aleatorios: periodicidad, autocorrelación, aparición de diversos patrones,  sesgos en la media y la varianza, y resultados discretos (donde algunos números del rango nunca llegarán a darse).

El problema de fondo, sin lugar a duda, es equivalente al problema original del que partíamos: es decir; que nos volvemos a encontrar con la disyuntiva original de cómo podría un sistema automático de procesamiento de información, decidir libremente y con equidad ante varias alternativas.

Tenemos así un primer corolario importante:

4. Al no ser posible, mediante técnicas de computación, generar un número realmente aleatorio; podemos concluir que cualquier intento de crear un proceso automático de decisión realmente libre es imposible. Siempre va a haber una "determinaciónprobabilística que hará imposible la indeterminación requerida para que exista plena libertad de decisión entre dos alternativas.

Por otra parte, la mente humana hemos aceptado en (1) que se reduce a un complejo proceso físico de computación neuronal: ¿se podrá trasladar el corolario (4)  al caso del hombre?:

Imaginemos un experimento, en el que el investigador llega y nos pide simplemente que elijamos un color entre el rojo y el verde. Ese es todo el experimento, no habrá recompensas ni ningún resultado. Sólo se trata de elegir entre rojo (A) o verde (B).

Piense que está en esa situación: piense un color entre el rojo y el verde y dígalo en voz alta. Parece que, decidamos lo que decidamos, la elección parece ser realmente libre. Si dijo rojo, pudo haber dicho verde, y viceversa; y la probabilidad de su elección, a priori, parece ser de 1/2. Ni el investigador y ni siquiera usted mismo, sabía en principio, qué color iba a pronunciar. De ser este el caso, la decisión habría sido libre pero: ¿cómo puede la red neuronal de nuestro cerebro conseguir esa indeterminación siendo, como es, un sistema con una estructura física finita junto con el estado físico que ésta determina?

En el proceso, el ojo y el oído de la persona tomaría la información exterior. Esa información pasaría, mediante impulsos eléctricos, al cerebro y éste se dedicaría a procesar el problema: elegir entre rojo y verde (A y B). Si de verdad se procesa una libre decisión, en algún punto de la red neuronal debe ocurrir el equivalente de elegir un número realmente aleatorio (y no solo pseudoaleatorio) que permita formar la salida: "elijo rojo", en lugar de "elijo verde".

Pero es absurdo que un sistema de procesado de información pueda, mediante un conjunto finito de estados, generar un procedimiento capaz de conseguir hacer colapsar de manera independiente una distribución continua y uniforme de valores.

Origen del problema sobre la imposibilidad de conseguir una elección equitativa.

Intentemos profundizar en el origen de ese problema que nos impide idear un método de selección equitativa. ¿Podría residir el problema en la limitación de estados finitos del sistema o la estructura que debe tomar la decisión?  Es más, podemos preguntarnos incluso sobre si es posible generar una propuesta verdaderamente indeterminada y equitativa (condiciones a priori de una libre elección) en un sistema físico cualquiera.

Olvidemos por un momento la computación neuronal y los sistemas automatizados de procesamiento de información; vayamos a nuestro mundo cotidiano: ¿es posible generar aleatoriedad mediante algún procedimiento o método a nuestro alcance?

Si entramos en detalle, veremos que no es posible conseguir tal cosa en nuestro mundo mesoscópico. Si lanzamos un dado, el resultado estará determinado por las condiciones iniciales del lanzamiento, siendo un proceso determinista. En el caso del dado, tenemos un caso similar al computacional ya comentado, de generación pseudoaleatoria. La teoría del caos  imposibilita en la práctica (con nuestra tecnología actual) determinar el resultado del dado, pero NO hay, sin embargo, ninguna imposibilidad teórica que lo prohíba. 

Y el hecho, es que cualquier otra alternativa mecánica caerá en el mismo saco: es siempre posible, en teoría, determinar el resultado, por lo que  la generación no es indeterminada ni, por lo tanto, será equitativa la elección que se haga a partir de dicho resultado determinista.  Y no es equitativa, porque esas mismas condiciones físicas iniciales, van a determinar siempre el resultado, y; aunque el resultado parezca aleatorio, en realidad, habrá sido sesgado desde el inicio del lanzamiento por innumerables factores: como la fuerza inicial, el ángulo de giro, la aceleración inicial, la resistencia del aire, etc., etc. Conocidos esos factores, y con las herramientas matemáticas adecuadas, se podría, siempre en teoría, adivinar el resultado.

El hecho de que las condiciones físicas determinen cualquier generación de aleatoriedad, implican que, antes las mismas condiciones, el resultado será el mismo, y que; si se pudiesen llegar a conocer las mismas, se podría determinar a priori el resultado (y la decisión).

Seguro, que muchos habréis pensado en la mecánica cuántica como un posible método de aleatoriedad, basado en su indeterminación teórica. Pero mucho me temo que no nos vale como solución. La indeterminación en mecánica cuántica, se corresponde con una "determinación" probabilística. Aún en el caso de usar la mecánica cuántica, ¡no logramos una completa indeterminación (lo cual equivaldría a una completa desinformación o desconocimiento del resultado)! sino que nos debemos contentar con una distribución de probabilidades en el estudio del fenómeno. 

Pongamos el caso ideal, equivalente a un lanzamiento de dados cuánticos. Como el resultado se rige por la MC, no podemos determinar (ni siquiera en teoría) el resultado a partir de nuestra información en las condiciones iniciales, ¡pero aún así seguimos teniendo información sobre el resultado final! ¡no logramos la indeterminación necesaria para poder decidir equitativamente! Con las herramientas matemáticas adecuadas, la MC realmente nos permiten determinar la distribución de probabilidad de que el dado cuántico caiga de una manera o de otra a partir de las condiciones iniciales.

Pero, hay, sin embargo, un modo de eliminar teóricamente este sesgo del que hablo. Sería, el caso equivalente a lanzar una moneda cuántica (en lugar de un dado cuántico). Es más, ya hay incluso propuestas para chips que usarían la MC para generar aleatoriedad realmente indeterminada

Pero aún no está todo ganado:

Imaginemos por ejemplo, un chip como el propuesto por la Universidad de Stanford. Lo instalamos en un computador tradicional, y conseguimos, mediantes llamadas a este hardware, un número aleatorio imposible de determinar a priori según las limitaciones teóricas de la MC.

Pero ahora nos encontramos con un problema: para que el chip funcione en la práctica, debe ocurrir la decoherencia cuántica (el colapso de la función de probabilidades del evento, que es de 1/2 para cada resultado posible). Para que el chip ande, y devuelva (0 ó 1), hay que hacer una medición sobre el sistema cuántico, pero, ¿quién medirá? ¿y cómo lo hará para que colapse la función de onda?

Para que la función de onda funcione, y el chip pueda devolver un resultado, se necesita la interacción con un sistema macroscópico. Si, por ejemplo, usamos nuestro ordenador clásico, con el chip cuántico embebido, y programamos un sistema capaz de decidir entre A y B (o rojo y verde), llegará un punto en que el sistema clásico tendrá que "activar" el chip cuántico mediante una señal eléctrica, por ejemplo, y trabajar luego con el resultado indeterminado obtenido (A ó B).

Esto pone de evidencia, que aún se requiere de un sistema clásico determinado que haga la medición indeterminada, para poder elegir posteriormente con equidad o libertad entre las alternativas; y será ese entorno clásico el que finalmente vuelva a introducir el problema de cómo decidir. Entramos en un círculo vicioso:

Hay que interpretar el resultado,  para poner en consonancia cada posible valor del dominio de la función indeterminada, con cada posibilidad de entre las que podemos elegir: 0 -> rojo, 1->verde, por ejemplo. Si, por ejemplo, nuestro ordenador va a transmitir el resultado de su elección mediante una imagen en el monitor, deberá en algún momento, comparar macroscópicamente el valor cuántico obtenido, con su equivalente previamente decidido: habrá que elegir una regla determinada que diga que, si el valor aleatorio es 0 muestre una imagen verde, y en caso contrario una roja.

En otras palabras, aunque podamos conseguir un número verdaderamente aleatorio mediante la MC, la necesidad de que un sistema macroscópico determine cuando tomar la medida, y cómo interpretar el resultado, harán que la decisión no sea finalmente libre: ¿por qué relacionar el valor 0 con el resultado verde, y no con el rojo? ¿cómo se toma esa decisión desde la parte clásica del sistema? ¿Usamos otra medida del chip cuántico de modo que si da 0 se corresponda con que en la siguiente medida del chip, el 0 se corresponda con el rojo y el 1 con el verde, y si da 1 sea al contrario? Pero es evidente que hemos entrado en una regresión infinita, porque ahora habrá que decidir por qué si la primera medida cuántica da 0 se corresponde con que si la segunda da 0 será rojo, y no viceversa.

No hay escapatoria: usar la MC no puede ayudarnos con nuestro problema, porque sus resultados requieren de un sistema clásico que mida e interprete (decida una relación en) el resultado. Una verdadera solución, requeriría de un sistema capaz de generar un estado indeterminado, pero que funcionase exclusivamente en la escala macroscópica donde se toman las decisiones que nos interesan.

El problema cuántico.

No nos engañemos: es cierto que mi argumento anterior puede parecer débil, sobretodo cuando la MC es la esperanza por antonomasia de aquellos que pretenden la indeterminación de nuestros actos; pero no lo es, no es débil en absoluto. Vamos a estudiarlo aún con un poco más en detalles:

Vamos a estudiar el ejemplo más simple imaginable:

Imaginemos que los chicos de la Universidad de Stanford terminan su chip cuántico, y lo introducimos en un microcontrolador clásico. Para más claridad, vamos a imaginar un microcontrolador a medida. Es decir; vamos a programar el circuito mediante hardware, de manera que si el chip cántico devuelve un nivel de alta energía (un bit igual a 1) automáticamente se transmita esa señal (mediante el bus) con lo que a su vez se pondrá a 1 un bit determinado del puerto de salida mediante un filamento; puerto que se conecta a su vez con un LED luminoso rojo. Si el chip cuántico se activa, pero devuelve un nivel de baja energía (bit a 0), esa salida establecerá a 0 (baja energía) el mismo bit del puerto de salida del microcontrolador, con lo que el LED luminoso no encenderá (o se apagará si estaba previamente encendido); y eso se podría corresponder con la opción color verde.

Parece que un sistema así diseñado tendría equidad de decisión (requisito necesario para poder hablar de libertad), pero hay un problema muy claro: ¡Se ha determinado previamente qué es un bit 0 y qué es un bit 1! ¡y se ha construido el circuito realmente a priori, decidiendo de antemano cómo se va a comportar el sistema ante esos resultado de 0 ó 1! Qué es un bit 0 ó 1 es una convención o elección previa. Normalmente se toma como bit 1, un nivel de energía igual o mayor a 0,5 vóltios, y como bit 0 el resto de valores. Cualquier procedimiento que ocurra con este sistema estará determinado a esa elección previa: un umbral mayor a 0,5 voltios haría encender la luz menos veces, y un umbral menor haría que la luz encendiera más veces; hay un sesgo debido a nuestras elecciones sobre la construcción del sistema.

Podría pensarse que el problema que comento estuviera relacionado simplemente con el procesamiento digital que implican estos ejemplos. Pero veremos que en el caso analógico, ocurre lo mismo:

Preparemos el siguiente experimento, se lanza un fotón, contra un espejo semirreflectante donde, según la MC, el fotón traspasará el espejo, o será reflejado con una probabilidad indeterminada (es decir que, a priori, la probabilidad real es de un 1/2 para cada alternativa). Si el fotón traspasa el espejo, irá a parar contra un detector que se iluminará (rojo), y si se refleja, irá a parar a otro detector  (verde).  Ahora ya no tenemos le problema de tener que interpretar valores, el color salta en un detector u otro, sin necesidad de hacer nada más pero...¿quién decide cuándo mirar en cada detector? ¿como conseguir el colapso de onda y la transmisión de esa información del color al mundo macroscópico sin caer en el determinismo? Mientras no se midan los detectores, según la MC, ambos se encuentra en un estado de superposición (encendido / apagado), pero el hecho de medir requiere de la intervención de un sistema macroscópico que rompa la superposición. Ese estado macroscópico se rige por la física clásica, y por lo tanto, aunque caótico, su estado es determinista y previsible.

Tenemos algo similar a esto:

Entrada de información determinista -> proceso cuántico indeterminado -> decisión de proceder a la medición, colapso de onda, y transmisión de la información determinista.

Conclusión.

Un libre albedrío, en su concepción más débil, requiere de libertad de decisión entre alternativas acotadas. Esa libertad, presupone que el órgano o sistema que tome la decisión, podrá, a priori seleccionar cualquiera de las opciones acotadas con igual grado de libertad; lo que supone que nada condicione su elección. Si nada condiciona su elección, la probabilidad de que decida cualquiera de las alternativas es equitativa (1/n siendo n el número de posibilidades donde elegir).

Esa equidad probabilista a priori, requiere incondicionalidad en el sistema, e indeterminación en el proceso; ya que, si la decisión que el sistema tomará está determinada, no habrá libertad de decisión, ya que la selección estará predeterminada a partir de las condiciones físicas iniciales y anteriores a que se tome la decisión, y, si existe algún condicionamiento, ocurrirá un sesgo en la probabilidad entre opciones, y el sistema tendrá una tendencia hacia alguna de las alternativas, lo que anula el concepto de libertad que hemos utilizado.

El único modo imaginable para poder conseguir la indeterminación y la incondicionalidad en un proceso de decisión, hace uso de la idea aleatoriedad. Mediante un dato aleatorio indeterminado, se podría posteriormente decidir equitativamente entre las varias opciones.

No existe, sin embargo, un método capaz de generar un verdadero número aleatorio mediante la física clásica que funciona a escala mesocópica, y lo máximo que se consiguen son funciones pseudoaleatorias, que basan su eficacia en el ruido o el uso de reglas deterministas complejas, de manera que sea muy difícil en la práctica detectar el determinismo implícito en esos procesos (la teoría dice que siempre será posible determinar o prever la serie de valores que la función pseudoaleatoria devolverá conocido el estado inicial).

Una salida prometedora, parecía ser el uso de la mecánica cuántica. Pero, aunque es cierto que se puede idear un método cuántico para obtener un valor realmente aleatorio; las peculiaridades de las leyes de la mecánica cuántica requieren que un sistema macroscópico mida e interprete ese resultado aleatorio. Sin embargo, el proceso de medir e interpretar, requiere, por su parte de una toma de decisión (¿cuándo y cómo medir?), lo que nos lleva a una regresión infinita que nunca terminaría.

No hay modo de generar un sistema aleatorio indeterminado e incondicionado, y por lo tanto, no hay modo de que se pueda seleccionar de un modo equitativo entre varias alternativas. El resultado, en mayor o menor medida, siempre va a estar determinado por las condiciones y el estado del sistema. Y si el resultado está determinado (aunque sólo sea de un modo parcial o probabilista), no hay libertad real en el proceso de decisión.

No se puede elegir con libertad entre rojo y verde, porque no hay modo de decidir con equidad e indeterminación entre ambas opciones. Por lo tanto, es absurdo suponer que el hombre posee libre albedrío; incluso si pretendemos hacer uso de hipotéticas conexiones de nuestra red neuronal con "circuitos" cuánticos. A parte de que las neurociencias parecen rechazar experimentalmente(por ahora) la hipótesis de que en nuestro cerebro ocurran procesos cuánticos relevantes.

El libre albedrío, no sería más que una ilusión surgida de la complicación (el ruido) y el caos; los cuales causarían funciones pseudoaleatorias increíblemente eficientes en su cometido. Estas funciones pseudoaleatorias, habrían sido seleccionadas evolutivamente, con el fin de otorgar al hombre de un grado de libertad nunca visto hasta nuestra aparición en el acervo génico.

Además de introducir ruido de gran calidad para producir apariencia de libre decisión, la evolución también se habría encargado de acotar las alternativas sobre las que trabajar de un modo manejable, y de un sistema de interpretación eficiente entre el ruido pseudoaleatorio y su relación con la alternativa asociada (para más información sobre el ruido externo ambiental y el ruido interno de actividad neuronal inespecífica, podéis leer este estupendo artículo).

Existen muchos estudios que apoyan todo esto que estamos tratando aquí. Por ejemplo, investigadores del Centro para la Mente y el Cerebro de la Universidad de California, en Davis, lograron predecir las decisiones de los participantes de un experimento, antes de que ellos las tomaran conscientemente mediante la medición del ruido eléctrico neuronal previo. El experimento funciona así: Los voluntarios fueron colocados frente a una pantalla y se les pidió que se concentraran en el centro de la misma. Cuando aparecía en la pantalla siempre el mismo símbolo, los sujetos tenían que tomar la decisión de si mirar a la derecha o a la izquierda, e informar a los investigadores de su decisión. Mientras tanto, los investigadores registraban la actividad de ruido eléctrico cerebral de los participantes. El símbolo aparecía a intervalos aleatorios, así que los participantes no podrían prepararse. La cuestión es que, tal como comentó Jesse Bengson, uno de los autores del estudio: "El estado del cerebro (ruido eléctrico) justo antes de la aparición del símbolo determina si va a mirar a la derecha o a la izquierda". Este estudio ha sido publicado en la revista Journal of Cognitive Neuroscience.


El sistema ideado por la evolución es tan fino, que consigue aumentar o disminuir el grado de libertad concedido a la conciencia según sea el objetivo de la decisión que se vaya a tomar: para decisiones fuertemente relacionadas con las necesidades evolutivas, el grado de libertad es casi nulo, estando la decisión casi determinada con certeza: por ejemplo, cuando nos vemos (casi) imposibilitados para comer excrementos, para mantener relaciones sexuales con un pariente cercano, o para dejar de respirar: otras veces, la decisión es tan carente de sentido evolutivo directo, que se deja al ruido eléctrico actuar libremente, tomando la decisión una ilusoria equidad ideal; como cuando se pregunta a una persona que elija entre el color rojo y el verde, si la elección no tiene efectos positivos o negativos para ella.

En los casos en los que hay un fuerte condicionamiento (como en el caso del incesto), es fácil prever la decisión de la persona, que estará fuertemente sesgada, mientras que cuando la decisión es irrelevante, simplemente habrá que estudiar el estado de ruido cerebral previo a la decisión para poder determinar la decisión pseudoaleatorio del individuo (como en el experimento anteriormente descrito de la Universidad de California). Pero la clave es que, en ningún caso se puede hablar de verdadera libertad; porque, en el primer caso, el condicionamiento evolutivo dicta por completo la decisión del hombre, que por lo tanto no es libre (no hay equidad de acción), y en el segundo caso, las condiciones iniciales del ruido que genera el proceso psuedoaleatorio del cerebro determina igualmente su decisión.

Por lo tanto, tal y como nos planteamos al inicio, aceptar la premisa (1), conduce directamente a que proponer (3) como cierta nos lleve a un absurdo. Recordemos el punto (3):
3. Ante una decisión del tipo A ó B, ambas alternativas serán equiprobables, lo que no hace más que señalar la necesidad de una indeterminación en la elección final del individuo, de modo que podamos hablar de verdadera libertad. Si un individuo es realmente libre de elegir entre A y B, no estará condicionado (ni siquiera parcialmente) a elegir una alternativa sobre la otra, por lo que la probabilidad a priori de que seleccione cualquier opción será en principio del 50% (1/2).
Hemos visto que esta supuesta libertad es absurda, en tanto que no es posible imaginar modo alguno en que conseguir un proceso físico macroscópico totalmente indeterminado. La evolución, por tanto, jamás pudo conseguir tal cosa con nosotros, puesto que parece algo prohibido ya desde un punto de vista teórico. No hay libre albedrío entendido al estilo religioso, y tampoco es posible ese libre albedrío teorizado en una concepción más débil (para salir al paso).

No nos dejemos engañar; no somos en absoluto libres, porque la libertad en nuestro mundo, es imposible.