domingo, 13 de marzo de 2016

Pero, ¿cómo funciona AlphaGo?

"[Las neuronas son] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental." (Ramón y Cajal)

Introducción.

El programa AlphaGo desarrollado por Google DeepMind se ha hecho famoso estos días en los medios de comunicación a partir de su enfrentamiento (y victoria) frente el campeón del mundo y noveno dan, Lee Sedol.

Como digo, todos los medios se han hecho eco de esta proeza (en concreto, conseguir un algoritmo capaz de competir en igualdad de condiciones con un gran maestro de Go), algo que se pensaba que aún tardaría 10 años más en llegar, pero pocos medios no especializados han explicado con cierto detalle cómo funciona realmente AlphaGo. Y esto es precisamente lo que pretendo con esta entrada: explicar técnicamente del modo más sencillo posible qué es lo que han hecho desde Google para conseguir este hito en inteligencia artificial,  y hacerlo además de un modo que pueda ser entendido más o menos por cualquier persona.

Durante toda esta entrada, voy a basarme en el paper que el propio equipo de DeepMind ha publicado en la revista Nature explicando su obra: "Mastering the game of Go with deep neural networks and tree search" (http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html). Pero para que gente no especializada pueda entender este asunto, evidentemente tendré que simplificar en gran parte el contenido de dicho trabajo. No obstante, decir a aquellos lectores con conocimientos más avanzados de computación, que podéis acceder a dicho paper y obtener toda la información técnica completa y detallada en profundidad (si no queréis pagar, aquí tenéis un enlace gratuito al PDF oficial ofrecido por Google Scholar :P).

Precedentes de AlphaGo.

El juego de tablero del Go ha sido desde hace décadas el último gran reto de la inteligencia artificial en cuanto a intentar conseguir un nivel de juego capaz de enfrentarse a grandes maestros humanos. Tal es la complejidad combinacional del juego (¡donde una partida tiene más movimientos posibles que átomos tiene el Universo!), que ni siquiera poniendo miles de ordenadores distribuidos calculando jugadas mediante algoritmos tradicionales de "fuerza bruta" se conseguía nada (algo que sí sirvió, sin embargo, para que el DeepBlue de IBM venciera al gran maestro de ajedrez Gary Kasparov en 1996). Pero como decimos, en el Go esta estrategia digamos "tradicional" de pre-programar algunas reglas de juego e invertir luego cientos de computadores para prever y calcular las mejores jugadas no conseguían ganar ¡ni siquiera a un jugador principiante!

Nuevas técnicas de inteligencia artificial fueron, no obstante, apareciendo en los últimos años, las cuales ya introducían nuevos preceptos y estrategias: siendo de destacar la aparición en el uso de árboles de exploración Monte-Carlo -no entraré en mucho detalle sobre esta técnica denominada MCTS (Monte-Carlo Tree Search), pero tenéis mucha más información en el paper y en internet ;)-. Pues bien, usando estas nuevas técnicas ya se lograron programas comerciales capaces de jugar al nivel de un jugador amateur (con un Elo de sobre 2000), siendo en este sentido de destacar los programas Crazy Stone y Zen.

Comparación del nivel de juego entre AlphaGo, el gran maestro Fan Hui, y otros programas comerciales de Go.

Sin embargo, hasta llegada de AlphaGo en 2015, ningún programa pudo pasar de este nivel amateur de juego, y se pensaba que poder llegar a competir con un gran maestro de Go de dan (p) (con un Elo por encima de 3000), era algo que tardaría en llegar un mínimo de 10 años más...pero finalmente no ha sido así. AlphaGo venció en octubre del 2015 en un torneo al gran maestro humano Fun Hui, de dan 3p (y sobre 2800 de Elo). Y aunque ya eso supuso una revolución y un verdadero logro para la tecnología, ha sido no obstante este año, tras su fenomenal enfrentamiento con el 9p dan Lee Sedol (con un Elo por encima de 3500), cuando se ha confirmado la proeza. Una proeza con un mérito aún mayor dado el método por el que ha conseguido: habiéndose literalmente simulado el modo en que el cerebro humano piensa y aprende, para lograr así generalizar y abstraer lo suficiente la capacidad del algoritmo como para entender y comprender (igual que lo haría una persona), el valor de un movimiento únicamente a partir de la información sensible (visual) del tablero. Veamos ésto con un poco más de detalle.

Redes neuronales artificiales.

Cuando decimos que este logro se ha conseguido simulando cómo funciona el cerebro humano, me estoy refiriendo, por supuesto, a que se han utilizado profusamente redes neuronales artificiales (que no son más que una emulación computacional del modo en que se conforman las redes neuronales biológicas en el hombre -y en el resto de animales- para otorgamos nuestras capacidades cognitivas).

Estas redes se usaron concretamente para dos tareas bien diferenciadas: para seleccionar (y descartar) estrategias de juego que merecen (o no) la pena estudiar más a fondo de entre las cientos de miles de combinaciones disponibles, y para evaluar lo favorable o desfavorable que es un determinado estado del tablero. Para cada una de estas dos tareas se usaron varias subredes neuronales independientes, aunque todas compartían una estructura muy similar; tratándose de redes con una entrada (input) "visual" el cual recibe directamente los pixels del tablero en un instante dado, tras lo cual 14 capas intermedias u ocultas (hidden layers) se encargan de procesar esta información "sensible" recibida, trasladando el resultado de este procesado de información hacia una capa de salida (output). Este resultado será finalmente el utilizado por AlphaGo para discriminar lo acertado o no de una determinada estrategia de juego, y para intentar prever y entender cómo de bien le iría si finalmente se decidiese por una de ellas.

Este ha sido, por tanto; el verdadero acierto del equipo de desarrollo de Google, hacer un uso muy intensivo de redes neuronales complejas para abstraer y generalizar la estrategia de juego; y ha sido además lo que ha permitido en tan sólo dos años, aumentar el Elo del estado del arte en la IA de este juego en más de 1500 puntos: todo un rotundo éxito.

Imitando al hombre.

Sin duda, la clave detrás del poder del programa se encuentra en haberse logrado imitar computacionalmente, y con mucho acierto, el modo en que se supone que la propia mente humana procede a la hora de jugar una partida de Go; y también al imitar el modo en que procede el cerebro humano a la hora de aprender a jugar primero, y a ganar después con el tiempo maestría. Y para que se comprenda este punto con claridad, creo que lo mejor es hacer un breve símil aproximado entre el modo en que se supone que la mente de un maestro humano procede, y el modo en que AlphaGo hace lo propio:

Ilustración de una red neuronal biológica.
A la hora de jugar una partida, un jugador humano primeramente observa mediante la vista (captando los fotones reflejados por el tablero) el estado actual de juego (número de piezas en cada casilla, color de las mismas, etc,); esa información eléctrica sensible se traslada mediante el nervio óptico hacia el sistema nervioso central (SNC), donde la corteza visual primaria V1 (y posteriormente las áreas visuales corticales extra estriadas: V2, V3, V4, y V5), tratan esta información visual originaria, adecuándola y transformándola de modo que sirvan más eficazmente en los sucesivos procesamientos neuronales, los cuales tomarán como entrada esta información visual tratada (y no la original del nervio óptico). No existen aún detalles exactos y completos del modo en que este procesamiento posterior ocurre, pero sí se sabe que el hipotálamo actúa como coordinador (o controlador) de un proceso asociado recurrente e interconectado donde diferentes subredes neuronales biológicas especializadas procesan toda la información de un modo concurrente (fundamentalmente en los lóbulos temporales y parietales). Durante este procesado continuo y asociado de redes especializadas, se supone que el jugador va mentalmente seleccionando y estudiando los movimientos que considera prometedores (utilizando la memoria), y luego previendo el resultado que ese movimiento conllevaría en sucesivas jugadas, descartando así las jugadas menos favorables y profundizando en aquellas que sí se lo parecen. Este bucle mental, en gran parte inconsciente, se repite durante miles de simulaciones mentales imaginarias (descartando por el camino billones de jugadas no valoradas como prometedoras) para finalmente, tras un intervalo variable de tiempo de dicha "exploración mental", procederse a una salida (es decir; a la toma de una decisión final): "colocar la pieza en la casilla x". Esta salida se transmite posteriormente a los nervios motores de las extremidades, los cuales mueven la mano que cogen la ficha (en Go a las fichas las llaman piedras), y la sueltan en la posición x. En realidad, la neurociencia dispone de detalles mucho más concretos (aunque aún incompletos) sobre este proceso, pero para el símil que vamos a realizar, con lo dicho basta.

¿Y cómo lo hace AlphaGo? Pues de un modo asombrosamente similar. La máquina utiliza una técnica de exploración iterativa muy (muy) similar a la que realiza nuestro cerebro. En concreto, utiliza un árbol de exploración MCTS (Monte-Carlo Tree Search) para emular la "exploración mental" imaginaria que hemos visto que hace el cerebro; pero adapta dicha técnica de manera que se proceda de un modo casi idéntico a cómo explora la mente del jugador humano. El proceso completo es aproximadamente el siguiente: primero la máquina recibe los pixels con el estado actual del tablero (de modo similar a cómo la retina y el nervio óptico llevan esta misma información sensible al SNC), posteriormente esta entrada visual y sensible se convoluciona por entre varias capas intermedias de neuronas (de modo similar a cómo actúa la corteza visual en V1,V2,V3,V4 y V5). Es la salida de esta convolución la que se introduce luego en los nodos (neuronas) de entrada de las 4 subredes neuronales artificiales que se usarán en el resto del proceso (de modo parecido a cómo lo hacen ciertas subredes biológicas asociadas).

Ilustración de una red neuronal artificial.
Es decir; que una vez tratada la información visual sensible, se produce un proceso iterativo de simulación muy similar al que tiene lugar en la mente de una persona por entre diferentes subredes neuronales biológicas en los lóbulos temporales y parietales. En concreto, AlphaGo procede a evaluar y seleccionar (gracias a la actuación de dos de las 4 subredes neuronales utilizadas: value network y policy SL network) las jugadas que considera más prometedores (descartando billones de alternativas del mismo modo que hace una persona), y más tarde se dedica a investigar y profundizar en el estudio de estas jugadas percibidas como buenas candidatas gracias a otra de las subredes neuronales encargadas de realizar esta tarea con gran eficacia y precisión (fast rollout policy). Este proceso de exploración ocurre a un ritmo de miles de simulaciones "imaginarias" por segundo (un ritmo del mismo orden de magnitud que el humano), pero hay que recalcar que esta cantidad es irrisoria en comparación con las decenas de millones de "simulaciones" que utilizó, por ejemplo DeepBlue contra Kasparov. Porque es importante hacer de nuevo hincapié en que aquí el poder de la máquina no recae en explotar la potencia de cálculo en un proceso de fuerza bruta de exploración, sino en usar esta potencia en la ejecución de complejas redes neuronales capaces de abstraer, generalizar y seleccionar las mejores jugadas y estrategias de juego de entre billones de alternativas que son descartadas e ignoradas. Esto es precisamente lo que se cree que el hombre hace al jugar, y lo que ha dado al AlphaGo tanta capacidad de juego al imitarle.

Cómo realizaron el entrenamiento de las redes neuronales de AlphaGo.

Pues de una manera muy similar a cómo se supone que nuestras redes neuronales biológicas se adaptan y modulan para realizar con éxito nuevas tareas requeridas por la persona: mediante un proceso continuo y gradual de ensayo y error empírico.

Cualquier persona neuronalmente sana, posee desde que concluye su desarrollo cerebral, todas las capacidades neurológicas necesarias para poder llegar a aprender a jugar Go tras un proceso de aprendizaje el cual llegue a modular y adaptar las sinapsis de ciertas subredes de neuronas en diferentes zonas del cerebro. Es decir; que las subredes que nos permiten jugar al Go ya están ahí desde el principio, y es un proceso de ensayo y error el que va poco a poco adaptando dichas subredes para ir mejorando la calidad de nuestro juego. En pocas palabras: nuestro cerebro aprender a jugar...jugando.

AlphaGo hace lo mismo, pero a la enorme escala que permite el hecho de poderse simular millones de partidas en muy poco tiempo (mientras que una persona no puede jugar más de una centena de ellas por motivos fisiológicos). En concreto, las subredes neurológicas utilizada por la máquina se entrenaron mediante este proceso empírico jugando contra sí misma durante semanas (usando una subred denominada policy RL network). Para entender este proceso de entrenamiento con más detalle, sin embargo, es necesario disponer de ciertos conocimientos previos de computación teórica, por lo que no voy a entrar en más detalles técnicos (aunque está todo muy bien explicado en el paper publicado por Google). Baste con que nos quedemos con la idea de que la máquina aprende literalmente a jugar de un modo casi idéntico a cómo lo hace el hombre (mediante la observación de partidas que son jugadas por otras personas que saben hacerlo mejor que nosotros -policy SL network-, y mediante un proceso continuo de juego y práctica personal por el que vamos limando gradualmente por ensayo y error nuestros fallos de juego -policy RL network-).

Resultados y discusión.

Los resultados han sido maravillosos. Entrenando de este modo, la misma estructura neuronal artificial ha pasado en pocas semanas de no ser capaz de ganar ni siquiera al más penoso jugador humano, a poder vencer primero al gran maestro 2p dan Fan Hui (por 5 a 0), y luego también al campeón mundial Lee Sedol 9p dan. La (durante décadas) tan prometida inteligencia artificial parece que ahora sí está dando por fin sus primeros (y verdaderos) pasos.

Pero las aplicaciones futuras de esta revolución lograda por DeepMind no se reducen a la mera posibilidad de jugar juegos con un nivel sobrehumano; sino que abre las puertas a la aplicación de estos métodos utilizados sobre muchas otras tareas complejas que hasta ahora sólo un humano era capaz de realizar con precisión. Las posibilidades son ilimitadas, y estamos sin duda ante un hito que la historia se encargará de recordar a su debido tiempo.

Opinión personal.

Pues bien, hasta aquí ya hemos dicho lo fundamental sobre cómo funciona AlphaGo y las consecuencia y resultados de su desarrollo, pero no quiero cerrar este artículo, sin embargo; sin hacer antes un par de anotaciones muy personales y subjetivas mías, que cada cual tendrá que valorar, pero que creo sinceramente que ganan fuerza tras este experimento de Google:

Primero y fundamental, creo que este experimento demuestra que nuestra mente no es ni conforma ningún fenómeno especial o diferenciado en su esencia natural. En otras palabras: creo que este desarrollo aporta mucha más fuerza a la idea que rechaza cualquier tipo de dualismo en la capacidad cognitiva del hombre. El materialismo más reduccionista creo que saca partido ante estos hechos, y que ya poco lugar a dudas queda de que nuestra mente entera, junto a sus capacidades cognitivas, es simplemente el resultado de complejos (y masivos) cálculos ocurridos por entre las neuronas de nuestro cerebro gracias a medios eléctricos...y poco más. Ni alma, ni espíritu, ni siquiera postulados estrambóticos como la supuesta intervención cuántica propuesta por Roger Penrose parecen ya necesarios ni creíbles: únicamente la física y la química a nivel mesoscópico, junto con la dirección de movimiento impuesta por la termodinámica, parecen bastar y sobrar para dar cuenta del origen y desarrollo de nuestra conciencia y capacidades mentales. Y eso sería todo.

Por otra parte, también creo que este desarrollo supone una clara muestra del modo en que nuestras propias capacidades cognitivas pueden ser (y serán) fácilmente sobrepasadas en cualquier ámbito o tarea que nos propongamos (sin importar ya su complejidad): simplemente habremos de usar redes neuronales artificiales con la estructura adecuada para cada tarea dada, y posteriormente proceder a modular sus pesos (el equivalente a adaptar la fuerza de las sinapsis biológicas) de un modo gradual pero masivo y a gran escala (parecido a como han hecho con AlphaGo). Además, no es siquiera necesario que una persona se dedique a investigar qué estructura neuronal artificial es la adecuada para cada tarea, porque dentro de poco estoy seguro que otra rama de la computación llamada computación evolutiva se unirá con éxito a estos avances, y harán posible que incluso la estructura neuronal necesaria se seleccione de manera autónoma con esta técnica (de un modo similar a como la evolución biológica hizo lo mismo en el reino animal).

Y es que yo estoy firmemente convencido de que el uso conjunto del tipo de técnicas de aprendizaje utilizadas en AlphaGo, junto con el uso concurrente de técnicas de computación evolutiva, llevarán durante las próximas tres o cuatro (o cinco :P) décadas a la aparición final de una verdadera conciencia artificial indiferenciable de la humana: esa máquina pensará, sentirá, aprenderá, se emocionará, y actuará en cualquier ámbito como nosotros...e incluso lo hará mejor.

Es más: yo creo que ya hoy día, si un gran país del estilo de EEUU se propusiese esta meta, dedicando gran parte del esfuerzo del país en esta dirección de modo similar a cómo se hizo en el proyecto Manhattan (dando lugar a la bomba atómica), o en el programa Apolo (que llevó el hombre a la luna), igualmente creo que en no más de 10 años se podría conseguir sin duda esta conciencia artificial que os digo. De hecho, tengo "confianza" en que una posible guerra fría renovada gracias al choque entre el futurible presidente americano Donald Trump y el actual presidente ruso Vladímir Putin, lleven a que al menos uno de los dos bandos (posiblemente USA), dedique grandes esfuerzos en esta dirección guiado por intereses militares; lo cual acelere así el asunto. Evidentemente hay que tener en cuenta las posibles consecuencias secundarias de este choque entre países, pero bueno, siempre hay que intentar ver el lado positivo de las cosas (xDD). Y lo positivo sería sin duda la aparición de esta hipotética conciencia artificial 40 ó 50 años antes de lo que ocurrirá con el actual nivel de financiación en estos campos de estudio ;).

Para concluir, y aunque sé que puede parecer una afirmación exagerada, en mi opinión, este logro conseguido por Google DeepMind supone una nueva y definitiva herida a la narcisista humanidad y su gran ego:

Históricamente, la primera herida la propició Nicolás Copérnico al demostrar que la Tierra no es el centro del universo. Una segunda fue obra de Charles Darwin, al demostrar que el hombre es simplmente un animal más. La tercera fue iniciada sin duda por Sigmund Freud, al proclamar que ni siquiera somos dueños de nosotros mismos (con el descubrimiento del inconsciente), herida que fue desarrollada y ampliada más tarde por la moderna neurociencia. Finalmente, creo que se acaba de producir una nueva herida desde el terreno de la inteligencia artificial al demostrarse que cualquiera de nuestras capacidades cognitivas superiores (conscientes, inconscientes, sencillas o complejas) no es sólo que sean reproducibles, sino que incluso son mejorables. El materialismo gana la batalla, y se demuestra que el tan alabado fenómeno mental humano no es especial en ningún sentido: se constata que finalmente es sólo cuestión de poner las partículas necesarias en el lugar adecuado, y dejar que la termodinámica guíe el movimiento.

Y con esto termino :). Espero que os haya interesado el artículo.

¡Un saludo!

Principales referencias utilizadas.

"Mastering the game of Go with deep neural networks and tree search" (http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html) (Google DeepMind) (2015).
https://deepmind.com/publications.html (publicaciones del equipo de desarrollo Google DeepMind).


69 comentarios:

MaGaO dijo...

Muy interesante. Alguien, en otro lugar (y sin relación con este asunto de Alpha Go) argumentó que no era posible lograr una IA real porque estaba limitada por el "problema de parada" de Turing. ¿Qué opinas al respecto?

Pitiklinov dijo...

He leído que en la cuarta partida, que ha perdido AlphaGo, éste se dio cuenta de que había cometido un error y que luego intentó arreglarlo. ¿Cómo es ese "darse cuenta"?

Samu dijo...

Pues le diría a esa persona, que si realmente el "problema de la parada" fuese condición suficiente como para que una inteligencia como la nuestra no pudiese replicarse por medio material en el mundo, pues que entonces la propia evolución biológica tampoco habría podido haber encontrado el modo de que apareciese en un primer momento; con lo que nosotros no podríamos estar aquí debatiendo el asunto. Por lo tanto, y dado que sí estamos aquí debatiendo, por reducción al absurdo esa afirmación no puede ser verdadera.

Un saludo, Marcos. Gracias por comentar.

Samu dijo...

Pues ese "darse cuenta", es en esencia el mismo que tú o yo percibimos o sentimos muchas veces en nuestras vidas cuando de repente salta a nuestra conciencia una idea que dice: "ops!, la hemos liado cuando decidimos hacer tal cosa". Es decir; que posiblemente se trate simplemente del equivalente que ocurre en las redes neuronales de nuestro cerebro cuando (probablemente el hipotálamo) activa cierta subred que se encarga más tarde de alertar a nuestra conciencia para hacernos notar que durante los cálculos acaba de descubrir un error de actuación previo por nuestra parte.

La única diferencia (actualmente), es que AlphaGo se "dio cuenta" de su error, pero no tenía (ni necesitaba tampoco) una conciencia a la que alertar de ello; por lo que simplemente intentó enmendar él mismo el asunto con sus sucesivos actos. De haber sido Lee Sidol el que se "diese cuenta" del error, habría actuado igualmente intentando arreglar el estropicio, pero además, habría llevado esa información a su conciencia (y a su memoria).

Pero realmente, y en esencia, no hay diferencia real entre el "darse cuenta" en ambos casos.

Un saludo y muchas gracias por comentar, Pitiklinov.

Tay dijo...

Fantastico artículo, me ha encantado de primcipio a fin. Mi conocimiento es escaso, pero cuando leí "Escher, Godel y Bach" (uno de los libros que más he disfrutado) no quedé del todo convencido acerca del dilema de la computabilidad y la mente. Siempre he creído que la forma en la que nosotros nos enfrentamos a la comprensión de problemas no computables es haciendo "trampa". Algo parecido a un mecanismo de resorte que nos ataja el problema. ¿Crees que las redes neuronales artificiales de este tipo salvarían ese problema?

Kuznacit dijo...

No estoy para estar discutiendo mucho pero veo que tendré que entrar al ruedo yo también.

En primer lugar no he leído todo tu artículo. Estoy corto de tiempo. Solo me llama la atención algo que dijiste en el Foro del Crash Oil eso de que ese juego se trata de la "la prometida IA" y la forma en como has respondido al comentario del Marcos Garcia Ochoa. En mi opinión lo que hace teoricamente imposible crear una IA equiparable o semejante a la humana son los problemas de incompletitud de Godel. Lo que dicen los problemas de incompletitud de Godel es que no es posible demostrar la consistencia de la aritmética ni tampoco su completitud (no están enunciados exactamente así pero básicamente es lo que dicen). Es decir que a pesar de que el Cerebro humano ha sido capaz de elaborar, construir y "ver" el mundo abstracto de la aritmética, no es posible hacer un algoritmo que haga lo mismo. Dado que si fuese posible elaborar semejante algoritmo ¡ENTONCES HABRIAS DEMOSTRADO LA COMPLETITUD Y CONSISTENCIA DE LA ARITMETICA!. Seria una demostración por construcción, estarías demostrando que Godel se equivoco y que por tanto su supuesta demostración no es sino una paradoja. Luego habría que ver a tu IA arrasando con las medallas Fields.

Al menos hacer una IA algoritmica es imposible, si es posible hacer una IA esta tendría que ser no algoritmica, esa seria la conclusión lógica de los teoremas de Godel. Es lo que argumenta también Penrose en su libro "La Nueva Mente del Emperador".

Pienso que es muy ingenuoso entusiasmarse con anuncios como esos y creer que con ellos estamos a un paso de la soñada IA, sin tomar en cuenta la poderosa demostración de Godel.

No soy matemático y he visto a gente argumentando que los teoremas de Godel, aun tomandolos como ciertos (hay incluso quienes creen que son falsos), no imposibilitan una IA algoritmica semejante a la humana, pero aun sin conocer la demostración de Godel a fondo y simplemente tomando los teoremas de forma literal es evidente que eso no deberia ser posible !!!.

y soy de los que quisiera que Godel se hubiese equivocado. ...

Samu dijo...

Amigo, Kuznacti lksa. Te digo lo mismo que a Marcos: si la teoría de Godel fuese suficiente para imposibilitar el surgimiento de una inteligencia, la evolución tampoco lo habría logrado en nosotros. Pero como de hecho sí lo ha logrado (de un modo gradual y exclusivamente material), la consecuencia lógica es que en teoría nosotros también podremos.

Un saludo.

Samu dijo...

Muchas gracias por tus palabras, amigo. Me alegro que te haya gustado :).

Juan dijo...

Nosotros los humanos tampoco somos capaces de resolver “el problema de la parada” de Turing (en el caso general para todo programa de cómputo) de modo que no hay razón para suponer que un ser necesariamente debe de ser capás de resolver este problema para poder considerarse como inteligente. (Si es que nos consideramos a nosotros mismos como seres inteligentes.)

Juan dijo...

En cada momento AlphaGo estima cuál es la probabilidad que cree que tiene de ganar el juego (en efecto, similar a como lo haría un humano profesional). Durante buena parte del transcurso del cuarto juego AlphaGo creía que tenía una muy buena probabilidad de ganar (es decir la función que evalúa esa probabilidad daba como resultado un valor alto); en cierto momento—luego de una jugada de Lee Sedol—al volver a evaluar la probabilidad que tenía de ganar AplhaGo obtuvo un valor mucho más bajo. Así es como el algoritmo "se dió cuenta" que por buena parte del juego había estado sobre-estimando sus probabilidades (de manera equivalente, en un humano diríamos que "se estaba confiando" pues creía que tenía más ventaja de la que en verdad llevaba).

Como bien dice Samu, sin embargo, no hubo ninguna consciencia que dijera de pronto "oops!".

Anónimo dijo...

Samu,

·"si la teoría de Godel fuese suficiente para imposibilitar el surgimiento de una inteligencia, la evolución tampoco lo habría logrado en nosotros. Pero como de hecho sí lo ha logrado (de un modo gradual y exclusivamente material), la consecuencia lógica es que en teoría nosotros también podremos."

Penrose se apoya en los teoremas de incompletitud de Gödel, y desde ahí critica a quienes piensan que los sistemas que funcionan mediante pocesos computacionales puedan llegar a ser conscientes al modo como lo son los hombres. El elemento central de su crítica consistirá en la afirmación de que en la consciencia humana se tiene que dar algún proceso no algorítmico. Pero ello no significa que niegue el substrato físico y evolutivo, más bien trata de argumentar que la mente no es computacional, y que lo que la evolución ha “conseguido” con los cerebros para que consiga “emereger” la conciencia no pueden ser procesos computacionales.
Creo oportuno recalcar aquí, que es bastante dudoso que la inteligencia artificial consista sólo en meros proceso algoritmicos y computacionales (que también, obviamente), y por eso es dudoso que se le pueda aplicar la argumentación de Penrose, que a mí particularmente me parece convincente (solo para lo algoritmico, quede claro, pero no para lo biológico y evolutivo, que el mismo tampoco niega ).
Nota: no confundir esta argumentación con su “teoria cuantica” acerca de la conciencia, que es otra cuestión desde mi punto de vista mucho más criticable, rayando la postulación metafísica.

Un saludo.

Juan dijo...

Voy a insistir de nuevo. Los teoremas de incompletitud de Gödel no dicen nada sobre la posible, o no, inteligencia de un ser.

Procesos computacionales no son capaces de demostrar que la teoría de la aritmética sea completa, pero los seres humanos tampoco son capaces de hacer esa demostración. Nadie puede hacer esa demostración, ese es justo el punto del teorema. El teorema no tiene nada que ver con la “inteligencia” de los seres que tratan de hacer la demostración, y todo que ver con el sistema lógico formal en cuestión: la aritmética (i.e. axiomas de Peano).

Para mostrar que la inteligencia humana es “algo más” que un proceso computacional, lo que habría que hacer es encontrar cierta clase de problema, o cierta clase de proceso, que los humanos podemos resolver/hacer con relativa facilidad, pero que un sistema computacional sea fundamentalmente incapaz de hacerlo. Y la verdad es que, en principio, cada vez hay menos razón para suponer que exista alguno. AlphaGo ha demostrado, particularmente, que “intuición” y “creatividad” son dos cualidades que bien se pueden implementar de manera computacional.

A parte: recuerdo también mis tiempos en que leí con bastante emoción “La Nueva Mente del Emperador”, es un buen libro, y por algún tiempo también me parecieron bastante convincentes las argumentaciones de Penrose sobre la conciencia. Pero luego me fui dando cuenta, leyendo y explorando otras ideas, que cuando Penrose deja el área en la que él es experto (la física) en realidad no tiene mucha idea de lo que está hablando. Te recomiendo leer “La evolución de la libertad“ (Freedom evolves) de Daniel Dennett, a mi me abrió muchísimo la mente.

Samu dijo...

Exactamente, Juan. El gran hito de AlphaGo, no es de hecho el que hayamos podido hacer una máquina capaz de vencer al hombre jugando a un juego cualquiera, sino que ha logrado vencer en un juego de tal explosión combinacional que sólo puede ser jugado con éxito (ya sea por personas o por máquinas) si se utiliza con acierto lo que tradicionalmente denominamos: intuición y creatividad (no hay otro modo imaginable). Por lo tanto, vale la pena insistir en que ese es el logro verdadero del equipo de Google: haber logrado desarrollar la primera máquina realmente creativa. Y eso supone que esta capacidad cognitiva no es un fenómeno especial de nuestra mente, sino que puede ser replicado (y precisamente al simular nuestro funcionamiento cerebral a nivel mesoscópico, lo que deja sin fundamento las dudosas -y sin evidencias empíricas- propuestas cuánticas de Penrose).

Un saludo y gracias por comentar.

Masgüel dijo...

"anotaciones muy personales y subjetivas mías, que cada cual tendrá que valorar"
No es obligatorio, pero ya que invitas...

"creo que este experimento demuestra que nuestra mente no es ni conforma ningún fenómeno especial o diferenciado en su esencia natural."

¿Esencia, sustancia?. Si nos quedamos con el fenómeno, yo diría que la mente es un fenómeno biológico especializado y diferenciado de la digestión o la fotosíntesis.

"creo que este desarrollo aporta mucha más fuerza a la idea que rechaza cualquier tipo de dualismo en la capacidad cognitiva del hombre."

¿Dualismo de sustancias, de propiedades?. "Cualquier tipo".

"El materialismo más reduccionista creo que saca partido ante estos hechos"

¿De qué manera?. Sigo sin ver reducida la actividad de una red neuronal a la de sus partes, no digamos el juego mismo. El Go no es material. Incluso admitiendo las fichas, el tablero o las neuronas de los jugadores como partes "materiales", ni las reglas del juego, ni su propósito lo son. Las reglas del juego no son sobrenaturales, pero tampoco son materiales.

"y que ya poco lugar a dudas queda de que nuestra mente entera, junto a sus capacidades cognitivas, es simplemente el resultado de complejos (y masivos) cálculos ocurridos por entre las neuronas de nuestro cerebro gracias a medios eléctricos...y poco más."

Pues si es el resultado y no lo mismo, ese poco más es todo lo que hace falta. Asunto distinto es admitir que lo que hacen las neuronas sean cálculos (salvo en el caso concreto de un organismo humano haciendo un cálculo consciente). Lo que hacen las calculoras electrónicas tampoco es calcular. Es un ser humano quien diseña las puertas lógicas de un circuito y solo un ser humano puede interpretar sus salidas como el resultado de un cálculo.

"Ni alma, ni espíritu, ni siquiera postulados estrambóticos como la supuesta intervención cuántica propuesta por Roger Penrose parecen ya necesarios ni creíbles"

Totalmente de acuerdo.

"únicamente la física y la química a nivel mesoscópico, junto con la dirección de movimiento impuesta por la termodinámica, parecen bastar y sobrar para dar cuenta del origen y desarrollo de nuestra conciencia y capacidades mentales. Y eso sería todo."

Totalmente en desacuerdo, porque eso que llamas la física y la química a nivel mesocósmico, es la geología, la biología, la sociología, la psicología, etc. Cada una es un caso particular de la anterior, pero eso no significa que sean reducibles.

"Además, no es siquiera necesario que una persona se dedique a investigar qué estructura neuronal artificial es la adecuada para cada tarea, porque dentro de poco estoy seguro que otra rama de la computación llamada computación evolutiva se unirá con éxito a estos avances, y harán posible que incluso la estructura neuronal necesaria se seleccione de manera autónoma con esta técnica (de un modo similar a como la evolución biológica hizo lo mismo en el reino animal)."

En eso estoy de acuerdo. Pero lo interpreto de forma diametralmente opuesta a tu reduccionismo. La computación evolutiva dará lugar a la emergencia de nuevas propiedades en redes neuronales artificiales.

sigo

Masgüel dijo...

"Y es que yo estoy firmemente convencido de que el uso conjunto del tipo de técnicas de aprendizaje utilizadas en AlphaGo, junto con el uso concurrente de técnicas de computación evolutiva, llevarán durante las próximas tres o cuatro (o cinco :P) décadas a la aparición final de una verdadera conciencia artificial indiferenciable de la humana: esa máquina pensará, sentirá, aprenderá, se emocionará, y actuará en cualquier ámbito como nosotros...e incluso lo hará mejor."

Cuando comprendamos cómo hacen los sistemas nerviosos para ser conscientes, quizá podamos construir un sistema nervioso artificial que también lo sea. De momento, no hay demasiadas pistas.

"Google DeepMind supone una nueva y definitiva herida a la narcisista humanidad y su gran ego"

Vuelvo a discrepar. Que yo sepa, en Google trabajan seres humanos.

"al demostrarse que cualquiera de nuestras capacidades cognitivas superiores (conscientes, inconscientes, sencillas o complejas) no es sólo que sean reproducibles, sino que incluso son mejorables."

Eso es lo que está por demostrar, aunque no veo el impedimento teórico para hacerlo.

"El materialismo gana la batalla, y se demuestra que el tan alabado fenómeno mental humano no es especial en ningún sentido: se constata que finalmente es sólo cuestión de poner las partículas necesarias en el lugar adecuado, y dejar que la termodinámica guíe el movimiento."

Pero hombre, para ganar la batalla primero hay que lucharla.

"La única diferencia (actualmente), es que AlphaGo se "dio cuenta" de su error, pero no tenía (ni necesitaba tampoco) una conciencia a la que alertar de ello"

Pues (actualmente) cualquier uso que se haga de términos que implican consciencia o intencionalidad aplicados a una computadora suponen una metáfora desafortunada. Y lo es porque lo que podría ser una manera informal pero relativamente útil de hablar de las computadoras, se ha convertido en un modelo computacional del propio cerebro. Como modelo se queda muy corto, pero tampoco sería un problema si no se olvidara precisamente eso, que es un modelo.

Anónimo dijo...

Masgüel,

· "Vuelvo a discrepar. Que yo sepa, en Google trabajan seres humanos."

Es que la inteligencia artificial es humana. Pareciera que aquello que elabora artificsmente el hombre fuera no humano y tal vez sea lo contrario, es muy humana. Los logros de la inteligencia artifical son logros que realzan lo humano.

Como suele ser habitual suelo coincidir con sus apreciaciones casi al 100%, y las expresa mucho mejor que yo. Debería hacerse Jesuita. ;-)

Saludos.

Samu dijo...

Saludos, Masgüel. Me alegra leerte por aquí.

Veo que tu discrepancia fundamental (como suele ser habitual :P), la achacas al reduccionismo digamos "radical". Y por eso me gustaría hacerte una pregunta, sin ninguna acritud, a ver si me entero de una vez de qué va eso del "emergentismo". En concreto la pregunta es:

Si afirmas (como creo) que no es acertado postular una explicación para fenómenos, digamos de alto nivel de complejidad, en función exclusiva de la mera reducción material de sus partes constituyentes (y sus movimientos dinámicos intrínsecos); y proponiendo, por lo tanto, que es necesario un "algo más": ¿Me puedes, por favor; explicar aunque sea de un modo aproximado o informal qué es (o qué podría ser) exactamente ese "algo más" que siempre requieres? ¿Y podrías decirme además, por qué no vemos nunca ese "algo más" por ninguna parte?

Gracias por comentar.

Un saludo.

Anónimo dijo...

Procesos computacionales no son capaces de demostrar que la teoría de la aritmética sea completa, pero los seres humanos tampoco son capaces de hacer esa demostración.

Coño !!!. Eso precisamente es lo que establecen los teoremas de Godel, a saber, que cualquier conjunto de axiomas que contengan la aritmética es imposible que a la vez sea consistente y completo. Dicho de otro modo, si los axiomas no se contradicen entre sí, habrá enunciados que no pueden demostrarse como verdaderos ni falsos. Su verdad o falsedad pareciera ser más que lo que los axiomas puedan aportar, como si su verdad o falsedad "transcendiera" a los axiomas a pesar de expresarse desde ellos.

un saludo.

Anónimo dijo...

Samu,

¿Me puedes, por favor; explicar aunque sea de un modo aproximado o informal qué es (o qué podría ser) exactamente ese "algo más" que siempre requieres? ¿Y podrías decirme además, por qué no vemos nunca ese "algo más" por ninguna parte?

Contesto yo, si no es mucho entrometerme.

NO es “algo más” es más bien contastación de insuficiencia. Como la teoria atómica de Dalton muestra insuficiencia a la hora de explicar muchos aspectos propios de los átomos. Yo no soy reduccionista por la misma razón que no todos los aspectos atómicos conocidos se reducen a la teoria atomica de Dalton.

¿Por qué no se ven?. Pues porque la realidad puede ser más que lo que vemos y desarrollamos provisionalmente como posible desde nuestras más avanzadas teorias cientificas. NO sabemos todo, ni mucho menos, y hay que ser humildes y no reducir todo a lo que creemos saber cuando lo que creemos saber no es suficiente. Desde la teoria atómica de Dalton no se ve que haya nada cuantico en ellos. Los atomos de plata ionizados que se comportan bajo un campo magnetico como si tuvierann lo que hoy entendemos como tener spin, por ejemplo, está más allá del “reduccionismo daltoniano”. Todo eso NO SE VE desde la teoria de Dalton.

Pues bien yo digo, que tampoco se ve nada de eso que establecemos como tener conciencia desde las teorias propias de la inteligencia artifical y termodinamica, y es lógico que no se vea, si precisamente esas teorias son insuficientes ...¿no?.

Un saludo

Samu dijo...

Sí, ya: negacionismo puro y duro (xDD). Espero que Masgüel sí sea capaz de darme aunque sólo sea una pista de qué podría rellenar esa supuesta insuficiencia reduccionista ;).

Un saludo.

Masgüel dijo...

Resumiendo mucho, que me tengo que ir. Si quieres seguimos luego.

El emergentismo supone admitir la organización de nuevas formas naturales como factor causal. Las nuevas formas no son lógicamente derivables de las propiedades de cualquier sistema natural previo. Resultan de la manera contingente en que se relacionan. Por eso no hay un algoritmo para la novedad evolutiva en la naturaleza y hace falta intruducir un elemento pseudoaleatorio en los algoritmos informáticos que la simulan. Sin azar, sin ruido, no hay evolución.

Anónimo dijo...

Pues yo no niego, solo digo lo que sí veo y que AFIRMO, que el materialismo es insuficiente. Usted sí que NIEGA esa insuficiencia, pero NEGANDO la palpable insuficiencia (actual). Yo no sé si el materialismo es suficiente para explicar todo eso que usted dice afirmar que ya explica, AFIRMO, que actualmente no explica todo eso que usted dice qi Sí explica. Si usted lo dice... en fin.

Un saludo.


un saludo.

Samu dijo...

Dices: "la organización de nuevas formas naturales como factor causal", y "Las nuevas formas no son lógicamente derivables de las propiedades de cualquier sistema natural previo".

Muy bien pero entonces, ¿qué son realmente esas "nuevas formas" causales de las que hablas? ¿de dónde surgen? ¿cómo se forman y se mantienen en la realidad? ¿qué sustenta esa nueva forma causal que dices da soporte al fenómeno complejo? En realidad no explicas nada sino que simplemente argumentas que eso que llamas "nueva forma causal" es el soporte irreductible del fenómeno complejo (evidentemente para poder negar el reduccionismo)...¡pero insisto en que aún no me dices nada acerca de ella! No me has respondido a la pregunta que te hice, sino que sólo has repetido con otras palabras lo que yo ya di por supuesto que afirmabas de partida.

Un saludo. Seguimos cuando quieras (puedas y te apetezca) :).

Samu dijo...

Usted niega la suficiencia del reduccionismo, pero no sabe explicar por qué ni cómo rellenar el hueco que la hace insuficiente según su opinión. Es decir; que se limita a negar :P.

Masgüel dijo...

"¿qué son realmente esas "nuevas formas" causales de las que hablas?"

Con formas no me refiero solo a estructuras sobre las que podamos poner el dedo. También hay nuevas funciones, nuevas conductas, etc. Lo único que tienen en común las propiedades emergentes es su emergencia (ser el resultado de accidentes históricos y no de un algoritmo determinista inscrito en las condiciones iniciales del universo). Pero cada propiedad es de su padre y de su madre. La propiedad emergente de la exaptación que supuso la vegiga natatoria es la flotabilidad del pez. No tiene nada en común con ninguna otra propiedad. Esto tiene consecuencias ontológicas porque lo que diferencia a un ser de otro son sus propiedades. Si el conjunto de los átomos, tejidos, órganos y relaciones sociales de mi cuerpo, organizados así, tienen alguna propiedad que no tienen por separado, por ejemplo, hablar, un sujeto parlante y su conducta es una entidad a considerar ontológicamente, y no como un mero resumen o agregado de las entidades que lo componen a un nivel inferior de organización.

"¿de dónde surgen?"

Del azar y el tiempo.

"¿cómo se forman y se mantienen en la realidad?"

Se formas cada una a su manera y se mantienen en la realidad cada una a su manera. Al conjunto de esas maneras lo solemos llamar selección natural.

"¿qué sustenta esa nueva forma causal que dices da soporte al fenómeno complejo?"

La forma natural es el fenómeno complejo. No hay un mundo de formas platónicas.

"En realidad no explicas nada sino que simplemente argumentas que eso que llamas "nueva forma causal" es el soporte irreductible del fenómeno complejo"

Yo no he dicho tal cosa. Digo que son lo mismo.

"(evidentemente para poder negar el reduccionismo)"

Quien afirma que las nuevas formas naturales son lógicamente derivables de las propiedades de sus partes es quien debe aportar el peso de la prueba.
https://scientiasalon.wordpress.com/2015/01/14/reductionism-emergence-and-burden-of-proof-part-i/
https://scientiasalon.wordpress.com/2015/01/16/reductionism-emergence-and-burden-of-proof-part-ii/

"No me has respondido a la pregunta que te hice"

La pregunta era

"explicar aunque sea de un modo aproximado o informal qué es (o qué podría ser) exactamente ese "algo más" que siempre requieres?"

Y te he respondido que lo que hay de más es la nueva manera de organizarse. Eso es lo que tú te niegas a considerar.

"sino que sólo has repetido con otras palabras lo que yo ya di por supuesto que afirmabas de partida."

No he repetido nada, ni la respuesta de Enric es "puro negacionismo". Esa manera de rebajar nuestras respuestas, como si no hubiesemos dicho lo que hemos dicho y no lo que tú quieres leer, es zarjar las discusiones en falso.

"¿Y podrías decirme además, por qué no vemos nunca ese "algo más" por ninguna parte?"

Pues acude al oculista, porque lo que yo veo por doquier son formas de organización. Desde las órbitas del electrón en un gráfico, hasta la conducta de mi gato.

Masgüel dijo...

Vegiga :)

Masgüel dijo...

Por cierto, cuando usas el trabajo de Jeremy Englan para justificar el reduccionismo, lo haces en contra del propio autor que, de forma expresa, lo defiende como el correlato termodinámico de la emergencia de sistemas complejos.

Anónimo dijo...

Masgüel,

· "La forma natural es el fenómeno complejo. No hay un mundo de formas platónicas."

Es que creo que lo que suele no entenderse es que los procesos X (emergentes) no tienen otros procesos Y como partes de las que emergen. La distinción jerarquica entre partes y todo no es muy adecuada para entender la emergencia. Dicho de otro modo, no hay entidades materiales que no sean también procesos, y las "formas naturales" son procesos complejos ya, desde la más pequeña particula hasta la más grande galaxia o pensamiento hunmano. NO hay procesos que dependan de "procesos platonicos, eternos". No hay "entidades platonicas" que generan procesos emergentes,lo que hay son procesos y organización procesual con poder causal sobre otros procesos y organizaciones procesuales, actividad causal ocasionada por la mimsa actividad procesual, dinamica, historica y por tanto contigente y temporal, sin nada de "paltónico".

un saludo.

Samu,

· "Usted niega la suficiencia del reduccionismo, pero no sabe explicar por qué ni cómo rellenar el hueco que la hace insuficiente según su opinión. Es decir; que se limita a negar :P."

???. Exactamente eso es lo que digo, que no sé llenar el hueco, y además que usted tampoco lo llena. Si eso es ser negacinista, entonces lo soy. Pero "té nassos" que decir que lo que usted afirma es isuficiente, es equivalente a ser negacionista. Por no poder afirmarlo de otro modo, se me acusa de negar lo inadecuado.
Yo digo que el asesino no parece claro, más bien parece poco justificado creerlo tal, ser X, tal como su teoria dice insuficientemente que es. Pero, está en locierto, no sé quien es el asesino... ¡ ya me gustaría ser tan buen detective como usted!. Lo que o sí sé, es que USTED NO LO SABE TAMPOCO, AUNQUE LO DECLARE PRESUNTUOSAMENTE!.

Yo como ya dije señalo la casilla: no sé no contesto;( eso sí me encanta especular y hacer metafísica, como modo de saber porque no lo sé).

un saludo.

Samu dijo...

"Y te he respondido que lo que hay de más es la nueva manera de organizarse. Eso es lo que tú te niegas a considerar."

A ver si te entiendo bien, Masgüel: Según tú, ¿es o no es cierto que una nueva forma de organizarse en el mundo requiere únicamente de materia(energía), espacio, tiempo, y leyes ontológicas que dicten como debe proceder el movimiento de esta materia (energía) en el espacio-tiempo? ¿Hace falta, por lo tanto en tu opinión, algo más a parte de esto que te digo para que una nueva forma de organizarse aparezca en el Universo? Y en caso de que respondas afirmativamente: ¿qué más crees que hace falta? (Dime con detalle qué más, porque de veras que es este punto el que nunca entiendo de tus argumentos. Igual estamos de acuerdo y debatimos a lo tonto).

Un saludo.

Masgüel dijo...

"Es o no cierto que una nueva forma de organizarse en el mundo requiere de materia(energía), espacio, tiempo, y leyes ontológicas que dicten como debe proceder el movimiento."

Las leyes físicas no son más ontológicas que las biológicas. Solo son regularidades previas. Aparte de eso, es cierto que una forma de organizarse en el mundo requiere de energía, espacio, tiempo y regularidades previas, pero no se limita a eso. Si es nueva, significa que su organización no estaba determinada por lo anterior. Condicionado no es lo mismo que determinado. La propiedad de un trípode para sostener peso no es derivable de las propiedades de los palos. Hace falta tomar tres y colocarlos de una manera muy concreta para que adquieran esa propiedad.

"¿Hace falta pues algo más para que esa nueva forma de organizarse aparezca? En tal caso: ¿qué más?"

Lo que hace falta es azar y tiempo. Me temo que tendré que repetir respuestas si me sigues haciendo la misma pregunta como si no la hubiese contestado.

Emergencia es evolución en un universo no determinista. No es tan difícil de entender. Pero no haga como que no entiendes porque no te guste la idea.

Masgüel dijo...

¿Un jesuíta ateo?. Hay precedentes, pero me pasaría de heterodoxo.

Samu dijo...

¿Azar? y tiempo. Su postura es muy extraña, amigo.

La evolución de los fenómenos complejos (en vertiente física o biológica) es cualquier cosa menos azar: es selección de un determinado tipo de movimiento material (de partículas) sobre otro, en un determinado lugar y momento. Un huracán, por ejemplo; una nueva forma de organización que aparece (o emerge) en cierto momento, se sabe debe su aparición al cambio ocurrido en el movimiento de gran cantidad de materia gaseosa obedeciendo a la termodinámica (ley ontológica) que "selecciona" este tipo de movimiento en ese instante determinado, porque es esa forma la que mejor (más eficientemente) logra aumentar la entropía global (disminuir el gradiente energético disponible). Pero no se trata de azar y tiempo. En absoluto. De no ser por las leyes termodinámicas, podríamos esperar trillones de años sin que el huracán se formase por azar.

Y lo mismo aplica para el resto de fenómenos complejos del Universo (evolución biológica incluida). De veras que no me hago el tonto, es que no le entiendo (¿por qué otro motivo que la termodinámica actuando sobre la materia aparece un huracán aquí en la Tierra, por ejemplo?).

Un saludo.

Masgüel dijo...

No te haces el tonto. Das por supuesto un determinismo laplaciano trasnochado. Para negar el azar vas tener que lidiar con más de un siglo de física. Pese al tópico, nisiquiera la física clásica es determinista (http://mappingignorance.org/2016/02/08/classical-indeterminism-or-laplaces-demons-nightmare/). Tendrás que explicarme tú que entiendes por ley ontológica, pero hoy se discute incluso si las leyes físicas son accidentes históricos (Robert Laughlin y Lee Smolin).

Samu dijo...

No, no, no; yo no hablo de un determinismo físico, sino de un determinismo reduccionista. La física ya sé que no es determinista, pero sí los fenómenos complejos que de ella surgen. Le repito la pregunta: "¿por qué otro motivo que la termodinámica actuando sobre la materia aparece un huracán aquí en la Tierra?"

Un saludo.

Masgüel dijo...

"La física ya sé que no es determinista, pero sí los fenómenos complejos que de ella surgen."

Eso es lo que niego. Si la física no es determinista, de los fenómenos complejos que de ella surgen no hay más que estadística. Estimar la probabilidad para una población de partículas sigue sin determinar el movimiento de cada una. Es más, la mejor manera de imaginarse una ley natural es en la forma de un atractor caótico. Todos los fenómenos naturales son irregulares.

"¿por qué otro motivo que la termodinámica actuando sobre la materia aparece un huracán aquí en la Tierra?"

Porque la Tierra es un planeta con los ingredientes propicios para que, dadas las regularidades de la termodinámica, se formen huracanes sobre su superficie. La termodinámica no produce huracanes en la superficie de Mercurio. Parafraseando a Terrence Deacon, las leyes de la física nos dicen lo que puede ocurrir a un determinado nivel de organización, dado que sus regularidades afectan a todos los sistemas naturales, pero no nos dicen lo que de hecho ocurre, cuando podría haber ocurrido cualquier otra cosa. Para eso hace falta la geología, la biología, etc. Esto implica que la explicación de la novedad evolutiva no obedece un algoritmo determinista y ha de tomar la forma de una narración histórica. Por eso hablamos de historia natural y no del algoritmo de la naturaleza. Querer lo contrario, ¿no será deformación profesional por tu parte?. Esa querencia es frecuente entre informáticos.

Samu dijo...

"Estimar la probabilidad para una población de partículas sigue sin determinar el movimiento de cada una."

Pero es que aún sin poderse determinar completamente el movimiento de cada partícula; aún así digo, podemos aceptar que la causa de la organización global resida en el movimiento particular de las partes (que es precisamente lo que indica la estadística), y eso, insisto, a pesar de el caos subyacente. Es iluso rechazar que el conjunto se reduce al movimiento de las partes simplemente porque el movimiento de las partes no sea determinable con infinita precisión. ¡Qué más da!

"las leyes de la física nos dicen lo que puede ocurrir a un determinado nivel de organización[...]pero no nos dicen lo que de hecho ocurre, cuando podría haber ocurrido cualquier otra cosa."

A ver, Masgël: la termodinámica (o la mecánica) como tal no pueden (ni podrán, dada la realidad cuántica) decirnos (o ayudarnos a prever) con infinita precisión ningún fenómeno futuro (ni siquiera el más básico). Eso se lo concedo porque eso ya hoy día es algo de perogrullo. Pero NO le acepto que de esta indeterminación derive usted (por las buenas) que las partes por eso no pueden explicar la organización de "un todo" de un modo global (aunque indeterminado al detalle). El movimiento (indeterminado) del conjunto de las partes puede perfectamente aceptarse como condición suficiente para explicar cualquier fenómeno a pesar de que nuestra mente no sea capaz (quizás porque sea imposible) de encontrar el modo de calcular ilimitadamente ese movimiento.

En este sentido: el huracán se explica como causado exclusivamente por las leyes termodinámicas actuando de modo global sobre el movimiento de las partículas del aire (reducción), independientemente de que podamos o no prever cuándo se formará el mismo a partir de un estado inicial cualquiera.

El huracán, una vez dado, es cierto que podría o no haber ocurrido, y es cierto que no pudimos ni podremos preverlo; pero eso no implica que la termodinámica actuando sobre las partículas materiales no sean condición necesaria y suficiente de su aparición, sino simplemente que sus leyes son tales que no permiten la determinación del movimiento que causan con infinita precisión. La necesidad de la narración histórica es pues práctica, pero eso no impide que se pueda aproximar numéricamente lo suficiente como para poderse detectar sin lugar a dudas (a pesar de su desagrado hacia la útil estadística) la universalidad que la termodinámica genera cuando da lugar a los fenómenos complejos (lo que implica que todos ellos se pueden reducir teóricamente a la primera).

Un saludo, amigo.

Samu dijo...

De hecho, Masgüel, esto que te digo es precisamente lo que afirma un físico llamado Arto Annila (http://www.helsinki.fi/~aannila/arto/), el cual acepta (incluso lo muestra explícitamente en sus fórmulas) la indeterminación dinámica de la termodinámica en sistemas lejos del equilibrio térmico, pero detecta y explica no obstante como aún así es posible hablar de una explicación física reduccionista atendiendo al modo global en que se puede observar empíricamente que actúa esta termodinámica. En este sentido, Arto Annila tiene decenas de publicaciones en revistas con revisión por pares donde reduce todo fenómeno complejo a la tendencia termodinámica (física) natural de reducir los gradientes energéticos (consumir la energía libre o aumentar la entropía) tan rápido como sea posible.

Un saludo.

Anónimo dijo...

Masgüel,

· “Porque la Tierra es un planeta con los ingredientes propicios para que, dadas las regularidades de la termodinámica, se formen huracanes sobre su superficie. La termodinámica no produce huracanes en la superficie de Mercurio. Parafraseando a Terrence Deacon, las leyes de la física nos dicen lo que puede ocurrir a un determinado nivel de organización, dado que sus regularidades afectan a todos los sistemas naturales, pero no nos dicen lo que de hecho ocurre, cuando podría haber ocurrido cualquier otra cosa.”

Exactamente, no nos dicen lo que de hecho ocurre, cuando podría haber ocurrido cualquier otra cosa.

Al parecer algunos reduccionistas tienen la obsesión de identificar un huracán, con un proceso digestivo, o con el motor de un Ferrari, o con una nevera enfriando coca-cola… porque todos esos procesos se describen bien desde las leyes termodinámicas. No hay diferencia alguna en esos procesos, cuando por ejemplo el ingrediente “aleteo de una mariposa” puede ser determinante para que no haya huracán, y sí un espléndido día soleado. ¡Y hay infinidad de aleteos mariposiles!. Hay azar por todos lados, y tiempo para que aparezca novedad más allá de la “afección termodinámica regular”. Tiempo y azar, como dice usted, y tenemos huracanes, días de sol explendido, planetas girando, o Masgüeles populando por foros…

Samu dice que todas esas cosas, digestión, motor, huracán, Masgüeles.. son lo mismo por el hecho de ser descriptibles en parte desde las mimas leyes que él establece como ontológicas, y “los ingredientes”, es decir aquello que diferencia un proceso digestivo, del run run de un motor, o del frio formado por una nevera… no “pintan“ nada, son ficciones neuronales creo que llegó a decirme. A lo Parmenides, está convencido, que el ser es y el no ser no es, y que “el ser” es exclusivamente las “leyes ontológicas” y que el “no ser” todo lo demás, algo así como un mero hardware que solo sirve de soporte al verdadero ser que es el hecho que solo hay un cumplimiento de computación termodinámica.

Creo que tienes razón al entrever que tal vez haya en su visión del mundo una cierta deformación profesional, y le hace no sólo extrapolar la idea de “inteligencia artificial” a la inteligencia humana (¿Sabemos siquiera que es inteligir? ), sino incluso a la realidad entera.

En fin…

Un saludo.

Anónimo dijo...

·"El emergentismo supone admitir la organización de nuevas formas naturales como factor causal. Las nuevas formas no son lógicamente derivables de las propiedades de cualquier sistema natural previo. Resultan de la manera contingente en que se relacionan. Por eso no hay un algoritmo para la novedad evolutiva en la naturaleza y hace falta intruducir un elemento pseudoaleatorio en los algoritmos informáticos que la simulan. Sin azar, sin ruido, no hay evolución.

Se puede decir más alto pero no más claro. Me parece un resumen excelente !!

Un saludo.

Samu dijo...

"Resultan de la manera contingente en que se relacionan."

Sí, pero esa manera contingente en que se relacionan la determina en última instancia siempre la termodinámica (la física) (aunque lo haga de un modo caótico tal que no nos permita una descripción infinitamente precisa del proceso...¡qué más da!).

Un saludo.

Masgüel dijo...

"Es iluso rechazar que el conjunto se reduce al movimiento de las partes simplemente porque el movimiento de las partes no sea determinable con infinita precisión."

Es la contingencia del movimiento de las partes lo que impide reducir las nuevas propiedades que de ella emergen de las anteriores. Además, una de las características más fascinantes de los sistemas complejos es su resiliencia, la manera en que persiste su organización al convertir en ruido, siempre hasta cierto límite, las variaciones en sus partes, al hacer irrelevante su detalle. Esto es relevante para entender cómo son las constricciones contingentes del medio lo que, paradójicamente, producen las covergencias evolutivas.

"Pero NO le acepto que de esta indeterminación derive usted (por las buenas) que las partes por eso no pueden explicar la organización de "un todo" de un modo global (aunque indeterminado al detalle)."

Solo se puede entender la función de las partes si primero entendemos la conducta del todo. Y son funciones sobrevenidas. Solo cuando se organiza el todo, las partes aquieren su función. Por eso la función de las partes es una propiedad nueva. Las moléculas de mi hígado no tendrían la propiedad de filtrar sangre si no estuviesen organizadas en forma de hígado. Casi todas las moléculas complejas que existen en la naturaleza son el resultado, no la causa, de procesos biológicos.

"El movimiento (indeterminado) del conjunto de las partes puede perfectamente aceptarse como condición suficiente para explicar cualquier fenómeno a pesar de que nuestra mente no sea capaz (quizás porque sea imposible) de encontrar el modo de calcular ilimitadamente ese movimiento."

No entiendo por qué habría que admitir que el movimiento del conjunto de las partes es condición suficiente para explicar cualquier fenómeno, si no entendemos ese movimiento como un proceso localmente neguentrópico en el que formas inéditas de organización adquieren nuevas propiedades. El problema no es tu reduccionismo, sino tu eliminativismo. Pretendes que en un perro solo veamos átomos en moviento y no la organización de ese movimiento en un todo que ladra.

"el huracán se explica como causado exclusivamente por las leyes termodinámicas actuando de modo global sobre el movimiento de las partículas del aire (reducción), independientemente de que podamos o no prever cuándo se formará el mismo a partir de un estado inicial cualquiera."

Te empeñas en añadir términos como "exclusivamente" para nada contamine tu concepción de la naturaleza como un esquema lógico, como un algoritmo. Eliminar lo que de particular tiene un huracán, para empezar que le hace falta aire, es un ejemplo. Por esa regla de tres, me vas a decir que un ornitorrinco "se explica como causado EXCLUSIVAMENTE por las leyes termodinámicas actuando de modo global sobre el movimiento de las partículas de un ecosistema, independientemente de que podamos o no podamos prever cuándo se formará el mismo a partir de un estado inicial cualquiera". Y claro, comparando los ejemplos, se nota lo que falta en la explicación. Su historia. Stuart Kauffman decía que en cuanto nos alejamos de la física y (en una pequeña parte) de la química, la naturaleza se vuelve grotéscamente no repetitiva.

"pero eso no implica que la termodinámica actuando sobre las partículas materiales no sean condición necesaria y suficiente de su aparición"

De nuevo, sobra el suficiente. Las condiciones contingentes del huracán también son necesarias para su explicación.

"sus leyes son tales que no permiten la determinación del movimiento que causan con infinita precisión."

Pero porque la mejor precisión teórica y práctica supone un moviento no determinista.

sigo

Masgüel dijo...

"La necesidad de la narración histórica es pues práctica"

Y teórica. Lo niegas, pero te sigues moviendo en el universo de Laplace.

"la universalidad que la termodinámica genera cuando da lugar a los fenómenos complejos (lo que implica que todos ellos se pueden reducir teóricamente a la primera)."

Ni mucho menos. La universalidad de termodinámica no reduce teóricamente sus resultados. En primer lugar porque la reducción teórica no se postula. Hay que ponerse a hacerla. Y en segundo lugar porque la termodinámica no es condición suficiente para explicar sus resultados. Porque dependen de las condiciones concretas sobre las que opera. La termodinámica nos dice lo que no permite, pero lo que sí permite, su concreción histórica en unas formas u otras, sigue siendo potencialmente infinito y no está determinado.

Samu dijo...

Masgüel, como comprenderás; no he cambiado de opinión con tus palabras, lo mismo que es evidente que tú no vas a cambiar por mucho que yo te diga. Y dado que creo que ya nos lo hemos dicho todo, y para no entrar en bucles repetitivos, por mi parte finalizo el debate.

Gracias a ti y a Enric por los comentarios (y al resto también).

Un saludo.

Kuznacit dijo...

Estoy muy decepcionado por la respuesta que me diste, tanto que se me olvido en varias ocasiones responderte.

Dices que la teoría de la Evolución explica perfectamente como llegamos aquí y como funciona la inteligencia. Básicamente lo que asumes es que todo proceso físico es computable y por tanto si todo proceso físico es computable también lo es la inteligencia humana. Pero es que precisamente la teoría de la evolución no explica como llegamos aquí. Es que efectivamente no es claro ni evidente que todos los procesos físicos sean computables. En primer lugar hay muchos misterios que le quedan a la física por descifrar y entre toda esa oscuridad hay muchisimo margen para procesos físicos, o si prefieres evolutivos, no computables.

En primer lugar comienza por aceptar o recordar que existen funciones matematicas no computables, luego por qué no podría haber procesos físicos que lo fuesen y finalmente por qué entre esos procesos físicos no podría estar la inteligencia humana.

Dices que entendiste perfectamente a Penrose y te aburriste de leerlo luego escribes esto:

"Para mostrar que la inteligencia humana es “algo más” que un proceso computacional, lo que habría que hacer es encontrar cierta clase de problema, o cierta clase de proceso, que los humanos podemos resolver/hacer con relativa facilidad, pero que un sistema computacional sea fundamentalmente incapaz de hacerlo. Y la verdad es que, en principio, cada vez hay menos razón para suponer que exista alguno".

PERO ES QUE PRECISAMENTE EL TEOREMA DE GODEL CONSTRUYE UNA PROPOSICIÓN QUE PODEMOS "VER" QUE ES VERDADERA Y QUE SIN EMBARGO NO ES POSIBLE DENTRO DEL SISTEMA LÓGICO CONSTRUIDO POR EL PROPIO GODEL (EL ALGORITMO DE TODOS LOS ALGORITMOS) DEMOSTRAR QUE DICHA AFIRMACIÓN ES VERDADERA. Básicamente ese teorema dice algo así: "Esta sentencia no es un teorema". Y no solo habría un teorema de esos, habría infinidad de ellos. No creo pues que hayas leído muy bien a Penrose.

Parece que tampoco has entendido lo que dije en mi primera afirmación. Si se lograra construir una inteligencia como la humana, esa inteligencia evidentemente tendría que hacer aritmética, luego si hace aritmetica, tendría que ser una aritmética consistente y completa (porque de lo contrario no seria aritmetica sino una subrama de la aritmetica, una máquina que simula hacer aritmética) ... luego estarías demostrando que Godel se equivo, es decir estarías contradicciendo una demostración matemática ¡ABSURDO!!!!

La unica forma de evitar contradecir la demostración de Godel es postulando que la inteligencia humana es no algoritmica ...

Juan dijo...

Voy a insistir de nuevo, porque creo que hay muchísima confusión al respecto: El teorema de Gödel no dice nada sobre la inteligencia de nadie.

El teorema de Gödel, en efecto, muestra que si los axiomas de la Peano son consistentes entonces existe una sentencia que es cierta pero que no tiene demostración dentro de ese mismo sistema de axiomas. Sin embargo la prueba entera del teorema de Gödel (incluida la parte de que la sentencia es "cierta") también se puede presentar (y se ha hecho) dentro de un sistema lógico axiomático formal. [A grandes rasgos, la idea es usar un sistema formal digamos L (por "lógica"), dentro de ese se define otro sistema A (por "aritmética") con los axiomas de Peano. Se puede demostrar que L puede "ver" una sentencia sobre A que es "cierta", pero que A por si misma no puede demostrar que así lo es. Sí, es un poco como Inception.]

El punto es que teorema de Gödel se puede verificar de manera completamente mecánica, como se ha hecho. Y no hay razón alguna por la que, en principio, un proceso computacional no sea también capaz de encontrar una demostración como la que Gödel encontró para el teorema que lleva su nombre. El teorema de Gödel sería cierto incluso si no existiera humano alguno sobre la faz de la Tierra. Porque el teorema de Gödel no dice nada sobre humanos, y dice todo sobre las limitaciones de los sistemas axiomáticos lógicos formales.

Luego, las computadoras, si algo saben hacer mucho mejor que los humanos es precisamente aritmética. Porque no es necesario saber si la aritmética es o no completa para hacerla. Porque los humanos tampoco podemos saber o demostrar que la aritmética sea completa. [Siendo pedantes: no podemos mostrar que la aritmética es completa “desde dentro” de la aritmética misma, sí se puede demostrar que es completa desde otro sistema “más fuerte” usando inducción transfinita, pero luego a ese nuevo sistema tampoco se le puede probar que es completo “desde adentro” por exactamente las mismas razones. Y así ad infinitum.]

Odio tener que sacar a relucir mis credenciales, pero creo que en este caso es relevante pues precisamente a esto es a lo que me he dedicado en buena parte de mi carrera profesional. Mi doctorado fue precisamente en lógica y en demostración automática de teoremas (¡computadoras razonando y demostrando teoremas!). Literalmente he impartido la cátedra sobre este tema.

No expongo esto para decir que por eso debo de tener yo la razón (eso sería una falacia lógica, ¡ja!). Pero si para decir que por lo menos he leído y estudiado mucho más sobre este tema de lo que te podrías encontrar sobre teoría de la computación en un libro de divulgación escrito por un físico.

Samu dijo...

Juan, tus credenciales son realmente impresionantes (realmente me alegra mucho tener lectores de tu nivel, aunque sean ocasionales o fortuitos :P). Veo que trabajas en Google en Londrés, y como sé que allí también tiene Google sede de su compañía asociada Google DeepMind (precisamente la que ha desarrollado, AlphaGo), me gustaría aprovechar para preguntarte si conoces o tratas con algún investigador o desarrollador del proyecto. En tal caso, ¿sabrías decirme cuál será el próximo camino que tomarán los chicos de DeepMind en el terreno de la IA tras el hito de AlphaGo? He seguido con mucho interés todas las publicaciones del equipo: https://deepmind.com/publications.html, y en especial me ha maravillado el desarrollo del DQN en relación con el RL en Deep neural networks (de hecho, incluso he desarrollado una implementación propia de la versión asíncrona que publicaron en un paper a comienzos de este año: este es el paper: http://arxiv.org/pdf/1602.01783v1.pdf y esta la implementación que realicé utilizando TensorFlow en su versión para Python: http://quevidaesta2010.blogspot.com.es/2016/03/como-aprende-nuestro-cerebro.html).

También es muy interesante la publicación sobre el Grid Long Short-Term Memory que han desarrollado, y también la que trata sobre el neural programmer-interpreter (NPI). Y es que actualmente tienen tantas opciones por donde continuar investigando a gran escala (como hicieron con AlphaGo), que me encantaría saber por que se van a decantar.

En fin, no te molesto más. Por cierto, muy interesante tu blog: Pedazos de carbono (http://blog.carbono.xyz/). Lo enlazo con tu permiso a mi listado de blogs de interés.

Un saludo y gracias de nuevo por participar en el blog con tus comentarios.

Juan dijo...

Ah! Sabía que debí haber incluido la aclaración. Sí, trabajo en Google, pero no tengo nada que ver con DeepMind ni con el equipo detrás de AlphaGo. Sólo soy otro gan admirador de su trabajo. :-) Sobre qué viene después en materia de IA, lo que te puedo recomendar por ahora es leer el artículo de Sundar y Demis donde ellos comentan un poco de esto.

Por supuesto también agradecido de que enlaces a Pedazos de Carbono! Es un blog de divulgación que mantengo con otro par de amigos científicos mexicanos. No prometo por lo pronto nada en firme, pero también tenemos en los planes escribir un nuevo artículo explicando en términos simples cómo es que funciona AlphaGo (quizá en una o dos semanas).

También felicidades a ti por este artículo! Muy buen contenido. Me lo encontré cuando Martín Bonfil lo compartió en Facebook.

Samu dijo...

Muchas gracias por las referencias, Juan. Estaré atento a todo lo que me indicas :).

Un abrazo!!

Kuznacit dijo...

Estimado Juan:

En primer lugar disculpame por traspapelar mentalmente tu respuesta con la de Samu. Debo admitir que tus credenciales ciertamente me han aplastado. Desde luego comprendo que no fue tu intención y reconozco todo el derecho y razón que tenías de hacer eso. No hay problema. También poseo un background en el campo de las ciencias de la computación. Hace más de 4 años que culmine todos mis estudios en la carrera de Computación en mi país, sin embargo debido a la difícil situación económica de mi país me puese a trabajar y hasta la fecha no he presentado la Tesis, también tengo un título de TSU en Electrónica. Aquí, en Venezuela, los profesionales somos muy mal pagados y la crisis económica y social es terrible, la mayoría emigra, pero ese no es mi caso.

Ahora volvamos al tema. Al principio ejemplificas un sistema axiomático formal del cual el sistema de Peano es un subconjunto y ese sistema más amplio si ve la verdad de la proposición que no puede ver el subconjunto del sistema de Peano. Bien no soy un experto, pero hasta donde sé eso es solo un truco. Supongo que se podría a su vez en el sistema más amplico conseguir una proposión verdadera que no es demostrable dentro de él, luego tu buscarías otro sistema más amplio en donde si lo fuese, pero pasaría lo mismo y así hasta el infinito ¿o me equivoco?. Esta es una cita de wikipedia:

"El primer teorema de indecibilidad de Gödel demuestra la existencia de enunciados indecidibles o independientes en la aritmética de Peano, y tanto el primero como el segundo muestran ejemplos concretos de enunciados indecidibles. Desde entonces se han encontrado otros ejemplos de enunciados independientes de los axiomas de Peano, como por ejemplo el teorema de Ramsey «fuerte». Existen además numerosos ejemplos de enunciados independientes en otras teorías formales más fuertes que la aritmética, como la hipótesis del continuo o el axioma de elección en teoría de conjuntos; o incluso en teorías no directamente relacionadas con la aritmética, como en el caso de la geometría euclídea y el postulado de las paralelas". De hecho el artículo de wikipedia dice cosas aun peores, digo que socaban la tesis principal de la IA fuerte, pero prefiero dejarlo hasta aquí.

continuare ....

Kuznacit dijo...


El caso es que si existe un algoritmo de IA equivalente y/o superior a la inteligencia humana, ese es solo un algoritmo (aunque como es lógico ese algoritmo producira otros) y todo algoritmo es equivalente a un sistema de proposiciones y axiomas. En las matemáticas a diferencia del mundo empírico tu no te mueves ni tu inteligencia evoluciona en base a una experiencia, quiero decir una experiencia física. Los objetos con los que tratas son parte de un mundo platónico y se supone que todo lo que produzca tu algoritmo de IA, incluso los otros algoritmos seran como deduciones lógicas, teoremas, de un único sistema de axiomas, por tanto meras extensiones del algoritmo madre. Quiero decir que allí no hay margen para que surja un sistema axiomático más grande del cual ese sea un subconjunto. Si puedes demostrar que estoy equivocado en esto, pues entonces estaría equivocado y te estaría agradecido por esa lección. Pero todo lo que he leído sobre esto no ha hecho sino confirmarme que no estoy equivocado.

Las IA que hasta ahora se han creado son empíricas, pero por decirlo metafóricamente, no han podido acceder, ni se ha demostrado que puedan, al munto platónico de las matemáticas. Por eso su evolución estaría fuertemente restringida. Lo del mundo platónico de las matemáticas solo lo uso como metáfora y no porque quiera caer en la terrible discusión de si ese mundo existe o no.

Tal vez es Godel el que esta equivocado y por tanto yo también lo estaría, pero si no lo esta, ¡demostro nada menos que matemáticamente que no lo estaba!, pues entonces los teoremas de Godel serían una auténtica demostración de que no es posible producir una IA ALGORITMICA que supere o sea equivalente a la inteligencia humana. Se podrá hacer que aprendan, que evolucionen y que se asemejen en mucho a nosotros, y esta bien que se trabaje en eso, aunque ciertamente tiene sus riesgos. Pero siempre estaremos un paso más allá de ellas. La verdad es que a mi también me incomoda que los algoritmos de Godel puedan tener un alcance tan grande. Pero las cosas son como son o sino no son. Principio de no contradicción.

¿o es que soy demasiado tarado?

Kuznacit dijo...

Ok, hay todavía un vacio en mi argumentacion.

Digo que la inteligencia humana es superior a cualquier IA algoritmica porque esta no es algoritmica y por tanto no hay forma de que la IA algoritmica se pueda asemejar a ella, como lo demuestra el teorema de Godel.

La debilidad del mi argumento esta en decir que los teoremas de Godel demuestran que la inteligencia humana no es algoritmica. Pero la inferencia a mi me parece que es directa. Es decir la construcción de ciencia de la Aritmética no es algoritmica (eso lo demuestra el teorema de Godel) por tanto la inteligencia humana no es algoritmica. Es aquí en donde esta centratada toda la discusión.

cita:

"La verdad es que a mi también me incomoda que los algoritmos de Godel puedan tener un alcance tan grande. Pero las cosas son como son o sino no son. Principio de no contradicción".

Corrección:

La verdad es que a mi también me incomoda que los teoremas de Godel puedan tener un alcance tan grande. Pero las cosas son como son o sino no son. Principio de no contradicción.


Juan dijo...

Tratando de responder brevemente [ok, no, blogger dice que no fui breve] a estos últimos tres comentarios (#1, #2, y #3).

Toda tu argumentación en #1 es correcta (es lo mismo que traté de explicar yo en mis secciones entre [corchetes] en mi comentario), excepto por el final donde das un paso en falso que no soporta la conclusión a la que quieres llegar.

En resumen: El teorema de Gödel demuestra que existe una limitante fundamental de los sistemas axiomáticos. En particular, cualquiera que sea ese sistema (detalle técnico: que incluya aritmética), no es posible demostrar al mismo tiempo que sea consistente y completo (al menos no sin agregar más axiomas, pero eso crea otro nuevo sistema, etc.).

Luego, la premisa oculta que no habías enunciado de manera explícita (al menos no hasta antes de #3) para llegar a tu conclusión es que, por alguna razón, los humanos—una “verdadera inteligencia”—no sufren de esta misma limitación.

Pero esta premisa es incorrecta.

Primero, ¿qué significaría que nuestra inteligencia no tiene esa limitación?

Si crees que significa que nosotros podemos demostrar que la aritmética es consistente y completa. Pues no podemos (no sin agregar más axiomas). No por una limitante de nuestra inteligencia, sino porque es una propiedad fundamental de la aritmética que no se le puede demostrar que es consistente y completa (¡Es lo que Gödel mostró!). Es como pedirle a un humano (o una computadora, o una posible “inteligencia“ superior extraterrestre) que construya un triángulo con 5 lados. No se puede (no sin cambiar la definición de lo que es un triángulo). Porque es una propiedad fundamental de los triángulos que no tienen más de tres lados.

Otra forma de leer tu premisa sería que, a diferencia de los sistemas axiomáticos, los humanos sí podemos mostrar “desde dentro” que somos consistentes y completos. ¿Pero qué significaría eso? Las definiciones de lo que significa ser consistente y completo sólo tienen sentido cuando hablamos de sistemas de axiomas. Es como preguntar cuál es la temperatura física del concepto geométrico de un círculo. La pregunta ni siquiera tiene sentido.

Juan dijo...

En #2 también muestras una confusión entre los conceptos de lo que son un algoritmo y un sistema axiomático. Hay relaciones estrechas entre ellos, pero no son la misma cosa (no son “equivalentes”).

Un sistema axiomático es algo “pasivo”. Fijas al principio una serie de reglas (axiomas, etc.), y a partir de ese momento queda por siempre definido cuales sentencias son ciertas (demostrables) dentro de ese sistema, y cuales no. Desde “afuera” hay preguntas interesantes que podemos hacer sobre el sistema, pero el sistema mismo no cambia una vez que han sido fijados sus axiomas.

Un algoritmo es algo más bien “activo”, es algo que se puede ejecutar. El ambiente en el que se ejecuta un algoritmo tiene un estado (“memoria”), y el contenido de su estado cambia conforme el algoritmo avanza su ejecución. Esto es lo que le permite a un algoritmo aprender de su interacción con entradas (“inputs”) provenientes del entorno en el que se ejecuta. Esto es exactamente lo que hace un sistema como AlphaGo.

Otro ejemplo que muestra la diferencia entre algoritmo y sistema axiomático. Arriba hablaste por ejemplo de funciones matemáticas no computables. En efecto, para una función no computable no existe algoritmo alguno que la implemente correctamente (que de la respuesta correcta a todas las posibles entradas a la función); pero es perfectamente válido y no causa ningún problema definir esa función no computable dentro de un sistema axiomático, la función existe perfectamente bien (en el mundo platónico fijo/pasivo de las matemáticas) y puedes hacer preguntas interesantes sobre ella, sólo que no hay algoritmo que la pueda implementar por completo.

Finalmente en #3 dices:

“La debilidad del mi argumento esta en decir que los teoremas de Godel demuestran que la inteligencia humana no es algoritmica. Pero la inferencia a mi me parece que es directa. Es decir la construcción de ciencia de la Aritmética no es algoritmica (eso lo demuestra el teorema de Godel) por tanto la inteligencia humana no es algoritmica.”

Exacto, ahí está la debilidad de tu argumento. Primero: no, el Teorema de Gödel no muestra que la construcción de la aritmética no sea algorítmica (¿qué significa eso?). Y segundo, tu implicación: si la aritmética no es algorítmica => la inteligencia humana no es algorítmica (¿por qué?).

Juan dijo...

P.D. También quiero extenderte una felicitación por esta muy interesante y educada discusión. Creo que todos aquí tenemos eso en común, curiosidad y un apasionado interés por pensar sobre las implicaciones filosóficas de estos resultados matemáticos y tecnológicos, definitivamente algo que creo vale mucho la pena fomentar y continuar haciendo.

Masgüel dijo...

El teorema de Godel no implica que la inteligencia (humana o artificial) no sea algorítmica. Solo implica que la aritmética no puede ser a la vez consistente y completa. Pero esa es la pretensión del determinismo, hacer de la naturaleza un sistema axiomático consistente y completo. Si incluímos los algoritmos no deterministas y que emergen en momentos concretos en circunstancias concretas, yo no tengo problema en admitir que la naturaleza (y la inteligencia como fenómeno natural) sea un conjunto de algoritmos no deterministas. Los algoritmos probabilísticos que usan valores pseudoaleatorios para generar una variabilidad sobre la que operar, ofrecen los mismos resultados que la evolución de los sistemas naturales: Novedad adaptativa.

Masgüel dijo...

P.D. Yo también agradezco el debate aunque mi tono sea cualquier cosa menos amable. Mis credenciales:
http://www.anisdelmono.es/wp-content/themes/adm/images/logo_anis_2.png

MaGaO dijo...

"Los algoritmos probabilísticos que usan valores pseudoaleatorios para generar una variabilidad sobre la que operar, ofrecen los mismos resultados que la evolución de los sistemas naturales: Novedad adaptativa."
Entonces ¿que diferencia cualitativamente a una inteligencia humana de una inteligencia algorítmica con capacidad de generar hipótesis aleatorias? ¿Es un algoritmo "menos algoritmo" por usar generadores pseudoaleatorios?

Masgüel dijo...

"¿que diferencia cualitativamente a una inteligencia humana de una inteligencia algorítmica con capacidad de generar hipótesis aleatorias?"

La inteligencia humana es consciente. Además, la actividad del cerebro no es computacional. Pero eso no impide que, a determinado nivel, sea útil la analogía con algoritmos no deterministas. Pero son regularidades sobrevenidas. Un sistema natural pueda entenderse como un conjunto de algoritmos no deterministas, pero son el resultado y no la causa de su organización.

"¿Es un algoritmo "menos algoritmo" por usar generadores pseudoaleatorios?"

No. Pero al usar valores pseudoaleatorios produce los mismos resultados que un algoritmo no determista. La evolución solo necesita ruido, variación. No importa que esa aleatoriedad sea real o que proceda de un generador de valores pseudoaleatorios. Pero, salvo que uno piense que el azar natural es la salida del generador de valores pseudoaleatirios de un dios programador, la primera opición es más verosímil.

Masgüel dijo...

Sincronicidades, que diría Jung.

"Esto es relevante para entender cómo son las constricciones contingentes del medio lo que, paradójicamente, producen las convergencias evolutivas."

Eso ayer. Esto hoy:
http://nautil.us/issue/34/adaptation/if-the-world-began-again-would-life-as-we-know-it-exist-rp

Anónimo dijo...

Masgüel,
· “yo no tengo problema en admitir que la naturaleza (y la inteligencia como fenómeno natural) sea un conjunto de algoritmos no deterministes”
Y
· “son regularidades sobrevenidas. Un sistema natural pueda entenderse como un conjunto de algoritmos no deterministas, pero son el resultado y no la causa de su organización.”

Como creo que ya le he debido comentar en alguna otra ocasión, esto es esencialmente lo que decía Peirce. Para Peirce el determinismo no es adecuado, ya que el universo no se explica apropiadamente si lo consideramos determinado desde “leyes ontológicas” previas. Básicamente porque no consigue, según él, comprenderse la aparición de novedad si previamente nos situamos desde un estar dentro exclusivamente de o establecido por lo regular. Las teorías mecanicistas, que miran el universo como un cómputo de “leyes ontológicas” de carácter platónico y no como lo que realmente son, una axiomática incompleta que no puede dar cuenta de toda la realidad no pueden dar cuenta de lo nuevo, del cambio, de la evolución. ( Además es la realidad la que ha determinado la aparición de posibilidad de esa axiomática y no la axiomática la que determina la realidad, del mismo modo que es la realidad de la aritmética la que determina en el fondo la axiomática de Peano y de paso su insuficiencia como modo de dar cuenta de la aritmética en su totalidad, y no a la inversa. Pensar que la aritmética es solo lo deducible desde la axiomática de Peano, es poner el carro delante de lo bueyes).

La tendencia a creer que todo es explicable en términos de causas eficientes que dan cuenta de la realidad, en vez de que es la realidad la que históricamente y evolutivamente se despliega “creando” las causas eficientes, es pretender negar la posibilidad de cambio, de novedad, negar la evolución misma. Para acercarse a Heráclito y abandonar a Parménides, se requiere de la posibilidad de considerar que es la realidad la que se autodetermina en virtud de la existencia del azar (tijismo lo llamaba Peirce a ese azar realmente operativo) y tambien, como no, desde los procesos consolidados como “hábitos” que presentan actividad causal y generalizable ( pero sin olvidar que su existencia es contingente e histórica y no una ontología platónica previa o superpuesta a la realidad). Dicho de otro modo: se intenta anular el papel operativo de la espontaneidad en el universo.
Pues eso, no me resistí en comentarle desde Peirce, que estoy muy de acuerdo en que “son el resultado y no la causa de su organización”.

Nota: lamento que mi seudónimo (Enric Rodríguez) no tenga credenciales que ofrecer... así que hago mío, esperando no le moleste el hurto, también el del anís. ;-). Espero que mi falta de credenciales no sea la causa que llene su cubo de basura del ”papel” de mis disquisiciones

Un saludo.

Masgüel dijo...

"esto es esencialmente lo que decía Peirce."

Si. Como creo que también te comenté en alguna ocasión, prefiero a James, pero al César lo que es del César.

Kuznacit dijo...

Estimado Juan:

Desde cierto punto de vista un sistema axiomático es algo más "vivo" que un programa o un algoritmo de programación. En primer lugar porque los términos primitivos utilizados en el sistema axiomático solo nos consta que puede ser comprendidos por nosotros. Lo mismo pasa con los propios axiomas. Desde el momento que programas todo eso en la máquina esta se mueve, puede generar formas y simular pensar, pero el sistema axiomático en si mismo esta muerto, la máquina no lo comprende y lo que puede hacer con este es muy limitado. Hay grados de abstracción y de libertad semántica que se pierden cuando un conjunto de axiomas se traducen a un programa. Asi son las cosas hasta el día de hoy.

Las máquinas, los algoritmos de hoy en día son totalmente incapaces de hacer o comprender abstracciones. No hay nada más antiempírico que dos rectas paralelas, nadie ha visto jamás eso. Ni nada mas antiempírico que un punto, un "algo", sin tamaño, ni dimensiones y infinitamente pequeño, imposible de ser medido por cualquier instrumento de medición. Sin embargo las IAs de proyectos como "Google DeepMind" pretenden que pueden llegar a producir una IA como la humana partiendo de la experiencia o una interacción entre máquinas, juegos de atari, por ejemplo.

Es cierto que un sistema axiomático y un algoritmo son dos cosas totalmente distintas. Sí, es cierto. Pero eso es desde el punto de vista de la Inteligencia Humana. Desde el punto de vista de la IA fuerte pues un sistema axiomático y un algoritmo son equivalentes o siempre podrían hacerse equivalentes. Sí, desde el punto de vista de la IA fuerte las cosas son así de duras. Esa es la tesis fundamental de la IA dura, si niegas eso, estas negando la tesis fundamental de la IA dura. Pero no es esa tu intención. Luego debo suponer que has cometido un descuido o tal vez no te entendido del todo bien.

Kuznacit dijo...

Otro ejemplo que muestra la diferencia entre algoritmo y sistema axiomático. Arriba hablaste por ejemplo de funciones matemáticas no computables. En efecto, para una función no computable no existe algoritmo alguno que la implemente correctamente (que de la respuesta correcta a todas las posibles entradas a la función); pero es perfectamente válido y no causa ningún problema definir esa función no computable dentro de un sistema axiomático, la función existe perfectamente bien (en el mundo platónico fijo/pasivo de las matemáticas) y puedes hacer preguntas interesantes sobre ella, sólo que no hay algoritmo que la pueda implementar por completo.

En efecto, has dado en un punto muy interesante ¿Qué conciencia puede tener una máquina de una función no computable? ¿puede decirnos una máquina si una función es no computable? No me sorprendería que alguien saliera con un algoritmo que "demuestra" que tales funciones son no computables (un truco), pero creo imposible que alguien diera con un algoritmo que identificara cualquier función no computable, con la facilidad o periciaa que lo hacemos nosotros.

Ok, pero ahora debo explicar con que propiedad utilice la idea de que un sistema axiomático y un algoritmo son equivalentes. Lo hice desde el punto de vista de una demostración por el absurdo, asumo la tesis de la IA fuerte y llego a un resultado que contradice algo que me interesaba demostrar o algo que también asumía. En este caso tu me hablabas de que para un dado sistema axiomático en donde una premisa cierta no se puede demostrar, existe otro sistema en el cual si se puede demostrar, pero yo te demostraba que al asumir la tesis de la IA fuerte esta contradecía eso, es decir siempre tenemos que partir de un sistema axiomático base que no puede extenderse más, a partir del cual se deriva todo lo demás. A nivel de programación seria decir que el algoritmo tiene un kernel no sujeto a ningún cambio, si ese kernel se somete también a la mutación lo que tendríamos es el caos total y no habría forma de explicar nada.

Kuznacit dijo...

Si crees que significa que nosotros sí podemos demostrar que la aritmética es consistente y completa. Pues no podemos (no sin agregar más axiomas). No por una limitante de nuestra inteligencia, sino porque es una propiedad fundamental de la aritmética que no se le puede demostrar que es consistente y completa (¡Es lo que Gödel mostró!). Es como pedirle a un humano (o una computadora, o una posible “inteligencia“ superior extraterrestre) que construya un triángulo con 5 lados. No se puede (no sin cambiar la definición de lo que es un triángulo). Porque es una propiedad fundamental de los triángulos que no tienen más de tres lados.

No, amigo, no quiero decir que nosotros si podamos demostrar el Teorema de Godel, NO PODEMOS, lo que si quiero decir es que la máquina para hacer aritmética de verdad, teorias aritméticas, no simulaciones de esta, SI NECESITA DEMOSTRAR QUE LA ARITMETICA ES CONSISTENTE Y COMPLETA, si necesita demostrar que Godel SE EQUIVO. De otro modo es una simulación, una farsa, una mentira, un fraude. No es que la máquina haga aritmética, simplemente hace la aritmética que la programas para que hiciera, no es original, no es auténtica en eso. Original es el que programo la máquina no el programa en si mismo. Esa máquina tendría que convertirse literalmente hablando en la fuente de la aritmética. No necesitariamos que nada nos viniera por inspiración, eso quedaría atrás, tenemos el programa, la musa perfecta, los matemáticos de antaño dedicados a eso, quedarían obsoletos. Porque ¿de que otra forma podrías certificar que tu programa domina LA ARITMETICA, sino demostrando que Godel se equivoco?, no hablo de una clase particular de cálculos, de una clase particular de aritmética hablo de LA ARITMETICA.

Tal como están las cosas lo que creo es que el teorema de Godel imposibilita la creación de una IA capaz de igualar o superar a la humana. ¿Qué es lo que pasa entonces? Que nos cuesta aceptar la idea. No es algo nuevo. También nos costo mucho aceptar la existencia de teorias geometricas no euclidianas, pasaron siglos para que aceptaramos eso. Ahora nos cuesta aceptar los procesos físicos no computables, sobre todo los de nuestra propia intelegencia, pero terminaremos aceptandolos, no nos queda otra. Con lo que más me gusta comparar esto es con lo de la fantasía del movimiento perpetuo, ¿cuántos no creyeron estar a punto de dar con la máquina? ¿cuántos no creyeron haber dado con la máquina? !!! Incluso a mi me paso uno vez haber dado con algo que tenía un movimiento perpetuo ¡en serio me paso eso! (RISAS), no vayan a creer que era un maquinon imposible de ruedas y tornillos, era algo muy simple. Asi que lo entiendo perfectamente. Pero bueno ocurre que la máquina del movimiento perpetuo viola el principio fundamental de la termodinámica de la conservación de la energía, nada más viola eso. De todas maneras se puede revisar internet para que se vea cuánta gente todavía cree en eso y francamente no me sorprende.

Asi que es cuestión de tiempo que aceptemos todas las consecuencia del teorema de Godel. Estoy también seguro de que se harán avances extraordinarios en el campo de la IA y bravo por eso, pero mientras no se refute el teorema de Godel sera imposible que nos superen, es una barrera que esta trazada, tan fuerte como la conservación de la energía.

Por cierto la energía es algo crítico en los actuales momentos en el mundo: http://crashoil.blogspot.com/

Juan dijo...

Wow. Estábamos tan cerca. Identificamos justo el punto exacto del que depende toda tu conclusión y, en lugar de abordarlo directamente, lanzaste otra docena o más de puntos nuevos y más premisas sin justificar. Pero mejor no distraernos, centrémonos en el punto clave.

Ambos estamos de acuerdo: El Teorema de Gödel demuestra una particular limitante de los sistemas axiomáticos.

Tu tesis: Esta misma limitante, sin embargo, no la tiene la inteligencia humana.

Yo he presentado mis argumentos para refutar a tu tesis:
1. Nadie (humanos, computadoras, aliens) puede evadir esta limitante de los sistemas axiomáticos, porque es una propiedad intrínseca a los sistemas axiomáticos mismos. (Nadie puede probar que la aritmética es completa sin abrirle más hoyos.)
2. La pregunta de si la inteligencia humana “misma” es afectada o no por esta limitante, es una pregunta incoherente. (Porque las mentes de los humanos y los sistemas de axiomas son dos cosas de tipos distintos.)

Tu respuesta parece ser: No, amigo, no quiero decir que nosotros si podamos demostrar el Teorema de Godel, NO PODEMOS.

Ehhh.. sí, si podemos. Gödel demostró el Teorema de Gödel. Y otras personas después que él han demostrado también la validez de este teorema. ¿Supongo que lo que quisiste decir es que “no podemos demostrar que la aritmética es completa”?

Y luego: lo que si quiero decir es que la máquina para hacer aritmética de verdad, teorias aritméticas, no simulaciones de esta, SI NECESITA DEMOSTRAR QUE LA ARITMETICA ES CONSISTENTE Y COMPLETA, si necesita demostrar que Godel SE EQUIVO.

Ehhh.. si los humanos no son capaces de demostrar que la aritmética es completa; ¿por qué pides a una computadora que lo demuestre antes de aceptar llamarla inteligente?

Te pediría que limites tu respuesta a este argumento central y procurar ser breve (idealmente que quepa en un sólo comentario). Una vez de acuerdo en este punto podríamos continuar discutiendo y explorando otras de las consecuencias filosóficas que se desprenden (o no) de este hecho.

Kuznacit dijo...

Ok, evidentemente lo que quise decir es que nosotros no podiamos demostrar que la Aritmética es consistente y completa. El parráfo seria entonces:

"No, amigo, no quiero decir que nosotros si podamos demostrar que la aritmética es cosistente y completa, NO PODEMOS, lo que si quiero decir es que la máquina para hacer aritmética de verdad, teorias aritméticas, no simulaciones de esta, SI NECESITA DEMOSTRAR QUE LA ARITMETICA ES CONSISTENTE Y COMPLETA, si necesita demostrar que Godel SE EQUIVO".

Ahora, cumplo que decirte y pero sobretodo con informar a quienes nos leen, que hay gente, profesionales, académicos, incluso con un background nada desdeñable, que creen y hasta pretenden haber demostrado que Godel se equivoco. No voy a dar enlaces porque no efectivamente no soy de los que les gusta bifurcar más y más inútilmente una discusión. Puede ser útil saber también que hay gente que se ha graduado en el MIT, una de las universidades más prestigiosas del mundo y con un elevado staff de premios novel, y que pretenden haber descubierto la fusión fría o alguna otra cosas que va contra las leyes de la física que conocemos. Como también puede ser útil saber que hay soldados que después de haber llegado nada menos que a la élite de las fuerzas especiales de USA han decido cambiarse de sexo. SI debería sorprender: ¡esos gays pasaron por todos los filtros de testoterona de las fuerzas armadas!, etc, etc, etc. Con esto no bifurco más la discusión, es solo un comentario y aclaración.

"Ehhh.. si los humanos no son capaces de demostrar que la aritmética es completa; ¿por qué pides a una computadora que sí lo demuestre antes de aceptar llamarla inteligente?"

Porque formalmente hablando no es la computadora la que es inteligente, sino el programador que programo dicha computadora. Además el centro de la discusión no es ese, en la vida cotidiana no tendría ningún problema en referirme para fines prácticos o de uso común a determinada computadora como "inteligente". El centro de la discusión es que los computadores no pueden tener una inteligencia superior a la humana, porque el teorema de Godel demuestra o implica que nuestra inteligencia no es totalmente algoritmica, si lo fuese entonces la aritmética también seria totalmente algoritmica, quiero decir que habría un algoritmo que infiriera absolutamente todos los teoremas habidos y por haber en la teoría aritmética y que por tanto arrasaría con todos los premios de matemáticas y dejaria obsoletos a los propios matemáticos. Los computadores lo que hacen es amplicar determinadas capacidades de nuestra inteligencia, así como un microscopio amplifica nuestra capacidad de visión. Sin embargo eso no los hace más inteligente que nosotros. Los psicologos han descubierto casos de niños que pueden hacer cálculos sumamente complejos o difíciles con suma facilidad, sin embargo al hacer un estudio más profundo descubrían que esos niños tenían aptitudes mediocres u ordinarias para las matemáticas. Solo tenían amplificados determinados rasgos de la inteligencia humana, no la totalidad de esta.

Kuznacit dijo...


2. La pregunta de si la inteligencia humana “misma” es afectada o no por esta limitante, es una pregunta incoherente. (Porque las mentes de los humanos y los sistemas de axiomas son dos cosas de tipos distintos.)

Eso ultimo que puse en negrillas si es nuevo, lo que anteriormente decías es que los algoritmos y los sistemas axiomáticos son distintos. ¡Y te conteste perfectamente a eso! Me gustaría que lo negaras. Es decir estabas negando la tesis o más precisamente el postulado fundamente de la IA dura: que es que los sistemas axiomaticos y los algoritmos son equivalentes, de hecho ese es solo una consecuencia de un postulado aun más atrevido de la IA dura, parecido aunque diferente a lo que ahora dices: "la mente humana es solo un complejo algoritmo" . Eso es solo un postulado, no algo que haya sido demostrado, pero el problema es que el teorema de Godel niega la posibilidad de que la teoria aritmetica se pueda sistematizar o programar algoritmicamente por completo, por tanto es falso, como tu casi has admitido que la inteligencia humana sea algoritmica.

Juan dijo...

Ya estoy de vuelta. Disculpa la demora.

Ignoraré tu párrafo de "no soy de los que les gusta bifurcar, pero..." para, precisamente, no bifurcar más la discusión. (¡Procura ser breve!)

formalmente hablando no es la computadora la que es inteligente, sino el programador que programo dicha computadora.

Esta es, de hecho, una de las diferencias interesantes entre DeepBlue y AlphaGo. El algoritmo de DeepBlue tenía un montón de información sobre el Ajedrez---plantada ahí de manera explícita por los programadores---que le permitía entender mejor el juego y sus estrategias. En el caso de AlphaGo, el algoritmo que busca estrategias no tiene prácticamente nada de información explícita sobre Go (salvo, podría decirse, del hecho de que se trata de un juego por "turnos"). Cada vez menos se puede decir que la "inteligencia" del algoritmo viene de la inteligencia o el conocimiento de los programadores.

Pero de regreso al meollo del asunto, me parece que este es el punto central de tu tesis:

el teorema de Godel demuestra o implica que nuestra inteligencia no es totalmente algoritmica, si lo fuese entonces la aritmética también seria totalmente algoritmica, quiero decir que habría un algoritmo que infiriera absolutamente todos los teoremas habidos y por haber en la teoría aritmética

En otras palabras: "Si nuestra inteligencia fuese algorítmica, entonces existiría un algoritmo de decisión para la aritmética."

Pero, ¿por qué? ¿en qué basas esa conclusión? (Nota y recordatorio: nuestra inteligencia tampoco puede decidir por completo la aritmética.)

Finalmente: estabas negando la tesis o más precisamente el postulado fundamente de la IA dura: que es que los sistemas axiomaticos y los algoritmos son equivalentes

Antes no quise contestar a esto por no "bifurcar". Pero ya que insistes, no entiendo qué es lo que quieres decir (en un sentido técnico), ¿qué significa que los sistemas axiomáticos y los algoritmos sean equivalentes? ¿equivalentes en qué sentido?

Kuznacit dijo...

En otras palabras: "Si nuestra inteligencia fuese algorítmica, entonces existiría un algoritmo de decisión para la aritmética."

Pero, ¿por qué? ¿en qué basas esa conclusión? (Nota y recordatorio: nuestra inteligencia tampoco puede decidir por completo la aritmética.)


Se basa en que nuestra inteligencia aritmética, por decirlo de alguna forma, abarca solo un subconjunto de nuestra inteligencia. Nuestra inteligencia es mucho más basta, no es solo aritmética o al menos me parece absurdo que se pueda reducir a eso (no es que lo pueda demostrar). Antes de inventar la aritmética, habíamos inventado otras cosas. De hecho la aritmética es solo una teoría matemática en un conjunto mucho más basto de teorías que conforman la matemática.

En cuanto a tu nota: es un hecho que hemos inventado la aritmética y si conseguimos o se desarrollase alguna inconsistencia en ella, la reformularíamos para que no contuviese ninguna. En lo que respecta a este mundo nosotros somos la fuente de la aritmética, esto deja de lado la posibilidad de la existencia de un mundo platónico en la que existen los objetos de la aritmética. El algoritmo de decisión no existe, pero definitivamente somos los que tenemos la ultima palabra. Por la parte algoritmica quedaría pues descartado que las máquinas puediesen hacer aritmética. Quiero decir, hacerlas con el mismo sentido de propiedad que podemos hacerla nosotros. Al mismo tiempo las máquinas son ajenas a la hipotética existencia de un supuesto mundo platónico de ideas que estas pudiesen percibir, dado que su funcionamiento esta confinado únicamente al mundo físico. No puedo aceptar ningún cuestionamiento en este ultimo sentido, quiero decir que me imposible explicar eso de forma aun más clara, eso es así porque es así.

Antes no quise contestar a esto por no "bifurcar". Pero ya que insistes, no entiendo qué es lo que quieres decir (en un sentido técnico), ¿qué significa que los sistemas axiomáticos y los algoritmos sean equivalentes? ¿equivalentes en qué sentido?

Ok, aclaro que aquí solo puedo hablar como programador, no como matemático, que no lo soy. Digo equivalente en el mismo sentido que en prolog tienes una serie de instrucciones a las que llamas premisas y el programa, para una entrada determinada, te produce una salida en función de esas premisas. Las premisas son lo que en matemática se llamaría los axiomas, la salida en conjunto con las entradas serían los teoremas y los términos primitivos las palabras reservadas de prolog. Desde luego que seria errado pretender reducir TODO sistema axiomático a eso (sobre todo el de la aritmética), pero es básicamente lo que entiendo que los defensores de la IA dura asumen, si entienden algo mejor que eso que pues dirán ellos.

Me temo que lo dicho aquí no te deje satisfecho. Si es así tal vez el dialogo haya llegado a un punto muerto. Me cuesta mucho seguir refinando aun más mi argumentos. De hecho ayer me quede dormido en la noche cuando pensaba en la respuesta.

Publicar un comentario