«¡Es la guerra! ¡Traed madera! ¡Más madera!»
(Los hermanos Marx)
Introducción.
El mundo de las ciencias de la computación están estos días de enhorabuena, un nievo hito histórico acaba de acontecer: hablamos por supuesto del casi milagroso desarrollo de Google DeepMind denominado AlphaZero, un modelo neuronal capaz de aprender de manera autónoma no supervisada (sin apoyo de datos etiquetados ofrecidos por el hombre) a jugar con capacidades sobrehumanas a varios juegos milenarios como el Go y el ajedrez (aquí podéis descargar el paper de este proyecto).
DeepMind acaba de demostrar así que la metodología que utilizaron para que un modelo neuronal aprendiera (con capacidades sobrehumanas) por sí misma sin apoyo de datos humanos el juego de Go, es generalizable a cualquier otro tipo de juego o situación. En el arriba comentado paper nos explican por ejemplo como en 4 horas (sí, sólo 4 horas), la red neuronal fue capaz de aprender a jugar al ajedrez (entre otros juegos) con una capacidad no sólo sobrehumana, sino superior a cualquier inteligencia artificial "clásica" creada por el hombre en estos juegos (con reglas de juego programadas y dictadas a mano con respaldo de una fuerza bruta computacional). Es decir, que la metodología que utilizaron hace unos meses en AlphaGo Zero ahora han demostrado que es fácilmente extensible a cualquier otra situación o juego (de ahí que al modelo mejorado ahora lo llamen AlphaZero a secas). De ahora en adelante ya sabemos que un modelo neuronal es capaz de aprender solo y sin supervisión humana alguna con sólo recibir de entrada el estado actual del juego y nada más (ya no hay que "explicar" ni programar a mano absolutamente nada para que una red neuronal pueda aprender y superar nuestras habilidades). Se puede decir que el ser humano ya sobra para conseguir que un modelo neuronal aprenda a ejecutar con éxito una gran variedad de situaciones.
Y por si esto no fuese suficiente para convencer al lector más escéptico, también hay que remarcar otro avance de Google realizado el mes pasado: AutoML (https://research.googleblog.com/2017/11/automl-for-large-scale-image.html). Se trata ni más ni menos que de un modelo neuronal capaz de generar (crear) por sí sólo otro modelo neuronal "hijo" orientado en la resolución de una tarea específica independiente. Y hay que remarcar dos cosas de AutoML: 1º) Es un modelo neuronal que es capaz de generar y crear de manera autónoma sin apoyo humano otro modelo neuronal, y 2º) El modelo neuronal "hijo" creado de esta manera autónoma es superior a cualquier modelo que haya sido capaz un ser humano de crear hasta la fecha a mano ajustando los parámetros de una red neuronal (al menos en la tarea de clasificar imágenes donde han comenzado a probar este prodigio). Google DeepMind también está estudiando esta aproximación en recientes publicaciones como en el trabajo "Population Based Training of Neural Networks", donde estudian un modo de mejorar la eficiencia de los desarrollos de machine learning eliminando la necesidad de que un ingeniero humano ajuste los parámetros de la red neuronal...y realmente consiguen resultados prometedores. De hecho superan el estado del arte en varias tareas gracias al simple hecho de borrar al hombre de la ecuación.
Todos estos casos (especialmente el de AlphaZero) suponen un innegable paso adelante hacia la consecución de una inteligencia artificial general, y demuestran además que la única limitación en este sentido ha sido (y será por un tiempo) la potencia de cálculo. Estos hitos históricos que venimos presenciando los últimos 5 años sólo han sido posible de hecho gracias al uso de enormes recursos de computación por parte de grandes compañías privadas. En cierto sentido los avances teóricos palidecen en comparación al avance que la ley de Moore nos ofrece en potencia computacional (Hardware).
Valga en este sentido comentar que Google DeepMind sólo ha podido alcanzar sus hitos más actuales gracias a las nuevas tarjetas gráficas dedicadas y especializadas al machine learning (las TPU). Tarjetas que son propiedad exclusiva de Google y que de momento nadie más puede adquirir en el mercado.
Un poco de humildad.
El factor que más peso tiene en aquellas personas que no creen que la inteligencia artificial general vaya a llegar (por no hablar de una consciencia artificial) es la falta de humildad. Pensar a priori y sin base empírica que nuestras capacidades humanas son diferentes o se basan en sustratos o principios no materiales, o materiales pero difícilmente replicables. Se trata de una evidente falacia que se puede rastrear como poco hasta tiempos de Descartes.
La ciencia ha demostrado que ningún sustrato no material da soporte a nuestra mente, y también desde Darwin que todo en el hombre; desde el dedo del pié hasta su cerebro, es producto de un gradual, acumulativo y lento proceso evolutivo. Ya no hay pues cabida para nada inmaterial ni tampoco para la aparición fisiológica o conductual de estructuras que no sean explicables por la mera evolución. Esto implica pues que nuestra mente y la consciencia deben ser productos materiales y evolucionados durante millones de años. En este sentido es de perogrullo concluir que es el cerebro y el sistema nervioso en general el responsable de toda nuestra conducta y subjetividad.
En este sentido me gustaría que vieseis conmigo a continuación esta breve sesión de neuroanatomía impartida por el profesor Leonard E. White (este vídeo forma parte de un completo curso que puedes seguir de manera gratuita en Coursera):
El sistema nervioso central es el encargado de procesar la información. Los nervios le llevan información desde los sentidos y también transmiten la salida del procesado a los músculos. Y este procesado de información de entrada y salida, junto con cierta retroalimentación interna de varias zonas y subredes neuronales, es todo lo necesario para explicar nuestra mente. No hay ni se requiere de ninguna res cogitans ni tampoco es admisible ningún agente o explicación que no quepa dentro de los límites evolutivos.
El algoritmo humano.
Uno de los fragmentos que más me han gustado del último libro de Yuval Noah Harari, "Homo Deus: Breve historia del mañana" ha sido el siguiente:
La conducta humana, toda ella; como bien indica Yuval Noah Harari, se reduce a complejos cálculos de probabilidades acontecidos en el sistema nervioso central. Un órgano evolucionado gradualmente durante millones de años. Todo en nosotros se reduce pues a la ejecución de intricados algoritmos ejecutados en el cerebro.
El poderío de la red neuronal biológica.
Pero, ¿cómo pudo la Naturaleza lograr semejante procesador de cálculos capaz de tener en cuenta tanta información externa y de manera simultánea? ¿Cómo es posible acaparar y filtrar tanta información y aún así ser capaz de generalizar y obtener patrones de entre todo ese caos sensorial? ¿Y cómo aplica con éxito luego esos necesarios cómputos probabilisticos capaces de lograr con éxito los fines evolutivos de supervivencia y reproducción? La respuesta son las redes neuronales biológicas.
La capacidad de cálculo que estas redes neuronales poseen son realmente asombrosas. Pueden aproximar funciones no-lineales y actuar de manera paralela con información llegada de muy diversas fuentes. El flujo de información eléctrica que recorren los billones de neuronas por entre el trillón de sinapsis en el cerebro del hombre suponen la explicación evidente de toda nuestra capacidad. No hay nada más a parte de este sustrato material evolutivo, tampoco hace falta introducir nada más en la ecuación. Las redes neuronales poseen el poder computacional necesario y suficiente para dar cuenta de nuestra conducta y subjetividad, y aunque aún nos quede mucho por aprender de este órgano, es de necios aprovechar este desconocimiento temporal para introducir postulados metafísicos, místicos o seudocientíficos (como eso de querer introducir a la mecánica cuántica como parte del fenómeno de la consciencia con calzador y sin evidencia ni soporte empírico alguno).
El poderío de la red neuronal artificial.
El poderío y la capacidad de cálculo no lineal de la red neuronal biológica es fácilmente replicable en un ordenador cualquiera. Es posible simular este comportamiento biológico, y es de hecho esta imitación la que está posibilitando TODOS y cada uno de los avances tecnológicos acontecidos en la última década en el terreno de la inteligencia artificial.
Si coges tu móvil y cuando le hablas es capaz de reconocer tu voz y transcribir lo que dices casi sin errores, debes saber que lo que tu móvil está haciendo es ejecutar una red neuronal artificial que simula el funcionamiento de parte de la red neuronal de nuestro propio cerebro encargado de esta tarea. Y esto mismo ocurre con los sistemas de traducción entre lenguas, con la voz sintética que nos habla, e incluso con las simpáticas aplicaciones que detectan nuestra cara en la cámara del móvil para pintarnos encima sombreros y otras cosas graciosas. Lo mismo que cuando nuestro coche es capaz de ayudarnos con los modernos sistemas de soporte que evitan que nos salgamos del carril en la carretera. En estos vehículos, una cámara recibe señales del asfalto, y una red neuronal artificial es la que decide si vamos bien o si nos vamos a salir del carril (corrigiendo en tal caso la trayectoria moviendo automáticamente el volante). Los ejemplos son ya en realidad innumerables.
La ley de Moore y la actual explosión de avances en inteligencia artificial.
Teóricamente hace ya varias décadas que se conoce el poder de la red neuronal artificial, pero hasta hace bien poco no se dispuso del Hardware necesario para dar soporte práctico a dicho potencial de simulación. Pero esto está cambiando gracias a la ley de Moore y al exponencial aumento de potencial de cálculo disponible cada año (la ley de Moore original se refería a la duplicación en el tiempo del número de transistores pero hoy en día muchos la entienden ya simplemente como la duplicación en la potencia disponible). Cada año el potencial de cálculo al alcance de los investigadores casi se duplica, y precisamente ahora estamos alcanzando el umbral que permite esta explotación práctica artificial del poder biológico oculto en las redes neuronales. Hoy en día por ejemplo, un dispositivo móvil puede poseer más capacidad de cómputo que algunos supercomputadores de hace 15 años.
Y es que, como ya dijimos al principio, el gigantesco avance en IA de estos últimos 5 años no se deben tanto a los avances teóricos sino a los avances en el hardware. Esto significa que el limitante no ha sido nunca la base teórica (bien establecida desde hace muchos años), sino la ineficacia de nuestras máquinas a la hora de poder simular con la fidelidad suficiente la base natural biológica que da forma a nuestras habilidades mentales.
Al mismo tiempo este hecho supone que los logros que conseguiremos en años venideros seguirán creciendo a cada vez mejor ritmo conforme la ley de Moore (entendida o reformulada como la duplicidad en la capacidad de cómputo disponible cada poco tiempo) siga mejorando exponencialmente nuestra potencia de cálculo. Las tarjetas TPU de segunda generación Google son el doble de potentes que las de primera generación (un avance que ha necesitado de menos de un año), y nada impide que en 5 años tengamos un hardware tan potente que haga palidecer a nuestros desarrollos actuales.
Conclusión.
Si Google DeepMind ha necesitado esperar a la aparición de las TPU de 2ª generación para lograr el gran hito que ha supuesto AlphaZero, nada parece indicar que el ritmo de logros importantes y transcendentales en el mundo de la inteligencia artificial no continúe su curso conforme nuevo y más avanzado hardware llegue a manos de los investigadores en las ciencias de la computación.
En última instancia, es perfectamente viable (e incluso probable), que conforme el poder de computación avance así ocurra con nuestra habilidad para simular e imitar nuestra propia red neuronal biológica hasta el punto de que finalmente el proceso acabe convergiendo en una inteligencia artificial general e incluso consciente (poseyendo nuestra misma subjetividad). Valga recalcar el hecho de que no existe ninguna evidencia física teórica o experimental capaz de negar formalmente la posibilidad de esta convergencia.
Bien parece que en el fondo el "Hard problem" de la consciencia se reduce simplemente a una limitación temporal de potencia. Así pues no desesperemos y estemos atento a que los avances tecnológicos nos sigan ofreciendo cada año el doble de potencia. De eso parece que se trata todo, de ¡mas madera!
No hay comentarios:
Publicar un comentario