domingo, 15 de noviembre de 2015

El despertar de los robots - Vídeo

Ocurrió en un laboratorio llamado Rensselaer Artificial, en el estado de Nueva York. Durante una investigación liderada por Selmer Bringsjord, tres prototipos de robots denominados NAO tienen que resolver un juego de lógica llamado "Los hombres sabios del rey", en el cual deben averiguar cuál de entre ellos puede hablar. En su programación se les ha hecho creer que han tomado una pastilla que les hace enmudecer. En realidad, simplemente se ha pulsado un botón para silenciarlos. Ninguno sabe quién de los tres puede hablar.
Cuando Selmer les pregunta "¿qué píldora habéis recibido?", se produce un momento de silencio. De erpente, uno dice: "No lo sé", en tanto que los otros dos callan, pues están silenciados. Sin embargo, al oír su propia voz, el primero dice: "¡Lo siento, ahora lo sé! Puedo demostrar que no me dieron la pastilla".


El vídeo puede resultar poco expresivo, pero es apasionante a nivel técnico. Es similar al momento en que un bebé mira su mano y la reconoce como propia. s todo un hito, un pequeño paso para un robot, pero un enorme avance para la computación. Y los NAO no están solos. Otro prototipo llamado QBO habla y se reconoce frente al espejo. Con todo, la inteligencia artificial (IA) está en mantillas. Falta mucho para la Inteligencia con mayúsculas o, al mmenos, para la inteligencia de tipo general. Y no digamos para la consciencia artificial, que es un objetivo que los investigadores ni siquiera se plantean. Todo lo más que existen son debates teóricos sobre si la conciencia puede ser conseguida mediante ordenadores. 
Aunque no todo el mundo se queda en estas consideraciones teórico-filosóficas.
Selmer Bringsjord sabe que sus robots no tienen conciencia real, quizás porque aún no pueden procesar la cantidad ingente de datos necesarios para ello. No obstante, Bringsjord afirma que el hecho de aprender a pasar muchas pruebas de autocinciencia, permite a los robots desarrollar un repertorio de habilidades que acabará siendo una especie de diccionario que sirva de puente hacia la conciencia.


CÓMO SER HUMANO

Básicamente, las estrategias que se han seguido en el diseño de un código para lograr la inteligencia artificial se pueden separar en dos grandes ramas. Son las llamadas inteligencia artifical débil y fuerte. Los inicios de la inteligencia artificial estuvieron siempre marcados por inventos de lograr una IA débil, es decir, aplicada a problemas muy concretos, no una verdadera inteligencia general. Por ejemplo, Deep Blue, el ordenador que en 1997 derrotó al campeón del mundo de ajedrez Garri Kaspárov, es un ejemplo de IA débil. Deep Blue no aprendía por sí mismo y, además, sólo sirve para esta tarea, aunque la realice tremendamente bien. Por otra parte, no pretende pensar como un humano, usa otros tipos de estrategias que para nosotros no serían viables, como comparar todas las jugadas que conocemos. Al contrario, la IA fuerte busca simular la forma en que razona un ser humano. Esto sí es poderoso, porque se basa en que un ordenador "razone" la mejor manera de resolver un problema. De hecho, la perspectiva de que seamos capaces de crear seres más inteligentes que nosotros, tiene aterrada agran parte de la comunidad científica, como ya veremos. En cualquier caso, en la actualidad se usa un enfoque intermedio entre la IA fuerte y la IA débil. Se diseñan sistemas inspirados en el razonamiento humano, pero que no funcionan exactamente de la manera en que lo haría el neocórtex de una persona.

Es innegable que estamos diseñando robots "a nuestra imagen" y semejanza, también llamados "bioinspirados", tanto es así que, ya en 1950, en un ensayo llamado Computing Machinery and Intelligence, el famoso matemático Alan Turing definió una prueba -test de Turing- que consiste en que un ordenador adpte un comportamiento inteligente e indistinguible del de un humano. 

La idea de Turing era que, mediante un chat, una persona tuviera que decidir si su interlocutor al otro lado del chat era un hombre o una máquina Si una máquina lograse engañar a más del 30% de los humanos con los que interactuase, habría pasado el test, según Turing.

Durante años, este test ha sido poco más que otra idea de ciencia-ficción. Sin embargo, se ha avanzado tanto en robots conversacionales con inteligencia artidicial que, en junio de 2014, un chatbot (un robot conversacional) logró engañar al 33% de los jueces en una prueba celebrada en Royal Society. El robot en cuestión se llamaba Eugene Goostman y simulaba ser un adolescente ucraniano de 13 años. Durante el test respondió preguntas sobre su infancia en Odessa o cómo no le gustaba "La guerra de las Galaxias" pero sí las canciones de Eminem.

Tras la noticia, no faltaron las críticas, especialmente sobre si el robot, al simular ser un adolescente extranjero, "había engañado" a los jueces. Con todo, el momento fue histórico y sorprendió incluso a los propios científicos...
Raymond Kurzweil, director de ingeniería de Google, había vaticinado que la humanidad no pasaría el test de Turing antes de 2029. Ha ocurrido 15 años antes.

Quizá sea una señal de la vorágine tecnológica en la que estamos envueltos.



APRENDER JUGANDO

No es lo mismo programar una máquina para que resuelva tareas por complicadas que éstas sean (como jugar al ajedrez, por ejemplo), que las máquinas resuelvan problemas ellas solas. Actualmente se está trabajando mucho en el aprendizaje autónomo. La idea no es dotar a las máquinas de inteligencia artificial para que hagan tareas, sino enseñarlas a que aprendan por sí mismas.
En este campo, el gigante Google, mediante una compañía llamado DeepMind, ya trabaja en varios proyectos, en los cuales una red neuronal artificial está aprendiendo a jugar a videojuegos clásicos isn haber sido previamente programada para ello. De la misma manera que un adolescente va menjorando su puntuación a lo largo de una serie de partidas, la máquina está haciendo lo mismo una vez entendido el objetivo del juego.

De hecho, la idea es que tampoco haya que programarle los objetivos del juego, sino que la inteligencia artificial los comprenda por sí sola.

Pero los videojuegos son sólo una excusa. En lo que están trabajando realmente es en una plataforma de aprendizaje general. Hasta la fecha, la red neuronal ya ha aprendido a jugar a 49 juegos de Atari 2600, sin más información que la imagen que aparece en la pantalla del videojuego. En algunos superó a los humanos, aunque en otros lo hizo mucho peor. En cualquier caso, la idea es que sean máquinas autónomas, que cada vez necesiten menos ayuda humana.
Por ejemplo, en Francia, en la Agencia Nacional de Ciencia Computerizada (INRIA), han estado trabajando en un robot que aprende a caminar de forma diferente cuando se le rompa una de sus seis patas, pues está programado para buscar nuevas alternativas de movimientos si se le quiebra alguna.



MÁS CERCA DE LA SINGULARIDAD

En 2012, Ray Kurzweil, director de ingeniería de Google, publicaba un libro llamado "La singularidad está cerca". En el mismo se expone la teoría sobre qué ocurrirá cuando se produzca la singularidad, que el autor fecha entorno a 2045. El término singularidad proviene de campos como la física o las matemáticas y describe un punto a partir del cual no es posible predecir qué va a ocurrir. En el caso de la singularidad aplicado a la inteligencia artificial, se espera que la inteligencia al servicio de la humanidad aumente exponencialmente a un ritmo vertiginoso. O, como otras veces se la denomina, "una explosión de inteligencia". Una capacidad de inteligencia sobrehumana al servicio de los científicos podría traer grandes logros y beneficios, pero esa misma inteligencia sobrehumana, investigando cómo mejorarse a sí misma, podría provocar a su vez un aumento de su propia capacidad, con el previsible riesgo de escapar al control humano.





Texto: Miguel Ángel Ruiz
Año XXVI Número 11-304
Año Cero

No hay comentarios:

Publicar un comentario

¿Qué quieres comentar?