12/3/15

Superinteligencia ¿Es más peligrosa la IA que la energía nuclear?



Cuando Pinocho no sea un muñeco
La más reciente obra de Neill Blomkamp, director de «Distrito 9» y «Elysium», habla de un futuro no muy lejano en el cual la ciudad de Johannesburgo, corrompida por el crimen, se convierte en la primera ciudad del mundo en crear una fuerza policial de robots. La medida parece ser efectiva inicialmente, pero algo sucede que lo cambia todo: un grupo de jóvenes «actualizan» uno de esos robots, que estaba destinado al desguace, y éste se convierte en el primer androide consciente de sí mismo. Su nombre es Chappie y es la inteligencia artificial llevada al extremo más posible y temible: un robot capaz de aprender por sí mismo y que supera en inteligencia a cualquier cerebro humano. La pregunta clave es: ¿cuán cerca estamos de construir un Chappie?

Lo primero, y más fácil, es el hardware, es decir, el cuerpo. Boston Dynamics (compañía propiedad de Google y responsable del desarrollo de Cheetah, el robot más veloz del mundo) han creado también a PETMAN, un robot antropomórfico que camina por sí mismo y hasta transpira (fue diseñado para testar la exposición a sustancias químicas). También tenemos a ASIMO, el robot de Honda que jugó al fútbol con Obama. Es cierto que aún queda por avanzar en autonomía y movimientos, pero para Wolfgang Fink, experto en Inteligencia Artificial (IA) de la Universidad de Arizona, «ya estamos muy cerca de eso. Se trata únicamente de ingeniería».
Por lo tanto, el problema real es el software, crear un cerebro artificial inteligente. Ese es el verdadero desafío. Los expertos están afrontando este problema desde dos perspectivas diferentes. Por un lado intentan crear un ciborg desde cero mientras que otros buscan desarrollar un programa capaz de aprender por sí mismo y dejarlo que el tiempo y la experiencia hagan el trabajo. Esto último ya existe, se trata de redes neuronales artificiales, sistemas que imitan el comportamiento del cerebro humano. El propio Fink explica desde el Instituto Tecnológico de California, donde también trabaja, que «a estos sistemas, cuando los exponemos a información, pueden aprender reglas y hasta comportamiento. Pueden aprender a jugar a vi- deojuegos, por ejemplo. Los dos enfoques básicos tratan, en términos sencillos de ver qué es más rentable, si poner el pastel en el horno o darle los ingredientes al horno y que él solito los mezcle».
Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial, señala que «los software actuales son muy complicados: son capaces de tomar decisiones en base a los datos que reciben y también, por ejemplo, buscar curas para enfermedades o anticipar epidemias».
En lo que todos los expertos coinciden es que hay tres niveles diferentes de inteligencia robótica. El primero de ellos, en el que nos encontramos en la actualidad, son los robots controlados por humanos. La verdadera capacidad de tomar decisiones es algo que nos corresponde a nosotros.
En una segunda instancia llega lo que se busca realmente por medio de la inteligencia artificial. Un robot capaz de analizar diferentes situaciones que han ingresado en su cerebro y reaccionar a ellas. Esto es lo que hace Chappie. Y esto nos llevará directamente a la tercera etapa, en la cual el robot podrá aprender de las situaciones y será completamente autónomo en sus decisiones. Pero lo más importante es que se dará cuenta de que piensa, será consciente. En ese momento, los humanos perderemos todo control sobre esta «nueva forma de vida». Para Fink, «una vez se alcance este nivel, el robot deja de parecerse a un humano en todo lo que fue programado para hacer. Es muy estimulante, pero también da miedo. Pero esto sucederá. es algo inevitable».
El dilema de crear una inteligencia que no podamos controlar y dejemos libre es algo que atemoriza a muchos grandes nombres. El cofundador de PayPal, de Space X y director de Tesla Motors, Elon Musk, ha convocado a expertos en robótica y donará 10 millones de dólares para prevenir que este escenario se convierta en una realidad. De acuerdo con Musk, «la Inteligencia Artificial es más peligrosa que la energía nuclear. Intentando crear un robot consciente estamos conjurando al demonio».
Y no es el único. Otra voz que se ha alzado para alertarnos del peligro es la del creador de Microsoft, Bill Gates. Según sus propias palabras, «estoy en un lugar (Silicon valley) en el que la mayoría de las personas están muy preocupadas acerca de si debemos crear una superinteligencia. Y no entendemos que haya gente que no se preocupe por ello». También el reconocido físico Stephen Hawkings se ha manifestado de un modo, si cabe, aún más directo: «El desarrollo de una inteligencia artificial completa podría convertirse en el final de la raza humana».
Ante este escenario, quizás sea bueno también poner en la balanza una de las primeras escenas de la película de Blomkamp. Cuando a Chappie le colocan su «nuevo cerebro», abre los ojos asustado, no comprende qué es lo que sucede. Y se asombra. Al contrario de otros robots similares –como Terminator, el insaciable ente de «Trascendence» o Ultrón, el enemigo de la próxima película de «Los vengadores», inicialmente construido para salvar la humanidad de la guerra–, Chappie, es casi tierno y está más cerca del protagonista de «Big Hero» en su capacidad de provocar y experimentar emociones.
No hay duda de que la tecnología tiene que avanzar. Y que no sabemos qué nos espera. Algunas veces conseguiremos energía nuclear, otras veces armas nucleares. Esperemos que, en inteligencia artificial, cosas como las primeras sean frecuentes y que las últimas sean precisamente eso, las últimas.
10 de marzo de 2015 Juan Scaliter

No hay comentarios:

Publicar un comentario