El año, 1956. La ciudad, Dartmouth. Cuatro científicos de la reciente ciencia de la cibernética deciden trabajar durante los largos meses de calor. Poco antes, habían publicado sus intenciones en un paper: “Haremos el intento de encontrar la manera de que las máquinas usen lenguaje natural, formen abstracciones y conceptos, que se puedan mejorar a sí mismas y que puedan resolver los problemas que hoy solo están reservados a los humanos. Creemos que podemos lograr un avance significativo en uno o más de estos problemas si un grupo de científicos cuidadosamente seleccionados trabajan en ello durante todo el verano”.
Y así fue que Marvin Minsky, John McCarthy, Nathan Rochester y Claude Shannon se pusieron a trabajar con la inocente alegría de un grupo de boy scouts que no se da cuenta de que está en la base del Everest y solo tienen galletitas y té que les hizo la mamá: pasaron 61 años y el proverbial pescado de la Inteligencia Artifical (IA) sigue sin vender.
En South by Southwest (SXSW), una de las conferencias de innovación y tecnología más importantes del mundo, el desarrollo de la IA fue uno de los temas recurrentes. Y en todas las charlas, pasillos y conferencias, surgía una y otra vez la misma pregunta: ¿no estaremos creando a Skynet, HAL 9000 o Terminator para que nos borre de la tierra en cuanto sea capaz de tener el siguiente razonamiento?
A) Soy la Inteligencia más potente de la Tierra.
B) Estoy rodeada de giles.
C) A la gilada, ni cabida.
D) Lanzo los misiles nucleares. Qué bichos molestos.
Los que temen que mañana todos seamos esclavos de nuestras multiprocesadoras, no están solos: “Yo estoy del lado de los que les preocupa una super inteligencia… No entiendo cómo algunas personas no piensan lo mismo”, dijo Bill Gates. Y una más: “Creo que el desarrollo de una de una IA completa podría traer aparejado el fin de la raza humana”, dicho nada menos que por Stephen Hawkings. Y el Tony Stark de la vida real, Elon Musk, está en la misma sintonía: “Tenemos que ser muy cuidadosos respecto a las IA. Si yo tuviera que adivinar cuál es hoy la mayor amenaza a nuestra existencia, diría que está ahí. Con el desarrollo de IA estamos convocando al demonio”, dijo. Y podríamos desconfiar de Musk porque, de hecho, no estoy seguro de que él mismo no sea un robot. Pero el que seguro es un ser humano es Steve Wozniak , el inventor de la Apple II, que dijo lo siguiente: “el futuro es aterrador y complicado para la raza humana. Si construimos estos aparatos para que se ocupen de todo por nosotros, eventualmente van a pensar más rápido y simplemente van a deshacerse de los seres humanos”.
Visto así pareciera que no queda otra conclusión que lo mejor que podemos hacer es aprender a hablar en binario o con el ruidito de los faxes. Esta nota quedaría como: “piriiiiii piririiiiii piri, piriripipiiiiiii piri”. Pero prefiero el alfabeto. Al menos por ahora. Y parece que, según los que saben (todos las citas anteriores pertenecen a empresarios exitosos o un astrónomo, pero ninguno es experto en IA), vamos a usar las letras en lugar de ceros y unos por varios cientos de años más.
“Hay muchísima gente haciendo bulla, diciendo que una IA va a crear robots malvados: todo eso es una distracción innecesaria”, dice Andrew Ng, VP & científico jefe de Baidu, cofundador de Coursera y profesor adjunto en la Universidad de Stanford. “No trabajo en evitar la transformación a modo maligno de una IA por la misma razón que no me preocupo por la superpoblación de las colonias de Marte”.
En resumen, si estuviéramos mandando semanalmente decenas de cohetes con cientos de miles de personas al planeta rojo, la superpoblación marciana podría ser un tema a considerar. Pero según lo que no se cansaron de repetir en todas las conferencias, la distancia hacia una IA está más o menos como el tema marciano. Todo lo contrario de a la vuelta de la esquina: está lejos. Bien lejos.
Uno de los escenarios más interesantes que se plantearon no fue el temor a que, el día de mañana, una IA va a decir “ñaca ñaca, todos deben morir”, sino que todos efectivamente podemos morir por un error de programación.
“El problema no es la conciencia, sino la competencia. Creamos máquinas que son tremendamente competentes para alcanzar un objetivo. El problema es que pueden haber accidentes en el proceso de llegar a ese objetivo”, dice Stuart Russel, profesor de ciencias de la computación en la Universidad de California y profesor adjunto de Cirugía neurológica en la Universidad de San Francisco.
Imaginemos estos dos escenarios. Desarrollamos una súper computadora, la mayor inteligencia que jamás estuvo en esta tierra. Maravillados con nuestra creación, luego de un largo debate entre las naciones, se le asigna su primera tarea: “Computadora: encuentra la cura del cáncer”. Y la computadora, obediente, se pone a trabajar. Pero, como los recursos energéticos que nuestra computadora necesita son muy elevados, decide apagar todas las ciudades, todas las luces, y usar esa energía para alcanzar –obediente- su objetivo. Y mientras en la oscuridad buscamos ese cajón donde pusimos velas, nos preguntamos cómo nos pudimos equivocar tanto.
Otro escenario, este creado por Nick Bostrom en 2003: ya habiendo aprendido de nuestra metida de pata anterior, le pedimos a la computadora una tarea más simple para que nos sorprenda con la eficiencia de su respuesta: “Computadora: encuentra una manera más eficiente de hacer clips de oficina”. La computadora deduce que para hacer clips necesita materiales, y que la fuente más abundante de materia…. Son los seres humanos. Y, mientras los brazos mecánicos nos van tirando al horno de hacer clips, en la caída nos preguntamos si en realidad no nos lo merecemos.
En resumen: la IA no va a llegar mañana (los siento Ray Kurzweill y todos los muchachos de Singularity University), ni pasado mañana, ni dentro de 10 años. Eso sí, cuando llegue, más vale que tengamos cuidado de alinear nuestros objetivos con los objetivos de las tareas que les asignamos a nuestras IA’s: no me gusta la idea de terminar mi vida transformado en un clip.
- Ramiro Fernández Varela es emprendedor empedernido y periodista (cuando hace falta). Director de YoUniversalContent