Dean Pomerleau todavía puede recordar la primera vez que se enfrentó al problema de la caja negra. Era el año 1991 y estaba haciendo un intento pionero por hacer algo que hoy en día es común en las investigaciones para desarrollar vehículos autónomos: enseñar a una computadora a conducir.

Esto significaba tomar el volante de un vehículo militar Humvee con un equipo especial y conducirlo a través de las calles de una ciudad, dice Pomerleau, que era entonces un estudiante de robótica en la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania. Junto a él en el Humvee había una computadora programada para mirar a través de una cámara, interpretar qué estaba ocurriendo en la carretera y memorizar cada movimiento que hacía él en respuesta a ello. Con el tiempo, la máquina podría producir suficientes asociaciones para manejar por sí sola, o al menos eso esperaba Pomerleau.

En cada viaje, Pomerleau entrenaba al sistema durante unos minutos y luego lo dejaba libre para que manejara por sí solo. Todo parecía ir bien hasta que un día el Humvee se acercó a un puente y de repente se desvió hacia un costado. Él evitó un choque agarrando el volante rápidamente y tomando de nuevo el control.

De vuelta en el laboratorio, Pomerleau trataba de entender por qué la computadora había fallado. “Parte de mi tesis consistía en abrir la caja negra y averiguar qué estaba pensando”, explica. Pero, ¿cómo? Él había programado la computadora para actuar como una ‘red neuronal’ –un tipo de inteligencia artificial (IA) que se inspira en el cerebro y que prometía ser mejor que los algoritmos normales para tratar situaciones complejas del mundo real–. Desafortunadamente, este tipo de redes son tan opacas como el cerebro. En lugar de almacenar lo que han aprendido en una bloque de memoria digital, difunden la información de una manera que es muy difícil de descifrar. Solo después de probar exhaustivamente las respuestas de su software a diversos estímulos visuales, Pomerleau descubrió el problema: la red había estado utilizando los bordes con pastos como una guía para la dirección de la carretera y el aspecto del puente la confundió.

Veinticinco años después, descifrar la caja negra se ha convertido en algo exponencialmente más difícil y más urgente. Esta tecnología se ha disparado tanto en su complejidad, como en sus aplicaciones. Pomerleau, que ahora enseña robótica a tiempo parcial en la Universidad Carnegie Mellon, describe el pequeño sistema que montó en la furgoneta como una “versión de hombre pobre” de las enormes redes neuronales que son parte de las máquinas de hoy en día. Y las técnicas de aprendizaje profundo, con las que las que se programan las redes con vastos archivos de datos, está encontrando aplicaciones comerciales que van desde automóviles que se conducen solos a los sitios web que recomiendan productos con base en el historial de navegación del usuario.

La inteligencia artificial promete volverse omnipresente en la ciencia, también. Futuros observatorios de radioastronomía necesitarán hacer “aprendizaje profundo” para encontrar señales que valgan la pena entre cantidades inmanejables de datos; los detectores de ondas gravitacionales lo usarán para entender y eliminar las fuentes de ruido más pequeñas; y los editores lo utilizarán para rastrear y etiquetar millones de artículos de investigación y libros. Con el tiempo, algunos investigadores creen, puede que hayan incluso ordenadores equipados con aprendizaje profundo que muestren imaginación y creatividad. “Usted podría simplemente aportar datos a esta máquina y le respondería con las leyes de la naturaleza, dice Jean-Roch Vlimant, un físico del Instituto de Tecnología de California, en Pasadena.

Sin embargo, estos avances podrían hacer que el problema de la caja negra sea aún más grave. Por ejemplo, ¿cómo está exactamente una máquina encontrando esas señales que valen la pena? ¿Y cómo puede alguien estar seguro de que esa forma es correcta? ¿Hasta qué punto debería la gente confiar en el aprendizaje profundo? “Creo que definitivamente estamos perdiendo terreno frente a estos algoritmos”, dice el especialista en robótica Hod Lipson, de la Universidad de Columbia, en la ciudad de Nueva York. Él compara la situación con un encuentro con una especie alienígena inteligente cuyos ojos tienen receptores no solo para los colores primarios rojo, verde y azul, sino también para un cuarto color. Sería muy difícil para los seres humanos entender cómo este extraterrestre ve el mundo y sería difícil que el alienígena nos lo explique, dice. Las computadoras tendrán dificultades similares para explicarnos cosas a nosotros, dice. “En algún momento, será como explicarle Shakespeare a un perro”.

Frente a estos desafíos, los investigadores de IA están respondiendo al igual que lo hizo Pomerleau –abriendo la caja negra y haciendo el equivalente a lo que hace la neurociencia para entender las redes del interior–. Las respuestas son reveladoras, dice Vincenzo Innocente, físico del CERN, el laboratorio europeo de física de partículas cerca de Ginebra, Suiza, que ha sido pionero en la aplicación de la IA en este campo. “Como científico”, dice, “no estoy satisfecho con distinguir a los gatos de los perros. Un científico quiere ser capaz de decir: ‘la diferencia es tal y tal’”.

 

BUEN VIAJE

Las primeras redes neuronales artificiales fueron creadas en la década de 1950, casi tan pronto como existieron computadoras capaces de ejecutar algoritmos. La idea es simular pequeñas unidades de computación, las ‘neuronas’, que están organizadas en capas conectadas por una multitud de ‘sinapsis’ digitales. Cada unidad de la capa inferior toma datos externos, como los píxeles de una imagen, y luego distribuye la información hasta algunas o todas las unidades de la capa siguiente. Después, cada unidad de la segunda capa integra las entradas de la primera capa, utilizando una regla matemática simple y pasa el resultado más arriba. Eventualmente, la capa superior produce una respuesta, digamos, clasificando la imagen original como un ‘gato’ o un ‘perro’.

El poder de este tipo de redes se debe a su capacidad de aprender. Dado un régimen de entrenamiento con datos acompañados de las respuestas correctas, pueden mejorar progresivamente su rendimiento alterando ligeramente la validez de cada conexión hasta que las respuestas producidas por su nivel superior también son correctas. Este proceso, que simula la forma en la que el cerebro aprende mediante el fortalecimiento o debilitamiento de las sinapsis, con el tiempo produce una red que pueda clasificar con éxito nuevos datos que no eran parte de su régimen de entrenamiento.

Esa capacidad de aprender fue una gran atracción para los físicos de CERN en la década de 1990, cuando ellos estaban entre los primeros en usar de forma rutinaria las redes neuronales a gran escala para hacer ciencia: las redes resultaron ser de gran ayuda en la reconstrucción de las trayectorias de fragmentos subatómicos provenientes de colisiones de partículas del Gran Colisionador de Hadrones del CERN.

Pero esta forma de aprendizaje es también la razón por la cual la información es tan difusa en la red: al igual que en el cerebro, los recuerdos están codificados en la fuerza de las conexiones múltiples, en lugar de almacenarse en lugares específicos, como en una base de datos convencional. “¿Dónde está el primer dígito de su número de teléfono almacenado en su cerebro? Es probable que en un montón de sinapsis, probablemente no demasiado lejos de los otros dígitos”, dice Pierre Baldi, un investigador de aprendizaje de máquinas en la Universidad de California, en Irvine. Pero no existe una secuencia bien definida de bits que codifiquen el número. Como resultado, dice el científico informático Jeff Clune de la Universidad de Wyoming, en Laramie, “a pesar de que nosotros construimos estas redes, no podemos entenderlas mejor de lo que entendemos el cerebro humano”.

Para los científicos que tienen que hacer frente a grandes volúmenes de datos en sus respectivas disciplinas, esto hace que el aprendizaje de profundidad sea una herramienta que debe utilizarse con precaución. Para ver por qué, dice Andrea Vedaldi, un científico de computación en la Universidad de Oxford, Reino Unido, imaginemos que en un futuro próximo, una red neuronal de aprendizaje profundo es configurada utilizando mamografías viejas que han sido etiquetadas de acuerdo a qué mujeres acabaron desarrollando cáncer de mama. Después de esta capacitación, dice Vedaldi, la máquina podría ‘ver’ el tejido de una mujer aparentemente sana como canceroso. “La red neuronal podría haber aprendido implícitamente a reconocer marcadores de características que no conocemos, pero que son predictivos del cáncer”, dice.

Pero si la máquina no puede explicar cómo lo sabe, dice Vedaldi, presentaría a los médicos y a sus pacientes ante graves dilemas. Es bastante difícil para una mujer decidir hacerse una mastectomía preventiva porque tiene una variante genética que se sabe aumenta sustancialmente el riesgo de cáncer. Pero tomar esa decisión podría ser aún más difícil si no supiera cuál es el factor de riesgo, incluso si la máquina que hace la recomendación resulta ser muy precisa en sus predicciones.

“El problema es que el conocimiento es cocinado en la red y no en nosotros”, dice Michael Tyka, un biofísico y programador de Google en Seattle, Washington. “¿Hemos realmente entendido algo? En realidad no, pero la red sí lo ha hecho”.

Varios grupos comenzaron a estudiar el problema de la caja negra en 2012. Un equipo dirigido por Geoffrey Hinton, un especialista de aprendizaje de máquinas en la Universidad de Toronto en Canadá, participó en una competencia de visión por computadora y demostró por primera vez que la capacidad del aprendizaje profundo para clasificar las fotografías de una base de datos de 1,2 millones de imágenes superó con creces a cualquier otro enfoque de IA.

Analizando por qué esto era posible, el grupo de Vedaldi tomó algoritmos que Hinton había desarrollado para mejorar el entrenamiento de la red neuronal y, esencialmente, los hizo funcionar a la inversa. En lugar de enseñar a una red a dar la interpretación correcta de una imagen, el equipo comenzó con redes ya entrenadas y trató de reconstruir las imágenes que las produjeron. Esto ayudó a los investigadores a identificar la forma en la que la máquina estaba representando diversas funciones –como si estuvieran preguntando a una red neuronal programada para detectar el cáncer: “¿Qué parte de esta mamografía has decidido que es un marcador que indica el riesgo de cáncer?”

El año pasado, Tyka y sus compañeros de investigación de Google siguieron un enfoque similar hasta llegar a una conclusión final. Su algoritmo, al que llamaron Sueño Profundo, comienza con una imagen –digamos una flor o una playa– y la modifica para mejorar la respuesta de una neurona particular de nivel superior. Si a la neurona le gusta marcar imágenes como aves, por ejemplo, la imagen modificada comenzará a mostrar pájaros por todas partes. Las imágenes resultantes evocan viajes de LSD, con las aves emergiendo de rostros y edificios, entre otros. “Creo que es mucho más parecido a una alucinación” que a un sueño, dice Tyka, que es también artista. Cuando él y el equipo vieron que era posible que otros usaran el algoritmo con fines creativos, lo pusieron a disposición para que cualquier persona lo descargue. En cuestión de días, Sueño Profundo se convirtió en un fenómeno viral en línea.

Usando técnicas para maximizar la respuesta de cualquier neurona, no solo las de nivel superior, el equipo de Clune descubrió en 2014 que el problema de la caja negra podría ser peor de lo esperado: las redes neuronales son sorprendentemente fáciles de engañar con imágenes que a las personas les parecen ruido aleatorio o patrones geométricos abstractos. Por ejemplo, una red podría ver líneas onduladas y clasificarlas como una estrella de mar, o confundir las rayas negras y amarillas con un autobús escolar. Por otra parte, los patrones suscitaron las mismas respuestas en redes que habían sido entrenadas con diferentes conjuntos de datos.

Los investigadores han propuesto una serie de enfoques para resolver este problema ‘de engañar’, pero hasta el momento no ha surgido una solución general. Y eso podría ser peligroso en el mundo real. Un escenario especialmente alarmante, dice Clune, es que los hackers con malas intenciones podrían aprender a explotar estas debilidades. Podrían hacer que un automóvil que se autoconduce gire contra una valla publicitaria porque piensa que es una calle, o engañar a un escáner de retina para que dé a un intruso acceso a la Casa Blanca, pensando que la persona es Barack Obama. “Tenemos que subirnos las mangas y hacer ciencia dura, para que la máquina de aprendizaje sea más sólida y más inteligente”, concluye Clune.

Cuestiones como estas han llevado a algunos científicos de la computación a pensar que el aprendizaje profundo con las redes neuronales no debe ser el único método. Zoubin Ghahramani, un investigador de aprendizaje de máquinas en la Universidad de Cambridge, Reino Unido, dice que si desarrollamos IA con el fin de dar respuestas que los seres humanos pueden interpretar fácilmente, “hay un mundo de problemas para los cuales el aprendizaje profundo simplemente no es la solución”. Una técnica relativamente transparente que tiene la capacidad de hacer ciencia se estrenó en 2009 por Lipson y por el biólogo computacional Michael Schmidt, entonces en la Universidad de Cornell, en Ithaca, Nueva York. Su algoritmo, llamado Eureqa, demostró que podía volver a descubrir las leyes de físicas de Newton simplemente observando un objeto mecánico relativamente simple: un sistema de péndulos en movimiento.

A partir de una combinación aleatoria de bloques de construcción matemáticos, como +, -, seno y coseno, Eureqa sigue un método de prueba y error inspirado en la evolución darwiniana para modificar los términos hasta llegar a las fórmulas que describen mejor los datos. Luego propone experimentos para probar sus modelos. Una de sus ventajas es la sencillez, dice Lipson. “Un modelo producido por Eureqa por lo general tiene una docena de parámetros. Una red neuronal tiene millones”.

 

EN PILOTO AUTOMÁTICO

El año pasado, Ghahramani publicó un algoritmo que automatiza todos los pasos del trabajo de un científico de datos, desde la observación de datos en bruto hasta la escritura de un artículo. Su software, llamado Estadístico Automático, identifica tendencias y anomalías en los conjuntos de datos y presenta una conclusión, incluyendo una explicación detallada de su razonamiento. Esta transparencia, dice Ghahramani, es “absolutamente fundamental” para aplicaciones científicas, pero también es importante para muchas aplicaciones comerciales. Por ejemplo, dice, en muchos países, los bancos que niegan un préstamo tienen la obligación legal de decir por qué, algo que probablemente un algoritmo de aprendizaje profundo no pueda hacer.

Preocupaciones similares se aplican a una amplia gama de instituciones, señala Ellie Dobson, directora de ciencia de datos de la firma big-data Arundo Analytics, en Oslo. Si algo saliera mal como consecuencia de la fijación de los tipos de interés del Reino Unido, dice, “el Banco de Inglaterra no puede decir, ‘la caja negra me dijo que lo hiciera’”.

A pesar de estos temores, los informáticos sostienen que los esfuerzos por crear una IA más transparente deben considerarse complementarios al aprendizaje profundo, y no un reemplazo. Algunas de las técnicas para transparentar pueden funcionar bien en los problemas que ya se han descrito como un conjunto de realidades abstractas, dicen ellos, pero no son tan eficientes en la percepción –el proceso de extracción de realidades a partir de datos en bruto–.

En última instancia, dicen estos investigadores, las complejas respuestas dadas por el aprendizaje de máquinas tienen que ser parte de las herramientas de la ciencia debido a que el mundo real es complejo: para fenómenos tales como el clima o el mercado de valores, una descripción reduccionista y sintética podría incluso no existir. “Hay cosas que no podemos verbalizar”, dice Stéphane Mallat, un matemático aplicado en la Escuela Politécnica de París. “Cuando le preguntas a un médico por qué diagnosticó esto o lo otro, él te dará algunas razones”, dice. “Pero ¿por qué se tarda 20 años para hacer un buen médico? Porque la información no está solo en los libros”.

Para Baldi, los científicos deben aceptar el aprendizaje profundo sin ser “demasiado quisquillosos” en cuanto a la caja negra. Después de todo, todos ellos llevan una caja negra en la cabeza. “Usted usa su cerebro todo el tiempo; confía en su cerebro todo el tiempo; pero no tiene idea de cómo funciona el cerebro”.

Este artículo se reproduce con el permiso y fue publicado por primera vez el 5 de octubre de 2016.