Si hay alguna razón para impulsar el desarrollo de los sistemas de inteligencia artificial es para hagan aquellas tareas que los humanos no podemos hacer y muy especialmente para que no cometan los mismos errores que los humanos cometen.
Google quiere enseñar a los sistemas de Inteligencia Artificial a aprender del pasado y utilizar lo experimentado anteriormente para no cometer errores de la forma en que lo hacen los humanos.
Algunos de estos errores tienen a veces graves consecuencias, algo que no podemos permitirnos cuando se trata por ejemplo de los automóviles de autoconducción, los drones, tipos de máquinas en los que Google está invirtiendo un gran esfuerzo para lograr la perfección absoluta y evitar las tragedias asociadas al factor humano.
La idea es que lo que no engaña a una persona (por ejemplo confundir un reflejo con un objeto sólido) no debería ser capaz de engañar a una IA.
Hasta ahora la neurociencia ha estudiado el campo de la inteligencia artificial a través de esfuerzos tales como la creación de redes neuronales. Un equipo de investigación de Google, que incluía a Ian Goodfellow, autor de un libro sobre aprendizaje profundo y un reciente whitepaper llamado “Adversarial Examples that Fool both Human and Computer Vision.” ("Ejemplos adversos que engañan tanto a la visión humana como a la computadora"). La obra señala que los métodos utilizados para engañar a la IA en la clasificación incorrecta de una imagen no funcionan en el cerebro humano. Goodfellow cree que esta información se puede usar para crear redes neuronales más resistentes.
Los ataques adversos son modelos de aprendizaje diseñados intencionadamente para crear errores y en último término dotar a los sistemas de inteligencia artificial de una mayor seguridad.
El año pasado, cuando un grupo de investigadores del MIT utilizó un ataque adverso contra una IA de Google, insertando un código simple en una imagen. Al hacerlo, ese equipo convenció a una red neuronal avanzada de que estaba mirando un rifle, cuando en realidad estaba viendo una tortuga. La mayoría de los niños mayores de tres años hubieran notado la diferencia.
Imagen: MIT
El problema no se encuentra en la IA de Google sino en que de forma general, los sistemas de inteligencia artificial no cuentan con algo que sí tenemos los seres humanos: dos ojos. Las máquinas no ven el mundo, simplemente procesan imágenes, por lo que pueden ser engañadas si partes de esa imagen son manipuladas intencionadamente.
Por eso Google está estudiando cómo el cerebro humano es capaz de seguir interpretando correctamente una imagen aunque se alteren partes de la misma. Un ejemplo clásico es la enorme capacidad de reconocimiento facial que tenemos los seres humanos. Aunque una persona se deje barba, cambie su color de pelo, o se maquille podemos reconocerla fácilmente, con un potencial de acierto mucho mayor que una máquina.
Goodfellow argumenta en su libro blanco que: Si supiéramos de manera concluyente que el cerebro humano podría resistir una cierta clase de ejemplos de confrontación, esto proporcionaría una prueba de existencia de un mecanismo similar en seguridad de aprendizaje automático.
Echemos un vistazo a este ejemplo de una imagen de un perro y un gato:
Los investigadores alteraron intencionadamente las cabezas de estos animales para lograr engañar al cerebro humano.
Lo cierto es que la tecnología de IA tiene mucho que aprender del funcionamiento del cerebro humano, quizá lo más difícil de comprender, por la razón de que es la mente investigando la propia mente. El cerebro es el resultado de millones de años de evolución y el reconocimiento de caras fue potenciado a un alto nivel de perfeccionamiento porque para nuestros antepasados, reconocer y ser reconocidos por los familiares y otros miembros del clan fue una cuestión de supervivencia.
Quizá las máquinas nunca puedan contemplar la belleza del mundo real pero sí tendrán que ser igual o mejores que nosotros para reconocer el mundo que les rodea y desarrollar su actividad con completa fiabilidad y seguridad.