Investigadores del MIT (Massachusetts Institute of Technology) y Microsoft han desarrollado un novedoso modelo que identifica los casos en que sistemas autónomos han «aprendido» de los ejemplos de capacitación que no coinciden con lo que realmente está sucediendo en el mundo real. En otras palabras estos modelos identifican los «puntos ciegos» de la Inteligencia Artificial en sistemas autónomos.
Este modelo de acuerdo a MIT News, podría usarse en un futuro próximo para mejorar la seguridad de los sistemas de inteligencia artificial, como los vehículos y robots autónomos.
Por ejemplo los sistemas de Inteligencia Artificial que controlan los vehículos autónomos son entrenados en muchísimas simulaciones virtuales para estar listos al momento de producirse una situación en la carretera tomar la decisión correcta de frenar, virar o realizar cualquier otra maniobra, pero a veces ocurren errores y no reaccionan como deberían reaccionar.
Los investigadores del MIT, junto con los de Microsoft que participaron en el proyecto, presentaron un documento en la conferencia Autonomous Agents and Multiagent Systems y pronto presentarán en la conferencia Association for the Advancement of Artificial Intelligence, en los cuales describen un modelos que permite descubrir «puntos ciegos» y además de aprendizaje de máquina incluye la intervención humana.
Al sistema de entrenamiento tradicional de estos tipos de sistemas de inteligencia artificial los investigadores le incorporaron un monitoreo realizado por un ser humano que está pendiente de todas las acciones del sistema cuando está actuando en el mundo real, incluyendo comentarios cuando el sistema está por cometer un error o ya lo cometió.
Una vez terminado el entrenamiento, los investigadores combinan los datos de entrenamiento con los datos ofrecidos por el humano a través de los comentarios y a través de aprendizaje automático producen el modelo que identifica estas situaciones para que no ocurra el error.
Uno de los autores del documento, Ramya Ramakrishanan, quien es graduado del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, señaló lo siguiente,
El modelo ayuda a los sistemas autónomos a saber mejor lo que no saben. Muchas veces, cuando se implementan estos sistemas, sus simulaciones entrenadas no coinciden con la configuración del mundo real [y] podrían cometer errores, como meterse en accidentes. La idea es usar a los humanos para cerrar esa brecha entre la simulación y el mundo real, de manera segura, para que podamos reducir algunos de esos errores.