Cómo ser más astuto que la inteligencia artificial: humano versus máquina.
Sistemas informáticos de IA están encontrando su camino en muchas áreas de nuestras vidas y ofrecen un gran potencial, desde vehículos autónomos hasta ayudar a los médicos con diagnósticos y robots autónomos de búsqueda y rescate.
Sin embargo, uno de los principales problemas no resueltos, particularmente con la rama de la IA conocida como "redes neuronales", es que los científicos a menudo no pueden explicar por qué las cosas salen mal. Esto se debe a la falta de comprensión del proceso de toma de decisiones dentro de los sistemas de IA. Este problema se conoce como el problema de la "caja negra".
¿Quién es más inteligente?
Un nuevo proyecto de investigación de 15 meses de la Universidad de Lancaster, en el que también participa la Universidad de Liverpool, tiene como objetivo descubrir los secretos del problema de la caja negra y encontrar una nueva forma de "Aprendizaje profundo"de modelos informáticos de IA que hacen que las decisiones sean transparentes y explicables.
El proyecto "Hacia sistemas de aprendizaje robóticos autónomos responsables y explicables"desarrollará una serie de procedimientos de prueba y revisión de seguridad para desarrollar algoritmos de inteligencia artificial. Estos ayudarán a garantizar que las decisiones tomadas por los sistemas sean sólidas y explicables".
Fuente de la imagen: Pixabay
Cursos
Los investigadores utilizarán una técnica llamada "entrenamiento inverso". Consiste en presentar el sistema en una situación determinada en la que aprende a realizar una acción, p. Ej. B. Detectar y levantar un objeto. Luego, los investigadores cambian varios elementos del escenario, como el color, la forma, el entorno y observan cómo el sistema aprende a través de prueba y error. Los investigadores creen que estas observaciones pueden conducir a una mejor comprensión de cómo el sistema aprende y percibe el Proceso de toma de decisiones concedido.
Al desarrollar formas de crear sistemas con redes neuronales que puedan comprender y predecir decisiones, la investigación será clave para desbloquear sistemas autónomos en áreas críticas para la seguridad, como vehículos y robots en la industria.
Dr. Wenjie Ruan, profesor de la Escuela de Computación y Comunicaciones de la Universidad de Lancaster e investigador principal del proyecto, dijo: "Aunque el Aprendizaje profundo Como una de las técnicas de inteligencia artificial más notables ha tenido un gran éxito en muchas aplicaciones, tiene sus propios problemas cuando se utiliza en sistemas críticos para la seguridad, incluidos los mecanismos opacos de toma de decisiones y la vulnerabilidad a los ataques adversarios. "Este proyecto es una excelente oportunidad para cerrar la brecha de investigación entre las técnicas de aprendizaje profundo y los sistemas críticos para la seguridad.