Al igual que nosotros, los robots no pueden ver a través de las paredes. A veces necesitan un poco de ayuda para llegar a donde van.
Ingenieros de la Universidad de Rice han desarrollado un método que permite a los humanos ayudar a los robots a «ver» su entorno y realizar tareas.
La estrategia llamada aprendizaje bayesiano en la oscuridad, CIEGO, para abreviar, es una solución novedosa al problema de larga data de la planificación del movimiento para los robots que trabajan en entornos donde no todo es claramente visible todo el tiempo.
El estudio revisado por pares dirigido por los informáticos Lydia Kavraki y Vaibhav Unhelkar y los coautores Carlos Quintero-Peña y Constantinos Chamzas de la Escuela de Ingeniería George R. Brown de Rice se presentó en la Conferencia Internacional sobre Robótica del Instituto de Ingenieros Eléctricos y Electrónicos. y Automatización a fines de mayo.
El algoritmo desarrollado principalmente por Quintero-Peña y Chamzas, ambos estudiantes de posgrado que trabajan con Kavraki, mantiene a un humano informado para «aumentar la percepción del robot y, lo que es más importante, prevenir la ejecución de movimientos inseguros», según el estudio.
Para hacerlo, combinaron el aprendizaje de refuerzo inverso bayesiano (mediante el cual un sistema aprende a partir de información y experiencia continuamente actualizada) con técnicas de planificación de movimiento establecidas para ayudar a los robots que tienen «altos grados de libertad», es decir, muchas partes móviles.
Para probar BLIND, el laboratorio de Rice dirigió un robot Fetch, un brazo articulado con siete articulaciones, para tomar un pequeño cilindro de una mesa y moverlo a otra, pero al hacerlo tuvo que pasar una barrera.
«Si tiene más articulaciones, las instrucciones para el robot son complicadas», dijo Quintero-Peña. «Si estás dirigiendo a un humano, puedes simplemente decir: ‘Levanta la mano'».
Pero los programadores de un robot deben ser específicos sobre el movimiento de cada articulación en cada punto de su trayectoria, especialmente cuando los obstáculos bloquean la «visión» de la máquina de su objetivo.
En lugar de programar una trayectoria por adelantado, BLIND inserta un proceso medio humano para refinar las opciones coreografiadas, o las mejores conjeturas, sugeridas por el algoritmo del robot. «BLIND nos permite tomar información en la cabeza humana y computar nuestras trayectorias en este espacio de alto grado de libertad», dijo Quintero-Peña.
«Usamos una forma específica de retroalimentación llamada crítica, básicamente una forma binaria de retroalimentación en la que al humano se le asignan etiquetas en partes de la trayectoria», dijo.
Estas etiquetas aparecen como puntos verdes conectados que representan posibles rutas. A medida que BLIND avanza de un punto a otro, el humano aprueba o rechaza cada movimiento para refinar el camino, evitando los obstáculos de la manera más eficiente posible.
«Es una interfaz fácil de usar para las personas, porque podemos decir ‘Me gusta esto’ o ‘No me gusta eso’, y el robot usa esta información para planificar», dijo Chamzas. Una vez recompensado con un conjunto de movimientos aprobados, el robot puede llevar a cabo su tarea, dijo.
«Una de las cosas más importantes aquí es que las preferencias humanas son difíciles de describir con una fórmula matemática», dijo Quintero-Peña. «Nuestro trabajo simplifica las relaciones entre humanos y robots al incorporar las preferencias humanas. Así es como creo que las aplicaciones obtendrán el mayor beneficio de este trabajo».
«Este trabajo ejemplifica maravillosamente cómo una pequeña intervención humana, pero dirigida, puede mejorar significativamente las capacidades de los robots para ejecutar tareas complejas en entornos donde algunas partes son completamente desconocidas para el robot pero conocidas para el ser humano», dijo Kavraki, un pionero de la robótica cuyo El currículum incluye programación avanzada para el humanoide Robonaut de la NASA a bordo de la Estación Espacial Internacional.
«Muestra cómo los métodos para la interacción humano-robot, el tema de investigación de mi colega, el profesor Unhelkar, y la planificación automatizada, pionera durante años en mi laboratorio, pueden combinarse para brindar soluciones confiables que también respeten las preferencias humanas».
La exalumna de pregrado de Rice, Zhanyi Sun, y Unhelkar, profesor asistente de informática, son coautores del artículo. Kavraki es profesor Noah Harding de Ciencias de la Computación y profesor de bioingeniería, ingeniería eléctrica e informática e ingeniería mecánica, y director del Instituto Ken Kennedy.
La Fundación Nacional de Ciencias (2008720, 1718487) y una subvención del Programa de Becas de Investigación para Graduados de la NSF (1842494) apoyaron la investigación.
Video: https://youtu.be/RbDDiApQhNo