Metodología de teleoperación robótica con realidad aumentada para generación de trayectorias de reparación en un ambiente con microgravedad y oclusión visual.

Las misiones robóticas teleoperadas en órbita son comunes para reparar o mejorar estaciones de investigación, comunicación u observación en el espacio. En las misiones de teleoperación, las regiones de interés o componentes a ser atendidos pueden quedar ocluidos por la luz o por un obstáculo físico,...

Full description

Saved in:
Bibliographic Details
Main Author: García Luna, Francesco José
Other Authors: Flores Abad, Ángel
Format: Tesis doctoral
Language:spa
Published: Universidad Autónoma de Ciudad Juárez 2024
Subjects:
Online Access:https://hdl.handle.net/20.500.11961/6977
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:Las misiones robóticas teleoperadas en órbita son comunes para reparar o mejorar estaciones de investigación, comunicación u observación en el espacio. En las misiones de teleoperación, las regiones de interés o componentes a ser atendidos pueden quedar ocluidos por la luz o por un obstáculo físico, lo que dificulta la maniobra teleoperada, y compromete el éxito y la seguridad de la misión. En ocasiones puede ocurrir una colisión no deseada debido a los puntos ciegos generados por la oclusión. En el presente documento se muestra una metodología de teleoperación con presencia directa y Realidad Aumentada (AR por sus siglas en inglés) que le permite a un robot remoto realizar una trayectoria en órbita a pesar de la presencia de áreas visualmente ocluidas, debido a que le permite al operador en el ambiente local obtener una perspectiva libre de oclusión visual en un entorno 3D (tridimensional) modelado dinámicamente. Además, para que el efector final del robot espacial reproduzca con precisión el movimiento natural de la mano de un operador humano, se utiliza un dispositivo de presencia de mano directa para mapear directamente los movimientos relativos de la mano del usuario a los movimientos relativos del efector final (EF) del robot. El sistema se valida en un entorno AR con entidades virtuales y físicas para realizar una reparación de un panel solar de un satélite objetivo en un área ocluida visualmente para el sistema de visión del robot. Los resultados experimentales muestran que debido a que el entorno virtual se puede manipular en tiempo real para obtener una perspectiva sin oclusión visual, el operador humano puede generar una trayectoria en el ambiente remoto sin comprometer la integridad del robot, a pesar de que el EF del robot y el sistema de visión no tienen la propiedad de observar directamente el área de interés. Actualmente, en el estado del arte no se ha reportado una solución generalizada para ejecutar una tarea en un área visualmente ocluida. Sin embargo, con la metodología propuesta, se comparó el sistema de presencia directa contra un joystick y un sistema MMK (Mouse-Monitor-Keyboard por sus siglas en inglés) en una tarea de teleoperación con un área visualmente ocluida y se reportó una mejora en el desempeño del 25% con respecto al MMK y 15% con respecto al joystick, en cuanto al tiempo promedio que toma a una persona alcanzar una región de interés.