Control del puntero y funciones multitacto mediante el uso de bibliotecas utilizadas en el desarrollo de aplicaciones de realidad aumentada

En la actualidad es muy común utilizar en una computadora un dispositivo de entrada llamado “Mouse” o “Ratón”, el cual es utilizado con una de las manos del usuario y detecta los movimientos relativos de ésta en dos dimensiones, los cuales se ven reflejados mediante un puntero en un monitor. Este...

Full description

Saved in:
Bibliographic Details
Main Author: Mendoza Encinas, Sergio Daniel
Other Authors: González Campos, Saúl
Format: Trabajo recepcional licenciatura
Language:spa
Published: Universidad Autónoma de Ciudad Juárez 2017
Subjects:
Online Access:http://hdl.handle.net/20.500.11961/3097
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:En la actualidad es muy común utilizar en una computadora un dispositivo de entrada llamado “Mouse” o “Ratón”, el cual es utilizado con una de las manos del usuario y detecta los movimientos relativos de ésta en dos dimensiones, los cuales se ven reflejados mediante un puntero en un monitor. Este aparato fue diseñado en los años 60 por Douglas Engelbart y Bill English en el “Stanford Research Institute", un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California, y fue registrado bajo el nombre de "X-Y Position Indicator for a Display System". Hoy en día este dispositivo es imprescindible en la mayoría de los equipos computacionales, aun y con la aparición de tecnologías similares, como las pantallas táctiles. En 1982, la Universidad de Toronto, en conjunto con los Laboratorios Bell, comenzaron a desarrollar la tecnología conocida como “Multitáctil”, la cual permite reconocer múltiples puntos de contacto simultáneamente, permitiendo hacer uso de diversas funciones, interpretadas por un software que permite interpretar dichas interacciones simultaneas. Por otro lado, La Realidad Aumentada es una tecnología que se ha puesto de moda en la actualidad, en la cual se han estado desarrollando diversas aplicaciones, que van desde el uso publicitario hasta el uso médico y de creación de sabores artificiales para elementos virtuales. Dicha tecnología permite mezclar elementos virtuales con reales en video en tiempo real, además de permitir la interacción entre ambas partes, la virtual y la real. Esto se logra mediante el uso de algoritmos de rastreo aplicados al video en tiempo real, los cuales reconocen diversos “marcadores” y sobreponen información ante éstos. Dichos algoritmos son los que serán utilizados para lograr el objetivo de la investigación, utilizando los datos que generen dichos “marcadores” en tiempo real y convirtiéndolos en funciones que permitan la manipulación del puntero y diversos elementos virtuales. Anterior a esta investigación se han realizado proyectos que guardan una semejanza o relación con el presente, en los siguientes párrafos se hace mención de algunos de ellos. El proyecto Head Mouse, fue desarrollado por miembros de la Universidad de Lleida, España. Consiste en poder controlar el ratón de la computadora mediante movimientos de la cabeza y una cámara. Además del movimiento, ofrece también diversas funciones del ratón, como seleccionar, sostener, arrastrar etc. Al utilizar solo los movimientos de la cabeza como comandos de control, facilita que personas con ciertas discapacidades motrices puedan hacer uso de una computadora y sus funciones. La aplicación puede ser descargada de forma gratuita desde la página oficial del proyecto: http://robotica.udl.cat/. Eye Mouse es un proyecto realizado como alternativa a aquellas personas en que el proyecto Head Mouse no brindaba la solución deseada, fue realizado por los alumnos Nicolás Amaro y Nicolás Poniemam, como parte de su proyecto final en la Escuela Técnica ORT sede Belgrano, Argentina. Eye Mouse permite la manipulación del puntero y sus funciones mediante el uso de una cámara y el movimiento de uno de los ojos del usuario. La aplicación Eye Mouse puede ser descargada desde la página oficial del proyecto: http://ticbelgrano.blogspot.com/2008/12/instalador-del-software-del-eyemouse. html Jacob Andreas, un estudiante de la Universidad de Columbia, muestra un video en YouTube, con el cual controla el puntero, utilizando una cámara y un guante rojo como “marcador”. Para lograrlo utiliza la librería OpenCV de Intel, utilizando un rastreo (tracking) por color, en este caso el rojo. Al ubicar el color rojo en la escena, el programa lo identifica y lo traduce a coordenadas del puntero. El código fuente puede ser descargado de la página: http://www.jacobandreas.net/2008/opencv-x-input/, está desarrollado en C++ y hace uso también de la librería XTest, disponible únicamente para Linux. Con los avances de la tecnología y de las plataformas de desarrollo, se han ido agregando dispositivos o medios de control, con los cuales es posible manipular las acciones del puntero mediante el movimiento de los ojos, de la cabeza o de las manos, utilizando para ello un dispositivo capaz de reconocer, rastrear y convertir en coordenadas dichos movimientos, permitiendo así la manipulación del puntero. Actualmente la mayoría de los usuarios de computadoras están atados al uso de un ratón físico para controlar las acciones del puntero en algunos sistemas, aún en equipos que cuentan con un monitor de pantalla táctil se está obligado al uso de este último dispositivo para poder controlar las acciones del puntero. La presente investigación demuestra que es factible controlar las acciones del puntero y funciones multitacto mediante el uso de bibliotecas utilizadas para el desarrollo de aplicaciones de Realidad Aumentada. Para lograr el objetivo de la presente investigación, se desarrolló una aplicación que permite controlar las acciones del puntero, los cuales son manipulados con el seguimiento de diversos marcadores coloridos frente a una cámara, los cuales al interactuar entre sí, simulan diversas funciones de un ratón. Se utilizaron las bibliotecas contenidas en el kit de desarrollo conocido como Touchless SDK y Visual Studio 2010 Profesional, siendo Visual Basic el lenguaje en que se desarrolló esta aplicación. Al final se obtuvo una aplicación con la cual se pueden controlar las acciones del puntero, así como eventos de clic. Respecto a las funciones multitacto, para lograr la implementación total de éstas, es necesario el desarrollo de un controlador virtual que permita la interacción entre la aplicación desarrollada y el sistema operativo.