Control del puntero y funciones multitacto mediante el uso de bibliotecas utilizadas en el desarrollo de aplicaciones de realidad aumentada
En la actualidad es muy común utilizar en una computadora un dispositivo de entrada llamado “Mouse” o “Ratón”, el cual es utilizado con una de las manos del usuario y detecta los movimientos relativos de ésta en dos dimensiones, los cuales se ven reflejados mediante un puntero en un monitor. Este...
Saved in:
Main Author: | |
---|---|
Other Authors: | |
Format: | Trabajo recepcional licenciatura |
Language: | spa |
Published: |
Universidad Autónoma de Ciudad Juárez
2017
|
Subjects: | |
Online Access: | http://hdl.handle.net/20.500.11961/3097 |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
Summary: | En la actualidad es muy común utilizar en una computadora un dispositivo de
entrada llamado “Mouse” o “Ratón”, el cual es utilizado con una de las manos del
usuario y detecta los movimientos relativos de ésta en dos dimensiones, los cuales se
ven reflejados mediante un puntero en un monitor. Este aparato fue diseñado en los años
60 por Douglas Engelbart y Bill English en el “Stanford Research Institute", un
laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California, y fue
registrado bajo el nombre de "X-Y Position Indicator for a Display System". Hoy en día
este dispositivo es imprescindible en la mayoría de los equipos computacionales, aun y
con la aparición de tecnologías similares, como las pantallas táctiles.
En 1982, la Universidad de Toronto, en conjunto con los Laboratorios Bell,
comenzaron a desarrollar la tecnología conocida como “Multitáctil”, la cual permite
reconocer múltiples puntos de contacto simultáneamente, permitiendo hacer uso de
diversas funciones, interpretadas por un software que permite interpretar dichas
interacciones simultaneas.
Por otro lado, La Realidad Aumentada es una tecnología que se ha puesto de
moda en la actualidad, en la cual se han estado desarrollando diversas aplicaciones, que
van desde el uso publicitario hasta el uso médico y de creación de sabores artificiales
para elementos virtuales. Dicha tecnología permite mezclar elementos virtuales con
reales en video en tiempo real, además de permitir la interacción entre ambas partes, la
virtual y la real. Esto se logra mediante el uso de algoritmos de rastreo aplicados al
video en tiempo real, los cuales reconocen diversos “marcadores” y sobreponen
información ante éstos. Dichos algoritmos son los que serán utilizados para lograr el
objetivo de la investigación, utilizando los datos que generen dichos “marcadores” en
tiempo real y convirtiéndolos en funciones que permitan la manipulación del puntero y
diversos elementos virtuales.
Anterior a esta investigación se han realizado proyectos que guardan una
semejanza o relación con el presente, en los siguientes párrafos se hace mención de
algunos de ellos.
El proyecto Head Mouse, fue desarrollado por miembros de la Universidad de
Lleida, España. Consiste en poder controlar el ratón de la computadora mediante
movimientos de la cabeza y una cámara. Además del movimiento, ofrece también
diversas funciones del ratón, como seleccionar, sostener, arrastrar etc. Al utilizar solo
los movimientos de la cabeza como comandos de control, facilita que personas con
ciertas discapacidades motrices puedan hacer uso de una computadora y sus funciones.
La aplicación puede ser descargada de forma gratuita desde la página oficial del
proyecto: http://robotica.udl.cat/.
Eye Mouse es un proyecto realizado como alternativa a aquellas personas en que
el proyecto Head Mouse no brindaba la solución deseada, fue realizado por los alumnos
Nicolás Amaro y Nicolás Poniemam, como parte de su proyecto final en la Escuela
Técnica ORT sede Belgrano, Argentina. Eye Mouse permite la manipulación del
puntero y sus funciones mediante el uso de una cámara y el movimiento de uno de los
ojos del usuario. La aplicación Eye Mouse puede ser descargada desde la página oficial
del proyecto: http://ticbelgrano.blogspot.com/2008/12/instalador-del-software-del-eyemouse.
html
Jacob Andreas, un estudiante de la Universidad de Columbia, muestra un video
en YouTube, con el cual controla el puntero, utilizando una cámara y un guante rojo
como “marcador”. Para lograrlo utiliza la librería OpenCV de Intel, utilizando un
rastreo (tracking) por color, en este caso el rojo. Al ubicar el color rojo en la escena, el
programa lo identifica y lo traduce a coordenadas del puntero. El código fuente puede
ser descargado de la página: http://www.jacobandreas.net/2008/opencv-x-input/, está
desarrollado en C++ y hace uso también de la librería XTest, disponible únicamente
para Linux.
Con los avances de la tecnología y de las plataformas de desarrollo, se han ido
agregando dispositivos o medios de control, con los cuales es posible manipular las
acciones del puntero mediante el movimiento de los ojos, de la cabeza o de las manos,
utilizando para ello un dispositivo capaz de reconocer, rastrear y convertir en
coordenadas dichos movimientos, permitiendo así la manipulación del puntero.
Actualmente la mayoría de los usuarios de computadoras están atados al uso de
un ratón físico para controlar las acciones del puntero en algunos sistemas, aún en
equipos que cuentan con un monitor de pantalla táctil se está obligado al uso de este
último dispositivo para poder controlar las acciones del puntero.
La presente investigación demuestra que es factible controlar las acciones del
puntero y funciones multitacto mediante el uso de bibliotecas utilizadas para el
desarrollo de aplicaciones de Realidad Aumentada.
Para lograr el objetivo de la presente investigación, se desarrolló una aplicación
que permite controlar las acciones del puntero, los cuales son manipulados con el
seguimiento de diversos marcadores coloridos frente a una cámara, los cuales al
interactuar entre sí, simulan diversas funciones de un ratón. Se utilizaron las bibliotecas
contenidas en el kit de desarrollo conocido como Touchless SDK y Visual Studio 2010
Profesional, siendo Visual Basic el lenguaje en que se desarrolló esta aplicación.
Al final se obtuvo una aplicación con la cual se pueden controlar las acciones del
puntero, así como eventos de clic. Respecto a las funciones multitacto, para lograr la
implementación total de éstas, es necesario el desarrollo de un controlador virtual que
permita la interacción entre la aplicación desarrollada y el sistema operativo. |
---|