Mostrar el registro sencillo del ítem

dc.contributor.advisorGonzález Campos, Saúl
dc.contributor.advisorPaz Gutiérrez, Jenaro Carlos
dc.contributor.authorMendoza Encinas, Sergio Daniel
dc.date.accessioned2017-09-08T16:28:05Z
dc.date.available2017-09-08T16:28:05Z
dc.date.issued2011-05
dc.identifier.otherLCA-101-11es_MX
dc.identifier.urihttp://hdl.handle.net/20.500.11961/3097
dc.description.abstractEn la actualidad es muy común utilizar en una computadora un dispositivo de entrada llamado “Mouse” o “Ratón”, el cual es utilizado con una de las manos del usuario y detecta los movimientos relativos de ésta en dos dimensiones, los cuales se ven reflejados mediante un puntero en un monitor. Este aparato fue diseñado en los años 60 por Douglas Engelbart y Bill English en el “Stanford Research Institute", un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California, y fue registrado bajo el nombre de "X-Y Position Indicator for a Display System". Hoy en día este dispositivo es imprescindible en la mayoría de los equipos computacionales, aun y con la aparición de tecnologías similares, como las pantallas táctiles. En 1982, la Universidad de Toronto, en conjunto con los Laboratorios Bell, comenzaron a desarrollar la tecnología conocida como “Multitáctil”, la cual permite reconocer múltiples puntos de contacto simultáneamente, permitiendo hacer uso de diversas funciones, interpretadas por un software que permite interpretar dichas interacciones simultaneas. Por otro lado, La Realidad Aumentada es una tecnología que se ha puesto de moda en la actualidad, en la cual se han estado desarrollando diversas aplicaciones, que van desde el uso publicitario hasta el uso médico y de creación de sabores artificiales para elementos virtuales. Dicha tecnología permite mezclar elementos virtuales con reales en video en tiempo real, además de permitir la interacción entre ambas partes, la virtual y la real. Esto se logra mediante el uso de algoritmos de rastreo aplicados al video en tiempo real, los cuales reconocen diversos “marcadores” y sobreponen información ante éstos. Dichos algoritmos son los que serán utilizados para lograr el objetivo de la investigación, utilizando los datos que generen dichos “marcadores” en tiempo real y convirtiéndolos en funciones que permitan la manipulación del puntero y diversos elementos virtuales. Anterior a esta investigación se han realizado proyectos que guardan una semejanza o relación con el presente, en los siguientes párrafos se hace mención de algunos de ellos. El proyecto Head Mouse, fue desarrollado por miembros de la Universidad de Lleida, España. Consiste en poder controlar el ratón de la computadora mediante movimientos de la cabeza y una cámara. Además del movimiento, ofrece también diversas funciones del ratón, como seleccionar, sostener, arrastrar etc. Al utilizar solo los movimientos de la cabeza como comandos de control, facilita que personas con ciertas discapacidades motrices puedan hacer uso de una computadora y sus funciones. La aplicación puede ser descargada de forma gratuita desde la página oficial del proyecto: http://robotica.udl.cat/. Eye Mouse es un proyecto realizado como alternativa a aquellas personas en que el proyecto Head Mouse no brindaba la solución deseada, fue realizado por los alumnos Nicolás Amaro y Nicolás Poniemam, como parte de su proyecto final en la Escuela Técnica ORT sede Belgrano, Argentina. Eye Mouse permite la manipulación del puntero y sus funciones mediante el uso de una cámara y el movimiento de uno de los ojos del usuario. La aplicación Eye Mouse puede ser descargada desde la página oficial del proyecto: http://ticbelgrano.blogspot.com/2008/12/instalador-del-software-del-eyemouse. html Jacob Andreas, un estudiante de la Universidad de Columbia, muestra un video en YouTube, con el cual controla el puntero, utilizando una cámara y un guante rojo como “marcador”. Para lograrlo utiliza la librería OpenCV de Intel, utilizando un rastreo (tracking) por color, en este caso el rojo. Al ubicar el color rojo en la escena, el programa lo identifica y lo traduce a coordenadas del puntero. El código fuente puede ser descargado de la página: http://www.jacobandreas.net/2008/opencv-x-input/, está desarrollado en C++ y hace uso también de la librería XTest, disponible únicamente para Linux. Con los avances de la tecnología y de las plataformas de desarrollo, se han ido agregando dispositivos o medios de control, con los cuales es posible manipular las acciones del puntero mediante el movimiento de los ojos, de la cabeza o de las manos, utilizando para ello un dispositivo capaz de reconocer, rastrear y convertir en coordenadas dichos movimientos, permitiendo así la manipulación del puntero. Actualmente la mayoría de los usuarios de computadoras están atados al uso de un ratón físico para controlar las acciones del puntero en algunos sistemas, aún en equipos que cuentan con un monitor de pantalla táctil se está obligado al uso de este último dispositivo para poder controlar las acciones del puntero. La presente investigación demuestra que es factible controlar las acciones del puntero y funciones multitacto mediante el uso de bibliotecas utilizadas para el desarrollo de aplicaciones de Realidad Aumentada. Para lograr el objetivo de la presente investigación, se desarrolló una aplicación que permite controlar las acciones del puntero, los cuales son manipulados con el seguimiento de diversos marcadores coloridos frente a una cámara, los cuales al interactuar entre sí, simulan diversas funciones de un ratón. Se utilizaron las bibliotecas contenidas en el kit de desarrollo conocido como Touchless SDK y Visual Studio 2010 Profesional, siendo Visual Basic el lenguaje en que se desarrolló esta aplicación. Al final se obtuvo una aplicación con la cual se pueden controlar las acciones del puntero, así como eventos de clic. Respecto a las funciones multitacto, para lograr la implementación total de éstas, es necesario el desarrollo de un controlador virtual que permita la interacción entre la aplicación desarrollada y el sistema operativo.es_MX
dc.language.isospaes_MX
dc.publisherUniversidad Autónoma de Ciudad Juárezes_MX
dc.relation.ispartofInstituto de Ingeniería y Tecnologíaes
dc.relation.ispartofDepartamento de Ingeniería Eléctrica y Computaciónes
dc.relation.ispartofLicenciatura en Ingeniería en Sistemas Computacionaleses
dc.rightsAtribución-NoComercial-SinDerivadas 2.5 México*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/mx/*
dc.subjectControles_MX
dc.subjectPunteroes_MX
dc.subjectMultitactoes_MX
dc.subjectBibliotecases_MX
dc.subjectRealidades_MX
dc.subjectAumentadaes_MX
dc.subject.lccLCC::TECHNOLOGY::Information technologyes_MX
dc.subject.otherinfo:eu-repo/classification/cti/7es_MX
dc.titleControl del puntero y funciones multitacto mediante el uso de bibliotecas utilizadas en el desarrollo de aplicaciones de realidad aumentadaes_MX
dc.typeTrabajo recepcional licenciaturaes_MX
dcterms.thumbnailhttp://ri.uacj.mx/vufind/thumbnails/tr-iit.pnges
dcrupi.departamentoDepartamento de Ingeniería Eléctrica y Computaciónes
dcrupi.programa-academicoLicenciatura en Ingeniería en Sistemas Computacionaleses
dcrupi.institutoInstituto de Ingeniería y Tecnologíaes


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución-NoComercial-SinDerivadas 2.5 México
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución-NoComercial-SinDerivadas 2.5 México

Av. Plutarco Elías Calles #1210 • Fovissste Chamizal
Ciudad Juárez, Chihuahua, México • C.P. 32310 • Tel. (+52) 688 – 2100 al 09

Gestionando el conocimiento 
Atmire NV