La vitrine de diffusion des mémoires et thèses de l'ÉTS
RECHERCHER

Agrandissement d'un écran mobile par réalité augmentée

Téléchargements

Téléchargements par mois depuis la dernière année

Plus de statistiques...

Normand, Erwan (2018). Agrandissement d'un écran mobile par réalité augmentée. Mémoire de maîtrise électronique, Montréal, École de technologie supérieure.

[img]
Prévisualisation
PDF
Télécharger (18MB) | Prévisualisation
[img]
Prévisualisation
PDF
Télécharger (1MB) | Prévisualisation

Résumé

Les récentes et importantes avancées dans la recherche et en industrie promettent à la réalité augmentée (RA) de s’intégrer profondément dans nos vies personnelles et professionnelles, malgré des limites technologiques encore existantes, pour augmenter nos perceptions du réel et les interactions avec nos environnements. Nous proposons d’utiliser la RA pour étendre l’écran d’un téléphone, au-delà de ses limites physiques, avec un écran virtuel coplanaire, synchronisé et suivant ses mouvements, créant la perception d’un unique grand écran étendu tenu en main. Nous appelons cette extension Virtuality Extended Screen-Aligned Display (VESAD). Nous décrivons les modes de vues possibles avec cette affichage : vue multi-fenêtres, supportant du multi-tâche, et vue étendue, où une application utilise tout l’écran étendu. Nous présentons aussi deux nouvelles techniques d’interaction : wrist, où l’utilisateur fait une rotation rapide du poignet pour substituer l’affichage avec un autre, et slide-to-hang pour détacher l’écran étendu en une fenêtre virtuelle séparée du téléphone. Nous décrivons ensuite la conception de notre propre visiocasque de RA à large champ de vision (100°×98° pour chaque oeil), permettant de voir complètement l’écran étendu, ainsi que le développement de notre bibliothèque libre de RA ArucoUnity, qui porte sur le moteur 3D Unity les fonctions de suivi de marqueurs et de calibration de caméra de la bibliothèque libre de vision par ordinateur OpenCV. Nous menons ensuite une étude expérimentale pour évaluer, d’une part, les avantages d’un téléphone à écran étendu par rapport à un téléphone non étendu et, d’autre part, pour comparer l’utilisation de l’écran tactile à des interactions avec la main sur l’écran virtuel. Nous répliquons une tâche de classement issue de la littérature sur les affichages muraux, impliquant de la navigation et des sélections. Nos résultats indiquent que la combinaison du téléphone à écran étendu avec les interactions tactiles s’est montrée la plus rapide, en particulier quand la tâche était maîtrisée des participants, et la plus performante en termes de navigation. Elle a également été préférée des participants. Néanmoins, plusieurs participants ont vu plus de potentiel dans les interactions avec la main virtuelle avec l’écran étendu. Nous donnons enfin des recommandations d’implémentation, de conception d’interface et de techniques d’interaction pour un VESAD.

Titre traduit

Extension of a mobile screen by augmented reality

Résumé traduit

Significant and recent progress in research and in industry destined augmented reality to deeply integrate both in our personal and professional life. We propose using augmented reality to extend the screen of a smartphone beyond its physical limits with a virtual surface that is co-planar with the phone and that follows as the phone is moved. This creates the feeling of interaction with a unique big handheld screen. We call this extension a VESAD, or Virtually Extended Screen-Aligned Display. We illustrate first several ways that a VESAD could be used with two different viewing modes : multi-windowed view, to support multi-task, and extended view where an application uses the whole extended screen. We also present two novel interaction techniques : wrist, where the user performs a quick rotation of the phone to switch the information shown in the VESAD, and slide-and-hang whereby the user can detach a VESAD and leave it hanging in mid-air. We then describe our video-based augmented reality headmounted display we developed with a large field of view (100°×98° for each eye) and our free and open-source (FOSS) augmented reality library ArucoUnity. It ports the camera calibration and fiducial marker tracking functions from the FOSS computer-vision library OpenCV to the 3D engine Unity. We conducted an experiment that compared three interfaces used for an abstract classification task : the first using only a smartphone, the second using the phone for input but with a VESAD for output, and the third where the user performed input in mid-air on the VESAD (as detected by a Leap Motion). The second user interface was found to be superior in task completion time, furthermore with the last trials of the participants. It was also the most performant for navigation and was subjectively preferred over the other two interfaces. We finally report implementation, interfaces and interactions guidelines to create a VESAD.

Type de document: Mémoire ou thèse (Mémoire de maîtrise électronique)
Renseignements supplémentaires: Mémoire présenté à l'École de technologie supérieure comme exigence partielle à l'obtention de la maîtrise avec mémoire en génie, concentration génie logiciel". Comprend des références bibliographiques (pages 205-213).
Mots-clés libres: réalité augmentée, interface humain-machine, visiocasque, écran tactile, main virtuelle
Directeur de mémoire/thèse:
Directeur de mémoire/thèse
McGuffin, Michael John
Programme: Maîtrise en ingénierie > Génie
Date de dépôt: 03 déc. 2018 20:50
Dernière modification: 03 déc. 2018 20:50
URI: http://espace.etsmtl.ca/id/eprint/2172

Actions (Identification requise)

Dernière vérification avant le dépôt Dernière vérification avant le dépôt