[MUSIQUE] [MUSIQUE] [MUSIQUE] [MUSIQUE] Bonjour et bienvenue dans la dernière leçon de ce MOOC. Elle est consacrée à la réalité augmentée, une technologie informatique qui permet de superposer un modèle virtuel en deux ou trois dimensions à la perception que nous avons de la réalité, et ceci en temps réel. La combinaison de la réalité augmentée avec les systèmes d'information géographique offre des perspectives intéressantes, et c'est ce couplage technologique que nous allons vous présenter. Les buts de cette leçon sont de vous expliquer la technologie de la réalité augmentée, puis de présenter quelques exemples d'intégration de la réalité augmentée avec des applications de systèmes d'information géographique. Après cette leçon, vous serez capable de restituer le principe de fonctionnement de la réalité augmentée, d'expliquer quels peuvent être les avantages du couplage entre réalité augmentée et systèmes d'information géographique, et de citer quelques exemples d'applications pour lesquelles ce couplage a été effectué. Nous allons, dans un premier temps, expliquer le fonctionnement de la réalité augmentée, puis évoquer la combinaison entre cette technologie et les SIG, avant de présenter deux exemples. [MUSIQUE] Alors, qu'est-ce que la réalité augmentée? C'est la question que nous avons posée à Jens Ingensand, professeur de géoinformatique à l'institut G2C de la Haute École d'informatique et de gestion du canton de Vaud, située à Yverdon-les-Bains. >> Alors, la réalité augmentée c'est une technologie où il s'agit de superposer des informations virtuelles à la réalité. Donc très souvent on utilise des appareils comme celui-là, donc une tablette, ou aussi un smartphone, et puis ces appareils-là ils ont donc une caméra, et puis ils ont des accéléromètres et puis un GPS. Ça, ça permet de déterminer la position exacte de celui qui utilise l'appareil, puis ça permet aussi de déterminer quelle est la zone visible à travers la caméra. Du coup, avec ces informations-là, on peut superposer des informations spatiales à travers cette interface-là. Et puis du coup, on peut rendre des choses visibles qui ne sont autrement pas visibles dans l'environnement. >> En fait, c'est un 1901, déjà, que l'écrivain américain Lyman Frank Baum, l'auteur du roman pour enfants Le Magicien d'Oz, imagine des lunettes qui permettraient à leur porteur de voir apparaître sur le front des gens qu'il rencontre >> une lettre qui correspondrait à leur caractère. En 1960, Morton Heilig invente un appareil de cinéma immersif appelé le Sensorama : le spectateur est immergé dans un environnement visuel, olfactif et sonore, associé à des vibrations. L'augmentation de la réalité est effectué par surimposition d'effets sensoriels qui sont synchronisés avec l'image. Un peu plus tard, en 1968, sort le premier microprocesseur intégré d'Intel, Ivan Sutherland avec deux étudiants de l'université d'Harvard développent un logiciel de traitement d'image qui constitue la première application de réalité augmentée. Ensuite, en 1972, Myron Krueger invente le Videoplace qui rend possibles les interactions avec des objets virtuels. Et en 1978, Steve Mann crée un œil électronique de réalité augmenté nommé Digital Eye Glass. Et à partir de cette date, c'est l'évolution technologique des divers composants qui a fait progresser la réalité augmentée, très exigeante en terme de puissance de calcul. On note un net tournant à partir de 1980 avec la sortie du processeur Motorola 68000 à 32 bits. Le principe du fonctionnement a été mis au point en 1972 par Krueger, et il est schématisé sur cette figure. On capture une image de la réalité, les images sont collectées en temps réel par un logiciel de réalité augmentée, le logiciel détecte des points d'accroche prédéfinis, ici la main, mais cela peut être aussi des coordonnées GPS par exemple, et le logiciel sélectionne l'information associée au point d'accroche, ici la balle. Ensuite, l'image réelle est augmentée de cette information, puis projetée sur un écran ou sur des lunettes ou sur une tablette, et l'algorithme tourne en boucle, en temps réel et en interactivité. [MUSIQUE] Donc, la réalité augmentée permet de placer précisémment des objets virtuels dans des prises de vue de la réalité. Boeing a, par exemple, eu l'idée de recourir à cette technologie dans ses chaînes d'assemblage en superposant, par réalité augmentée, les instructions de montage directement sur les pièces. Alors, si l'on considère les métiers de la géoinformatique, quel intérêt peut-on trouver à combiner la réalité augmentée avec les SIG? >> Alors on peut dire que les SIG et la réalité augmentée sont relativement complémentaires, mais on peut aussi dire que la réalité augmentée, ça apporte aussi une autre vision de l'information géographique. Tout d'abord, on peut voir que dans un SIG, pour la plupart du temps, on utilise les données en deux dimensions, donc on fait par exemple une carte deux-dimensionnelle. Du coup, ce qu'il y a, c'est que, pour l'utilisateur, celui qui crée la carte ou celui qui voit la carte, doit faire un recodage de l'information deux-dimensionnelle à la réalité. Par exemple, ici on a des courbes de niveau, puis ces courbes de niveau sont très proches. Ça veut dire que, on est obligé de recoder cette information-là puis de comprendre que, comme ces courbes de niveau sont proches, il y a une forte pente. Donc il faut s'imaginer que, à cet endroit-là, il y a une certaine pente. Tandis qu'avec la réalité augmentée, ce recodage-là il n'a plus lieu parce qu'on voit directement à la réalité puis on voit directement les informations virtuelles superposées à la réalité. La deuxième chose, c'est qu'il y a une certaine démocratisation au niveau de l'information géographique à travers la réalité augmentée. Il faut voir que les SIG sont très souvent restreints à un public très cible, donc il y a peu d'utilisateurs qui savent utiliser un SIG. Et puis avec la réalité augmentée, comme aujourd'hui quasiment tout le monde a une tablette, un smartphone, on peut donc rendre accessibles des données géographiques qui autrement sont juste restreintes à un public très ciblé. [MUSIQUE] >> Nous allons maintenant vous présenter deux exemples d'application qui intègre réalité augmentée et information géographique. Le premier exemple est un projet appelé Biosentiers, et dont le but est de sensibiliser les utilisateurs à la biodiversité urbaine, tout en les encourageant à accomplir des actions en faveur de celle-ci, dont la saisie de nouvelles observations. La réalité augmentée facilite donc les aspects collaboratifs, comme nous allons le voir. Nous retrouvons Jens Ingensand, qui nous explique les détails de ce projet. >> Alors, le projet Biosentiers c'est un projet qu'on a à la HEIG à Yverdon-les-Bains. C'est un projet qui vise à développer une application de réalité augmentée, et puis cette application de réalité augmentée elle sera utilisée par des élèves qui vont descendre à la gare de Yverdon-les-Bains, puis du coup ils vont aller, avec leurs enseignants, de la gare d'Yverdon-les-Bains au centre Champ-Pittet, le centre Champ-Pittet c'est une réserve naturelle. Puis, ces élèves-là ils vont donc descendre à la gare et puis ils vont pouvoir utiliser cette application de réalité augmentée et puis voir des espèces le long du chemin, donc comme des oiseaux, comme des plantes, comme des arbres, comme des papillons, puis du coup ils pourront cliquer sur ces objets-là, et puis apprendre plusieurs choses par rapport aux espèces. Puis ce qui est intéressant aussi, ils vont apprendre quelles espèces vivent en ville, quelles espèces vivent en dehors de la ville, et puis ils pourront voir, de la gare jusqu'au centre Champ-Pittet, une explosion du nombre d'espèces. Proche de la gare, ils auront peut-être juste quelques oiseaux qui seront visibles, tandis que vers le centre il y a des centaines et des milliers de différentes espèces qui seront visibles. >> L'autre exemple que nous vous présentons s'intègre dans une démarche didactique et entre dans la catégorie de ce qu'on appelle les interfaces tangibles. Le bac à sable augmenté, ou Augmented Reality Sandbox, permet d'apprendre aux élèves les notions de base en topographie, et à générer des courbes de niveau en vue de créer, à la main, des cartes topographiques. Cette installation permet également de faciliter l'apprentissage des sciences de la terre, dont l'un des grands défis est la visualisation de processus qui se produisent sur de grandes échelles spatiales et temporelles. La sandbox est constituée d'un bac à sable de 100 fois 75 fois 20 centimètres, rempli avec 50 décimètres cubes de sable fin blanc. Une caméra Kinect for Xbox et un projecteur vidéo, ou beamer, surmonte le fond du bac d'un mètre. La taille du bac à sable est limitée par les distances de détection minimales et maximales de la Kinect et par la résolution désirée. Le ratio quatre pour trois, entre la longueur et la largeur de la sandbox, correspond au champ de vision de la Kinect et du beamer. Une Kinect est composée d'une caméra couleur et d'une caméra infrarouge de profondeur. La caméra de profondeur utilise une approche de lumière structurée, selon laquelle un motif lumineux est envoyé sur le sable. Puis, la caméra récupère le signal réfléchit. Elle peut, à partir de la déformation du motif envoyé, reconstituer la géométrie de la surface. L'ordinateur auquel sont reliés la Kinect et le beamer est suffisamment puissant et il est équipé d'une carte graphique performante. Le logiciel Augmented Reality Sandbox, développé par l'institut de géologie de l'université de Davis, en Californie, est Open Source et tourne sous Linux Mint. Le dispositif informatique de réalité augmentée instaure une boucle fermée constituée des étapes suivantes. D'abord, la Kinect reçoit une matrice 480 fois 640 de distance brute, avec une fréquence de 30 images par seconde. Ces données passent dans un filtre statistique qui a trois buts : le premier est d'identifier les objets en mouvement, comme ici les mains de l'utilisateur, ensuite, il est de réduire les perturbations du signal, ou le bruit, et finalement, il est de compenser les données manquantes dans le flux de données de profondeur de la Kinect. La surface topographique résultante est ensuite projetée par le beamer de manière à ce qu'elle corresponde exactement à celle qui est façonnée dans le sable. Le logiciel utilise une palette colorimétrique spectrale : du bleu, pour les zones de plus basse altitude, au rouge en passant par le vert, et le blanc pour les points culminants. La sandbox constitue un support à l'enseignement pour une variété de sujets liés aux sciences de la Terre en général : la géologie, la géomorphologie, la topographie et la lecture de carte sur la base des courbes de niveau, mais aussi les bassins versants et les problèmes de ruissellement en hydrologie. Trois expériences types peuvent être effectuées avec la sandbox : d'une part, la reconstitution d'un relief existant, qui repose sur la capacité du dispositif à projeter des courbes de niveau sur le sable, deuxièmement, la modélisation de l'évolution historique d'un paysage, qui exploite un algorithme de comparaison de relief, et troisièmement, l'analyse de bassins versants et de ruissellements basés sur un modèle hydrologique et de simulations de flux de fluide. La sandbox permet également de développer des activités de recherche, comme l'intégration de différents modes d'interaction et de divers niveaux d'interactivité, ou encore les aspects de sémiologie graphique dans la perspective d'adopter, en fonction des phénomènes représentés, des palettes de couleur qui optimisent la visualisation et ainsi la compréhension des processus étudiés. [MUSIQUE] Et voilà, nous sommes arrivés au terme de cette leçon, la dernière de ce MOOC d'introduction aux SIG. En guise de perspective sur les modes d'exploitation et de représentation de l'information géographique, nous vous y avons présenté comment il est possible de combiner la technologie de la réalité augmentée avec l'information spatiale. Ce domaine est en pleine évolution, d'une part grâce aux progrès extraordinaires des technologies de l'image, et d'autre part grâce à l'augmentation faramineuse de la capacité de calcul des équipements informatiques. Les coordonnées géographiques sont utilisées dans les algorithmes, qui tournent en boucle, pour coordonner les flux de données entre les équipements qui permettent d'augmenter la réalité au moyen d'objets virtuels. Ces derniers peuvent apparaître au bon moment et au bon endroit grâce à la localisation des utilisateurs qui sont équipés de tablettes ou de smartphones et qui se déplacent dans le paysage. Nous avons illustré ce couplage avec une application dédiée à l'inventaire de la biodiversité et un dispositif d'aide à l'enseignement, mais nombreux sont les champs d'application possibles, principalement dans les domaines de la navigation aérienne, marine, routière et piétonne. Alors, merci d'avoir suivi ce cours en ligne jusqu'à son terme, et bon vent pour la suite de vos études ou pour la mise en œuvre de ces nouvelles connaissances. [MUSIQUE] [MUSIQUE]