Texturage omnidirectionnel d'un avatar à partir de plusieurs flux vidéo |
PDF du sujet
Contexte
Dans le contexte des applications de réalité augmentée, le but du projet Cyber-II est de simuler, en temps réel, la présence d'une personne (un présentateur de télévision, un professeur, etc.) dans un environnement virtuel. Cette simulation consiste principalement à mixer image réelle et virtuelle et à founir des interfaces permettant l'interaction entre la personne filmée, l'environnement virtuel, et l'observateur (par exemple un téléspectateur ou un élève).
Les principaux impératifs techniques sont une visualisation à la fois hautement réaliste (éclairage cohérent, ombrage, etc.) et fonctionnant en temps réel.
Le système se compose des principaux points suivants :
- Acquisition et modélisation
- Rendu
- Gestion des données et calcul réparti/parallèle
Le projet CYBER-II est soutenu sous la forme d'une ACI «Masse de données» par le Ministère de la Recherche.
Sujet
Dans le cadre du projet Cyber-II, nous cherchons à "récupérer" les flux vidéo (Figure 1) provenant des caméras ayant servi à la reconstruction 3D de l'animateur ([1], [2]) pour les "plaquer" sur cet avatar (Figure 2).
Figure 2 : à gauche : reconstruction géométrique de l'avatar,
à droite : un simple plaquage de texture.
Problèmes de recherche
Les problèmes à résoudre sont de différents ordres :
- Assurer que les textures issues des flux video se joignent correctement
- Résoudre le problème du choix des caméras qui serviront à "habiller" l'avatar
1. Jonction des textures
Pour habiller ou texturer l'ensemble de l'avatar nous allons utilser les différents flux vidéos à disposition. Deux polygones partageant une même arête peuvent donc être texturés avec des images provenant de caméras différentes. Il se pose alors le problème de la joinction entre les images utilisées. Comment faire pour qu'elles ne se voient pas ? (Figure 3)
Pour résoudre ce problème, il va certainement falloir utiliser des texture provenant de plusieurs caméras et effectuer un fondu en fonction de l'importance de chacune d'entre elles. Il sera necéssaire de mesurer objectivement l'erreur commise. Nous pourrons par exemple nous baser sur la "netteté" de la texture finale pour guider notre choix.
2. Choix des caméras
Le choix de la caméra servant au texturage peut sembler évident : il suffit d'utiliser préférenciellement la caméra la plus proche de la perpendiculaire au polygone que l'on veut texturer. Malheureusement cette approche naïve ne prend pas en comte la visbilité et le fait q'un objet puisse se trouver entre la caméra et le polygone à texturer, c'est le cas du damier dans la Figure 4.
pour texturer le visage, à droite l'image résultant de ce mauvais plaquage.
Pour résoudre ce problème, il va falloir prendre en compte la visibilite triangle-caméra, plusieurs approches existent. Il faudra les analyser dans le cadre d'objets dont nous ne maîtrisons pas forcement la taille parfois très petite et la forme parfois très allongée des polygones (Figure 5).
Pour cela, nous pourrons lancer des rayons vers les caméras à partir d'echantillons placés aléatoirement sur le polygone traité. Nous pourons aussi utiliser les fonctionalités OpenGL pour optimiser le processus. La cohérence temporelle pourra aussi être prise en compte.
Encadrement
Encadrant : Jean-Marc Hasenfratz - Tél : 04.76.61.54.53
Lieu : INRIA Rhône-Alpes - site de Montbonnot
Cours : /
Bibliographie
- [BBG+01] C. Buehler, M. Bosse, S. Gortler, M. Cohen and L. Mc Millan, Unstructured Lumigraph rendering, In Proceedings of the 28th annual conference on Computer graphics and interactive techniques, pages 425-432, 2001
- [CMSS03] C.Theobalt, M. Magnor, P. Schueler, and H.P. Seidel. Combining 2d feature tracking and volume reconstruction for online video-based human motion capture. International Journal of Image and Graphics - Special issue on Combining Images amd Graphics, 2003.
- [CTMS03] J. Carranza, C. Theobalt, M Magnor, and H.-P. Seidel. Free-viewpoint video of human actors. ACM Trans. on Computer Graphics, 22(3), July 2003.
- [FB03] Jean-Sebastien Franco, Edmond Boyer, Exact Polyhedral Visual Hulls, British Machine Vision Conference (BMVC03), Vol. I, p. 329-338, September 2003.
- [GM03a] B. Goldlüke and M. Magnor. Real-time, free-viewpoint video rendering from volumetric geometry. Proc. SPIE Conference on Visual Communications and Image Processing, 5150(2):1152-1158, June 2003.
- [GM03b] B. Goldlüke and M. Magnor. Real-time microfacet billboarding for free-viewpoint video rendering. Proc. IEEE International Conference on Image Processing, 3:713-716, September 2003.
- [HLGB03] Jean-Marc Hasenfratz, Marc Lapierre, Jean- Dominique Gascuel, and Edmond Boyer. Realtime capture, reconstruction and insertion into virtual world of human actors. In Vision, Video and Graphics, pages 49-56. Eurographics, Elsevier, 2003.
- [HLS04] Jean-Marc Hasenfratz, Marc Lapierre, and François Sillion. A Real-Time System for Full Body Interaction. In Virtual Environments, pages 147-156, 2004
- [MT02] Takashi Matsuyama and Takeshi Takai. Generation, visualization, and editing of 3d video. In 1st International Symposium of 3D Data Processing Visualization and Transmission, pages 234-245, 2002.
- [SH03] J. Starck and A. Hilton. Towards a 3d virtual studio for human appearance capture. In Vision, Video and Graphics, pages 17-24. Eurographics, Elsevier, 2003.
- [TLMS03] C. Theobalt, M. Li, M Magnor, and H.P. Seidel. A flexible and versatile studio for synchronized multi-view video recording. In Vision, Video and Graphics, pages 9-16, 2003.
- [TMSS02a] Christian Theobalt, Marcus Magnor ,Pascal Shüler, and Hans-Peter Seidel. Combining 2d feature tracking and volume reconstruction for online video-based human motion capture. In Proc. IEEE Pacific Graphics 2002, pages 96 -103, 2002.
- [WLG04] S. Würmlin, E. Lamboray, and M. Gross. 3d video fragments: Dynamic point samples for real-time free-viewpoint video. In Computers & Graphics, pages 3-14, 2004.
- [WM03] X. Wu and T. Matsuyama. Real-time active 3d shape reconstruction for 3d video. In Proc. of 3rd International Symposium on Image and Signal Processing and Analysis, pages 186-191, 2003.
Liens utiles
Publications
- Cyber : publications dans le cadre du projet Cyber
- Texture : Optimal Texture Map Reconstruction from Multiple Views, Efficient View-Dependent Image-Based Rendering with Projective Texture-Mapping