Descripción del proyecto
Se propone una puesta en escena basada en máscaras aumentadas, en la que las propias máscaras se convierten en marcos móviles para vídeo e imágenes que suplantarán el rostro del actor. Las imágenes proyectadas seguirán en tiempo real a las máscaras en la escena, permitiendo superponer rostros digitales a un cuerpo físico y definir diferentes formas de interacción entre ambos. Esta interacción podrá contemplar la mediación sonora (la voz), la gestualidad corporal del propio actor, así como del trasplante facial de actores o usuarios externos.
El formato elegido es el demodrama, una aproximación dramática a la demostración de la tecnología desarrollada. El trabajo con los actores y el texto permitirá explorar a fondo las posibilidades de las mascaras aumentadas, transfiriendo resultados en forma de breves puestas en escena de contenido dramático. Así mismo, en cuanto a demo, el demodrama podrá ser expuesto como instalación permanente permitiendo a nuevos usuarios realizar el papel de actores siguiendo el esquema lúdico de las instalaciones interactivas.
Tecnologías y herramientas
De una forma abstracta el sistema que forma este proyecto, se compone de un subsistema de visión artifical que realizará el tracking de las máscaras, y un subsistema de generación de los contenidos que forman el Demo-Drama. Para el tracking se ha utilizado el software OpenSource CCV 1.2 (anteriormente tbeta), que se comunicará con la gestión de los contenidos mediante TUIO. Para la construcción del contenido finalmente se ha utilizado Processing. En un primer momento se realizaron las pruebas con OpenFrameworks,y el principal motivo del cambio ha sido la facilidad y rapidez que ofrece Processing, permitiendo fluir la naturaleza experimental del proyecto. Igualmente durante el desarrollo de la herramienta, se decidió utilizar el entorno de desarrollo integrado Eclipse, por las facilidades que proporciona a la de desarrollar en lenguaje Java.
El principal problema en la construcción del Demo-Drama desarrollado como primer prototipo, se ha presentado a la hora de manejar múltiples esceneas en el entorno de que ofrece Processing. Para simplificar el desarrollo de esta tarea, se optó por crear diferentes clases donde poder delegar la responsabilidada de manejar diferentes escenas o efectos, a modo de listeners. De este modo la escalabilidad y manejo del proyecto queda simplificada al manejar de forma totalmente desacoplada cada parte del contenido. Tenemos previsto poder pulir el desarrollo, para algún día (esperamos no demasiado tarde), publicar la herramienta para el disfrute de la persona ociosa que se interese.
Equipo de desarrollo
Autor/a/es de la propuesta: Enrique Esteban García, Patricia Esteban García e Ismael García Abad
Colaboradores: Anders Restad, Clara de Andres, Eduardo Moriana, Eva Racionero, Sihaya Buisan, Miguel Angel Burgos y Nacho Cossío