Motion Scan

Todos estamos acostumbrados a las emociones que despiden los personajes de dibujos animados, donde sus caras pueden decirnos miles de cosas sin decir una palabra. En menor medida lo mismo pasa en los videojuegos, donde algunos caracteres parecen tener vida propia con sus expresiones y gestos. Sin embargo, los jugadores no suelen ver estas características en sus personajes animados en el ordenador.

Generalmente los personajes de los juegos por ordenador tienen facciones duras que solo muestran indiferencia, con una misma expresión en cualquier circunstancia en la que estén. Esto va a cambiar para siempre. Con la tecnología de animación facial MotionScan, creada por una compañía australiana tecnológica, los jugadores pueden ver expresiones en los personajes como no se han visto antes.

La tecnología de animación facial es una versión especializada del sistema de captura de movimientos, la cual ha sido usada durante años para añadir toda clase de movimientos y efectos de animación a las películas.

Si has visto documentales o programas de lo que pasa detrás de las escenas que vemos en las películas o ciertos videojuegos, verás como se mezclan personajes reales y personajes de animación en escenas de acción. Los actores se ponen frente a pantallas azules o verdes con unos trajes especiales provistos de unos pequeños marcadores (como bolas de golf) que las cámaras pueden reconocer.

Estos marcadores ayudan a las cámaras a seguir y registrar los movimientos del actor según se mueve delante de las pantallas azules o verdes. Las pantallas no tienen nada en ellas, por lo que los movimientos del actor o actriz son grabados sin ninguna distracción externa o que pueda estropear el proceso de movimiento. Más tarde, los animadores pueden usar estas grabaciones para crear un esqueleto digital o muñeco virtual que se mueve como el actor.

Con la ayuda de un potente software, los animadores pueden poner a estas animaciones virtuales todo lo que se les ocurra. En efecto, los animadores se convierten de alguna manera en titiriteros virtuales, moviendo a su personaje por las escenas de la película o juego. Sin embargo, suelen faltarles expresiones faciales humanas.

Para los diseñadores de videojuegos, esto es un verdadero problema porque las personas nos basamos en el lenguaje corporal. Somos capaces de reconocer unas 250 mil expresiones faciales, y dependiendo del lenguaje corporal visual, hasta un 70 por ciento de las interacciones con otras personas. La tecnología fue introducida a recientemente, y tiene como meta crear caracteres animados que puedan transmitir un lenguaje corporal reconocible.

Lo consigue capturando rasgos faciales de actores reales que muestran claramente las diferencias entre las distintas emociones (tristeza y alegría, curiosidad y desinterés, etc.). ¿Como consigue hacer esto?

En la siguiente parte del artículo veremos los detalles técnicos de cómo MotionScan consigue estos pequeños milagros faciales para dar más realismo a las animaciones virtuales que vemos en películas y videojuegos. Hac clic en el botón para seguir viendo el artículo:

Dejar respuesta

Please enter your comment!
Please enter your name here

El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.