- No hay comentarios.

Descubre como hacer #MOCAP con un iPhone en @SIGGRAPH 2018 - @knlstudio


// Un nuevo enfoque para la captura de movimiento DIY se revelará en SIGGRAPH 2018

Xsens, Kite & Lightning, IKINEMA y Unreal Engine presentarán cómo el iPhone X y Xsens pueden potenciar la captura de movimiento de alto rendimiento durante el programa Real-Time Live de SIGGRAPH 2018.

La sesión 'Democratising mocap: real-time full-performance motion capture with an iPhone X, Xsens, IKINEMA, and Unreal Engine’, tendrá lugar el martes 14 de agosto de 6:00 a.m. a 7:45 p.m. en el West Building del Vancouver Convention Center, Ballroom AB .



Cory Strassburger, cofundador del estudio cinemático VR Kite & Lightning, con sede en Los Ángeles, demostrará cómo un iPhone X, puede ser utilizado en conjunto con la tecnología de captura de movimiento Xsens, para la captura simultánea de todo el cuerpo y render facial, dando como resultado un personaje animado en vivo, transmitido y estabilizado a través de las herramientas de IKINEMA LiveAction a Unreal Engine de Epic Games, todo en tiempo real total.


¡Aquí puedes ver la tecnología en acción!




 "Gracias a las recientes innovaciones tecnológicas, ahora tenemos la capacidad de generar fácilmente datos de captura de alta calidad y hacer un render completo para dar vida a nuestros personajes, principalmente la calidad del sensor iPhone X y la implementación de Apple de motion tracking facial, junto con Xsens y la increíble calidad que han logrado con sus sistemas de captura de cuerpo. Transmitr en vivo a Unreal Engine a través de IKINEMA LiveAction te permite obtener un sistema mocap muy poderoso y portátil, uno que estoy muy emocionado de mostrar en SIGGRAPH 2018. "

- Cory Strassburger
Cofundador de Kite & Lightning



Tomando un personaje de 'Beby' del próximo juego 'Bebylon' de Kite & Lightning, Cory mostrará en el escenario cómo esta sencilla configuración, impulsada por tecnología accesible, puede potenciar la captura y animación de personajes en tiempo real. Demostrando cómo el nuevo enfoque de la captura de movimiento no depende del proceso de aplicación de marcadores o configuración de múltiples cámaras para un mocap, sino que se basa únicamente en un sistema Xsens MVN, un casco mocap DIY con un iPhone X dirigido al la cara del usuario e IKINEMA LiveAction para transmitir y reorientar (transferir) el movimiento al personaje 'Beby' en Unreal Engine. A través de esta configuración, los usuarios pueden representar una escena donde sea que estén.



The Real-Time Live! La sesión también cubrirá las implicaciones y el potencial de este proceso en futuros proyectos creativos, revelando cómo los nuevos flujos de trabajo escalables pueden potenciar los juegos, CG y las industrias de animación en el nivel independiente sin la necesidad de grandes presupuestos.




Mocap democratización: captura de movimiento de alto rendimiento en tiempo real con un iPhone X, Xsens, IKINEMA y Unreal Engine '


  • CUÁNDO: Martes 14 de agosto de 6 p.m. a 7:45 p.m.
  • DÓNDE: Edificio Oeste del Centro de Convenciones de Vancouver, Ballroom AB, en SIGGRAPH 2018.


//¡Sigue nuestra cobertura de SIGGRAPH 2018!

La 45ª Conferencia de SIGGRAPH tendrá lugar del 12 al 16 de agosto en el Centro de Convenciones de Vancouver. Para registrarse en la conferencia, visite s2018.SIGGRAPH.org.

Visita las redes oficiales de SIGGRAPH Conferences y descubre lo que te espera en Vancouver, Canadá este verano. Únete a otros creativos y entusiastas de la tecnología para diseño y animación en SIGGRAPH 2018, la conferencia más grande de CG y técnicas interactivas.



Si tienes un estudio de animación o eres un artista digital, hay toda una comunidad de creadores esperando descubrir las últimas innovaciones, establecer relaciones de negocios y compartir sus conocimiento.

No te quedes fuera del evento más importante de la industria.



// Visita nuestro canal en Youtube

Para más contenidos sobre diseño, arte multimedia y animación visita nuestro canal de videos. 


0 comentarios:

Publicar un comentario