El desarrollador de Unreal Engine, Epic Games, lanzó Live Link Face, una aplicación para iPhone que utiliza los sensores 3D orientados hacia adelante en el teléfono para crear grabaciones de movimiento en vivo para animaciones faciales en proyectos 3D como videojuegos, animaciones o películas.

La aplicación utiliza herramientas del marco ARKit de Apple y la matriz de sensores TrueDepth del iPhone para transmitir secuencias de movimiento en vivo de un actor que mira el teléfono viendo personajes en 3D en Unreal Engine en una estación de trabajo cercana. Captura expresiones faciales, así como la rotación de cabeza y cuello.

Live Link Face puede transmitir a múltiples máquinas simultáneamente, y «el soporte de código de tiempo robusto y la precisión precisa del cuadro aseguran una sincronización perfecta con otros componentes del escenario, como cámaras y captura de movimiento del cuerpo», dijo Epic’s entrada en el blog anunciar la aplicación Los usuarios obtienen un CSV de datos de forma de mezcla sin procesar y un MOV de la cámara de video en la parte frontal del teléfono, con códigos de tiempo.

Para muchos, la matriz de sensores TrueDepth del iPhone parecía una solución a un problema: Touch ID funcionaba bien para la mayoría de las personas en iPhones anteriores, y no había muchos usos obvios de la tecnología además de Face ID. Por supuesto, había Animojis y muchas personas lo disfrutan, pero la mayoría no diría que justifican la tecnología por sí mismos.

Pero aquí hay un claro punto de venta, aunque para un público limitado: los desarrolladores de juegos independientes y los cineastas pueden usar tales aplicaciones en iPhone para capturar movimiento, dando vida a los personajes virtuales con las expresiones faciales y otros movimientos de actores humanos reales. Eso es algo que tradicionalmente involucraba estudios caros que están fuera del alcance de todos, excepto de los grandes jugadores.

El seguimiento de movimiento que pueden manejar los sensores del iPhone no es tan preciso como el que usan los estudios de desarrollo de juegos triple A o las grandes películas, por lo que esos estudios de gama alta no dejarán sus estudios de mo-cap amueblados para iPhone ahora. Pero ahora los creadores individuales y los equipos más pequeños pueden hacer algo que antes era inasequible.

Sin embargo, eso no es necesariamente un caso de uso del consumidor. Hasta ahora, estos sensores han sido utilizados principalmente por Apple y desarrolladores de aplicaciones de terceros para hacer que las aplicaciones AR y los filtros de fotos sean más precisos.

Apple agregó recientemente un sensor LIDAR al iPad Pro, y hay rumores en Internet de que también llegará a los mejores modelos de iPhone. Si bien los sensores traseros del iPad Pro usan una tecnología diferente que la matriz TrueDepth orientada hacia adelante, puede producir un resultado similar. Apple ya ha demostrado que los sensores traseros del iPad Pro capturan el seguimiento de movimiento de una persona: son todo el cuerpo de la persona, no su cara.

Para aquellos que no están familiarizados, Unreal Engine comenzó como un motor gráfico utilizado por los estudios de videojuegos Triple-A para títulos como Armas de guerra y Efecto masivo, y ha evolucionado con el tiempo para ser utilizado por las Indias y en otras situaciones, como el cine, la arquitectura y el diseño. Compite con otro motor popular llamado Unity, así como con herramientas internas desarrolladas por diferentes estudios.

Mostrar imagen por Juegos épicos



Source link