FaceFX SDK añade multi-threading, fragmentación de memoria reducida y mejoras de rendimiento para PS4 y Xbox One
Más historias en la categoría Noticias
- Blizzard celebra que este año sus jugadores pasaron 8 mil millones de horas con sus productos
- Sega podría lanzar su propio servicio de suscripción
- Borderlands 4 contará con soporte completo para el cross-play
No te pierdas nada y ¡Síguenos en Google News! |
Si hay algo que todos los compradores de una máquina de nueva generación como Xbox One se preguntan, es cuando veremos cambios significativos respecto a la pasada generación. Por ejemplo, las animaciones faciales serían un añadido visual interesante al apartado visual de un juego. Las herramientas de FaceFX se actualizan optimizadas para Xbox One y PS4.
En el mundo de las videoconsolas, juegos como Ryse: Sons of Rome o Killzone Shadowfall son el referente gráfico en cada plataforma. Hablamos de juegos impactantes en su apartado visual y que suponen una razón de peso para pensar que estamos ante una nueva generación de videojuegos.
Si nos centramos en Ryse: Sons of Rome, veremos que las expresiones faciales quizá sea lo más avanzado que se haya visto en consolas sin lugar a dudas. El juego de Crytek hace uso de la tecnología FaceFX para las animaciones faciales y el medio Gamingbolt nos dejó una pequeña entrevista a Doug Perkowski, responsable de OC3 Entertainment.
En esta entrevista, se hablan de las mejoras que incorporarán las nuevas herramientas de desarrollo de FaceFX en las que salen muy beneficiadas tanto PS4 como Xbox One.
«Hemos sido capaces de añadir soporte multi-threading, reducir la fragmentación de la memoria y aumentar el rendimiento global por un amplio margen. Nuestro código de carga del archivo fue reescrito por completo para lograr un gran aumento en el rendimiento. En general, todo ha sido rediseñado desde cero para ser más eficiente y utilizar menos recursos del sistema.»
Pero todos estos datos técnicos que quizá «os suenen a chino» se traducen, aparte de menor necesidad de recursos de la máquina, en mejor sincronización con los labios del actor y el modelo 3D. Esto haría posible que si el actor habla originalmente en japonés, la sincronización con sus expresiones faciales sean más realistas.