Gracias a esta tecnología, los jugadores podrán tener interacciones más "realistas" con personajes aleatorios repartidos en el juego.
Más historias en la categoría Hardware
- Turtle Beach se luce con su nuevo ratón, el Kone II Air
- Probamos The Spectrum, uno de los íconos ochenteros preparado para la actualidad
- Probamos y os contamos todo de los auriculares, ERAZER Mage P20
No te pierdas nada y ¡Síguenos en Google News! |
El sueño de todo gamer, entre los que me incluyo, es que los NPC dejen de ser completos troncos subnormales que tienen rutinas frustrantes y que acaban agotándote. Tanto los NPC aliados como los enemigos o aquellos que únicamente están ahí de adorno (saludos CD Project). La IA en los videojuegos es algo que ha avanzado muy poco, premiamos demasiado los gráficos y muy poco que nuestros aliados se comporten lo más parecido a un humano.
NVIDIA quiere combatir eso, o al menos eso reclama su nueva tecnología ACE for Games, que es una especie de aprendizaje automático para los NPC en las misiones y que es capaz de comportarse lo más parecido a un humano posible. Además, es capaz de aprender del comportamiento humano. Va a ser divertido ver cómo acaba todo esto, ya me veo NPCs volando con jetpacks…
Resultados algo forzados para una demo, pero con un margen de mejora excelente
La idea es la de permitir a los creadores de juegos, colocar NPC que sean capaces de hablar con los jugadores, pero que no tengan ningún guión de fondo. Esto lo moverán chatbots propios similares a ChatGPT, Bard o BingChat entre otros ejemplos que ya están entre nosotros. Lo que más me ha sorprendido es que la tecnología es capaz de reaccionar a las expresiones del NPC para adaptar el texto y voz a sus expresiones faciales.
Aquí puedes ver un ejemplo que han liberado recientemente. Esta demo se mueve con Unreal Engine 5, raytracing activo y ACE For Games. Todo ello claro está, con hardware NVIDIA de fondo.
Puedes dar vida a los NPC a través de técnicas de alineación de modelos NeMo. En primer lugar, emplee la clonación de comportamiento para permitir que el modelo de lenguaje base realice tareas de juego de roles de acuerdo con las instrucciones. Para alinear aún más el comportamiento del NPC con las expectativas, en el futuro, puede aplicar el aprendizaje de refuerzo de la retroalimentación humana (RLHF) para recibir retroalimentación en tiempo real de los diseñadores durante el proceso de desarrollo.
Suscríbete al canal de GX en Youtube
La tecnología NeMo evitará que los NPC hagan «cosas raras»
Los personajes estarán gestionados por NeMo Guardrails, una tecnología que evitará que se generen comportamientos extraños u ofensivos para los jugadores. Para esta demo, los taiwaneses se han aliado con una empresa emergente llamada Convai que está creando personajes de IA en los juegos.
Además, han confirmado que su tecnología Audio2Face, que permite sincronizar las expresiones de los NPC con sus diálogos, ya está siendo utilizada en dos juegos que están actualmente en desarrollo: Fort Solis y S.T.A.L.K.E.R. 2: Heart of Chornobyl.
Convai utilizó NVIDIA Riva para las capacidades de voz a texto y texto a voz, NVIDIA NeMo para el LLM que impulsa la conversación y Audio2Face para la animación facial impulsada por IA desde entradas de voz.
Toca esperar para tener más novedades al respecto, pero desde luego parece un gran avance de algo que los creadores de juegos tenían muy abandonado.