NVIDIA ha presentado la producción de microservicios para NVIDIA Avatar Cloud Engine (ACE) que aprovechará los avances de la Inteligencia Artificial para la creación de personajes.

Y es que ACE permite a los desarrolladores de juegos, herramienta y software intermedio (middleware) integrar modelos de IA en avatares digitales en sus juegos y aplicaciones.

La IA al servicio de crear personajes digitales realistas con NVIDIA ACE

Los nuevos microservicios ACE de NVIDIA permitirán a los desarrolladores construir avatares interactivos usando modelos de IA como NVIDIA Audio2Face (A2F) que crean expresiones faciales de fuentes de audio, y NVIDIA Riva Automatic Speech Recognition (ASR) para construir conversaciones multilenguaje personalización y aplicaciones de traducción con IA generativa.

Entre los desarrolladores adoptando ACE están Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft y UneeQ.

Así hablaba de la tecnología Keita Iida, vicepresidente de relaciones con desarrolladores en NVIDIA:

Las tecnologías de IA generativa están transformando prácticamente todo lo que hacemos, y eso incluye la creación de juegos y cómo los jugamos. NVIDIA Ace abre nuevas posibilidades para el desarrollo de juegos llenando los mundos de personajes digitales realistas a la vez que elimina la necesidad de diálogos pre guionizados, ofreciendo una mayor inmersión en los juegos.

Desarrolladores de juegos y avatares interactivos de primer nivel están siendo pioneros en ACE y tecnologías de IA generativa que pueden usarse para transformar las interacciones entre jugadores y personajes no jugables (NPCs por sus siglas en inglés) en juegos y aplicaciones.

Desde Tencent Games señalaba que "es un hito para la IA en juegos. NVIDIA Ace y Tencent Games ayudarán a construir la base que permitirá crear avatares digitales con personalidades e interacciones únicas y realistas en videojuegos.

NVIDIA ACE hace que los personajes cobren vida

Los NPCs se han diseñado históricamente para dar respuestas predeterminadas y usar la misma animación facial. Esto limita las interacciones de los jugadores, que tienden a que estas relaciones breves sean meramente transaccionales y por lo tanto son ignoradas por la mayoría.

Así lo explicaba Purnedu Mukherjee, fundador y CEO de Convai:

Los personajes de mundos virtuales con el poder de IA generativa desbloquean varios casos de uso y experiencias que antes eran imposibles. Convai está usando Riva ASR y A2F para hacer posibles NPCs realista con tiempos de respuesta cortos y animación natural de alta fidelidad.

En la última versión de Kairos, Riva ASR y A2F se usan cada vez más, mejorando la interacción con los NPC. El nuevo framework de Convai ahora permite que los NPCs conversen entre ellos y darles conocimiento de los objetos, permitiéndoles coger y dar objetos en diferentes áreas. Además, los NPCs ganan la habilidad de ayudar a los jugadores con sus metas y viajes por los diferentes mundos.

Los microservicios de Audio2Face y Riva Automatic Speech Recognition ya están disponibles. Los desarrolladores de avatares interactivos pueden incorporar los modelos de manera individual en sus flujos de desarrollo.