Nvidia ha anunciado varias actualizaciones a su plataforma de simulación Omniverse que acerca el metaverso a la realidad
El metaverso puede verse como el siguiente paso de la web, proporcionando un mundo virtual y persistente donde los usuarios pueden socializar, trabajar y jugar con acciones que podrían tener efectos en el mundo real.
Facebook cambió recientemente el nombre de su empresa a Meta para reflejar su nuevo enfoque en la construcción de un metaverso. Durante la reciente conferencia Connect de Meta, Mark Zuckerberg fue directo al decir que tomará muchos años realizar completamente la visión metaversa.
Por otra parte, Nvidia está posicionada para ser un actor clave en hacer realidad el metaverso, ya que abarca varios campos que deberán converger para hacerlo realidad, incluidos inteligencia artificial, gemelos digitales, centros de datos y procesamiento de gráficos.
Omniverse es la solución colaborativa de Nvidia para construir gemelos digitales de objetos del mundo real, o incluso instalaciones completas como fábricas, y a menudo se describe como un «metaverso para ingenieros». La solución ya es utilizada por más de 700 empresas y 70.000 creadores individuales.
Recientemente, el CEO de Nvidia, Jensen Huang, anunció varias actualizaciones de Omniverse que muestran que la compañía se está tomando en serio el metaverso.
En primer lugar, Omniverse está pasando de la versión beta a la disponibilidad general. Las empresas y los creadores que deseen comenzar con Omniverse ahora pueden tener la confianza de que Nvidia cree que está lista para la producción.
«Con NVIDIA Omniverse, podemos iterar rápidamente y recrear el realismo que obtenemos al fotografiar modelos a escala física para explorar el diseño, iterar y amplificar las voces de nuestros clientes durante el proceso de diseño», dijo Hilda Espinal, directora de tecnología y vicepresidenta senior de CannonDesign. .
Una de las nuevas características clave es el Omniverse Replicator, cuyo objetivo es simplificar el entrenamiento de redes neuronales profundas.
«Omniverse Replicator nos permite crear conjuntos de datos diversos, masivos y precisos para construir conjuntos de datos seguros, de alta calidad y de alto rendimiento, lo cual es esencial para la IA», dijo Rev Lebaredian, vicepresidente de tecnología de simulación e ingeniería de Omniverse en NVIDIA.
Nvidia demostró las capacidades de Omniverse Replicator más adelante en su presentación con un motor de generación de datos que fue construido (y lanzado) llamado DRIVE Sim que aloja gemelos digitales de vehículos autónomos:
El otro motor lanzado por Nvidia es Isaac Sim, un mundo virtual para gemelos digitales de robots de manipulación.
“Si bien nosotros mismos hemos construido dos motores de generación de datos específicos de dominio, podemos imaginar a muchas empresas construyendo el suyo propio con Omniverse Replicator”, agrega Lebaredian.
Avatar del Omniverso
Una característica importante que merece su propia sección es Omniverse Avatar. El nombre se explica por sí mismo, pero reúne la amplia experiencia de Nvidia antes mencionada en áreas como la inteligencia artificial y las simulaciones para generar avatares interactivos.
Los avatares 3D tienen trazado de rayos y pueden comprender el lenguaje natural para conversar sobre una variedad de temas. Si bien a largo plazo podrían usarse para crear avatares de metaverso, su uso para interacciones de servicio al cliente será un caso de uso mucho más temprano.
“Ha llegado el amanecer de los asistentes virtuales inteligentes”, comentó Jensen Huang, fundador y director ejecutivo de NVIDIA. «Omniverse Avatar combina las tecnologías de IA, simulación y gráficos fundamentales de NVIDIA para crear algunas de las aplicaciones en tiempo real más complejas jamás creadas».
«Los casos de uso de robots colaborativos y asistentes virtuales son increíbles y de gran alcance».
La propia Nvidia está trabajando en una plataforma de soporte al cliente que actualmente se llama Proyecto Tokkio. En una demostración, Huang mostró a sus colegas participando en una conversación en tiempo real con un avatar creado como una réplica de juguete de él mismo.
Los intentos anteriores de crear avatares similares a los humanos han provocado que los usuarios se sientan incómodos debido al efecto de “valle inquietante”. El uso de una estética más caricaturesca ayuda a contrarrestar esto.
La demostración mostró las capacidades de Omniverse Avatar para conversar sobre una variedad de temas, incluida la biología y la ciencia climática. En otra demostración, un quiosco de servicio al cliente pudo tomar los pedidos de comida de dos clientes.
Mientras mostraba la plataforma DRIVE Concierge, un avatar en el tablero central ayudó al conductor a seleccionar el mejor modo de conducción para llegar a su destino a tiempo y siguió su solicitud de alertar cuando el alcance del vehículo cayó por debajo de las 100 millas.
Todas las demostraciones fueron impulsadas por el software de inteligencia artificial de Nvidia.
El reconocimiento de voz de los avatares se basa en Nvidia Riva, recomendaciones de Nvidia Merlin, percepción de Nvidia Metropolis y animaciones impulsadas por Nvidia Video2Face y Audio2Face.
La comprensión del lenguaje natural para los avatares demostrados se basó en el modelo pre-entrenado Megatron 530B, que actualmente es el modelo de lenguaje personalizable más grande del mundo y requiere poca o ninguna capacitación para lograr capacidades impresionantes que incluyen responder preguntas, completar oraciones, resumir historias complejas, traducciones, y otros dominios para los que no está específicamente capacitado.
En general, es una gran demostración de Nvidia que muestra cuán seria es la compañía para jugar un papel clave en hacer realidad el metaverso, incluso si aún no está lista para cambiar su nombre para reflejar eso.