NVIDIA annuncia la piattaforma per la creazione di avatar AI
Omniverse Avatar apre le porte alla creazione di assistenti IA facilmente personalizzabili praticamente per qualsiasi settore. Questi potrebbero aiutare con i miliardi di interazioni quotidiane del servizio clienti: ordini al ristorante, transazioni bancarie, prendere appuntamenti e prenotazioni personali, e altro ancora, portando a maggiori opportunità di business e una migliore soddisfazione dei clienti. “L'alba degli assistenti virtuali intelligenti è arrivata,” disse Jensen Huang, fondatore e CEO di NVIDIA. “Omniverse Avatar combina la grafica fondamentale di NVIDIA, simulazione e tecnologie di intelligenza artificiale per realizzare alcune delle applicazioni in tempo reale più complesse mai create. I casi d'uso dei robot collaborativi e degli assistenti virtuali sono incredibili e di vasta portata.”
Omniverse Avatar fa parte di NVIDIA Omniverse, una piattaforma di simulazione e collaborazione del mondo virtuale per flussi di lavoro 3D attualmente in versione beta aperta con over 70,000 users. Nel suo discorso di apertura a NVIDIA GTC, Huang ha condiviso vari esempi di Omniverse Avatar: Progetto Tokkio per l'assistenza clienti, NVIDIA DRIVE Concierge sempre attivo, servizi intelligenti nei veicoli, e Project Maxine per le videoconferenze.
Nella prima dimostrazione del Progetto Tokkio, Huang ha mostrato ai colleghi impegnati in una conversazione in tempo reale con un avatar realizzato come una replica giocattolo di se stesso, conversando su argomenti come la biologia e la scienza del clima.
In una seconda demo di Project Tokkio, ha evidenziato un avatar del servizio clienti in un chiosco di un ristorante, capace di vedere, conversare e capire due clienti mentre ordinavano hamburger vegetariani, patatine e bevande. Le dimostrazioni sono state alimentate dal software NVIDIA AI e Megatron 530B, che è attualmente il più grande modello linguistico personalizzabile del mondo.
In una demo della piattaforma DRIVE Concierge AI, un assistente digitale sullo schermo centrale del cruscotto aiuta il conducente a selezionare la modalità di guida migliore per raggiungere la sua destinazione in tempo, e poi segue la sua richiesta di impostare un promemoria quando l'autonomia dell'auto scende al di sotto 100 miles.
Separatamente, Huang ha mostrato la capacità di Project Maxine di aggiungere funzionalità video e audio all'avanguardia alle applicazioni di collaborazione virtuale e creazione di contenuti. Un madrelingua inglese viene mostrato durante una videochiamata in un caffè rumoroso, ma può essere ascoltato chiaramente senza rumore di fondo. Mentre parla, le sue parole sono sia trascritte che tradotte in tempo reale in tedesco, Francese e spagnolo con la sua stessa voce e intonazione.
Elementi chiave dell'avatar Omniverse
Omniverse Avatar utilizza elementi dell'IA vocale, visione computerizzata, comprensione del linguaggio naturale, motori di raccomandazione, animazione facciale, e grafica fornita attraverso le seguenti tecnologie:
- Il suo riconoscimento vocale si basa su NVIDIA Riva, un kit di sviluppo software che riconosce il parlato in più lingue. Riva viene anche utilizzato per generare risposte vocali simili a quelle umane utilizzando le funzionalità di sintesi vocale.
- La sua comprensione del linguaggio naturale si basa sul modello di linguaggio di grandi dimensioni Megatron 530B in grado di riconoscere, comprendere e generare il linguaggio umano. Megatron 530B è un modello preaddestrato che può, con poca o nessuna formazione, frasi complete, rispondere a domande di un ampio dominio di argomenti, riassumere a lungo, storie complesse, tradurre in altre lingue, e gestire molti domini per i quali non è stato addestrato in modo specifico.
- Il suo motore di raccomandazione è fornito da NVIDIA Merlin, un framework che consente alle aziende di creare sistemi di raccomandazione di deep learning in grado di gestire grandi quantità di dati per dare suggerimenti più intelligenti.
- Le sue capacità di percezione sono abilitate da NVIDIA Metropolis, un framework di visione artificiale per l'analisi video.
- La sua animazione avatar è basata su NVIDIA Video2Face e Audio2Face, 2Tecnologie di animazione e rendering del viso basate sull'intelligenza artificiale D e 3D.
Queste tecnologie sono composte in un'applicazione ed elaborate in tempo reale utilizzando NVIDIA Unified Compute Framework. Confezionato come scalabile, microservizi personalizzabili, le competenze possono essere distribuite in modo sicuro, gestito e orchestrato in più sedi da NVIDIA Fleet Command.