Nvidia presenta la nuova frontiera degli esseri umani digitali

banner pubblictà

(Adnkronos) – Nvidia ha annunciato la disponibilità dei suoi microservizi di intelligenza artificiale generativa, Nvidia Ace, destinati ad accelerare la prossima ondata di esseri umani digitali. Queste tecnologie stanno già trasformando settori come il servizio clienti, il gaming e l'assistenza sanitaria, semplificando la creazione, l'animazione e la gestione di avatar digitali realistici per un'interazione più naturale e coinvolgente. Gli esseri umani digitali sono rappresentazioni virtuali altamente realistiche di persone, create attraverso tecnologie avanzate di intelligenza artificiale e grafica. Questi avatar sono progettati per interagire con gli utenti in modo molto simile agli esseri umani reali, utilizzando il riconoscimento vocale, l'animazione facciale e persino gesti corporei per rendere le conversazioni e le interazioni più immersive e naturali. Grazie a Nvidia Ace, queste interazioni diventano ancora più sofisticate, avvicinandoci a un futuro in cui interagire con i computer sarà naturale come parlare con una persona. Nvidia Ace include diverse tecnologie avanzate che lavorano insieme per creare questi esseri umani digitali. Ad esempio, Nvidia Riva fornisce riconoscimento automatico del parlato, conversione testo-parlato e traduzione automatica neurale. Queste funzionalità permettono agli avatar di comprendere e rispondere alle richieste vocali in modo preciso e contestuale. Nvidia Nemotron, un modello di linguaggio avanzato, contribuisce alla comprensione del linguaggio e alla generazione di risposte appropriate, migliorando ulteriormente l'interazione. Un altro elemento chiave è Nvidia Audio2Face, che consente l'animazione facciale realistica basata su tracce audio. Questo significa che gli avatar possono esprimere emozioni e rispondere visivamente alle conversazioni, rendendo l'interazione più vivida e autentica. Inoltre, Nvidia Omniverse RTX permette di simulare pelle e capelli realistici in tempo reale, migliorando ulteriormente l'aspetto degli avatar. Nvidia ha anche introdotto nuove tecnologie come Audio2Gesture, che genera gesti corporei basati su tracce audio, e Nemotron-3 4.5B, un modello linguistico di piccole dimensioni progettato per l'inferenza IA su dispositivi RTX con bassa latenza. Jensen Huang, fondatore e CEO di Nvidia, ha dichiarato: "Gli esseri umani digitali rivoluzioneranno le industrie. I progressi nei modelli di linguaggio multimodali e nella grafica neurale, forniti da Nvidia Ace al nostro ecosistema di sviluppatori, ci avvicinano a un futuro di computazione basata sulle intenzioni, dove interagire con i computer sarà naturale come interagire con gli esseri umani". In precedenza, Nvidia ha fornito Ace come microservizi NIM per i data center. Ora, sta espandendo questa offerta con Ace PC NIM per l'implementazione su una base installata di 100 milioni di PC e laptop RTX AI. Questa espansione include il modello Nemotron-3 4.5B, progettato per funzionare su dispositivi con livelli di precisione simili ai grandi modelli di linguaggio eseguiti nel cloud. 

 —tecnologiawebinfo@adnkronos.com (Web Info)

banner pubblicità

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*