Il computer più veloce e più grande del mondo

Meta, l’ex Facebook, ha affermato di aver sviluppato uno dei supercomputer più veloci del mondo, il Research SuperCluster, o RSC. Si tratta della macchina più veloce sviluppata per operazioni di intelligenza artificiale con 6.080 unità di elaborazione grafica racchiuse in 760 moduli Nvidia A100.

Questa capacità di calcolo è paragonabile al supercomputer Perlmutter, che impiega oltre 6.000 GPU Nvidia ed è ora il quinto supercomputer più veloce del mondo. In una seconda fase, Meta intende aumentare le prestazioni di un fattore 2,5 quest’anno espandendosi a 16.000 GPU.

Meta utilizzerà RSC per una serie di progetti di ricerca che richiedono prestazioni di livello superiore, come l’I.A. multimodale, un nuovo paradigma di I.A. in cui diversi tipi di dati (immagini, testo, parlato e dati numerici), combinati con diverse tecniche di elaborazione dell’intelligenza per ottenere risultati migliori.

Nel seguente video, una dimostrazione di ciò che è l’intelligenza artificiale multimodale, secondo Aimesoft.

Meta spera che RSC sarà utile per il metaverso. RSC potrebbe essere abbastanza potente da interpretare il discorso per un gran numero di persone che parlano ciascuna una lingua diversa allo stesso tempo.

Secondo i ricercatori di Meta Kevin Lee e Shubho Sengupta, RSC è circa 20 volte più veloce della precedente macchina di Nvidia del 2017 quando si tratta di addestrare un sistema di I.A. a riconoscere cosa c’è in una foto mentre la decodifica del parlato è 3 volte più veloce.

RSC può anche essere utile per eseguire un nuovo approccio di apprendimento di I.A. chiamato apprendimento auto-supervisionato in cui i modelli di I.A. sono addestrati con dati non etichettati, a differenza dell’addestramento supervisionato che usa dati etichettati.

>>>  Un'I.A. per generare voci con sentimenti

Meta e altri sostenitori dell’I.A. hanno dimostrato che l’addestramento dei modelli con insiemi di dati sempre più grandi produce risultati migliori. Ci vuole molta più potenza di calcolo per addestrare i modelli di I.A. che per eseguirli.

La GPU, che è normalmente sviluppata per la grafica accelerata, ora è usata per molti altri compiti del computer, compresa la gestione dell’I.A.

Infatti, i chip all’avanguardia A100 di Nvidia sono progettati principalmente per l’intelligenza artificiale e altre attività più pesanti del data center. Grandi aziende come Google, così come una miriade di startup, stanno sviluppando processori dedicati all’intelligenza artificiale, alcuni dei quali sono le più grandi CPU del mondo. Quando accoppiato con il software di I.A. PyTorch di Facebook, un toolkit di apprendimento automatico open source specializzato in calcoli tensoriali, differenziazione automatica e accelerazione GPU, la base della GPU A100 risulta relativamente flessibile. PyTorch è una delle librerie di deep learning più popolari per queste ragioni.

Il metaverso giocherà sicuramente un ruolo chiave nell’aumentare la ricerca di un’intelligenza artificiale più potente e ottimizzata con tutti i pro e i contro dell’uso di un’intelligenza artificiale modale che gestisce un mondo enorme come il metaverso.

Fonte cnet.com