Casa Impresa NVIDIA fa annunci sul deep learning al GTC

NVIDIA fa annunci sul deep learning al GTC

by Adam Armstrong

Oggi alla GPU Technology Conference 2018 nella Silicon Valley, NVIDIA ha fatto alcuni annunci sul deep learning. Questi annunci includono la collaborazione con Arm per portare l’inferenza del deep learning su miliardi di dispositivi IoT. NVIDIA sta inoltre annunciando progressi nelle prestazioni per il deep learning che, secondo loro, sono 10 volte superiori rispetto a sei mesi fa.


Oggi alla GPU Technology Conference 2018 nella Silicon Valley, NVIDIA ha fatto alcuni annunci sul deep learning. Questi annunci includono la collaborazione con Arm per portare l’inferenza del deep learning su miliardi di dispositivi IoT. NVIDIA sta inoltre annunciando progressi nelle prestazioni per il deep learning che, secondo loro, sono 10 volte superiori rispetto a sei mesi fa.

La partnership prevede l’integrazione dell’architettura open source NVIDIA Deep Learning Accelerator (NVDLA) nella piattaforma Project Trillium di ARM per il machine learning. Le aziende affermano che questa partnership consentirà ai produttori di chip IoT di integrare l’intelligenza artificiale nei loro progetti o di inserire l’intelligenza artificiale in miliardi di dispositivi IoT. La partnership porterà inoltre livelli più elevati di prestazioni agli sviluppatori di deep learning poiché sfruttano la flessibilità e la scalabilità di Arm.

NVIDIA ha apportato miglioramenti prestazionali ai fornitori di servizi cloud e ai produttori di server con innovazioni come il doppio avvio della memoria su NVIDIA Tesla V2 (ora fino a 100 GB di memoria per GPU) e la struttura di interconnessione GPU, NVSwitch, che consente la comunicazione fino a 32 GPU Tesla ad una velocità di 16 TB/s. L'azienda ha anche rilasciato un singolo server, NVIDIA DGX-2.4. Il DGX-2 può fornire due petaflop di potenza di calcolo o 2 server occupando 300 rack di spazio.

Come affermato in precedenza, la nuova Tesla V100 ora dispone di 32 GB di memoria anziché 16 GB e di tutti i vantaggi che derivano da una maggiore memoria. Non c'è molto altro da dire a riguardo se non che diversi produttori di computer lo offriranno in futuro. Oracle Cloud Infrastructure offrirà i nuovi Tesla V100 anche nel cloud.

Il nuovo tessuto di interconnessione NVSwitch è progettato per superare la limitazione di set di dati più grandi. NVIDIA afferma che questa interconnessione ha una larghezza di banda 5 volte maggiore rispetto al miglior switch PCIe. NVSwitch prende le innovazioni provenienti da NVIDIA NVLink e le estende ulteriormente, aiutando la creazione di sistemi ancora più avanzati e complessi.

Come affermato sopra, il DGX-2 può fornire due petaflop, il primo al mondo. Il sistema sfrutta l'NVSwitch e tutte le 16 GPU in uno spazio di memoria unificato per raggiungere questo traguardo. Il DGX-2 è dotato di una suite di software di deep learning NVIDIA che lo rende ideale per i data scientist che sono ai margini della ricerca nel deep learning. L'azienda afferma che il DGX-2 è in grado di addestrare FAIRSeq (un modello di traduzione automatica neurale all'avanguardia) in meno di due giorni. Questo è un miglioramento di 10 volte rispetto al DGX-1. 

NVIDIA DGX

Discuti questa storia

Iscriviti alla newsletter di StorageReview