Nvidia rilancia sul deep learning: le macchine diventeranno più intelligenti
Il tema cardine della GPU Technology Conference 2015 di Nvidia è stato senza dubbio il deep learning. Con questo termine (in italiano "apprendimento approfondito") s'intende il processo attraverso il quale i computer usano reti neurali (strutture di dati simili alla corteccia cerebrale umana) per imparare da soli a compiere determinate azioni.
Per permettere ai ricercatori di tutto il mondo di arrivare all'obiettivo l'azienda statunitense punta a usare i SoC Tegra e le GPU, a partire dalle future soluzioni basate su architettura Pascal. In occasione della GTC 2015 Nvidia annunciò persino DIGITS DevBox, un nuovo sistema all-in-one con quattro GTX Titan X creato per velocizzare le ricerche nell'ambito del "deep learning".

Gli sforzi in tale settore però sono solo all'inizio e all'ICML – International Conference on Machine Learning – Nvidia ha rilanciato con alcune interessanti novità. L'azienda ha annunciato aggiornamenti per i propri software di deep learning in grado di sfruttare meglio una o più GPU. Tali miglioramenti, secondo Nvidia, raddoppieranno le prestazioni con le quali i ricercatori riuscieranno a istruire sistemi più o meno complessi a prendere decisioni autonome.
Il nuovo pacchetto di software permetterà agli scienziati di dare una scossa ai propri progetti in ambito deep learning, sviluppando prodotti con reti neurali più accurate. Nello specifico Nvidia ha annunciato DIGITS 2 e cuDNN 3. Il primo favorisce uno scaling automatico per la formazione di reti neurali su più GPU ad alte prestazioni. Rispetto all'uso di una singola GPU con DIGITS 2 è possibile raddoppiare la velocità con cui una rete neurale può classificare le immagini.
Grazie a DIGITS 2 gli ingegneri di Nvidia sono riusciti a sfruttare quattro GPU Maxwell per istruire il noto modello di rete neurale AlexNet in metà tempo. "Istruire una delle nostre reti per l'auto tagging su una singola GTX Titan X richiede circa 16 giorni, ma con il nuovo scaling automatico su quattro Titan X il processo si completa in soli 5 giorni", ha affermato Simon Osindero, A.I. architect di Flickr.
cuDNN 3 invece integra la possibilità di archiviare dati ottimizzati (16-bit floating point) nella memoria della GPU, favorendo la costituzione di reti neurali più sofisticate. Allo stesso tempo cuDNN 3 offre prestazioni superiori a cuDNN 2, dimezzando i tempi di apprendimento delle reti neurali su una singola GPU.
La "Preview Release" di DIGITS 2 Preview è disponibile da oggi, gratuitamente, per gli sviluppatori registrati Nvidia. La libreria cuDNN 3 sarà integrata nei principali framework di deep learning come Caffe, Minerva, Theano e Torch nei prossimi mesi. La casa di Santa Clara ha infine annunciato CUDA 7.5: la piattaforma di elaborazione in parallelo è ora in grado di gestire insiemi di dati due volte più grandi ed eseguire il profiling a livello dell'istruzione.