IBM ha sviluppato con successo un processore IA analogico a basso consumo che offre un approccio più efficiente dal punto di vista energetico per l’esecuzione dei modelli IA. A differenza del calcolo digitale tradizionale, questo processore utilizza il calcolo analogico, che ha dimostrato di essere oltre 14 volte più efficiente dal punto di vista energetico pur mantenendo una precisione paragonabile nelle attività di riconoscimento vocale. In un documento di ricerca pubblicato mercoledì su Nature, l’azienda dimostra che le sue apparecchiature possono effettuare il riconoscimento vocale in modo efficiente con una precisione encomiabile consumando molta meno energia.

I computer analogici sono una categoria di computer che sfruttano i continui cambiamenti osservati nei fenomeni fisici come le proprietà elettriche, meccaniche o idrauliche (segnali analogici) per simulare e risolvere il problema in questione. Al contrario, i computer digitali rappresentano simbolicamente proprietà mutevoli e utilizzano valori discreti sia per il tempo che per l’ampiezza (segnali digitali).

Reti neurali profonde e limitazioni hardware

Nell’ultimo decennio, le tecniche di intelligenza artificiale si sono espanse in varie applicazioni, dal riconoscimento di immagini e video alla trascrizione e generazione del parlato. Questa espansione è in gran parte attribuita alla continua evoluzione dei modelli di rete neurale profonda (DNN), che ora contenere fino a un miliardo di parametri. Questi modelli hanno ridotto significativamente il tasso di errore delle parole (WER) nella trascrizione automatica delle frasi inglesi. Tuttavia, le prestazioni dell’hardware non sono state al passo, con conseguenti tempi di allenamento più lunghi e un maggiore consumo energetico. La sfida sorge quando reti di grandi dimensioni vengono addestrate utilizzando processori generici, portando al”collo di bottiglia di von Neumann”, un problema causato da un consumo eccessivo di energia durante il trasferimento di grandi quantità di dati tra memoria e processore. Gli autori scrivono:

“Grande le reti sono ancora addestrate e implementate utilizzando processori generici come unità di elaborazione grafica e unità di elaborazione centrale, portando a un consumo energetico eccessivo quando grandi quantità di dati devono spostarsi tra la memoria e il processore, un problema noto come collo di bottiglia di von Neumann.”

“AI analogica”: una soluzione alle inefficienze

L’hardware AI analogico offre una soluzione promettente a queste inefficienze. Sfruttando array di memoria non volatile (NVM), questi sistemi possono eseguire direttamente operazioni’moltiplica e accumula calcolo'(MAC) nella memoria. Questo approccio riduce drasticamente sia il tempo che l’energia richiesti per i calcoli, rendendolo particolarmente vantaggioso per i modelli DNN con estesi strati completamente connessi. Come chiarisce il documento di ricerca:

“Spostando solo i dati sull’eccitazione dei neuroni nella posizione dei dati sul peso, dove viene poi eseguito il calcolo, questa tecnologia ha il potenziale per ridurre sia il tempo che l’energia richiesti.”

Risultati sperimentali e progettazione del chip

Il team di ricerca ha presentato i risultati di un chip di inferenza da 14 nm che incorpora 34 grandi array di dispositivi di memoria a cambiamento di fase (PCM), circuiti periferici analogici e un sistema di routing mesh 2D massivamente parallelo. Sebbene il chip non Non dispone di core di calcolo digitale su chip o memoria ad accesso casuale statico (SRAM), dimostra efficacemente la precisione, le prestazioni e l’efficienza energetica dell’intelligenza artificiale analogica nelle attività di inferenza dell’elaborazione del linguaggio naturale (NLP).

Applicazioni e dimostrazioni

Per mostrare la versatilità del chip, il team ha utilizzato due modelli di rete neurale dal benchmark standard MLPerf. Il primo era una keyword-spotting network (KWS) sul set di dati dei comandi vocali di Google, che ha raggiunto una precisione di classificazione di 86,14 %. La seconda era la versione MLPerf di RNNT, una grande rete di data center, che ha dimostrato una precisione quasi SWeq (98,1 % del modello software di base) ed eseguito circa il 99% delle operazioni sui riquadri AI analogici.

Categories: IT Info