Acceleratore di Intelligenza Artificiale
Unacceleratore di Intelligenza Artificiale[1](o ancheArtificial Intelligence Accelerator[2]eNPU,Neural Processing Unit[3]) è una classe dimicroprocessoriprogettati per fornireaccelerazione hardwareareti neurali artificiali,visione artificialee algoritmi diapprendimento automaticoper larobotica,l'Internet delle cosee altre applicazioni basate sull'uso dei dati.
Le possibili applicazioni di tali dispositivi includono leauto a guida autonoma,gliaeromobili a pilotaggio remoto,ladiagnostica medica,l'elaborazione del linguaggio naturalee latraduzione automatica.
Storia
[modifica|modifica wikitesto]Nei computer leCPUsono spesso affiancate daacceleratori hardwareper svolgere meglio determinate funzioni, tra cui ad esempio leschede videoe leschede audio.Con l'aumento delle attività legate all'apprendimento profondoe all'intelligenza artificiale,sono state sviluppate unità hardware specializzate per accelerare lo svolgimento di queste attività.
Primi sviluppi
[modifica|modifica wikitesto]Già nei primi anni novanta iprocessori di segnali digitalivenivano impiegati come acceleratori di reti neurali per i software diriconoscimento ottico dei caratterie sempre in quegli anni vi furono anche dei tentativi di utilizzo di acceleratori basati suFPGA.
Calcolo eterogeneo
[modifica|modifica wikitesto]Ilcalcolo eterogeneoha dato il via all'inserimento di diversi processori in un singolo sistema, ciascuno dei quali specializzato per un'apposita funzione. Architetture come iprocessori Cellhanno introdotto alcune caratteristiche tipiche degli acceleratori di Intelligenza Artificiale, tra cui l'architettura dataflow.Gli stessi processori Cell sono stati in seguito utilizzati per l'Intelligenza Artificiale.
Uso delle GPU
[modifica|modifica wikitesto]LeGPUsono dispositivi hardware specializzati nellamanipolazione di immagini.Poiché le reti neurali e la manipolazione di immagini condividono le stesse basi matematiche, le GPU sono frequentemente utilizzate per applicazioni diapprendimento automatico.Per questo motivo, i produttori di GPU hanno cominciato a incorporare hardware specifico per le reti neurali, come ad esempio itensor core.
Uso dei FPGA
[modifica|modifica wikitesto]Iframeworkper l'apprendimento profondosono in continua evoluzione e questo rende difficoltosa la progettazione di hardware specifico. Dispositivi riconfigurabili come iField Programmable Gate Array(FPGA) semplificano la gestione di hardware e software in evoluzione.
Esempi
[modifica|modifica wikitesto]Chip specifici
[modifica|modifica wikitesto]Googleha sviluppato un acceleratore chiamatotensor processing unitspecificamente progettato per il suo frameworkTensorFlow,estensivamente usato per lereti neurali convoluzionali.[4]
Intelha sviluppato il Nervana NNP, un chip progettato con un'architettura per l'apprendimento profondo.[5]
La linea diGPUTesladiNVIDIAdispongono di funzioni per l'intelligenza artificiale.[6]
AMDproduce la linea di GPU Radeon Instinct specificamente orientata all'apprendimento profondo.[7]
Coprocessori
[modifica|modifica wikitesto]ISystem-on-a-chipApple A11 Bionic,Apple M1(e successori a questi) dispongono di un acceleratore di Intelligenza Artificiale chiamato Neural Engine.[8]
Il microprocessore Snapdragon 845 diQualcommcontiene uncoreper il processamento dell'Intelligenza Artificiale.[9]
Un acceleratore basato su reti neurali è anche presente nei processori Kirin 970[10]e980[11]diHiSilicon.
Nel gennaio 2018,CEVAha lanciato una famiglia di quattro microprocessori per l'Intelligenza Artificiale chiamati NeuPro.[12]
Note
[modifica|modifica wikitesto]- ^Antonio Cisternino,Acceleratori di intelligenza artificiale: cosa sono, le differenze, quali usare,6 ottobre 2023.
- ^Artificial Intelligence (AI) Accelerators,suintel,Intel, 12 ottobre 2024.
- ^Cosa sono e a cosa servono le Neural Processing Unit,sufastweb.it.
- ^(EN)An in-depth look at Google’s first Tensor Processing Unit (TPU),sucloud.google.URL consultato l'8 luglio 2018(archiviato dall'url originaleil 19 luglio 2018).
- ^(EN)Intel® Nervana™ Neural Network Processors (NNP) Redefine AI Silicon,suai.intel.
- ^NVIDIA Tesla,sunvidia.it.
- ^(EN)AMD introduces Radeon Instinct: Accelerating Machine Intelligence,suamd.
- ^Apple A12 Bionic,suapple.
- ^(EN)Snapdragon 845,suqualcomm.
- ^(EN)Key Information About the Huawei Kirin 970,suhisilicon.
- ^Kirin 980 ufficiale: il primo SoC al mondo da 7 nanometri ha un cervello in più di voi!,sumobileworld.it.
- ^(EN)CEVA NeuPro,suceva-dsp.
Voci correlate
[modifica|modifica wikitesto]Altri progetti
[modifica|modifica wikitesto]- Wikimedia Commonscontiene immagini o altri file sull'acceleratore IA