ingegneria elettronica per l'intelligenza artificiale rappresentata da un cervello

L’intelligenza artificiale generativa è una tecnologia che ormai fa parte della nostra quotidianità: la utilizziamo per creare testi, immagini, suoni e perfino codice. È un ambito profondamente legato all’informatica ma anche all’ingegneria elettronica perché porta con sé numerose sfide, tra cui quella della scalabilità, cioè la capacità di un sistema o di un algoritmo di crescere e gestire carichi di lavoro sempre maggiori senza perdere efficienza o far lievitare i costi.

In una recente intervista per la Società Italiana di Elettronica, abbiamo parlato di questi temi con il Prof. Riccardo Berta, ingegnere elettronico e professore associato all’Università di Genova.

“I costi stanno crescendo in modo esponenziale. I modelli di intelligenza artificiale diventano sempre più grandi: parliamo di algoritmi composti da miliardi di parametri, che richiedono enormi quantità di memoria e potenza di calcolo. Per eseguirli servono GPU avanzate, e più questi modelli aumentano di dimensione, più diventano efficaci nel rispondere alle nostre richieste ma al tempo stesso consumano quantità enormi di energia. Per sostenerli servono data center giganteschi, spesso costruiti vicino a grandi fiumi, perché servono enormi quantità d’acqua per raffreddarli. Queste infrastrutture arrivano a consumare come intere città. È un problema che sta diventando sempre più serio: da un lato non è più sostenibile continuare a crescere a questo ritmo, dall’altro stiamo sviluppando una forte dipendenza da poche grandi aziende, come Google o Meta, che sono le uniche in grado di permettersi la potenza di calcolo e gli investimenti necessari per mantenere questi sistemi.
C’è poi un altro rischio: quello di una bolla economica, simile a quella delle dot-com dei primi anni Duemila, quando Internet aveva generato enormi aspettative che non sempre si sono poi concretizzate. Anche oggi, l’entusiasmo per l’intelligenza artificiale potrebbe portare a sopravvalutare il mercato: se le aspettative non verranno soddisfatte, molte aziende potrebbero crollare. Un esempio emblematico è Nvidia, la cui capitalizzazione di mercato ha superato i 4.500 miliardi di dollari. L’azienda produce i chip su cui si basano i grandi data center e, allo stesso tempo, è uno dei principali finanziatori dei progetti di AI che richiedono proprio quei data center. Si crea così una sorta di economia circolare, che rischia però di alimentare ulteriormente la crescita di una possibile bolla”.

Il tiny machine learning

Puntare sul tiny machine learning consente di sviluppare algoritmi di AI che mantengano buone prestazioni riducendo al minimo le risorse necessarie sia in termini di calcolo, di memoria che di energia. In questo modo potranno essere utilizzati in maniera diffusa e sostenibile su una vasta gamma di dispositivi.

“Alcune soluzioni in questa direzione esistono già: per esempio, si possono quantizzare i modelli, cioè ridurre la precisione numerica con cui vengono rappresentati i dati, passando da numeri a molti bit a numeri più piccoli. Questo permette di diminuire la memoria necessaria e la potenza di calcolo richiesta. Un’altra strategia è quella di costruire reti neurali più compatte, che imparano da modelli più grandi. Queste versioni ridotte, pur essendo meno potenti, risultano più efficienti e più facili da applicare in contesti concreti. L’obiettivo è portare l’intelligenza artificiale vicino ai dati, evitando di trasferire enormi quantità di informazioni verso i grandi data center nel cloud. In pratica, significa far funzionare i modelli direttamente sui dispositivi locali, come gli smartphone, mantenendo i dati dove vengono generati. Questo approccio offre diversi vantaggi: permette di scalare meglio perché non richiede infrastrutture enormi, rende la tecnologia più sostenibile e “democratica” perché anche startup e centri di ricerca più piccoli possono sviluppare soluzioni di AI, e garantisce maggiore efficienza energetica e minore latenza dal momento che l’elaborazione avviene sul dispositivo senza dover inviare dati in rete e attendere una risposta”.

Nonostante i vantaggi del tiny machine learning, ci sono ancora sfide importanti da affrontare.

“I modelli di intelligenza artificiale generativa oggi sono così grandi che risulta difficile immaginare di portarli su dispositivi embedded, cioè su quei sistemi elettronici che utilizziamo ogni giorno. Tuttavia, si stanno aprendo prospettive interessanti, grazie alla possibilità di ridurre le dimensioni dei modelli e renderli più specializzati. Invece di avere sistemi “onniscienti”, capaci di rispondere a qualsiasi domanda, possiamo sviluppare modelli focalizzati su compiti specifici. Con STMicroelectronics, ad esempio, stiamo esplorando la possibilità di integrare modelli di generative AI all’interno degli elettrodomestici, per creare interfacce vocali più naturali. In questo caso, il modello non deve conoscere tutto, ma solo ciò che riguarda il funzionamento di quel dispositivo. È un approccio che potrebbe aiutare a superare i limiti di scalabilità, migliorando l’efficienza e aprendo la strada a un’intelligenza artificiale più distribuita e sostenibile”.

La figura dell’ingegnere elettronico

Per l’ottimizzazione di questi algoritmi è necessario conoscere bene anche l’hardware per massimizzare le prestazioni e ridurre i consumi.

“L’efficienza energetica e la sostenibilità si possono progettare meglio quando si pensa anche all’hardware stesso. Si possono immaginare nuovi paradigmi di calcolo: non più il classico modello basato su CPU e grandi data center, ma chip specifici progettati appositamente per le esigenze di questi algoritmi. Si parla, ad esempio, di memory computing o di soluzioni neuromorfiche, progettate in hardware per ottimizzare le prestazioni dei modelli di intelligenza artificiale. L’interdisciplinarietà dell’elettronica diventa quindi un elemento chiave: è il punto di incontro tra algoritmi, AI, sensoristica e computing sull’edge, ed è ciò che permette di realizzare una generative AI distribuita e sostenibile. In questo senso, si riscopre la figura dell’ingegnere elettronico. Le basi derivano dall’ingegneria elettronica classica, come la progettazione digitale, ma oggi si possono indirizzare i circuiti digitali proprio verso le esigenze di questi algoritmi. Si tratta di un affiancamento al lavoro degli ingegneri informatici, che progettano nuove funzionalità software, per farle funzionare in modo efficace sui dispositivi che utilizziamo tutti i giorni. Perché senza questo approccio “hardware + software”, e limitandosi a incrementare la dimensione dei data center, non si può andare oltre un certo limite. La sfida è ripensare la disponibilità e l’efficienza dei nostri dispositivi. Parliamo di un concetto che è ormai presente anche nelle grandi aziende: basti pensare ad Apple, che da qualche anno sviluppa internamente sia i propri chip sia il software, formando i propri ingegneri elettronici per ottimizzare le prestazioni dei dispositivi”.

Secondo il Prof. Berta, la necessità è quindi quella di andare verso una visione integrata della conoscenza perché la divisione del sapere rischia di far perdere di vista l’insieme.

“Bisogna avere competenze specifiche e spaziare anche in altri ambiti per capire come le proprie conoscenze possano migliorare quell’area. Un ingegnere informatico e uno elettronico, insieme, sviluppano soluzioni più efficienti per i grandi modelli di AI. Una sola di queste figure, da sola, non riuscirebbe ad andare molto lontano. La nostra collaborazione con STMicroelectronics, per esempio, ha portato alla realizzazione di due tesi di laurea che hanno valutato fin dove si possa arrivare oggi con architetture embedded, come quelle presenti nei cellulari o in altri dispositivi mobili, cercando di capire quali limiti sia possibile raggiungere nel far girare modelli direttamente sui dispositivi. Distribuire il calcolo sui dispositivi locali, invece di concentrare tutto in un unico data center, evita di dover trasmettere grandi quantità di dati e contribuisce a limitare l’inquinamento digitale, mantenendo però disponibili servizi che stanno diventando parte integrante della nostra vita quotidiana e di cui non potremo più fare a meno. Questi strumenti incideranno profondamente sul nostro modo di lavorare, studiare, relazionarci e vivere, ma è importante comprenderne l’elevato impatto attuale in termini di consumo energetico ma anche di potere che oggi è concentrato nelle mani di poche grandi aziende multimiliardarie. Studiare a fondo per costruirsi solide basi è fondamentale, ma altrettanto importante è tenersi sempre aggiornati, seguendo blog, canali di comunicazione e tutte le fonti disponibili. La curiosità verso la tecnologia non è solo un interesse personale: aiuta anche a capire dove indirizzarsi e come orientarsi, considerando la velocità con cui il mondo dell’AI e della tecnologia