“Fin da piccola ho avuto una forte propensione alla risoluzione dei problemi. Per questo ho pensato molto presto che avrei voluto studiare ingegneria. Quando ho iniziato ingegneria elettronica ho avuto subito la conferma di aver fatto la scelta giusta: ho scoperto che l’ingegnere elettronico non si occupa solo di progettare circuiti, ma anche di sviluppare il software che li gestisce. Durante le attività di orientamento nelle scuole mi sono resa conto che ancora oggi esiste spesso una visione un po’ limitata: si pensa che chi scrive codice sia solo l’informatico, mentre l’elettronico progetta esclusivamente l’hardware. In realtà non è così. L’ingegneria elettronica è una disciplina a 360 gradi: oltre alla progettazione dei circuiti, comprende anche lo sviluppo del codice che controlla semiconduttori, sensori e trasduttori collegati alla scheda elettronica”.
Stefania Cecchi, ingegnere elettronico e professoressa associata presso l’Università Politecnica delle Marche, apre la sua intervista per la Società Italiana di Elettronica raccontando come la passione per la risoluzione dei problemi l’abbia portata a intraprendere la carriera nell’ingegneria elettronica. Oggi si occupa di ricerca nel campo dell’audio immersivo, dimostrando come questa disciplina sappia unire tecnologia, algoritmi e comprensione della percezione umana del suono.
“Quando pensiamo all’audio, spesso immaginiamo solo l’altoparlante, che in effetti è un circuito elettromagnetico. In realtà dietro al funzionamento dell’audio ci sono anche molti algoritmi sviluppati da ingegneri elettronici. Pensiamo, per esempio, alle tecnologie che utilizziamo ogni giorno: dal vivavoce del cellulare, che si basa su algoritmi di elaborazione del segnale sviluppati da ingegneri elettronici specializzati in telecomunicazioni, fino alle applicazioni di intrattenimento, come ascoltare musica dal proprio smartphone. Gli esseri umani percepiscono il suono nelle tre dimensioni dello spazio. Molti dei sistemi audio attualmente in commercio, però, riproducono il suono principalmente nel piano frontale, cioè davanti a noi, e fanno più fatica a ricreare sorgenti sonore che provengono dall’alto o da dietro. Le nostre orecchie ci permettono di capire da dove arriva un suono nel piano orizzontale ed è la forma del padiglione auricolare ad aiutarci a individuare la posizione verticale della sorgente sonora. È qualcosa che riusciamo a fare anche a occhi chiusi: il cervello interpreta i segnali che arrivano alle orecchie e li elabora per ricostruire la posizione del suono nello spazio. In un certo senso, questi segnali vengono “campionati” e interpretati dal cervello quasi come farebbe una scheda elettronica che acquisisce ed elabora dati. Quando studiavo questo tema si trattava ancora di un campo piuttosto pionieristico. L’audio, infatti, ha sempre avuto una sfida in più rispetto all’immagine: non si vede. Per questo motivo lo sviluppo delle tecnologie visive è arrivato prima, basti pensare ai primi televisori 3D, mentre l’audio immersivo è stato studiato più lentamente. Con il tempo, però, si è capito che anche l’audio ha un ruolo fondamentale per creare esperienze davvero immersive”.
La professoressa Cecchi ha spiegato anche come il COVID-19 abbia contribuito allo sviluppo degli studi sull’audio immersivo.
“In quel periodo è emersa chiaramente l’esigenza di rendere le riunioni da remoto il più possibile simili a un incontro reale. Pensiamo, per esempio, alle riunioni online con molte persone: spesso dobbiamo guardare lo schermo per capire chi sta parlando tra le varie finestre. Con l’audio immersivo, invece, è possibile percepire la voce provenire direttamente dalla posizione della persona che parla, proprio come accadrebbe in una stanza reale. Questo è possibile perché il flusso sonoro può essere direzionato in diversi punti dello spazio tridimensionale. In questo modo gli utenti hanno la sensazione di trovarsi nello stesso ambiente, anche se sono collegati da remoto.
Negli ultimi anni questo settore ha attirato grande interesse anche a livello europeo. L’Unione Europea ha infatti finanziato importanti progetti di ricerca, dedicati allo sviluppo di nuove tecnologie per l’audio immersivo. Le applicazioni di queste tecnologie non riguardano solo la qualità della comunicazione tra le persone. Migliorare le interazioni da remoto può avere anche un impatto sociale, economico e ambientale: ridurre gli spostamenti significa risparmiare tempo e risorse. Allo stesso tempo, però, resta la sfida di mantenere il più possibile la naturalezza delle interazioni umane, cercando di rendere le comunicazioni a distanza sempre più simili a quelle in presenza. L’audio immersivo trova applicazioni anche in altri ambiti. Alcuni esempi sono i videogiochi oppure l’utilizzo della realtà virtuale per addestrare le persone in condizioni di pericolo. In questi contesti è fondamentale che il suono sia coerente con ciò che si vede. Se una persona appare davanti a noi ma il suono arriva da un’altra direzione, si crea una dissonanza cognitiva che rende l’esperienza meno realistica”.
Oggi la professoressa Cecchi si occupa di studiare l’impatto dell’audio immersivo sia sulla gestione delle emozioni sia sulla sicurezza, esplorando come il suono possa influenzare il comportamento e la percezione in situazioni reali.
“Il suono ha un ruolo molto importante anche nella gestione delle emozioni. Per esempio, stiamo lavorando su sistemi di monitoraggio del guidatore all’interno del veicolo, con l’obiettivo di capire lo stato emotivo della persona alla guida e valutare come poterlo influenzare attraverso la musica. Un guidatore agitato, per esempio, può essere calmato con una musica più rilassante, come quella classica, mentre un guidatore che sta perdendo attenzione o che si sente assonnato può essere stimolato da una musica più energica, come il rock. Un altro ambito di ricerca riguarda l’uso dell’audio immersivo per i segnali di allarme all’interno del veicolo. L’idea è quella di utilizzare suoni direzionali che aiutino il guidatore a percepire immediatamente da dove proviene il problema. Per esempio, se durante la guida si verifica un problema alla ruota destra, il segnale sonoro può essere percepito provenire proprio da quella direzione, permettendo al conducente di capire subito dove si trova l’anomalia. Questo tipo di ricerca è sviluppato anche nell’ambito di un progetto finanziato dal Ministero, che ha l’obiettivo di supportare il guidatore sia in situazioni di emergenza sia nella gestione generale della sicurezza stradale attraverso l’utilizzo intelligente dell’audio”.
Circuiti elettronici all’interno dell’alveare
“Mio padre fa l’apicoltore e, fin da piccola, ho avuto l’idea di mettere l’elettronica nell’arnia. Dopo tanti anni sono riuscita a inserire un circuito e, soprattutto, dei microfoni in un alveare. Ho sempre avuto la sensazione che le api comunicassero attraverso il suono, anche se molti sostenevano che lo facessero solo tramite i feromoni. In realtà, quando l’apicoltore toglie la parte superiore dell’arnia e si avvicina alle api, loro percepiscono il pericolo e producono un rumore diverso. Ho quindi sempre pensato che ci fosse una correlazione tra il suono che emettono e ciò che succede intorno a loro. Quando ho iniziato, però, era troppo presto: c’erano pochi studi scientifici e pochi progetti finanziati su questo argomento. Oggi la situazione è per fortuna cambiata, si è capita l’importanza di questo studio ed esistono diversi progetti europei dedicati. Io, comunque, ho avuto la mia piccola rivincita: alla fine il mio progetto è stato finanziato dal mio ateneo e ha portato a numerose pubblicazioni scientifiche”.
La professoressa Cecchi ha raccontato di come grazie anche alla collaborazione con i colleghi entomologi della facoltà di agraria, è riuscita a installare nel campus alcune arnie con microfoni e sensori di temperatura, CO₂ e umidità, tutti collegati a un circuito elettronico.
“Abbiamo poi creato un sistema che trasferisce i dati in tempo reale e applicato algoritmi di intelligenza artificiale. C’è stata una lunga fase di osservazione e analisi: controllavamo settimanalmente lo stato di salute delle arnie, registravamo cosa facevano le api e tenevamo una sorta di diario per associare i comportamenti ai suoni. Col tempo abbiamo notato che in alcune condizioni il suono cambiava. L’anno successivo abbiamo utilizzato l’AI per interpretare i dati e verificare se gli stati rilevati si ripetevano. Abbiamo scoperto, ad esempio, che quando muore l’ape regina, il suono cambia: cambiano le frequenze prodotte all’interno dell’alveare, segnalando uno stato di emergenza. L’ape regina è l’unica in grado di riprodursi, e se muore, le api rischiano di morire tutte, perché vivono solo 30-40 giorni e senza ricambio la colonia collassa. Un altro stato di emergenza si verifica quando l’apicoltore spruzza il fumo per spaventare le api. Le api, percependo un possibile incendio, corrono nell’alveare per proteggersi e raccogliere ciò che serve. Il suono che producono in queste situazioni ha le stesse frequenze di un pericolo naturale, come quando un calabrone tenta di attaccarle: è un vero e proprio segnale di allarme che le api trasmettono tra loro”.
Attualmente, il gruppo della professoressa Cecchi in collaborazione con l’Università di Firenze, Padova e Siena sta studiando la carica elettrica dell’alveare. Ogni ape possiede una carica elettrica sul corpo che la aiuta ad attirare il polline, e sommando la carica di tutte le api si ottiene la carica totale dell’alveare. Alcuni studi suggeriscono che questa carica complessiva possa variare in relazione alle condizioni atmosferiche, come temperatura, umidità o pressione. Per approfondire questo collegamento, il gruppo sta progettando un circuito in grado di misurare con precisione questa piccolissima carica elettrica, così da capire se e come lo stato dell’alveare sia influenzato dal meteo. Per l’apicoltore, avere queste informazioni in tempo reale significa poter intervenire tempestivamente per salvaguardare la colonia.
“Attraverso questo aneddoto sulle api voglio dimostrare ai giovani che l’elettronica è ovunque, permea ogni aspetto della nostra vita e che un mondo senza elettronica non potrebbe esistere. Purtroppo, ancora oggi manca una piena consapevolezza del suo ruolo, un problema sia culturale sia politico. Voglio anche rassicurarli sul fatto che non bisogna avere timore di affrontare questa disciplina perché offre moltissime opportunità e oggi gli ingegneri elettronici sono molto richiesti, e lo saranno sempre di più. Il futuro dell’ingegnere elettronico sarà sempre più legato alla scrittura di codice ottimizzato, capace di far funzionare sistemi complessi, come l’intelligenza artificiale, direttamente su dispositivi embedded, permettendo di portare applicazioni oggi molto onerose direttamente sulle schede elettroniche”.


