AIperitivo di fine marzo, dedicato alla sostenibilità dell'AI
Facciamo finta che...
…che il Friuli Venezia Giulia sia stato scelto, che possa (e debba) diventare il Laboratorio Europeo di Intelligenza Artificiale sostenibile.
“Voi entrate a far parte della task force che ne definisce le regole: quali sono i principi su cui non accettate compromessi? E, al contrario, quali sono i compromessi che ritenete inevitabili?”
Questa è stata la domanda rivolta agli Special Guests del secondo AIperitivo triestino: la professoressa Teresa Scantamburlo, titolare all’Università di Trieste della Cattedra by Generali di Intelligenza Artificiale Responsabile e Sostenibile; e il dott. Alberto Cazzaniga, Direttore del LADE, Laboratorio di Data Engineering dell’AREA Science Park di Trieste.
La prof. Scantamburlo ha portato l’attenzione sulla necessità di far quadrare la sostenibilità ambientale con quella sociale, concentrandosi sulla fattibilità — perché l’essere sostenibile non diventi una forma di greenwashing, ma un modo di agire con effetti positivi concreti sulla società. Il nodo, però, non è se misurare — su questo non ci sono dubbi — ma cosa e come misurare.
Le metriche rilevanti non riguardano solo l’impatto ambientale (consumi energetici, emissioni), ma anche la performance dei modelli, la loro equità, robustezza e interpretabilità. Il possibile compromesso, quindi, non riguarda l’importanza delle misurazioni, ma la loro costruzione: in un contesto europeo ancora frammentato, sarà necessario trovare un equilibrio tra metriche diverse, spesso difficili da rendere comparabili, e la possibilità di adottare standard condivisi senza perdere complessità e significato.
Il dott. Cazzaniga ha invece sottolineato il rischio opposto: quello di semplificare eccessivamente queste metriche nel tentativo di renderle più facilmente applicabili. È proprio sulla solidità delle misurazioni — ambientali e di performance — che, secondo lui, non si può scendere a compromessi. Misurare in modo rigoroso consumi, efficienza e impatto reale dei sistemi, ma anche valutare in modo affidabile il comportamento dei modelli, è indispensabile per evitare un’AI “opaca”, difficile da valutare e quindi anche da governare.
In questo senso entra in gioco un altro elemento cruciale: l’interpretabilità. Non basta sapere quanto un modello performa, ma anche come arriva ai suoi risultati. Senza un adeguato livello di interpretabilità, infatti, anche le metriche più precise rischiano di essere insufficienti: possiamo misurare un sistema, ma non capirlo davvero. E un sistema che non si capisce è un sistema di cui non si possono prevedere fino in fondo gli effetti — né sul piano tecnico, né su quello sociale.
Interpretabilità e misurazione sono due temi profondamente intrecciati: la prima potrebbe dar maggior senso alla seconda? Senza metriche robuste, la sostenibilità rischia di restare uno slogan; e senza interpretabilità, l'AI rischia di diventare una scatola nera non realmente governabile. Si parla molto di sostenibilità, ma quale potrà essere la strada per renderla concretamenmte possibile?
SAVE THE DATE! Il prossimo AIperitvo triestino, il 20 aprile; a Udine, il 24 aprile. Seguiranno maggiori informazioni a breve :)