Il supercomputer di Bologna e la sfida dell’intelligenza artificiale generativa

Le tecnologie emergenti, tra calcolo ad alte prestazioni e intelligenza artificiale generativa, stanno ridefinendo i confini dell’innovazione, dal punto di vista tecnologico così come da quello regolatorio. Nonostante il loro potenziale trasformativo, queste tecnologie restano ancora sfide concrete da affrontare sia per l’adozione su larga scala sia affinché diventino accessibili al tessuto economico e sociale del nostro paese. Affrontare questo gap richiede strategie che favoriscano tanto la comprensione a livello culturale quanto lo sviluppo delle infrastrutture necessarie. In questo contesto, progetti come quello sulla creazione della prima intelligenza generativa italiana o l’upgrade dei supercomputer rivestono un ruolo chiave nel promuovere la nostra competitività di sistema. Siamo entrati nel merito di questi temi con Francesco Ubertini, già rettore dell’università di Bologna e oggi presidente del consorzio interuniversitario Cineca.

“Siamo all’inizio di una crescita molto rapida e le tecnologie generative sono alla base di questo sviluppo: le richieste e le collaborazioni sono in continuo aumento, sia a livello italiano sia internazionale. L’attività con iGenius, startup italiana, è essenziale per la crescita dell’intero ecosistema europeo, impegnato nel promuovere l’intelligenza artificiale generativa. Avere delle realtà italiane che sviluppano queste tecnologie – e che promuovono le sinergie con altri attori europei – permette di accelerare lo sviluppo delle infrastrutture, della ricerca e della governance.

“È essenziale pensare a queste tecnologie in un’ottica europea, perché una dimensione più piccola sarebbe irrilevante in termini di potenzialità nel mondo reale. Un ulteriore punto di forza dell’Europa consiste nella possibilità di poter disporre di una grande infrastruttura pubblica, che viene messa a disposizione gratuitamente per attività di ricerca e innovazione. Se vogliamo puntare al bene complessivo, non possiamo permetterci che lo sviluppo di queste tecnologie sia in mano di pochi”.

Tra i progetti di sviluppo più rilevanti a livello europeo c’è Eurofusion, in cui l’infrastruttura di computazione ad alte prestazioni (High Performance Computing, Hpc) viene utilizzata a supporto della fusione nucleare. Si tratta di un ambito di applicazione in cui il supercalcolo può permettere di raggiungere risultati più rapidi e di valore?

“La comunità scientifica europea, che è impegnata nel nucleare e si raccoglie intorno al progetto Eurofusion, ha finora utilizzato marginalmente il supercalcolo a supporto delle proprie attività, fondamentalmente come un sistema ancillare. Oggi le prospettive stanno cambiando, in quanto con il nuovo ciclo di programmazione Eurofusion si è deciso di investire maggiormente sul calcolo Hpc. Si ritiene che a questo stadio della ricerca possa costituire un fattore abilitante, e soprattutto accelerante, in grado di rendere più rapido il processo di sviluppo. L’Italia, con l’agenzia Enea e il Cineca, ha vinto la gara per gestire questo sistema di supercalcolo, che dovrebbe essere inaugurato già durante l’estate. Si tratta di un passaggio rilevante perché segna la crescita dei dominici classici, sfruttando anche le potenzialità dell’intelligenza artificiale generativa”.

Quest’anno sarà ospitato al Tecnopolo di Bologna il G7 Tecnologia. È possibile davvero creare una sinergia a livello globale su questi temi della frontiera high tech? Oppure oggi la competitività internazionale e l’instabilità geopolitica rendono più complessa una reale collaborazione?

“Ospitare il G7 Tecnologia al Tecnopolo di Bologna è un’opportunità per affrontare la sfida di creare sinergie globali su temi tecnologici cruciali. Oltre a essere un orgoglio, da italiano, ospitare il G7 Tecnologia è un bellissimo riconoscimento che sottolinea l’impegno del nostro paese nella trasformazione digitale. Tuttavia, appunto, la crescente competitività e la complessità dello scenario geopolitico pongono ostacoli significativi a una piena collaborazione. Nonostante ciò, c’è un ottimismo nel potere trovare una convergenza su princìpi fondamentali che riguardano le tecnologie ad alto impatto, riconoscendo i rischi associati e cercando soluzioni condivise.

“A livello europeo, si auspica una politica industriale coesa per affrontare le sfide del presente e del prossimo futuro, riconoscendo la necessità di una scala di azione che sia quantomeno continentale. L’accordo su princìpi fondamentali può essere un punto di partenza per superare le complessità della competizione globale e costruire una collaborazione più proficua nel settore tecnologico. Questo processo richiede un impegno continuo nella definizione di politiche industriali europee solide, nonché la ricerca di un ragionevole equilibrio tra la competitività nazionale e la cooperazione internazionale”.

Cineca sta continuando a promuovere l’innovazione nel campo dei supercalcolatori, creando infrastrutture sempre più efficienti. Quali sono i prossimi passi per rimanere a livello alto nelle classifiche mondiali?

“È in programma per quest’anno un upgrade del supercomputer Leonardo, denominato Lisa (ovviamente dalla Monna Lisa di Leonardo da Vinci per una questione di associazioni semantiche, ndr). Questo sviluppo permette di potenziare ulteriormente la macchina e di aumentare la capacità di elaborazione dati, migliorando le prestazioni. Noi in parallelo stiamo ovviamente già lavorando per la realizzazione del passo successivo, chiamato Elisa, per restare al passo con la roadmap europea. Inizialmente si pensava di innovare i sistemi tecnologici alla fine del 2028, ma la velocità di sviluppo e la necessità di restare alla frontiera richiede un’evoluzione più rapida degli attuali sistemi, già entro la fine del 2025 o nel 2026”.

Quali possono essere le ricadute applicative? Per esempio, ora i gemelli digitali hanno già raggiunto le dimensioni della città e si ambisce a raggiungere quelle della Terra…

“Le applicazioni concrete di sistemi come i gemelli digitali possono essere tanto ampie quanto trasformative. L’ambizione di creare una replica digitale della Terra come nel caso del progetto Destination Earth, promosso dalla Commissione europea e che dovrebbe essere pronta entro il 2030, offre prospettive utili per molti settori. Questi sistemi consentono di prevedere eventi naturali estremi con maggiore accuratezza, facilitando la pianificazione di interventi di emergenza e la gestione delle risorse in modo più efficiente. Inoltre, permettono di valutare l’impatto di decisioni politiche e strategie di adattamento sulle città e sull’ambiente a livello globale. Grazie a queste tecnologie, si possono anche sviluppare politiche di sostenibilità più efficaci, riducendo le perdite di vite umane e massimizzando il benessere globale.

“La presenza di una vasta mole di dati nel Tecnopolo di Bologna, congiuntamente alla potenza di calcolo combinata ai sistemi di intelligenza artificiale generativa, rappresenta un’opportunità unica per integrare le informazioni e sviluppare soluzioni innovative. Questo progresso non solo migliora la nostra comprensione del mondo e delle sue dinamiche, ma offre anche possibilità di intervento più tempestivo ed efficace in situazioni di crisi o emergenza. Non è retorica: la convergenza tra intelligenza artificiale, supercalcolo e altre tecnologie è un passo significativo verso un approccio più completo e olistico alla gestione – o anche la risoluzione – di problemi globali”.

Si parla sempre più spesso, con importanti ricerche e investimenti, di computazione quantistica: quale può essere il range applicativo verosimile, e come ritiene che si svilupperà questa tecnologia?

“La computazione quantistica promette di rivoluzionare numerosi settori grazie alla sua capacità di risolvere problemi altrimenti inaffrontabili per i computer classici. Tuttavia, al momento è ancora in fase sperimentale e non è chiaro quale dei varie approcci tecnologici prenderà il sopravvento. È probabile che nell’arco dei prossimi anni vedremo un crescente numero di esperimenti per valutare l’efficacia di questo tipo di computazione in applicazioni reali, lavorando in sinergia con i supercomputer tradizionali per sfruttarne al meglio le rispettive capacità. Sebbene il tempo necessario per il pieno sviluppo sia incerto, è chiaro che l’integrazione di sistemi quantistici con quelli digitali tradizionali rappresenterà una tappa cruciale.

“Noi installeremo al Tecnopolo due computer quantistici: un sistema più piccolo (con un investimento da 3 milioni di euro) e poi uno dei 6 computer quantistici di cui ha deciso di dotarsi l’Europa (investimento di circa 25 milioni). L’obiettivo è fungere da palestra per la comunità scientifica, per cogliere le potenzialità e potersi preparare al momento in cui la tecnologia sarà sufficientemente matura per applicazioni reali e industriali”.

È indubbio che tutto quello di cui abbiamo parlato abbia valore strategico. A volte, però, si fatica a fare arrivare questi argomenti al grande pubblico e al tessuto economico del paese: a cosa è dovuto questo collo di bottiglia e come lo si può superare?

“Il divario tra lo sviluppo tecnologico e la sua comprensione e adozione diffusa è attribuibile a più fattori. Tra questi ci sono le barriere strutturali nell’accesso alla tecnologia per le piccole e medie imprese, insieme alla complessità che ostacola la comprensione del cittadino comune. Tuttavia, strategie come la creazione di ecosistemi nazionali, l’implementazione di azioni mirate come il Pnrr e gli sforzi per potenziare le competenze tramite investimenti in infrastrutture e formazione possono aiutare a superare questo ostacolo. Inoltre, occorre diversificare la distribuzione territoriale delle infrastrutture per favorire un’adozione diffusa e sostenere lo sviluppo economico locale.

“È indispensabile che l’Europa e il nostro paese possano partecipare come attori della rivoluzione tecnologica che è appena partita, per essere promotori dell’innovazione guidata dall’intelligenza artificiale. Essere semplici utenti potrebbe compromettere il futuro da molti punti di vista”.