Intervista ad Antonio Zoccoli

di Luisa Cifarelli


Centro nazionale ICSC di ricerca in HPC, big data e quantum computing


Presidente, in quale contesto nasce il progetto del Centro Nazionale ICSC per la ricerca in High-Performance Computing, Big Data e Quantum Computing?
Viviamo nell’era dei dati e dell’informazione.

Lo sentiamo ripetere e lo leggiamo di frequente, è un’affermazione entrata a far parte del nostro linguaggio comune. E, proprio come un intercalare, spesso ne abusiamo facendone un uso indiscriminato. Nonostante ciò, non vi è alcun dubbio sul fatto che la diffusione e la disponibilità di una quantità di dati senza precedenti caratterizzino l’epoca in cui ci troviamo immersi. La sola presenza dei cosiddetti Big Data non basta tuttavia a giustificare lo status di “segno” di questi nostri tempi che, in maniera univoca, sembriamo disposti a riconoscere loro. Allo stesso modo di elementi quali ferro, bronzo e petrolio, in grado di scandire e dettare le tappe dell’evoluzione tecnologica dell’uomo, i dati possiedono infatti tutti i requisiti per essere considerati oggi un nuovo tipo di risorsa primaria, un bene, di tipo immateriale, capace di promuovere crescita e benessere. È a partire della volontà di voler sfruttare questa risorsa a livello italiano che ha quindi preso forma il progetto ICSC.

Di che tipo di valore possono essere oggi portatori i dati?
A determinare l’importanza che attribuiamo ai dati è la consapevolezza del fondamentale ruolo che essi possono svolgere nell’aiutarci a comprendere e descrivere, in tutta la loro complessità, non solo i fenomeni naturali come, per esempio, la natura dell’universo e i meccanismi biologici alla base della vita, ma anche l’insieme di attività e comportamenti che contraddistinguono la nostra società, contribuendo così a produrre anche valore economico e produttivo. Nei prossimi anni saremo investiti da un’immensa onda di dati prodotti sia dalle diverse discipline scientifiche quali ad esempio la fisica subnucleare, l’astrofisica, la medicina, la meteorologia, lo studio dei materiali e la biologia, sia dal settore produttivo come l’industria di precisione, l’agricoltura e la meteorologia. Chi sarà in grado nei prossimi anni di estrarre le informazioni e quindi il valore da questi dati avrà un indiscutibile vantaggio scientifico- tecnologico, favorendo quindi l’economia del proprio paese.

A questi si aggiungono i dati che noi stessi produciamo nella quotidianità e che veicolano preziosi frammenti di informazione relativi alle nostre attività di ricerca e produttive, ma anche ai nostri spostamenti, ai nostri acquisti, al nostro profilo sanitario e clinico e alla nostra presenza online. Rispetto a questo ultimo caso, per citare qualche numero, la quantità di dati che il solo Facebook genera ogni giorno ammonta a 4 petabyte. Sommando su base annua i vari contributi generati dai principali servizi e piattaforme web, arriviamo all’astronomica cifra di circa 97 zettabyte (corrispondenti a miliardi di triliardi di byte) generati nel solo 2022, che si presume siano destinati a triplicare entro il 2025.

Quali sono gli strumenti che possono garantirci l’effettivo sfruttamento dei dati?
Ci sono diversi modi per estrarre sfruttare al meglio i dati che raccogliamo. Tra questi possiamo ricordare lo sviluppo di modelli più o meno sofisticati per descrivere diversi fenomeni come, il “folding proteico” o i flussi del traffico nelle città, fino ad arrivare a realizzare i cosiddetti “digital-twin”, cioè i gemelli digitali, che altro non sono che riproduzioni digitali molto dettagliate per esempio di apparecchiature scientifiche, di città, di organi del corpo umano, di fenomeni biologici.

Un altro strumento molto efficace e di cui si parla molto in questo periodo è quello legato all’intelligenza artificiale. Attraverso questa tecnologia è infatti possibile risolvere problemi, ricostruire immagini, trovare correlazioni tra dati, creare testi, analizzare comportamenti in maniera molto efficace e veloce, permettendo così miglioramenti scientifici, tecnologici e produttivi fino a poco tempo fa inimmaginabili.

Ma per sfruttare questi strumenti è necessario che ogni nazione si doti di adeguate infrastrutture per immagazzinare i dati, di risorse di calcolo (CPU) avanzate e ovviamente di capacità tecnologiche per sviluppare e far funzionare questi strumenti ed estrarre quindi valore dai dati raccolti.

In che modo la ricerca di base può aiutarci nell’individuazione di strumenti utili agli scopi che ha appena descritto?
Un esempio utile per comprendere il ruolo centrale svolto dalla ricerca nello sviluppo di soluzioni utili in questo ambito è rappresentato dal settore della fisica delle particelle, che, quando costruì il Large Hadron Collider (LHC) al CERN di Ginevra con l’obiettivo di scoprire il bosone di Higgs, ha dovuto risolvere il problema di come e dove immagazzinare la mole senza precedenti di dati prodotti dai diversi esperimenti, e di come renderne possibile l’accesso alla comunità scientifica, che era distribuita su tutti i continenti della Terra. Il problema fu risolto con la realizzazione della Worldwide LHC Computing Grid, un’infrastruttura mondiale composta da 170 centri di elaborazione, tra cui quelli italiani dell’INFN, antesignana della Cloud che ora usiamo comunemente nella nostra vita.

La Grid è stata di fondamentale importanza nella scoperta del bosone di Higgs, e sottolinea ancora una volta l’essenziale ruolo di fucina dell’innovazione svolto dalla ricerca fondamentale. Questa soluzione ha consentito nel 2012 di portare alla scoperta del bosone di Higgs, nell’arco di appena tre mesi, difficilmente immaginabile prima.

Attualmente i dati prodotti e raccolti dalle decine di milioni di collisioni tra protoni all’interno di LHC ammontano a centinaia di petabyte all’anno e la mole aumenterà ulteriormente nei prossimi anni con l’inizio della presa dati ad alta luminosità. Cifra che chiarisce il motivo per cui la fisica delle particelle abbia saputo precorrere molti dei più attuali temi di ricerca e sviluppo oggi al centro degli sforzi dedicati allo sfruttamento dei Big Data, come per esempio la possibilità di accedere in maniera dinamica, tramite Cloud, a risorse di calcolo e di archiviazione dei dati distribuite in aree geografiche diverse o l’impiego del calcolo parallelo (High-Performance Computing), l’ottimizzazione di quest’ultimo mediante la realizzazione di processori e algoritmi dedicati a compiti specifici, indispensabili nel campo dell’intelligenza artificiale.

Quale ritiene siano i requisiti essenziali per consentire a un paese come l’Italia l’accesso alle opportunità rappresentate dal supercalcolo e dalle tecnologie ad esso connesse, come l’intelligenza artificiale?
Al pari di quanto avviene nello sfruttamento di qualsiasi altra risorsa primaria, la sfida che tutti i paesi sono oggi chiamati ad affrontare, per cercare di non perdere il treno dell’innovazione e della crescita, consiste nella creazione di filiere in grado di provvedere all’estrazione di valore aggiunto dai dati nel più breve tempo possibile, soprattutto in previsione. Per rendere possibile ciò, come la fisica delle particelle ci ha insegnato, sono tuttavia necessari tre prerequisiti abilitanti:
• la capacità di dotarsi di risorse di calcolo per l’immagazzinamento e l’elaborazione dei dati con prestazioni adeguate;
• lo sviluppo di algoritmi in grado di ottimizzare l’analisi dei dati e di risolvere problemi complessi;
• la possibilità di reclutare e formare giovani ricercatori che possiedano le competenze necessarie alla realizzazione degli algoritmi e delle applicazioni software nonché all’ottimizzazione delle risorse di calcolo, realizzando così una classe di esperti che possa aiutare il paese ad affrontare le sfide dei prossimi anni.

Cosa si sta facendo in tal senso a livello internazionale ed europeo?
A dimostrazione di quanto questo campo sia considerato strategico da tutti gli attori dello scenario internazionale, può essere sicuramente utile ricordare gli ambiziosi piani di lungo termine dedicati alle tecnologie per i Big Data, l’intelligenza artificiale e il supercalcolo messi a punto da due superpotenze come USA e Cina, a cui corrispondono stanziamenti di risorse altrettanto ingenti e che hanno una portata ben più ampia di quella, per esempio, definita dalle ricadute militari.

Con le stesse finalità, l’Europa ha messo in campo diverse iniziative volte a rafforzare il ruolo europeo nel calcolo scientifico e a minimizzarne la dipendenza da altri stati. A questo proposito, possiamo ricordare iniziative come EuroHPC, la European Open Science Cloud (EOSC), l’European Processor Initiative (EPI) e la Quantum Flagship. L’iniziativa EuroHPC mira a dotare l’Europa di una struttura di calcolo parallelo ad alte prestazioni, avanzata e competitiva a livello mondiale, finanziando la realizzazione di: cinque centri di calcolo petascale, con una capacità quindi di effettuare un milione di miliardi di operazioni al secondo; tre centri pre-exascale (in Italia, Spagna e Finlandia) e due calcolatori exascale, che vedranno la luce in Francia e Germania nei prossimi anni, in grado di effettuare fino a mille milioni di miliardi di operazioni ogni secondo.

Tra i computer pre-exascale va ricordato Leonardo, la macchina italiana del CINECA che attualmente si colloca al quarto posto tra i supercomputer più potenti al mondo. Costato circa 250 milioni di euro, di cui la metà provenienti da fondi europei, Leonardo è già in funzione presso il nuovo Tecnopolo di Bologna (fig. 1) e entrerà a far parte dell’infrastruttura di calcolo distribuita che sarà realizzata dal Centro Nazionale ICSC.

Nei prossimi anni EuroHPC finanzierà inoltre gli upgrade dei supercomputer appena citati, nonché l’acquisto e la messa in funzione di calcolatori quantistici.

L’European Open Science Cloud ha come scopo la realizzazione di una infrastruttura Cloud europea per la ricerca, mentre l’European Processor Initiative intende sostenere e finanziare lo sviluppo di processori innovativi. La Quantum Flagship, infine, punta a favorire lo sviluppo di tecnologie per il calcolo quantistico e delle tecnologie quantistiche nonché la realizzazione, in collaborazione con il settore produttivo, di calcolatori quantistici europei.

Passiamo ora a discutere del caso italiano. Come si sta muovendo il nostro paese nel settore dedicato al supercalcolo e quali sono gli obiettivi di progetti quali il Centro Nazionale ICSC?
Innanzitutto, bisogna ricordare come l’Italia negli ultimi anni abbia effettuato importanti investimenti nel campo del calcolo scientifico, in perfetto allineamento con la strategia europea appena discussa e volti a rafforzare il ruolo di leadership del nostro paese in questo campo. Possiamo valutare gli investimenti fatti a livello nazionale, ministeriale e regionale per portare in Italia il Centro Europeo per le Previsioni del Tempo a Medio Termine (ECMWF), il cofinanziamento della macchina pre-exascale Leonardo attraverso l’iniziativa europea EuroHPC, gli investimenti dedicati a rafforzare la rete di trasmissione dati per la ricerca del GARR o quelli effettuati al Tecnopolo di Bologna. A questi vanno sommati gli investimenti previsti in questo campo attraverso il Piano Nazionale di Ripresa e Resilienza (PNRR).

Relativamente al PNRR l’Italia ha finanziato due ambizioni progetti: il principale è il Centro Nazionale ICSC per la ricerca in HPC, Big Data e Quantum Computing; il secondo è il progetto Terabit.

Il Centro Nazionale ICSC è nato grazie all’impulso dell’Istituto Nazionale di Fisica Nucleare, soggetto proponente del centro, interessato a trasferire e a mettere a frutto, nell’interesse del paese, le competenze acquisite con il lavoro svolto per gli esperimenti del progetto LHC, presso il CERN di Ginevra. ICSC ha infatti come obiettivo principale quello di realizzare, mettendo a sistema e potenziando i centri di calcolo attualmente esistenti sul territorio nazionale, un’infrastruttura italiana di supercalcolo distribuita. Un’infrastruttura di tipo data-lake, che garantirà l’assegnazione virtuale e dinamica delle risorse di calcolo attraverso un’interfaccia Cloud dedicata, di cui tutte le comunità scientifiche potranno avvantaggiarsi. In questo modo, il centro, che ha già iniziato a reclutare giovani ricercatrici e ricercatori allo scopo di consolidare in Italia le tecnologie del supercalcolo e di promuovere lo sviluppo e l’individuazione di soluzioni, sistemi e applicazioni innovative – calcolo quantistico compreso –, si propone quindi come attore in grado di porre in essere quelle condizioni indispensabili per l’affermazione e la crescita in Italia di una filiera autosufficiente e attrattiva dedicata allo sfruttamento dei Big Data, con l’intento di supportare il mondo scientifico e quello industriale e di aumentare la loro competitività.

Il progetto Terabit ha come scopo principale quello di potenziare la rete nazionale di fibra ottica dedicata al trasferimento dati della comunità scientifica e, così facendo, aumentare la velocità di connessione da 10 a 100 volte rispetto a quella attuale, fino ad arrivare a multipli del terabit per secondo. L’attuazione del progetto risulta inoltre di fondamentale importanza anche per il conseguimento delle finalità del Centro Nazionale.

Come si compone e quali sono gli attori coinvolti nel Centro Nazionale? In che modo e in quali direzioni si sviluppano le sue attività?
ICSC è una fondazione privata i cui soci provengono prevalentemente dal settore pubblico. Il suo scopo principale è rafforzare e consolidare nel paese le tecnologie connesse al calcolo ad alte prestazioni, ai Big Data e al Quantum Computing, coordinando e finanziando interventi infrastrutturali e attività di ricerca e sviluppo nei settori di riferimento. La Fondazione si è dotata di una struttura organizzativa basata sul cosiddetto modello “Hub and Spoke”, dove l’hub, con sede presso il Tecnopolo di Bologna, svolge una funzione di coordinamento di tutto il progetto, mentre gli 11 spoke, che possono essere definiti come aree tematiche di attività, raggruppano sotto di essi i soggetti che compongono la Fondazione e gli esperti di settore, con il compito di svolgere attività di ricerca e sviluppare applicazioni hardware e software per analizzare i Big Data ed eseguire simulazioni sfruttando le capacità dei supercomputer nei domini di competenza.

La fondazione conta 51 soci fondatori, 37 provenienti dal mondo delle università e degli istituti di ricerca e 14 dal settore privato. Tale composizione è motivata da una precisa strategia volta a estendere in egual misura i benefici che le risorse di calcolo e gli strumenti software possono garantire sia in ambito scientifico sia in quello produttivo, incrementando al contempo la competitività di entrambi.

Le aree tematiche su cui si concentrerà l’attività scientifica degli 11 spoke di ICSC spaziano dalla fisica delle particelle alla space economy, passando per l’astrofisica, la medicina personalizzata e le scienze climatiche e ambientali (vedi fig. 2).

Un ruolo trasversale rispetto a tutti i domini di ricerca del centro sarà invece svolto dagli spoke 0, 1 e 10. Lo spoke 0 sarà responsabile dello sviluppo e della realizzazione dell’infrastruttura di calcolo di tipo data-lake con accesso cloud che sarà messa a disposizione alla comunità scientifica e al sistema produttivo; mentre lo spoke 1 si occuperà dell’individuazione e sviluppo di innovative soluzioni hardware e software in grado di migliorare e ottimizzare le prestazioni dei processori e del cloud. Lo spoke 10 si focalizzerà invece sullo sviluppo di tecnologie e algoritmi per il calcolo quantistico.

Il budget totale destinato alle attività di ICSC ammonta a 320 milioni di euro di cui circa la metà sono destinati al potenziamento e all’acquisto dei componenti per l’infrastruttura di calcolo. I restanti saranno impiegati per aprire borse e dottorati rivolti a giovani ricercatrici e ricercatori e per finanziare due tipologie di strumenti per la ridistribuzione delle risorse: i fondi per l’innovazione con cui sostenere i progetti proposti dalle aziende che fanno parte di ICSC, e i cosiddetti bandi a cascata dedicati a realtà esterne a ICSC, a cui possono applicare soggetti sia pubblici che privati, tra cui le piccole e medie imprese.

L’orizzonte temporale per la realizzazione di questa iniziativa è di tre anni, come previsto dal PNRR. Tuttavia, dopo il 2026, si auspica che il Centro possa continuare nella sua attività in maniera autonoma attraverso finanziamenti propri, e risorse nazionali, regionali o europee.

Come valuta la scelta italiana di investire su un’iniziativa come quella di ICSC? E che tipo di impatto pensa potrà avere sul mondo della ricerca?
ICSC è un’iniziativa unica nel suo genere in Italia, ma rappresenta anche una sfida che starà a noi vincere. Se ne saremo in grado, potremo portare il nostro paese a occupare una posizione di leadership a livello internazionale nel campo del calcolo e delle tecnologie a esso connesse. A questo proposito, va ricordato che l’Italia, negli ultimi cinque anni, ha avuto la lungimiranza di effettuare un investimento molto cospicuo in questo campo, che, sommando tutte le tipologie dei vari fondi distribuiti, ammonta a cifra compresa tra 800 milioni e 1 miliardo di euro. Un investimento che non ha precedenti nella storia italiana del dopoguerra, e che andrà sicuramente a beneficio sia della ricerca di base sia del sistema industriale.

Dobbiamo quindi ritenerci soddisfatti nel poter inserire anche l’Italia nell’elenco dei paesi che, in maniera incisiva, hanno saputo far proprie le forti istanze di progresso scientifico e tecnologico che le opportunità di cui sono portatori i Big Data ci pongono davanti, concentrando su di esse uno sforzo consapevole e strutturato. Tale sforzo nel nostro paese si è per una volta concretizzato in progetti di ampio respiro grazie al coinvolgimento di tutte le competenze già presenti a livello nazionale e investimenti commisurati allo scopo.