OR6

Sviluppo della Facility di High Performance Computing e Grid a Supporto delle Attività di Modellistica e Diagnostica Avanzata

Le infrastrutture di high performance computing sono soggette ad un tasso di obsolescenza rapidissimo ed è imprescindibile un rinnovo frequente della strumentazione di calcolo, storage e trasmissione di dati se si vuole mantenere inalterata la propria competitività. Fino ad oggi, il contributo dato alla ricerca ENEA dalla disponibilità di un’infrastruttura di calcolo ad alte prestazioni allineata al contesto internazionale suggerisce di porre in atto azioni per riposizionarsi nel settore computazionale almeno al livello corrispondente all’entry point della lista TOP500 dei supercalcolatori più potenti al mondo a giugno 2013, che può essere realisticamente presa come data di entrata in esercizio di una nuova facility ENEA. Questo consentirà di rispondere in maniera efficace alle esigenze di ricercatori ed imprese nel settore delle tecnologie avanzate per la progettazione ed i sistemi di trasporto e controllo di materiali, e allo stesso tempo di usufruire di un’infrastruttura adeguata a supportare in generale la pluralità delle linee di ricerca di ENEA. Nell’ultima graduatoria (giugno 2011) l’entry point della lista corrisponde a circa 40 Tflops; a giugno 2013, per raggiungere questa posizione saranno necessarie potenze dell’ordine dei 100 Tflops.

In generale, si intende confermare le scelte architetturali di fondo già adottate per il progetto CRESCO, e che si sono dimostrate particolarmente efficaci in termini di “successo” presso l’utenza. Il sistema CRESCO infatti mostra un tempo effettivo di utilizzo totale intorno all’85%. Si sottolinea che per questo tipo di sistema un utilizzo a questo livello, tenuto conto dei tempi tecnici di gestione, risulta corrispondere ad una completa saturazione.

In particolare la scelta architetturale adottata per CRESCO si era basata sulla necessità di rispondere ad un ampio spettro di esigenze computazionali sintetizzabili in tre gruppi di soluzioni tecnologiche:

  1. codici ad alto parallelismo ed alto scambio di dati;
  2. codici a basso parallelismo ma alta richiesta di memoria;
  3. codici per piattaforme speciali, tipicamente con architettura ibrida.

 

Ulteriore scelta di base l'adozione di sistemi “commodity” che garantiscono sia il rapporto ottimale costo/prestazioni teoriche che l'effettivo utilizzo delle potenzialità disponibili minimizzando le problematiche di porting sulla nuova infrastruttura. Inoltre CRESCO è inserito nella infrastruttura GRID/Cloud ENEA, ottimizzando la sua integrazione con l'insieme delle risorse di calcolo disponibili negli altri 5 centri di calcolo di ENEA. Questa integrazione consente consente di rispondere in modo efficace alle richieste di calcolo distribuito che rispondono ad algoritmi adatti al multicase, come ad esempio i processi di ottimizzazione oppure l'analisi massiva di dati con codici a basso parallelismo.

Il disegno della nuova infrastruttura, basata sui principi precedentemente esposti, dovrà rispondere alle esigenze computazionali specifiche del PON3-Brindisi, ovvero quelle legate alle tematiche dei materiali per il settore dei trasporti e dei materiali critici. A tale proposito, si sottolinea come già oggi le tematiche dell’energia, dei materiali innovativi, e del clima assorbono oltre l’80% del tempo macchina di CRESCO. In particolare si darà supporto alle seguenti attività di R&S:

  • modellistica dei materiali, anche attraverso l'utilizzo di simulazioni ab-initio;
  • simulazione di sistemi energetici.
  • elaborazione di bilanci energetici e di macromodelli su scala nazionale e locale.
  • modellistica climatica orientata alla previsione di produzione di energia in centrali solari
  • modellistica per le previsioni meterologiche ad alta risoluzione per la gestione operativa della rete elettrica utilizzando l'approccio smart grid
  • modellistica della simulazione in tempo reale di smart grid
  • modellistica termofluidodinamica per la simulazione e progettazione di impianti energetici

OR6_1

In dettaglio:

  • 224 nodi di calcolo su Portici per 5.376 cores, 10 nodi su Brindisi per 240 cores
  • dischi di lavoro: 120 TB su Portici tecnologia DDN e 48 TB su Brindisi tecnologia Dothill
  • sistema di backup: 250 TB su Portici tecnologia Dothill
  • software di sistema e software applicativo
  • 2 front end + 1 front end grafici su Portici; un front end standard su Brindisi
  • ripristino/aggiornamento di sistemi di visualizzazione 3D sia a Portici che Brindisi
  • PC e accessori per la condivisione di strumenti di laboratorio

 

Elenco delle attrezzature previste dal progetto di potenziamento per il Centro di Ricerca Brindisi

(Puglia) e Centro di Ricerca Portici (Campania)

a) Tabella delle attrezzature CR Brindisi

OR6_2

 

b) Tabella delle attrezzature CR Portici

OR6_3