Sintesi del progetto
DAGonCAPIO nasce per ottimizzare l’esecuzione di flussi di lavoro (workflow) scientifici complessi, soprattutto nelle applicazioni ambientali e climatiche. Il progetto ha realizzato un sistema in grado di gestire dati e calcolo in parallelo, riducendo i tempi complessivi grazie al supporto del Supercalcolo (HPC). L’obiettivo è accelerare modelli iterativi, come previsioni meteo e simulazioni marine, integrando elaborazione e archiviazione in modo continuo.
Obiettivi
Formalizzare e sviluppare un motore di workflow che eviti le attese tra un’attività e la successiva, gestire in modo nativo lo spazio di lavoro e costruire, insieme ai partner industriali, uno strumento adatto a scenari che combinano HPC, Cloud e algoritmi di analisi dati.
Problemi e necessità
Le applicazioni ambientali producono grandi quantità di dati in modo progressivo, ma richiedono la conclusione completa di ogni fase prima di passare alla successiva. Questa sequenzialità genera ritardi significativi e limita la capacità di risposta, soprattutto nei contesti dove la tempestività è un fattore decisivo.
Soluzioni sviluppate
Il progetto ha introdotto un orchestratore che elabora i dati man mano che vengono generati, riducendo drasticamente i tempi di esecuzione. I test hanno mostrato un’accelerazione compresa tra il 25% e il 30% in condizioni controllate, con miglioramenti ancora più evidenti su flussi reali, dove il tempo al primo risultato passa da oltre un’ora a pochi minuti.
Benefici e ricadute
La maggiore rapidità nella produzione di previsioni meteo, analisi idrologiche e simulazioni ambientali può supportare decisioni più tempestive, diventando un aiuto diretto per la gestione dei rischi e la protezione del territorio. L’architettura sviluppata contribuisce inoltre a rendere più efficiente l’uso delle risorse HPC, riducendo tempi di calcolo e costi operativi.
Settori che possono beneficiare
Le ricadute riguardano in primo luogo Ambiente, Clima e Infrastrutture, con potenziali applicazioni nei settori Software, Intelligenza Artificiale e Calcolo e Infrastrutture di Storage, dove la gestione efficiente di flussi dati complessi è fondamentale.