Sintesi del progetto
MLS nasce con l’obiettivo di migliorare l’analisi dei grandi cataloghi cosmologici prodotti da missioni come Euclid ed eROSITA, sfruttando tecniche di Machine Learning per estrarre più informazione di quelle ottenibili con le statistiche classiche. Il progetto sviluppa un approccio basato su simulazioni rapide e reti neurali tridimensionali, con l’obiettivo di ricavare parametri cosmologici chiave tramite l’osservazione nei raggi X dei cluster di galassie.
Obiettivi
Creare set di addestramento su larga scala utilizzando simulazioni approssimate tramite la teoria delle perturbazioni utilizzando simulazioni con emissioni di raggi X realistiche. Addestrare una Rete Neurale Convoluzionale (CNN) 3D in grado di stimare parametri come la densità cosmica media e l’ampiezza delle fluttuazioni di densità con precisione superiore alle analisi tradizionali.
Problemi e necessità
Le analisi convenzionali basate su funzioni a n-punti perdono parte dell’informazione codificata nei campi cosmologici continui. Le missioni moderne generano dataset troppo ricchi per essere sfruttati completamente con i soli metodi statistici classici, rendendo necessario un cambio di paradigma analitico.
Soluzioni sviluppate
MLS ha prodotto oltre 32.000 universi simulati e ha implementato una CNN 3D capace di incrementare la precisione nella stima della densità cosmica media e dell’ampiezza delle fluttuazioni di densità di oltre il 50% rispetto alle statistiche tradizionali, a partire dall’analisi della luminosità nei raggi X. Sono in corso test con Graph Neural Networks per apportare ulteriori miglioramenti.
Benefici e ricadute
I risultati aumentano il valore scientifico dei dati raccolti dalle missioni cosmologiche, formando ricercatori su tecniche di AI applicate all’astrofisica. Le soluzioni sviluppate potranno essere adattate anche ad altri contesti di ricerca che necessitano simulazioni rapide e inferenze efficienti.
Settori che possono beneficiare
Oltre al dominio Spazio, il progetto contribuisce settori dell’Intelligenza Artificiale, delle Nuove Tecnologie, del Software e della Ricerca Fondamentale, offrendo strumenti generalizzabili per analizzare campi tridimensionali complessi e dataset ad alta dimensionalità.