contatore visite

mercoledì 18 marzo 2026

Quando l’universo incontra l’algoritmo: Intelligenza Artificiale e nascita dei nuovi modelli cosmologici.

«La cosmologia è sempre stata un dialogo tra mente umana e universo; oggi, a quella conversazione partecipa anche l’algoritmo.»

Nel post che ho pubblicato la scorsa settimana - "L’intelligenza artificiale e la terza dimensione del cielo: una nuova mediazione tra osservazione e conoscenza cosmologica" - avevo preso in esame il ruolo dell'intelligenza artificiale nell'ambito dell'astronomia, descrivendone la capacità di restituirci una mappa tridimensionale sempre più dettagliata del cosmo osservabile.

Qui mi occupo invece di un passaggio ulteriore: come l'AI sia divenuta un alleato oramai imprescindibile nello studio dei modelli cosmologici, e cioè delle teorie che tentano di descrivere l’evoluzione dell’universo nel suo insieme.


Nel suo saggio "L'universo in una scatola" il cosmologo Andrew Pontzen (1) sottolinea un'anomalia fondamentale della cosmologia rispetto alla fisica sperimentale: l'impossibilità di eseguire esperimenti controllati.

"... possediamo un solo universo e non possiamo variarne le condizioni iniziali per verificarne gli esiti: la cosmologia è quindi, inevitabilmente, una scienza inferenziale ..."

Fin dalle sue origini la cosmologia ha fatto procedere insieme immaginazione teorica ed analisi dei dati.

Dalle leggi planetarie di Johannes Kepler alla gravitazione universale di Isaac Newton, fino alla Relatività Generale di Albert Einstein, ogni rivoluzione nella comprensione del cosmo è nata dall’interazione tra osservazione, matematica ed intuizione fisica.

Ogni epoca ha ampliato la conoscenza cosmologica introducendo nuovi strumenti cognitivi: telescopi più potenti, formalismi matematici più raffinati, metodi statistici più sofisticati.

Nel XXI secolo sta emergendo un nuovo protagonista la cui importanza cresce rapidamente e del quale già oggi la cosmologia non può più fare a meno: l’intelligenza artificiale.

Non rappresenta semplicemente un ulteriore strumento computazionale, sta trasformando il modo stesso in cui i modelli cosmologici vengono costruiti, confrontati con i dati e, in alcuni casi, persino concepiti.

La cosmologia contemporanea opera su scale di dati senza precedenti: il satellite Planck dell’ESA ha prodotto mappe della radiazione cosmica di fondo (la CMB) con decine di milioni di pixel effettivi (3) e precisione statistica straordinaria, mentre grandi survey come la Sloan Digital Sky Survey hanno catalogato milioni di galassie, rivelando la struttura a grande scala dell’universo: una rete cosmica di filamenti, ammassi e vuoti che si estende per miliardi di anni luce.

Analizzare queste enormi quantità di dati è già di per sé una sfida, ma la difficoltà maggiore deriva dal fatto che i modelli cosmologici moderni siano altamente non lineari.

La formazione delle galassie, l’evoluzione della materia oscura, l’interazione tra gas, stelle e buchi neri supermassicci sono processi che si influenzano reciprocamente in modi complessi: le equazioni fondamentali possono essere scritte, ma raramente possono essere risolte in forma analitica.

Proprio per questo motivo gran parte della cosmologia moderna si basa su simulazioni numeriche. (4)

Le simulazioni cosmologiche tradizionali, basate su metodi N-body ed idrodinamici, si scontrano con un limite difficile da superare: la capacità computazionale disponibile.

Per ricostruire l’evoluzione dell’universo queste simulazioni partono da condizioni iniziali ispirate alle osservazioni della CMB e rappresentano miliardi di particelle, ciascuna corrispondente alla materia oscura od al gas cosmico.

Il comportamento gravitazionale di queste particelle viene calcolato passo passo lungo miliardi di anni cosmici, generando così universi digitali estremamente dettagliati.

Nonostante la loro straordinaria potenza descrittiva, tali simulazioni richiedono enormi risorse computazionali: una singola simulazione ad alta risoluzione può impegnare un supercomputer per settimane o mesi prima di completare il calcolo. (5)

Una delle applicazioni più promettenti dell'AI consiste negli emulatori cosmologici: invece di eseguire ogni volta simulazioni complete, una rete neurale viene addestrata su un insieme di simulazioni già eseguite e così apprende la relazione tra i parametri cosmologici ed osservabili finali (in pratica una versione approssimata della likelihood cosmologica).

Una volta addestrato l’emulatore può produrre previsioni quasi istantanee, permettendo di esplorare lo spazio dei modelli cosmologici con una rapidità prima impensabile. (6)

Questo è cruciale per il modello cosmologico standard ΛCDM (Lambda-Cold Dark Matter che descrive un universo dominato da materia oscura fredda e da una costante cosmologica associata all’energia oscura), estremamente efficace nel descrivere molte osservazioni, ma attraversato da tensioni osservative ed anomalie ancora irrisolte che potrebbero indicare la necessità di una teoria più completa.

L’AI consente oggi di testare rapidamente varianti teoriche confrontandole con enormi dataset osservativi.

L’intelligenza artificiale in cosmologia non è un singolo metodo ma un vero ecosistema:

  • le reti neurali artificiali (Artificial Neural Networks, ANN) approssimano relazioni complesse tra parametri cosmologici ed osservabili;

  • le Convolutional Neural Networks (CNN) analizzano mappe cosmologiche ed immagini galattiche, estraendo informazione statistica oltre gli spettri di potenza tradizionali;

  • le Generative Adversarial Networks (GAN) producono mappe cosmologiche sintetiche statisticamente realistiche, accelerando le analisi Monte Carlo (un esempio è Il progetto CosmoGAN);

  • le Physics-Informed Neural Networks sono reti neurali che incorporano direttamente equazioni fisiche nei processi di apprendimento, riducendo così il rischio di soluzioni "non fisiche".

  • infine le Graph Neural Networks modellano la cosmic web trattando galassie ed aloni come nodi di una rete gravitazionale.

Un secondo ambito trasformato dall’AI riguarda l’inferenza dei parametri cosmologici e l'informazione nascosta.

Tradizionalmente essa si basa su metodi statistici bayesiani: si assume un modello teorico e si calcola la probabilità che esso riproduca i dati osservati.

Tuttavia quando i dati diventano estremamente complessi - come nelle mappe di lente gravitazionale debole o nelle immagini profonde di galassie lontane - le statistiche standard non sfruttano tutta l’informazione disponibile.

Le reti neurali sono invece particolarmente adatte a riconoscere pattern complessi: addestrate su simulazioni realistiche possono imparare ad identificare segnali sottili che sfuggirebbero all’analisi statistica tradizionale.

Ad esempio, nel caso della lente gravitazionale debole, l’AI può individuare minuscole distorsioni nelle immagini delle galassie causate dalla distribuzione della materia lungo la linea di vista; queste distorsioni contengono informazioni preziose sulla distribuzione della materia oscura e sulla dinamica dell’espansione cosmica.

Episodio emblematico riguarda alcuni studi recenti in cui Convolutional Neural Networks, addestrate su mappe simulate, sono riuscite a recuperare informazione cosmologica aggiuntiva rispetto alle statistiche standard, suggerendo così che parte dell’informazione contenuta nei dati osservativi fosse rimasta inutilizzata per decenni.

In questo senso l’AI non aggiunge nuovi dati: rivela informazione già presente ma invisibile agli strumenti analitici tradizionali.

Un ulteriore ambito riguarda la classificazione automatica delle strutture cosmiche.

Nelle simulazioni e nelle osservazioni la materia dell’universo non è distribuita in modo uniforme ma forma una rete complessa, la “cosmic web”.

Le tecniche di apprendimento automatico possono identificare in autonomia filamenti, ammassi e vuoti cosmici, permettendo agli astronomi di studiare in modo sistematico la geometria e l’evoluzione di questa rete.

Architetture neurali profonde sviluppate su geometrie sferiche - quali DeepSphere e DeepCosmoNet - permettono di segmentare automaticamente l’universo simulato distinguendo i singoli componenti della rete cosmica.

L’AI diventa così uno strumento di vera e propria cartografia cosmica: non si limita a osservare l’universo, ma ne riconosce la geometria nascosta.

L’aspetto forse più radicale riguarda la possibilità che l’AI contribuisca alla formulazione stessa di nuove leggi fisiche.

Tecniche di machine learning, come la regressione simbolica o le reti neurali informate dalla fisica, sono in grado di cercare direttamente relazioni matematiche nei dati.

In linea di principio, un algoritmo potrebbe analizzare simulazioni o osservazioni e proporre nuove dinamiche cosmologiche prima ancora che un fisico ne comprenda il significato profondo.

Storicamente, Keplero individuò le leggi orbitali prima di comprenderne la causa fisica spiegata poi da Newton: Keplero trovò cioè i pattern nei dati mentre Newton fornì in seguito la teoria che li spiegava.

.Analogamente alcuni ricercatori immaginano l’AI come un possibile Keplero algoritmico, capace di scoprire regolarità che la teoria dovrà successivamente interpretare.

Questa possibilità apre uno scenario epistemologico completamente nuovo: infatti nella storia della scienza le leggi fisiche sono state generalmente formulate da esseri umani attraverso intuizioni teoriche profonde, mentre oggi l’AI introduce la possibilità che alcune leggi emergano da processi di apprendimento automatico prima di essere comprese pienamente dal punto di vista concettuale.

Questo scenario solleva questioni profonde: le reti neurali sono spesso black boxes, producono risultati accurati ma difficili da interpretare.

In cosmologia, dove comprendere è importante quanto prevedere, questa opacità rappresenta un limite reale.

Esiste inoltre il rischio di bias teorici: se un algoritmo viene addestrato su simulazioni basate su modelli incompleti, potrebbe semplicemente rafforzarne le ipotesi implicite (in altre parole l’AI potrebbe diventare straordinariamente efficiente nel confermare ciò che già crediamo).

Nonostante questi limiti è difficile negare che l’intelligenza artificiale stia trasformando profondamente la cosmologia: da strumento di analisi dei dati essa sta diventando parte integrante del processo di costruzione teorica.

In alcuni casi accelera enormemente le simulazioni, in altri essa permette di estrarre informazione nascosta nei dati osservativi; in prospettiva, potrebbe persino contribuire alla scoperta di nuove leggi fisiche.

La cosmologia del XXI secolo potrebbe evolvere verso una forma di ricerca in cui intuizione umana ed apprendimento automatico collaborino strettamente: lasciando agli algoritmi l'esplorazione di spazi teorici immensi e l'identificazione di pattern nei dati, ed ai fisici l'interpretazione di questi risultati alla luce dei principi fondamentali della natura. (7)

L’AI non sostituirebbe la creatività scientifica, ma ne amplierebbe il raggio d’azione.

Se le grandi rivoluzioni cosmologiche sono state guidate da nuovi strumenti osservativi o nuove matematiche, l’intelligenza artificiale potrebbe rappresentare una terza trasformazione: un nuovo modo di interrogare l’universo, capace di rivelare strutture e leggi che fino a poco tempo fa erano semplicemente oltre la nostra capacità di analisi.

Note: (1) Andrew Pontzen è professore di cosmologia e direttore dell’Istituto di Cosmologia Computazionale presso l’Università di Durham, nonché autore del saggio citato.

Lo scorso 11 ottobre 2025 avevo già scritto un post, "L'esperimento di Holmberg, precursore delle moderne simulazioni numeriche al computer, quale atto di empatia intellettuale verso il cosmo", il cui argomento era tratto dalla lettura del libro di Pontzen. (2) Pontzen parte da un punto cruciale: non è possibile creare universi in laboratorio, ripetere condizioni iniziali o modificare parametri cosmici per osservare cosa accade: il cosmo è un esperimento unico ed irripetibile.

Per questo motivo, storicamente, la cosmologia si è basata esclusivamente su osservazioni astronomiche, modelli teorici ed inferenze indirette.

(3) Riferimento tecnico alla risoluzione delle mappe: HEALPix (Hierarchical Equal Area isoLatitude Pixelation) è lo standard utilizzato per rappresentare mappe sferiche della radiazione cosmica di fondo con milioni di pixel.

(4) A cavallo tra XX e XXI secolo emerge, secondo Pontzen, un nuovo pilastro della cosmologia: la simulazione computazionalee, intesa come nuova forma di conoscenza scientifica.

"... le equazioni fisiche vengono trasformate in codice e fatte evolvere dentro computer, creando così universi virtuali che consentono di testare ipotesi impossibili da verificare direttamente ..."

Negli anni ’70-’90 i computer servivano soprattutto a risolvere equazioni troppo complesse per il calcolo manuale.

Con l’avvento dei supercomputer fu possibile simulare la formazione di galassie, materia oscura e reti cosmiche su larga scala, dando vita ai veri e propri "universi in miniatura dentro il computer" a cui si riferisce il titolo del saggio di Pontzen, "L’universo in una scatola".

(5) La Millennium Simulation rappresenta uno dei momenti di svolta più importanti nella cosmologia computazionale moderna: non è solo una simulazione numerica dell’universo, ma un vero laboratorio teorico in cui l’evoluzione cosmica diventa osservabile, manipolabile e, oggi, interpretabile anche attraverso l’intelligenza artificiale.

All’inizio degli anni Duemila, la cosmologia stava vivendo una trasformazione silenziosa: le osservazioni della missione Wilkinson Microwave Anisotropy Probe (WMAP) avevano fornito parametri cosmologici sempre più precisi (densità della materia, energia oscura e geometria dell’universo) ma conoscere questi parametri non significava ancora comprendere come l’universo costruisse le sue strutture.

Tuttavia conoscere i parametri non significava ancora comprendere come l’universo costruisse le sue strutture.

In questo contesto, un gruppo internazionale guidato da Volker Springel realizzò nel 2005 la Millennium Simulation, una delle più grandi simulazioni cosmologiche fino ad allora tentate.

L’idea era audace: simulare l’evoluzione di una porzione significativa dell’universo considerando esclusivamente la gravità della materia oscura lungo miliardi di anni cosmici.

Tale simulazione modellava un volume cubico di circa 2 miliardi di anni luce per lato, popolato da oltre 10 miliardi di particelle di materia oscura.

Stelle e galassie non venivano simulate direttamente: ciò che emergeva era la rete invisibile su cui tutto si forma, la struttura a grande scala dell’universo.

Da piccole fluttuazioni iniziali, eredità quantistiche dell’inflazione cosmica, si generavano filamenti, nodi, vuoti cosmici e ammassi di galassie.

Per la prima volta gli astronomi potevano osservare nascere virtualmente la struttura a grande scala dell’universo.

La Millennium Simulation trasformò il metodo cosmologico in tre modi principali:

  • Non si confrontavano più solo equazioni con osservazioni, ma universi sintetici con l'universo reale: cataloghi simulati di galassie venivano comparati con survey quali la Sloan Digital Sky Survey (SDSS) per verificare la capacità del modello ΛCDM di riprodurre l’universo osservato.

  • La simulazione mostrò chiaramente che le galassie non si distribuiscono casualmente ma crescono lungo una struttura gravitazionale preesistente: la materia oscura da componente teorica divenne impalcatura dinamica visibile nei dati simulati.

  • Generò quantità enormi di dati, troppo vaste per essere analizzate interamente dall’uomo, aprendo la strada all’uso dell’intelligenza artificiale.

Negli anni successivi i dataset della Millennium Simulation divennero terreno ideale per reti neurali convoluzionali, modelli generativi e tecniche di machine learning non supervisionato.

In un certo senso la simulazione anticipò un cambio epistemologico: prima fu costruito un universo digitale, poi divenne necessario creare intelligenze artificiali in grado di interpretarlo.

Oggi simulazioni “discendenti”, come Illustris e progetti successivi, integrano fisica gravitazionale, idrodinamica, formazione stellare e apprendimento automatico.

Non più dunque soltanto simulazioni guidate da equazioni ma modelli ibridi fisica-AI in cui l’intelligenza artificiale apprende le regolarità cosmiche emergenti e suggerisce nuove approssimazioni teoriche.

La Millennium Simulation segna il momento in cui la cosmologia ha iniziato a costruire universi artificiali e, forse inconsapevolmente, ha preparato il terreno per un nuovo tipo di scienziato: algoritmico, collaborativo, capace di esplorare spazi cosmici troppo vasti per la sola intuizione umana.


(6) Progetti come BACCO Emulator permettono oggi di esplorare lo spazio dei modelli cosmologici con velocità prima impensabili, riducendo di settimane o mesi i tempi necessari per ottenere previsioni cosmologiche precise.

(7) Secondo Pontzen, tuttavia, l’AI non potrà mai sostituire l’interpretazione umana.

"... Le simulazioni - e ancor più quelle assistite da AI - sono epistemicamente opache: il risultato emerge da milioni di passaggi computazionali che nessuno può seguire intuitivamente.

Perciò la scienza non consiste nel fidarsi del computer, ma nel confrontare modelli diversi, verificare robustezza dei risultati ed interpretare criticamente gli output.

Il valore scientifico resta umano ..."

"... Il vero entusiasmo delle simulazioni non è il mondo virtuale generato, ma il modo in cui esse collegano concetti teorici diversi e costringono gli scienziati a chiarire le proprie ipotesi ..."




Nessun commento:

Posta un commento

Elenco posts

 Elenco dei miei posts scritti nel periodo dal 28/3/18 ad oggi:                                                    ( su FB ) - pdf e video  ...