Nel linguaggio comune il termine teoria è spesso usato come sinonimo di ipotesi non verificata, là dove invece nel linguaggio scientifico ha un significato molto preciso: sono 'teorie' la Relatività di Einstein e la Meccanica Quantistica mentre quando si parla di Multiverso dovremmo - prudenzialmente - usare il termine congettura (1)
Non è tuttavia raro incappare in un uso improprio anche nell'ambito di saggi scientifici, per cui credo sia opportuno tornare sull'argomento - già affrontato nell'autunno 2023 (2) - per dare una risposta al quesito che da il titolo a questo post: "è corretto parlare di 'teoria' delle stringhe?"
Partiamo dalla definizione classica di teoria scientifica. Una teoria scientifica è un modello concettuale sistematico che spiega, interpreta e predice fenomeni osservabili nel mondo naturale.
Si fonda su evidenze empiriche, raccolte attraverso osservazioni ed esperimenti, ed è formulata in modo tale da essere verificabile e falsificabile.
Sempre opportuno ricordare come le teorie scientifiche non costituscano "verità assolute", ma siano semmai da considerarsi quali rappresentazioni robuste e coerenti dei dati a disposizione, costantemente soggette a revisione e miglioramento man mano che emergono nuove evidenze o vengono sviluppati strumenti più precisi di osservazione e sperimentazione. Il criterio di falsificabilità, proposto nel 1934 da Karl Popper (3), rimane un punto di riferimento fondamentale nella filosofia della scienza ma è stato oggetto di critiche ed ampliamenti nel corso degli anni. Suo pregio è la chiarezza concettuale: una teoria deve essere confutabile, devono potersi concepire osservazioni od esperimenti in grado di dimostrarne la falsità. Un criterio che aiuta a distinguere tra teorie scientifiche ed affermazioni pseudoscientifiche, ponendo l'accento sulla capacità di fare previsioni che possano essere testate.
Più di recente filosofi quali Thomas Kuhn hanno evidenziato come la scienza non progredisca soltanto per la falsificazione, ma anche attraverso cambiamenti di paradigma che possono includere elementi non immediatamente falsificabili. (4)
Imre Lakatos (insieme ad altri pensatori) hanno in seguito proposto modelli nei quali le teorie scientifiche sono viste come "programmi di ricerca" composti da un nucleo duro e da ipotesi ausiliarie, rendendo il criterio di falsificabilità meno immediato nella pratica. (5)
Soprattutto nell'ambito della fisica teorica oggi si considerano "scientifiche" alcune teorie che, pur attualmente non falsificabili, potrebbero diventarlo in futuro con lo sviluppo di nuove tecnologie sperimentali. In conclusione, il criterio di Popper è ritenuto ancora valido ed utile quale strumento normativo per valutare una teoria scientifica, ma si ritiene non riesca ad esaurire completamente la complessità del metodo scientifico.
Pertanto attualmente si tende a considerarlo insieme ad altri criteri e modelli che tengano conto della dinamica evolutiva e storica della scienza.
Le origini della "teoria delle stringhe". Durante gli anni '60, i fisici cercavano di capire come le particelle, in particolare quelle coinvolte nelle interazioni forti, potessero essere descritte da una singola teoria..
Nel 1968 Gabriele Veneziano propose una formula per descrivere le proprietà delle interazioni forti, in seguito divenuta nota come "ampiezza di Veneziano", che presentava una simmetria duale tra i canali di scattering, suggerendo che le particelle potessero essere viste non come punti ma piuttosto come eccitazioni di oggetti estesi. (6)
Negli anni '70 alcuni fisici - tra i quali Leonard Susskind e Holger Bech Nielsen - iniziarono ad interpretare il modello duale come fosse un comportamento vibrazionale di stringhe fondamentali, oggetti unidimensionali in cui le particelle emergono come diverse modalità di vibrazione.
La teoria delle stringhe venne in seguito riformulata in modo tale da includere anche la gravità; John Schwarz e Joel Scherk la reinterpretarono come si trattasse di una possibile teoria unificata delle interazioni fondamentali, in grado di includere la gravità quantistica.
.Nel decennio successivo, grazie ai contributi di numerosi studiosi, la teoria si sviluppò ulteriormente portando alla formulazione della cosiddetta teoria delle superstringhe che incorporano la supersimmetria (7) per risolvere alcune problematiche teoriche e migliorare la consistenza matematica del modello.
Dunque la teoria delle stringhe ha avuto origine come modello per descrivere le interazioni forti, evolvendosi in seguito in una cornice teorica che vorrebbe unificare tutte le forze fondamentali, compresa la gravità. Teoria o congettura, qual è il termine esatto da usare quando si parla di stringhe?
In fisica la distinzione tra “teoria” e “congettura” è legata al grado di sviluppo, formalizzazione e capacità di essere verificata empiricamente.
Quella delle stringhe è definita “teoria” per i seguenti motivi:
Formalizzazione matematica:
La teoria delle stringhe è una struttura matematica altamente complessa e ben definita. Esistono equazioni precise e modelli che descrivono l’interazione tra stringhe fondamentali (ossia oggetti unidimensionali) anziché particelle puntiformi.
Coerenza interna:
La teoria delle stringhe è matematicamente coerente e riesce a includere naturalmente le quattro forze fondamentali (gravitazionale, elettromagnetica, nucleare forte e debole), unificando meccanica quantistica e relatività generale.
Predizioni teoriche:
Sebbene molte di queste predizioni non siano verificabili con le attuali tecnologie, la teoria delle stringhe fornisce previsioni su fenomeni come le dimensioni extra dello spaziotempo.
Una congettura invece è un’ipotesi non dimostrata, spesso senza una solida base matematica o un modello coerente.
La teoria delle stringhe va ben oltre una semplice speculazione: offre una struttura matematica dettagliata, anche se non ancora verificata sperimentalmente.
Limiti della teoria delle stringhe.
Nonostante la sua eleganza matematica, il problema principale della teoria delle stringhe è la mancanza di conferme sperimentali.
Non è ancora possibile progettare esperimenti per verificarla direttamente, il che la rende “non falsificabile” nel senso popperiano.
Tuttavia, questo fatto non ne invalida lo status di “teoria”, poiché molte teorie in fisica hanno preceduto la loro verifica sperimentale (ad esempio la Relatività Generale).
Note:
(1) Il mio recente post "Uno o molti multiversi? La 'prudente scommessa' di Steven Weinberg sulla teoria del multiverso" - pubblicato lo scorso gennaio 2025 - terminava con l'asserzione: "ad oggi ... il multiverso è più una congettura che una teoria scientifica in senso stretto"
(2) Faccio riferimento al mio post "La dialettica tra la fisica teorica e quella sperimentale", 11 ottobre 2023.
(3) Karl Popper propose il criterio di falsificabilità come criterio di demarcazione tra scienza e non-scienza nella sua opera fondamentale "Logik der Forschung" (La Logica della Scoperta Scientifica), pubblicata per la prima volta nel 1934 in lingua tedesca.
In questa opera, Popper sostiene che una teoria è scientifica se e solo se è possibile concepire un esperimento o un'osservazione che possa, in linea di principio, confutarla.
(4) Thomas Kuhn contesta l'idea popperiana di progresso scientifico lineare e del criterio di falsificabilità nel saggio "La struttura delle rivoluzioni scientifiche", pubblicato nel 1962.
Kuhn vi sostiene che lo sviluppo della scienza non avvenga semplicemente attraverso la falsificazione incrementale delle teorie, ma tramite cambiamenti paradigmatici radicali in cui il vecchio paradigma viene sostituito da uno nuovo, incommensurabile con il precedente.
Questo approccio mette in luce come la scelta dei problemi e la valutazione delle teorie siano influenzate da una visione del mondo condivisa (il paradigma) che non si riduce alla mera logica della confutazione proposta da Popper.
(5) Imre Lakatos supera le limitazioni sia del criterio di falsificabilità di Popper sia della visione dei cambiamenti paradigmatici di Kuhn introducendo il concetto di "programmi di ricerca scientifica".
Secondo Lakatos le teorie non vengono testate in isolamento, ma fanno parte di un programma di ricerca che comprende un nucleo duro (hard core) di assunzioni fondamentali che non vengono messe in discussione, e una cintura protettiva (protective belt) di ipotesi ausiliarie che possono essere modificate o sostituite in risposta a nuove evidenze.
Un programma di ricerca è considerato progressivo se le modifiche alla cintura protettiva portano a nuove previsioni e scoperte che anticipano successivamente i dati sperimentali; diventa invece degenerativo se le modifiche sono puramente retrospettive e non portano a previsioni innovative.
In questo modo, Lakatos integra il concetto di falsificabilità all'interno di una cornice dinamica, dove il processo scientifico non consiste in una semplice confutazione di teorie, ma in un'evoluzione strategica che tiene conto della complessità e della continuità della ricerca.
Questo approccio rappresenta un tentativo di conciliare la logica della confutazione di Popper con le osservazioni storiche di Kuhn, fornendo un modello più realistico del progresso scientifico.
(6) Il modello duale è un quadro teorico sviluppato negli anni '60 per descrivere le interazioni forti tra particelle, in particolare per spiegare le proprietà degli scattering di mesoni.
Esso sfrutta il principio di dualità, secondo il quale la stessa funzione d'onda (o ampiezza di scattering) può essere interpretata in due modi differenti:
canale s (direct channel): descrive la formazione e la successiva decadenza di uno stato intermedio;
canale t (crossed channel): interpreta lo scattering come lo scambio di particelle tra gli stati iniziali e finali.
Sua caratteristica fondamentale è che entrambe le descrizioni sono equivalenti e portano agli stessi risultati osservabili.
Una delle sue prime applicazioni fu la formula dell'amplitudine di Veneziano che riusciva a catturare il comportamento sperimentale delle interazioni forti mostrando questa dualità tra canali.
L'interpretazione del modello duale ha portato all'idea che le particelle non siano punti, ma rappresentino invece diverse modalità di vibrazione di oggetti unidimensionali, chiamati stringhe.
(7) La supersimmetria è una proposta teorica che estende le simmetrie note della fisica introducendo una corrispondenza tra particelle di tipo diverso.
Suoi postulati:
Ogni particella del modello standard deve avere un partner supersimmetrico (i bosoni, le particelle con spin intero che mediano le interazioni, sono associati a partner fermionici, particelle con spin semi-intero costituenti della materia, e viceversa).
I partner supersimmetrici differiscono dalla particella originale per una unità di spin (se una particella ha spin 1/2, il suo partner potrebbe avere spin 0 o 1).
Motivazioni teoriche:
Risolverebbe il problema della gerarchia (può aiutare a stabilizzare la massa del bosone di Higgs evitando correzioni radiative eccessivamente grandi).
Favorirebbe la convergenza delle costanti di accoppiamento ad energie elevate, suggerendo una possibile unificazione delle interazioni fondamentali (unificazione delle forze).
I partner supersimmetrici, se esistenti, offrirebbero candidati naturali per la materia oscura, quali il neutralino.
Finora tuttavia nessun partner supersimmetrico è stato osservato sperimentalmente; le ricerche sono in corso da parecchi anni ma finora sono state in grado soltanto di porre limiti sui possibili massimi di massa di queste particelle.
Nessun commento:
Posta un commento