contatore visite

venerdì 18 ottobre 2019

Probabilità, certezza ed affidabilità: l’incredibile contributo del matematico italiano Bruno De Finetti, un uomo che nella seconda metà del ‘900 ha “salvato" la reputazione della scienza.


Nel linguaggio comune siamo abituati ad usare il termine "probabilità" in diversi contesti.

- Talora, per giustificare una scelta effettuata, sosteniamo di averne preventivamente valutato "le probabilità di successo": cioè di aver utilizzato nei nostri ragionamenti un valore percentuale - che riteniamo saper calcolare quasi "per istinto" - la cui conoscenza dovrebbe permetterci di effettuare scelte ottimali (o quanto meno evitare quelle rovinose).
- Giocando ai dadi, al "gratta e vinci" od al super-enalotto spesso ci documentiamo su quali siano le effettive probabilità di  vincita (anche se poi di solito si decide di "rischiare comunque").
- Per pianificare il weekend consultiamo l'app meteo installata sui nostri smartphones: vicino all'indicazione del giorno si trova un'icona (a forma di sole, di nuvola o di pioggia) insieme ad un valore percentuale: se di fianco a "sabato" e "domenica" c'è un sole ed un numero tipo "80%" allora ...  si preparano le valigie!
- Al nostro amico che ha paura di volare facciamo notare - google alla mano - che le probabilità di incorrere in un disastro aereo sono inferiori a quelle di esser coinvolti in
incidenti mortali viaggiando con  altri mezzi (auto e treno ad esempio).
Per il rientro a casa dall'ufficio scegliamo un percorso invece di un altro perch
é l'esperienza ci dice ci siano meno possibilità di trovare code e rallentamenti.

Questi pochi esempi bastano da soli a dimostrare come gran parte delle decisioni che prendiamo ogni giorno si basino sull'assunto di saper calcolare in anticipo - quand'anche approssimativamente - la probabilità che queste si rivelino poi corrette.
Ma da dove ci viene questa convinzione?  Possediamo davvero questa specie di "dote divinatoria"?

Fin dai suoi albori homo sapiens si è trovato a dover convivere con l'incertezza:
passeranno ancora su questa pista i grandi mammiferi nella prossima stagione?
Ci sarà ancora acqua nelle pozze che ci dissetavano la scorsa estate?

Per esorcizzarla, ad un certo punto della loro storia i sapiens hanno inventato
il concetto di "essere superiore", vale a dire un qualcosa di trascendentale cui attribuire la responsabilità degli eventi: una divinità diventava così l'artefice - ed unico responsabile - del successo o del fallimento delle aspettative.Non essendo ancora in grado di derivare le leggi naturali, per un lunghissimo periodo della loro storia gli uomini non avevano a disposizione un mezzo per compiere scelte razionali relativamente a ciò di cui non avevano esperienza, dovendosi così affidarsi al caso.
Il "fato" era un dio capriccioso al quale fare offerte e con il quale comunicare attraverso gli oracoli.
Neppure gli dei greci dell'Olimpo ne erano immuni: Zeus, Era e Pallade della mitologia classica non conoscevano il futuro, semmai contribuivano a determinarlo. 
Nei poemi omerici infatti gli dei si alternavano a spalleggiare l'una o l'altra fazione senza sapere chi alla fine avrebbe vinto.

I giochi d'azzardo, la più plateale manifestazione del caso, sono probabilmente nati con l'uomo.
In alcune tombe del periodo neolitico sono stati ritrovati resti di astragalo di ovini con segni incisi sui vertici, precursori dei nostri dadi.
In epoca romana, famoso è il detto attribuito a Giulio Cesare "alea iacta est": con tale espressione Cesare vuol sottolineare che è il fato ad aver deciso cosa si debba fare, quindi sua è la responsabilità delle conseguenze.

Può sembrare incredibile ma nessuno fino al XVII secolo (periodo a cui risalgono gli studi di Pascal e Fermat sul tema) era in grado di calcolare la probabilità di un evento, quindi ad esempio verificare se una scommessa fosse equa oppure no.  
I giocatori d'azzardo non avevano chiara consapevolezza del rischio connesso alle puntate: solo chi disponeva di molta esperienza di gioco intuiva che alcune di queste avessero in generale più successo di altre.
Sapevano ad esempio che lanciando due dadi e sommando i numeri usciti, era più conveniente puntare su un risultato pari a 6 invece che su 2 o 12: ma non avevano nessuna idea del perch
é succedesse così.

Ancora oggi calcolare correttamente le probabilità che si verifichi un evento non è n
é semplice né intuitivo: meglio affidarsi ad un esperto. Si rischia infatti di cader vittima di ciò che viene definito un "ragionamento contro-intuitivo".
- avete di fronte una classe scolastica con 40 ragazzi, tutti nati nello stesso anno:
scommettereste una somma importante di trovare tra di loro due nati lo stesso giorno (quando tutti sappiamo bene che in un anno di giorni ce ne sono 365)?
- partecipando ad un quiz a premi vi trovate di fronte a 3 porte; dietro una di esse c'è una grossa ricompensa ma vi viene data la possibilità di aprirne una sola.
Una volta effettuata la vostra scelta, invece di aprire quella da voi designata, il conduttore del gioco ne spalanca un'altra, dietro la quale non c'è nulla.  A quel punto vi chiede se confermate la vostra scelta effettuata in precedenza o preferite cambiarla.

Voi cosa fareste?

A meno non siate abituati ad aver a che fare con matematica e logica, ammetterete che queste due domande vi spiazzano.
La soluzione ai due quesiti è infatti "contro-intuitiva", sembra cioè fare a pugni con il buon senso.
Nel caso del "paradosso del compleanno" dati 40 soggetti scommettere che due di loro siano nati lo stesso giorno offre più dell'80% di possibilità di vincita (https://it.wikipedia.org/wiki/Paradosso_del_compleanno);
nel caso del "gioco delle 3 porte" la strategia corretta per massimizzare le possibilità di vincita è cambiare sempre la propria scelta iniziale (https://it.wikipedia.org/wiki/Problema_di_Monty_Hall).

Ho usato il termine "contro-intuitività" perch
é il cervello dell'homo sapiens non è bravo a calcolare le probabilità: non si è evoluto con questo fine (semmai si è specializzato a riconoscere schemi, che vediamo ovunque, anche dove non ci sono: prova di ciò sono le "illusioni ottiche").
Dunque nessuna capacità "innata" o "istinto" (ad esclusione del metodo matematico) ci può fornire strumenti adatti a prendere decisioni ponderate ed efficaci.

Tendiamo inoltre a raggruppare nella stessa categoria situazioni ben differenti quali:
- il lancio di un dado (se "equo" la probabilità di indovinare il risultato è sempre 1/6)
- le probabilità di successo di una missione come l'Apollo 11: la Nasa ha di recente rivelato che alla partenza erano state stimate intorno al 50%, tant'è che Nixon aveva già pronta una dichiarazione per la stampa nel caso la missione si fosse conclusa tragicamente.
Raggiunto invece il traguardo del primo sbarco lunare senza incidenti di rilievo,
la stima delle probabilità di successo relativamente alle 6 missioni successive, tutte condotte utilizzando la medesima tecnologia della prima, era salita ad oltre l'80% (nonostante l'incidente occorso all'apollo 13).
Bruno De Finetti (1906-1985) è stato un matematico statistico italiano che si è dedicato allo studio di cosa sia ciò che chiamiamo "probabilità".La definizione che ne ha dato è la seguente:"La probabilità non è nient'altro che il grado di fiducia (speranza, timore, ...) nel fatto che qualcosa di atteso (temuto, sperato, o indifferente) si verifichi e risulti vero".Quindi la probabilità per Finetti è un concetto soggettivo ed operazionale!

Ma non dovrebbe essere invece qualcosa di oggettivo, di definito una volta per tutte da una formula matematica?

Un'opera di De Finetti è “L'invenzione della verità": il titolo meglio di ogni altra cosa identifica la difficoltà contro la quale cozzava il metodo scientifico verso la metà del secolo scorso.
In quel periodo si era preso coscienza del fatto che tutto ciò che sappiamo del mondo esterno è quanto viene trasmesso al cervello dai nostri sensi: il cervello infatti è un organo chiuso al buio dentro la scatola cranica e gli unici inputs che riceve sono segnali provenienti prevalentemente dalla periferia del nostro corpo.
Nel suo saggio Finetti si chiedeva cosa sapessimo con assoluta certezza riguardo al mondo, e rispondeva correttamente affermando: "non ne sappiamo assolutamente nulla!".Sottolineava il fatto che qualunque osservazione possa esser eseguita risulta già contagiata da pregiudizi teorici (se osserviamo qualcosa è perch
é ci siamo fatti una domanda, ed implicitamente abbiamo fatto delle ipotesi): sosteneva non siano possibili “osservazioni pure”.
La teoria della "gravitazione universale" di Newton, una volta resa pubblica, è stata soggetta a continue verifiche sperimentali.Per i successivi due secoli tutti i dati raccolti da scienziati sul campo sono risultati in linea con i valori predetti dalle sue equazioni.Tuttavia, ad un certo punto, un ulteriore perfezionamento della strumentazione a disposizione della ricerca ha evidenziato piccoli scostamenti nelle misurazioni rispetto alle previsioni, che il modello di Newton non era in grado di spiegare.All'inizio del '900 Albert Einstein ha pubblicato la teoria della relatività: il modello che proponeva “interpretava” meglio le nuove misurazioni rispetto al precedente, ragion per cui è stato adottato per ottenere previsioni più accurate.
Oggi sappiamo che anche il modello di Einstein è inadatto a fare predizioni in particolari condizioni, ad esempio all'interno dell'orizzonte degli eventi di un buco nero.

Thomas Kuhn, un filosofo della scienza, negli anni ‘60 del '900 aveva per primo evidenziato il carattere storico evolutivo della conoscenza scientifica, destinata a migliorarsi di continuo.

Nello stesso periodo il filosofo Karl Popper ha "sganciato una bomba atomica" contro il metodo scientifico, sostenendo che la scienza non potrà mai affermare che le sue tesi siano "provate vere” ma solo che possano esser "provate false”.Intendeva dire che tutte le teorie - come la gravitazione universale di Newton o la relatività di Einstein - sono “vere” fino a quando qualcuno non dimostrerà che sono “false”.Ne consegue che l'unica cosa che noi esseri umani siamo in grado di fare sia dimostrare la falsità di una teoria, non la sua verità.Nulla sappiamo con certezza ad esclusione dei principi matematici: essendo la matematica l'unica scienza "deduttiva" (si parte da assiomi e si deducono teoremi che possono esser dimostrati a partire dagli stessi) essa è la sola a poter trovare “verità” impossibili da invalidate.Il teorema di Pitagora non sarà mai “invalidato” da un nuovo teorema più recente, è "vero per sempre”.

Seguendo il ragionamento di Popper sembrerebbe che la verità per le scienze “induttive” (cioè tutte quante tranne la matematica) non esista.

De Finetti si inserisce a questo punto della discussione e supera d'impeto lo scoglio rappresentato dalla critica di Popper affermando  invece che possiamo ottenere una conoscenza condivisa ed affidabile, anche senza certezze assolute.

Evidenzia cioè il carattere soggettivo della probabilità ed il carattere probabilistico ma convergente della conoscenza.
E lo fa partendo dai lavori di un canonico inglese dell'800, Thomas Bayes (oggi la statistica bayesiana è "tornata di moda" in quanto base degli algoritmi di auto-apprendimento delle Intelligenze Artificiali).

Il Teorema di Bayes dimostra le due seguenti affermazioni:
1. Ogni nuova evidenza empirica modifica la probabilità delle credenze;
2. Queste modifiche portano le credenze a convergere anche se inizialmente diverse.

Quindi la probabilità di una tesi è semplicemente una valutazione soggettiva che ci dice quanto ci aspettiamo che la tesi sia vera: il suo valore cambia con l’esperienza.
Una tesi ritenuta inizialmente verosimile, con l’accumularsi di nuove esperienze piano piano può venir invalidata da nuove osservazioni: tuttavia i nuovi modelli via via proposti non si sostituiscono ai precedenti, spesso si limitano a migliorarli.
Il modello della relatività di Einstein funziona meglio per predire i movimenti degli astri rispetto a quello della gravitazione universale: tuttavia ancor oggi
per calcolare le traiettorie delle sonde spaziali vengono spesso utilizzate le equazioni scoperte da Newton in quanto sono più semplici da trattare ed offrono comunque una buona approssimazione.
Le conseguenze della posizione di De Finetti sono dirompenti:
- L’incertezza non è eliminabile, ma possiamo diminuirla ed accettarla. 
- La nostra conoscenza è limitata, tuttavia la sua base non è la certezza ma l’affidabilità.

L'accumulo di esperienza comporta dunque un aumento di affidabilità delle nostre previsioni.
Il giocatore d'azzardo nato prima del 1600, accumulando esperienza nel gioco dei 2 dadi riusciva a migliorare la resa delle sue puntate in quanto la strategia di puntare sul 6 come risultato del lancio (ottenibile con le combinazioni 3+3, 2+4, 1+5, 4+2, 5+1) risultava più affidabile (portava nel tempo più vincite) rispetto a strategie basate su puntate su risultati diversi: anche se qualche volta usciva un risultato pari a 2 o 12 (l'incertezza non è eliminabile) sapeva per esperienza che continuando a puntare sul 6 avrebbe vinto più di frequente.

Il citato testo "l’invenzione della verità" data 1934, tuttavia è stato pubblicato in italiano solo nel 2006 (postumo dunque, De Finetti è infatti morto nel 1985). I suoi manoscritti non sono conservati in Italia, ma negli USA a Pittsburg.

De Finetti in vita ha sempre sposato posizioni critiche verso il sistema: negli anni '70 ha militato nelle file del Partito Radicale accettando di ricoprire il ruolo di responsabile di una testata giornalistica «Notizie radicali» usa a pubblicare articoli di denuncia (ad esempio contro le baronie e la scarsa apertura delle università italiane ai docenti stranieri).
Nel 1977 insieme al giovane fisico Carlo Rovelli (speaker a quel tempo di Radio Alice) viene arrestato a Roma all'uscita della cerimonia di inaugurazione dell'anno accademico con l'accusa di aver pubblicato articoli in difesa degli obiettori di coscienza nei confronti del servizio militare (fu poi immediatamente scarcerato).

Corollario della sua visione soggettivistica della teoria delle probabilità, è la diversa considerazione che diamo a situazione apparentemente identiche dal punto di vista matematico: siamo tutti  disposti ad investire 1 euro in una lotteria il cui premio è 1.000 euro, ma nessuno investirebbe un milione di euro in una lotteria il cui premio sia un miliardo di euro (anche le le probabilità di vincita in entrambi i casi sono lo 0,1%).

Per concludere, se come abbiamo appena dimostrato il nostro cervello
non è adatto a calcolare le probabilità e l'accumulo di esperienza ha un costo e richiede tempo per offrirci affidabilità, chi o che cosa ci potrebbe aiutare a prendere decisioni in tutte quelle occasioni in cui gli eventi non sono numerosi e quindi questa non può esser acquisita in misura sufficiente? 
(Ad esempio nella programmazione di una nuova impresa spaziale condotta con una tecnologia innovativa e non sufficientemente collaudata)
Gli attuali algoritmi di Intelligenza artificiale hanno una capacità che noi non possediamo: sono in grado di valutare enormi quantità di dati (i big data) e soprattutto di dar loro un senso.
Il fatto che noi non si possieda questa capacità è un difetto evolutivo del cervello umano, ed è la ragione per cui esso "non è bravo" a valutare le probabilità.
L'intuizione probabilistica richiede la comprensione delle tendenze presenti in esperimenti realizzati attraverso la ripetizione di numerosissime prove.  
Noi non siamo capaci a gestire la ripetizione di milioni di istanze di  un esperimento e quindi non riusciamo a sviluppare quel tipo di intuizione.
Possiamo affermare che "il codice umano" (che sovraintende al funzionamento del nostro cervello) si è sviluppato per compensare il nostro basso tasso di interazione con i dati.

La futura collaborazione intelligenza umana - intelligenza artificiale potrà compensare le parti deboli dell'una e dell'altra, permettendoci di effettuare scelte che ottimizzano i risultati anche senza che noi riusciamo a comprenderne i motivi.
Ma questa è un'altra storia.


Una breve appendice sul significato delle percentuali che appaiono sulla nostra app meteo.

Vi siete mai chiesti perch
é sulla vostra app meteo compaia "soleggiato al 40%" e non "coperto al 60%"? 
In fondo se non c'è il sole ... è nuvolo!
La percentuale che compare vicino all'icona della pioggia - ad esempio "20%" - sta ad indicare che il 20% delle elaborazioni eseguite per stimare il meteo di un momento in particolare hanno prodotto come risultato valori compatibili con la pioggia.
Tuttavia, se i dati di partenza sono gli stessi (rilevati da un numero enorme di sensori di pressione, temperatura e velocità del vento, disposti a griglia tutto intorno al globo, a diverse altezze sopra e sulla superficie terrestre, e poi integrati con i dati dei satelliti meteo) come è possibile, facendo fare allo stesso algoritmo più elaborazioni, ottenere risultati così diversi?

Le leggi di natura, che naturalmente regolano anche il meteo sul nostro pianeta, sono espresse con equazioni deterministiche: note le condizioni iniziali del sistema, risolvendole per successivi istanti di tempo, dovremmo ottenere previsioni precise anche riferite ad un lontano futuro.

Sappiamo invece che non avviene così: su un orizzonte oltre i 5 giorni le previsioni meteo diventano poco affidabili.

La ragione di questa apparente divergenza tra teoria e pratica sta nel  comportamento caotico del sistema nel suo complesso: piccolissime differenze iniziali (un decimale nella temperatura) col tempo può portare a grandi differenze nei risultati (ad esempio alla previsione di sole oppure di pioggia).

Edward Lorenz, un metereologo che negli anni '60 cercava di mettere a punto un modello di previsioni meteo, è stato uno dei  fondatori della teoria del caos: facendo ripartire una simulazione delle condizioni meteo in seguito ad un arresto occasionale del suo computer, per evitare di iniziare nuovamente l'elaborazione da capo, ricopiò i valori ottenuti dopo un certo numero di iterazioni trascurando le cifre alla destra del 3^ decimale.
Si accorse così che rispetto ai valori riportati al momento dell'arresto del computer, la seconda elaborazione aveva prodotto cifre diverse: la nuova serie da un certo ciclo in poi divergeva sensibilmente da quella originale.


Dunque sembrerebbe che per avere previsioni attendibili basti procurarsi misurazioni molto precise dello stato iniziale delle variabili considerate dal sistema.
Qui ci troviamo di fronte a due difficoltà: la tecnologia a disposizione, che può esser migliorata con il progresso, ed il principio di indeterminazione di Heisenberg, una barriera al nostro grado di precisione che non può esser superata.


Poich
é è impossibile con la tecnologia attuale rilevare i parametri di  ogni punto al di sopra e sulla superficie terrestre, pur avendo oggi a disposizione un numero altissimo di sensori che disegnano una griglia sulla terra e nell'atmosfera, dobbiamo affidarci alla statistica per stimare i valori assunti dalle variabili nei punti intermedi tra di essi. 
Cioè confidiamo che i valori reali misurabili in quei punti oscillino in un ristretto intervallo rispetto alla stima che ne facciamo (+/- 0.01 gradi ad esempio).
Come - pare - disse Lorenz, "il battito d'ali di una farfalla a Tokyo, dopo un certo tempo può provocare un uragano a NY".
Nel breve periodo una piccola differenza nelle rilevazioni può causare piccole differenze nei risultati delle elaborazioni, ma quando il periodo inizia ad allungarsi (aumenta il numero delle iterazioni) i risultati diventano divergenti in modo imprevedibile.


Il secondo punto come dicevamo è una barriera insormontabile (per lo stato dell'arte della scienza di oggi) rappresentato dal principio di  indeterminazione di Heisenberg: quando misuriamo, in una qualche maniera interagiamo con l'oggetto della misurazione causandone un cambiamento.
L'esempio classico è quello del termometro usato per misurare la temperatura della minestra: il termometro ha una temperatura "x", la minestra una temperatura "y".  Se per misurare "y" metto la punta del mio termometro nella minestra, essendo x e y valori diversi, la parte dello strumento a contatto con il liquido si riscalderà e di conseguenza la parte di liquido a contatto con esso si raffredderà (o viceversa).  Poich
é la misurazione avviene sul liquido a contatto con lo strumento, la sua temperatura y1 risulterà diversa da y.  
Escludendo il caso in cui x ed y siano identici, non potremo mai misurare con precisione la temperatura y.


Ma allora se non possiamo conoscere con precisione sufficiente le condizioni iniziali, come fare previsioni accurate?


La strategia adottata dai ricercatori è quanto meno geniale: introduciamo piccoli errori nei valori misurati e proviamo a vedere cosa succede. 
A fronte di un set di misurazioni rilevate, vengono costruiti numerosi set resi diversi dall'originale applicando variazioni infinitesimali ai dati di partenza.
Tutti quanti i set vengono poi elaborati dallo stesso algoritmo.
Al termine dell'elaborazione si raggruppano i risultati in base alla frequenza: il 53% delle elaborazioni produce uno scenario compatibile con la pioggia?  Pioggia prevista al 53%.


L'originalità del metodo è aver pensato di correggere i dati iniziali raccolti dalle stazioni meteo introducendo volutamente degli errori: aggiungo errori per ottenere previsioni più corrette!!!!

Ecco il perch
é si chiamano "previsioni" del tempo e la ragione per cui ... talvolta risultano sbagliate!



Nessun commento:

Posta un commento

Elenco posts

 Elenco dei miei posts scritti nel periodo dal 28/3/18 all'11/04/24:                                                    ( su FB ) - vide...