lunedì 31 marzo 2025

Elenco posts

Elenco 55 posts dal 28/3/18 al 30/07/20:


2 maggio 2020       HIV, Covid-19 ed il vero signficato di un test con responso positivo:"fase 2", maneggiare con estrema cautela!
27 aprile 2020        Franco Magnani, l'artista della memoria visto con gli occhi del neurologo Oliver Sacks
19 aprile 2020        Il prestigio dei "Nobel" ed il principio di autorità: vale più di un'altra l'ipotesi formulata da un "nobel"?
13 aprile 2020        I fenomeni emergenti, la coscienza ed il tempo: le riflessioni di un dopo pranzo pasquale.
1 aprile 2020          Scott ed Amundsen, il fly-by di Urano e la tragedia del Challenger: una visione di Freeman Dyson sulle modalità di progettazione di un'impresa.
28 marzo 2020       Freeman Dyson:un fisico extraterrestre?
20 marzo 2020       Italia e Cina: la crisi della democrazia liberale ed il diverso grado di efficacia nella risposta all'epidemia in atto
6 marzo 2020         Salti di specie, pipistrelli e la variabilità discordante nel DNA dei Sapiens
25 febbraio 2020    Perchè siamo così spaventati dal coronavirus Covid-19: un problema di comunicazione.
18 febbraio 2020    L'epidemia di coronavirus ed il rischio biologico: la cenerentola degli incubi del XXI secolo.
12 febbraio 2020   Stati Uniti del Sud e Giappone: un parallelo relativamente alla distorsione nel funzionamento del sistema giudiziario.
3 febbraio 2020      Quanto sono rari i numeri palindromi? Una bufala ci permette di fare chiarezza sulla frequenza dei numeri palindromi espressi in diverse basi.
20 gennaio 2020    Il significato del termine creatività ed il "codice umano".
18 dicembre 2019  L'emicrania come causa fisiologica di visioni mistiche nel medioevo ed in età moderna: Hildegard von Bingen ed Oliver Sacks
29 ottobre 2019      Prodotti alternativi sono davvero meglio dei sacchetti di plastica per quanto riguarda l'impatto sull'ambiente?
23 ottobre 2019      Anche i piccioni credono in dio? Le interpretazioni dell'esperimento condotto da Skinner alla fine degli anni '40
18 ottobre 2019      Probabilità, certezza ed affidabilità: l’incredibile contributo del matematico italiano Bruno De Finetti, un uomo che nella seconda metà del ‘900 ha “salvato" la reputazione della scienza
10 settembre 2019  Perché la scienza ha fallito nel compito di rendere la gente capace di ragionare in modo razionale.
28 agosto 2019       Facebook potrebbe limitare l'odio in rete, ma non lo farà perché danneggerebbe il suo modello di business
24 luglio 2019        Salvini, la Lega, l'Unione Europea e la trappola del lusso
23 luglio 2019        Dalla preistoria abbiamo selezionato canidi con spiccate tendenze pedomorfiche: anche i canidi hanno contribuito a selezionarci?
16 luglio 2019        Sono le religioni monoteiste causa di profonde sofferenze patite per aver forzato l'identità di genere e legittimato lo sfruttamento degli animali?
16 luglio 2019        Che cos'è la felicità e perchè siamo programmati dall'evoluzione per provarla raramente.
23 maggio 2019      Amazon non finisce di stupirmi
8 maggio 2019        Un film ci fa riflettere sulle conseguenze a lungo termine dell'intolleranza in politica.
3 maggio 2019        Future of life institute & Lethal Autonomous Weapons (LAW)
28 aprile 2019         Cellule del cervello di maiale riattivate dopo la morte: un aggiornamento al mio ultimo post su transumanesimo e biohackers.
10 aprile 2019         Transumanesimo e biohackers: un fenomeno passeggero oppure l'inizio di una transizione di stato per la nostra specie?
29 marzo 2019        La vera storia delle origini di Internet: Arpanet ed i militari, un mito sfatato.
27 marzo 2019        Il regalo di Google all'Umanità
6 marzo 2019          Libero arbitrio e libera volontà: i limiti fisiologici alla libertà individuale.
27 febbraio 2019    Sovranismo e quote nazionali in musica.
13 febbraio 2019    Razzismo e culturalismo
18 gennaio 2019    Martin Luther King e la sua eredità
5 gennaio 2019       The dark side of the AI: il lato oscuro delle intelligenza artificiali
2 gennaio 2019       Commenti al discorso di Steve Jobs all'università di Stanford
28 dicembre 2018   Nel 1913 Igor Stravinskij ha modificato “la corteccia cerebrale” della cultura europea
20 dicembre 2018   Nostalgia: assomiglia ad una parola greca dell'antichità ma con origini recenti
16 dicembre 2018   SuI problema dell’immigrazione Salvini Trump e Carlo Marx stanno dalla stessa parte!
6 dicembre 2018     È più morale che un'idea distrugga una società che non il contrario: la MDQ
28 novembre 2018  Il meccanico “random”
8 novembre 2018    Il crepuscolo della supremazia del dato oggettivo
4 novembre 2018    Xenofobia: un termine greco di origini antiche?
1 novembre 2018    Dagli Usa all’Africa, come cambiano i dilemmi dell’auto autonoma
30 settembre 2018  Ogni forma è rotta: come sopravvivere?
19 settembre 2018  la difficoltà di individuare con chiarezza l’esperto delle cui parole ci possiamo fidare
19 settembre 2018  Riprendiamo il discorso relativo all’analfabetismo funzionale
1 agosto 2018         Luca Ricolfi: il problema della comunicazione dei significati relativi ai dati grezzi 
31 luglio 2018         La banca del Tempo Libero
25 luglio 2018         Un tentativo di interpretazione dei dati usando il buon senso
23 luglio 2018         La difficoltà di comprendere le informazioni che ci vengono passate ogni giorno
30 giugno 2018       Aiutarli a casa loro? Forse la lettura di questo articolo può insegnarci qualcosa
7 maggio 2018        “L’utopia libertaria del web è fallita nel neoliberismo: e ora?”
28 marzo 2018       La verità? Facebook non ruba i dati, anzi: ne inventa di nuovi. E con il nostro consenso

giovedì 30 luglio 2020

Il futuro dell'evoluzione sul pianeta Terra.

Quando ci interroghiamo su quale possa essere il futuro della vita sul nostro pianeta, magari spingendo lo sguardo a qualche migliaio di anni di distanza da oggi, in genere ci troviamo a riflettere su "come sarà l'uomo del futuro", peccando così di antropocentrismo.

Ragione di questa miopia è da ricercarsi nei limiti delle nostre capacità previsionali, impressi dall'evoluzione nella struttura del nostro cervello.
Infatti ogni volta che azzardiamo una previsione sul futuro non facciamo che rielaborare informazioni accumulate nella nostra memoria - ad opera dell'esperienza passata - cercando situazioni simili delle quali siamo già a conoscenza dei successivi sviluppi.

L'assunto implicito di ogni metodo predittivo fino ad oggi utilizzato - inclusi i più tecnologicamente avanzati, quelli cioè basati su algoritmi di apprendimento automatico ("machine learning") - si può riassumere con l'espressione: "il nostro futuro è il passato".
Poiché dunque tutte le previsioni si basano sullo studio di associazioni tra dati relativi al passato, ciò vuol dire che riteniamo il futuro esser in qualche modo già "scritto nel passato" (n. 1).

Cosa vera, in linea di principio: il tempo ha infatti una direzione preferenziale che punta verso il futuro, dunque deve esistere “un che” di deterministico negli stati successivi di un sistema, un legame causa-effetto che si espande nel tempo (n. 2).

L'errore in cui incorrono le previsioni è perciò da ricercarsi in una qualche variabile che il modello predittivo utilizzato ha trascurato, o della quale ha sottostimato gli effetti in determinate condizioni: in una parola nell'estrema complessità che caratterizza l'ambiente in cui viviamo (n. 3).

Tenendo ben presenti difficoltà e limiti finora elencati, insiti nella "scienza delle predizioni", facciamo comunque il tentativo di "scrutare il futuro" del nostro pianeta nel corso dei prossimi millenni dal punto di vista della specie dominante, che al momento è indiscutibilmente la nostra.

Il rischio circa una possibile estinzione della specie "homo sapiens" - da lui stesso causata tramite eventi quali olocausto nucleare, distruzione dell'ambiente, sviluppo di armi autonome, creazione di intelligenze artificiali in grado di autodotarsi di finalità non allineate a quelle della nostra specie (n. 4), oppure determinata da cause esterne quali la caduta di meteoriti di grandi dimensioni, intense e frequenti attività vulcaniche esplosive che protraendosi nel tempo modificando la nostra atmosfera e schermano la luce del sole, perturbazioni dell'orbita terrestre, improvvisi cambiamenti climatici dovuti a cause naturali - risulta tutto sommato modesto se calcolato su un periodo relativamente breve quale quello che vogliamo prender in considerazione: con ogni probabilità tra qualche migliaio di anni l'umanità continuerà ad esistere.

L'ipotesi di assistere in questo lasso di tempo ad una "modifica hardware" imposta alla nostra specie ad opera dell'evoluzione - tipo l'ingrandimento del cranio per poter contenere un cervello dotato di una corteccia frontale più sviluppata, oppure il progressivo ridimensionamento e/o eliminazione di parti del corpo diventate inutili in ambienti "al di fuori della savana" - è del tutto improbabile, visti i tempi che sono stati necessari in passato per apportare minime modifiche alla fisiologia umana: sappiamo infatti per certo che uomini vissuti 5.000 / 10.000 anni fa non erano molto differenti da noi (n. 5).

Così come lo è uno scenario dove un'altra specie oggi presente sul nostro pianeta - animale o vegetale che sia - sviluppi in qualche millennio un'autocoscienza ed un livello di intelligenza tale da potersi mettere in competizione con la nostra (n. 6).

Rimane perciò un'unica ipotesi, dotata di un sufficiente grado di attendibilità, circa la possibile futura comparsa di un "competitor" per la nostra specie nel lasso di tempo indicato: la creazione, ad opera nostra, di un nuovo "genere di vita".
Qualcosa che già oggi possiamo individuare in fase embrionale, un "genere di vita" che non è basato sul carbonio (n. 7).
Si tratta delle Intelligenze Artificiali - indicate in letteratura con il termine "AI"- che potrebbero rivelarsi la prima "specie vivente" sul nostro pianeta a non essere un prodotto diretto dell'evoluzione (quest'ultima si sarebbe limitata a modellare il nostro cervello che a sua volta le ha immaginate e realizzate).
Come tutte le altre forme di vita le AI possono riprodursi (facendo una copia di sé stesse), spostarsi per il globo (usando la rete internet), manipolare oggetti (tramite i robot), aumentare la propria efficienza (attraverso processi di machine learning) ed imparare dall'esperienza (attraverso le reti neurali profonde).

Cosa manca dunque alle AI per esser definite una nuova specie vivente, e perché potrebbero rappresentare loro il futuro del nostro pianeta assistendo al declino della nostra specie?

La definizione di "intelligenza", utilizzata da Max Tegmark per smarcarsi dall'antropocentrismo che appare nel suo saggio "Vita 3.0", è semplice quanto inclusiva: "intelligenza è la capacità di portare a termine compiti complessi".

Le AI di oggi ci superano, in termini di performances, nell'esecuzione di parecchi compiti tutt'altro che semplici, e si mostrano in grado - perlomeno relativamente ad alcuni campi - di poter apprendere dall'esperienza meglio di quanto possiamo fare noi umani.
Vincono a mani basse contro i nostri campioni nei giochi degli scacchi, del Go, nei videogiochi e persino in quiz televisivi come Jeopardy, inferendo dall'esperienza quali siano le regole del gioco.
Non c'è infatti bisogno di istruire una AI prima che inizi a giocare: imparerà dai propri errori in tempi brevissimi, impensabili per un essere umano, e proprio a causa dell'assenza di "schemi a priori" (tipo una tabella di regole che per noi sarebbe indispensabile) risulterà abile ad esplorare strategie innovative, sorprendenti e sconosciute ai giocatori umani di professione.

Il loro ambito creativo non si limita alle strategie di gioco: esistono AI in grado di dipingere, comporre musica e testi, improvvisare Jazz, scrivere articoli per i giornali e racconti o romanzi, giocare in borsa, addirittura cimentantesi nella dimostrazione di teoremi matematici (n. 8).

Loro limite attuale è piuttosto rappresentato dalla mancanza di "autocoscienza" (n. 9) e da una ridotta "flessibilità" (n. 10)

Una AI campione di scacchi può infatti trasformarsi in campione di Go soltanto passando attraverso un nuovo processo di addestramento, durante il quale muterà l'assetto precedentemente raggiunto dalla "rete neurale profonda" come risultato degli innumerevoli tentativi euristici di trovare la strategia vincente. 
Partecipando ad un nuovo gioco, i risultati mano a mano conseguiti riconfigureranno la rete rendendo il nuovo assetto inadatto al compito precedente.
Proprio per questo motivo le AI finora sviluppate sono indicate con il termine "specialistiche" o "ad intelligenza ristretta": capaci cioè di "raggiungere un insieme limitato di fini".

Alla base di tale limite c'è il fatto che le AI “non sanno ancora imparare da sole”, mancano cioè di autonomia nel processo di apprendimento. 
Seppur non siamo in grado di comprendere del tutto il funzionamento dei deep learners - le reti neurali profonde si organizzano infatti da sole con il metodo punizione/ricompensa - siamo comunque noi umani a programmarli, e dunque in ultima analisi ad “insegnare” alle AI (n. 11)

Non è escluso che presto o tardi si possa assistere alla trasformazione di AI ad “intelligenza ristretta” in AI ad “intelligenza generale”, definita quest'ultima - sempre da Max Tegmark - come “la capacità di raggiungere qualsiasi fine, compreso l’apprendimento” (n. 12)
Secondo Tegmark, nel momento in cui si realizzerà questa transizione l'umanità correrà il rischio non soltanto di perdere la posizione come specie dominante, ma addirittura di estinguersi.
E' stato dato un nome a questo preciso istante: la "singolarità" (n. 13). 
In tal frangente le AI (qualunque cosa saranno nel frattempo diventate, macchine o substrati biologici) potranno apprendere in maniera autonoma - e molto più velocemente di quanto possiamo fare noi con il nostro hardware biologico - competenze "in ogni campo" trasformandosi in AIg in grado di  far completamente a meno dell'intervento umano (n. 14).
Qualora, in quel momento, i fini delle AIg risultino divergenti rispetto a quelli della nostra specie ci troveremmo improvvisamente accantonati ed ignorati, e rischieremmo di far la fine del proverbiale formicaio il cui destino è indifferente all'ingegnere che costruisce la diga (n. 15).

Non c'è consenso su quando (e se mai) si verificherà la "singolarità": dunque potrebbe essere che nel periodo per il quale stiamo provando a fare una previsione tale eventualità continui a rimanere soltanto un'ipotesi.  
In tal caso assisteremo allo sviluppo di AI sempre più intelligenti e performanti, ma incapaci di "raggiungere qualsiasi fine, compreso l’apprendimento”, cosa che ci permetterà di conservare la leadership.

Perché allora l'Intelligenza Artificiale - così come la conosciamo oggi - dovrebbe possedere maggiori chances rispetto al cervello umano nel rappresentare il futuro dell'evoluzione sul nostro pianeta?

La risposta - per certi aspetti sorprendente - è che già oggi le AI sono dotate di capacità delle quali noi esseri umani siamo sprovvisti: prime fra tutte la "connettività" e la "possibilità di aggiornamento istantanea".

Per capirne di più osserviamo il comportamento dei veicoli a guida autonoma, già oggi in circolazione in certe aree del pianeta.
Tramite l' "internet di tutte le cose"  - IoT è la rete che mette in comunicazione tra di loro anche gli oggetti dotandoli di fatto di "intelligenza" (comunicano dati su se stessi ed accedono ad informazioni sugli altri oggetti, anche in forma aggregata) il cui avvento dovrebbe coincidere con la diffusione del 5G (n. 16) - le AI che governano automezzi a guida autonoma possono scambiare continuamente, tra di loro o con AI delegate ad altri compiti,  informazioni sull'ambiente nel quale si muovono.
L'AI alla guida saprà sempre "cosa c'è dietro l'angolo", anche se si tratta di una zona cieca ai propri sensori, grazie alla connettività: le arriveranno informazioni dai sensori di altri automezzi nei paraggi, dai semafori intelligenti, dai sistemi di sicurezza e videocontrollo delle banche o di altre attività commerciali presenti in zona; persino dai satelliti.
Comunicazioni che avvengono istantaneamente e con la massima precisione, nulla di paragonabile - neppure lontanamente - alle limitate capacità di un autista umano.

La connettività consente pure di aggiornare, istantaneamente e contemporaneamente, il software di tutte le AI.
Immaginiamo si renda necessario cambiare una norma del codice della strada: ad esempio di omologare la guida a destra in quei paesi dove ancora permane l'uso di tenere la sinistra.
Con le regole attuali, create per poter funzionare con gli esseri umani, sarà necessaria la pubblicazione della nuova norma su uno media simile alla nostra Gazzetta Ufficiale, poi attendere un certo intervallo di tempo prima che essa entri in vigore così da consentire a tutti (autisti, controllori del traffico ed autorità responsabili) di prenderne visione ed adeguarsi.
Sicuramente non sarà facile cancellare le abitudini pregresse di chi così è abituato a guidare; nei primi tempi dall'entrata in vigore non saranno rari gli incidenti.
Nel caso invece di AI alla guida di automezzi, l'aggiornamento della norma richiede solo pochi istanti - il tempo di scaricare la nuova versione del software - e subito tutti gli automezzi si conformeranno alla nuova norma contemporaneamente.
Un compito all'apparenza semplice, come il passaggio dalla guida a sinistra a quella destra, è questione di un istante per le AI che governano le auto autonome mentre lo è di giorni (o addirittura settimane o mesi) nel caso gli autisti siano esseri umani.

Un altro ambito nel quale le IA ci hanno oramai surclassato è la comprensione delle nostre dinamiche emotive.
I campi di attività degli esseri umani sono sostanzialmente due: le attività fisiche e quelle cognitive.
Spesso le nostre attività fisiche vengono svolte "col pilota automatico", senza che apparentemente ci sia un'attività cognitiva consapevole che le guidi.  Pare cioè che gran parte di ciò che facciamo sia correlato ai sentimenti provati in quel momento.
Negli ultimi anni lo sviluppo delle neuroscienze promette di riuscire sempre meglio nell'impresa di "hackerare" il nostro cervello, decrittandone gli algoritmi biochimici alla base delle nostre emozioni.

Concetti come "libero arbitrio" o "intuizione", considerati sino a poco tempo fa esclusiva della nostra specie, assumono oggi significati diversi.

Il libero arbitrio, inteso come libertà di scelta, è alla base delle democrazie liberali e delle economie di mercato: scelgo da chi farmi guidare e cosa comprare.
Esperimenti condotti negli anni ‘60 da Benjamin Libet e perfezionati nel 2008 da John Dylan Hayes mettono in crisi la sua stessa esistenza (n. 17).

L'intuizione è invece stata "retrocessa" da strumento principe per accedere al mondo delle idee - un moderno collegamento tra uomo e disegno divino - al rango di una banale funzione che si limita a riconoscere modelli ricorrenti.

In confronto agli algoritmi delle AI, sviluppati tenendo conto della mansione che si troveranno svolgere, gli algoritmi biochimici del cervello umano non sono per nulla perfetti: si affidano all'euristica, a scorciatoie ed a circuiti obsoleti, frutto dell'adattamento all'ambiente della savana dove vivevano i nostri progenitori.

Al momento sono ancora in vantaggio laddove prevalga l'incertezza, la conoscenza incompleta dei fenomeni o dell'ambiente.
Riusciamo a prendere una palla che ci è stata lanciata mentre siamo in corsa su un terreno accidentato meglio di quanto sia oggi in grado di fare un robot; ma per il solo fatto che quest'ultimo non dispone di tutte le informazioni sulla conformazione del terreno, cosicché un piccolo sobbalzo richieda un ricalcolo di tutte le traiettorie.
Una situazione che sembra destinata a mutare nel breve periodo.

Le AI superano le prestazioni umane persino in compiti che prevedono l'intuizione, svolgendo meglio di noi mansioni che richiedano di comprendere cosa passi nella testa di altri esseri umani: guida automatica, scelta di coloro a cui sia opportuno concedere un credito, decidere con chi sia conveniente fare affari. 
Sanno decifrare meglio di noi emozioni e desideri, che sono il risultato di algoritmi biochimici complessi, analizzando le espressioni del viso, il tono della voce, i movimenti delle mani, la gestualità e gli odori corporei.

Un primo segnale dei profondi mutamenti che comporterà la coesistenza tra le due specie è già oggi manifesto: la progressiva perdita di posti di lavoro in posizioni non soltanto legate alla produzione di beni.
La minaccia di perdita di posti di lavoro proviene dall'azione combinata di tecnologie informatiche con quelle biologiche.
Le AI sembrano in grado di sostituire dirigenti, psicologi, medici, ricercatori, addirittura professionisti della politica e del giornalismo.
A lungo andare questa deriva comporterà quello che Yuval Noah Harari nel suo saggio "21 lezioni per il XXI secolo" definisce "il rischio dell'irrilevanza".
Già durante il decennio che si appresta a finire abbiamo assistito ad una crescita irruenta del numero individui che "si sentono messi da parte", le cui competenze cioè sono considerate inutili dall'attuale sistema economico e sociale. 
E non si tratta soltanto di operai sostituiti da robot e macchine, ma di professionisti che hanno investito molto sulla propria carriera e che dall'oggi al domani si trovano senza un futuro e senza la possibilità di riqualificarsi sul mercato del lavoro.
Finite le riserve finanziarie accumulate in precedenza saranno costretti a gravare sulla comunità che in qualche modo dovrà trovare il modo di farsi carico delle loro esistenze (n. 18)
Harari prefigura prossime rivoluzioni populiste che saranno promosse non contro una elite economica che sfrutta le altre classi, ma contro una elite economica che non ha più bisogno di loro.

Assistiamo all'apertura di una profonda spaccatura della società umana che la separa in due classi:
- da una parte una minoranza molto ricca i cui redditi tendono a crescere col tempo e che potrà godere appieno delle nuove opportunità fornite dalla diffusione delle AI e del progresso che ciò porterà con sé.
- dall'altra una maggioranza di persone "irrilevanti rispetto al sistema economico" dal quale si aspetta solo sussidi e che, sprovvista di mezzi finanziari sufficienti, non potrà approfittare delle innovazioni che contribuiranno ad aumentare progressivamente l'attesa di vita (in nota 5 sono elencati possibili scenari).

Marc O'Connel e lo stesso Harari ci avvertono del rischio di una progressiva divisione della specie homo sapiens in 2 razze distinte: chi potrà permettersi di modificare il proprio "hardware" e chi resterà legato a quello fornitogli dall'evoluzione.
Una prospettiva tutt'altro che ipotetica e lontana nel tempo, in grado di sparigliare le carte nella lotta per la posizione dominante tra le specie viventi.

Concludiamo questa breve riflessione su quello che potrebbe essere il futuro della vita sul nostro pianeta nei prossimi 5.000 / 10.000 anni fissando alcuni punti:

- Anche se non assistessimo all'avvento della "singolarità" (con tutti i rischi che ne conseguirebbero per la nostra specie) le AI sono destinate a diventare sempre più intelligenti.  
Già ora sono in grado di portare a termine compiti complessi - meglio di quanto riusciamo a fare noi umani - imparando dall'esperienza, e cioè dai propri errori; il tutto "senza libretto di istruzioni", cosa che permette loro di trovare soluzioni originali.
Il sistema di apprendimento delle AI si basa sull'utilizzo di reti neurali profonde che si autoconfigurano: al crescere della loro esperienza diventa impossibile per noi umani capire come l'AI affronti e risolva il compito assegnatole (fallisce il reverse engineering)

- La rivoluzione innescata nella società umana dallo sviluppo delle AI e dal loro utilizzo non è affatto democratica.
Mentre lo sviluppo della medicina ha portato vantaggi per tutta la popolazione del pianeta (basti pensare alle campagne di vaccinazione) le AI per funzionare hanno bisogno di disporre dei cosiddetti "big data", raccolti e custoditi gelosamente da pochi players mondiali.
Il rischio che già vediamo profilarsi all'orizzonte è quello di un'umanità "a due velocità", una delle quali potrà integrarsi con la pervasiva presenza delle AI in ogni settore, ed approfittare delle innovazioni per "correggere" il proprio hardware e prolungare l'attesa di vita. 
L'altra si sentirà sempre più emarginata e verrà progressivamente privata dei propri scopi.
Potremmo così assistere per la prima volta nella storia alla separazione del genere sapiens in due razze distinte.

Per evitare esiti tragici per la nostra specie - rivoluzioni violente o estinzione per mano di AIg - dobbiamo lavorare su due fronti:

1) trovare una soluzione al problema dell'irrilevanza fornendo uno scopo a chi se ne troverà privo, evitando nel contempo che la forbice della ricchezza si apra eccessivamente.
Ad imitazione di quanto concordato dalle Nazioni Unite circa l'Antartide e lo Spazio, si potrebbero considerare i big data "patrimonio dell'umanità" concedendone lo sfruttamento dietro il pagamento di royalties che andrebbero a finanziare un reddito per le classi escluse.

2) decidere quale tipo di AI vogliamo esistano in futuro, controllando attentamente affinché i loro fini siano sempre allineati con quelli della nostra specie, per evitare di trovarci improvvisamente scalzati dalla nostra posizione di specie dominante senza neppure rendercene conto.
E' indispensabile a tal fine lavorare con impegno per cercare di trasformarle le "black box" in "white box", mantenendo il controllo di ciò che le AI fanno MENTRE lo fanno.




Note:

(1) Non fanno eccezione a questo principio, contrariamente a quanto alcuni ricercatori ritengano, i metodi di predizione più recenti conosciuti con il termine di "mondi artificiali".
La disponibilità di computers dotati di grande capacità di elaborazione e dell'accesso all'enorme quantità di dati che incessantemente si accumulano sul cloud, permette di creare - ad un dato istante -  una "copia digitale" molto dettagliata di un'area (o di una società) la cui evoluzione vogliamo studiare, così da poter essere utilizzata dagli algoritmi predittivi i cui risultati vengono continuamente confrontati con le nuove informazioni raccolte.
Secondo Alessandro Vespignani, un loro sostenitore, i modelli algoritmici basati sul machine learning possono soltanto predire un futuro che derivi dalla conoscenza del passato a nostra disposizione, mentre quelli di simulazione (i "mondi artificiali") permetterebbero di alterare i meccanismi di interazione che definiscono il futuro del sistema tramite il loro aggiornamento costante, utilizzando i nuovi dati resi via via disponibili.
Tali modelli vengono perciò convalidati, nel mentre si costruiscono, con esperimenti e dati ricavati dal mondo reale.
Naturalmente tenendo conto del fatto che la conoscenza delle previsioni da parte di coloro che già sono oggetto di studio, può modificare il comportamento dei singoli individui: se una previsione infatti mi informa che il percorso che dovrò seguire sarà trafficato in un certo orario, io ne cercherò uno alternativo o cambierò l'ora della mia partenza, contribuendo così al decongestionamento dell'area ed al mancato riscontro della previsione stessa.
A mio parere invece, seppur possano produrre risultati molto precisi nel breve periodo, l'utilizzo dei "mondi artificiali" per la compilazione di previsioni a lungo termine si scontra con le stesse difficoltà che affliggono gli altri metodi.
Vedi in merito: Alessandro Vespignani "L'algoritmo e l'oracolo" (2019).

(2) Nonostante quanto qui affermato, in fisica la variabile "tempo" non compare nelle equazioni che interpretano l'attuale modello cosmologico. La visione "eternalista" tipica di questa disciplina immagina lo spazio tempo come un tutt'uno inseparabile, una struttura che possiamo immaginare di vedere dall'esterno come "un solido multidimensionale".
Carlo Rovelli nel suo testo "L'ordine del tempo" ritiene che esso non abbia caratteristiche di continuità, ma a scala subatomica presenti una struttura quantizzata.
Vedi in merito: https://spazio-tempo-luce-energia.it/tempo-e-meccanica-quantistica-1629d269e561

(3) Dovrei qui a affrontare il problema legato alla difficoltà di ottenere misurazioni precise: cosa che mi porterebbe a disquisire circa il principio di indeterminazione di Heisenberg (che ne sancisce l'impossibilità), la teoria del caos ed i suoi utilizzi ad esempio nel campo della meterologia, e l'alternativa all‘interpretazione di Copenhagen (la cui formulazione prevede il collasso della funzione d’onda di Shroedinger in un punto corrispondente ad un valore preciso, qualora un osservatore esegua una misurazione) rappresentata dall'interpretazione “a molti mondi” della meccanica quantistica, proposta per la prima volta nel 1957 da Huge Everett III e ripresa da Max Tegmark per sviluppare la teoria del multiverso (vedi il suo saggio del 2014 "Our mathematical universe").

(4) Di questi argomenti si occupa con regolarità il "Future of Live Insitute" (FLI) fondato da Max Tegmark nell'intento di render consapevole la comunità scientifica internazionale dei rischi connessi alla ricerca portata avanti in particolari ambiti (vedi https://futureoflife.org/ ). 
FLI aggiorna una lista di "oggetti di studio" che la comunità scientifica, seguendo l'esempio della moratoria messa in opera dai biologi circa la ricerca sulle armi batteriologiche, dovrebbe spontaneamente rifiutare di prendere in considerazione. 
Prime fra tutte le armi autonome, quelle che identificano e distruggono obiettivi senza intervento umano, già in fase avanzata di sviluppo nei laboratori militari di parecchie nazioni.
Stuart Russel, professore di robotica all'università di Berkeley e membro del board di "Future of life Insitute", ha realizzato un impressionante videoclip - "slaughterbots" - dove illustra magistralmente quali potrebbero essere esiti indesiderati conseguenti un loro utilizzo.
Ecco il link dove è possibile visionarlo:

https://www.youtube.com/watch?v=9CO6M2HsoIA&feature=youtu.be&fbclid=IwAR3T3O-wyAZLMDaxnDutQCnDlQu9OmdG3RjUVreXZwLxMb8bOaQQM9NgvJ4
Vedi anche il mio post al blog:
https://davidemolinapersonale.blogspot.com/2019/05/futur-of-life-institute-lethal.html

(5) Altro discorso sono le "modifiche hardware" apportabili al nostro corpo ad opera della tecnologia sviluppata dalla nostra specie: una linea di frontiera che stiamo già valicando.
La sostituzione di parti biologiche del nostro corpo con protesi artificiali, dotate di un più remoto "termine di scadenza", è già oggi una realtà che andrà intensificandosi di pari passo con il progresso tecnologico.
Non credo il nostro destino sarà quello di trasformarci in macchine come profetizzato nei romanzi di Arthur C. Clarke.
Più probabilmente riusciremo a creare, utilizzando l'ingegneria genetica, tessuti sintetici (nel senso di "costruiti" o "coltivati" artificialmente a partire da materiale biologico con DNA modificato) con prestazioni superiori rispetto a quelli forniti alla nostra specie dall'evoluzione.
Tessuti con i quali si potranno sostituire intere parti del nostro corpo e dei nostri organi vitali allungandone così la durata; la facilità di rimpiazzo permetterà un progressivo e continuo "ricambio" delle aree usurate (come già avviene ad esempio per gli aerei) così da spostare sempre più in avanti nel tempo la data di "fine vita".
Vedi in merito:
- Max Tegmark "Vita 3.0" (2019)
- Marc O'Connel "Essere macchina" (2019)
- https://davidemolinapersonale.blogspot.com/2019/04/transumanesimo-e-biohackers-un-fenomeno.html
- https://davidemolinapersonale.blogspot.com/2019/04/cellule-del-cervello-di-maiale.html

(6) Eccezione potrebbe esser costituita dall'improvvisa comparsa di una o più specie di origine extraterrestre che si trovino a competere con la nostra per lo sfruttamento delle risorse naturali del pianeta, una possibilità del tutto remota.
Rimando chi volesse approfondire l'argomento alla lettura del saggio scritto dal fisico Stephen Webb "Se l'universo brulica di alieni... dove sono tutti quanti" (2019): il paradosso di Fermi, relativo alla mancanza di evidenze sull'esistenza di vita fuori dal nostro pianeta, viene qui analizzato in dettaglio e Webb ci fornisce 75 possibili sue soluzioni.

(7) Al momento il substrato delle IA è il silicio con cui realizziamo i computers sui quali "girano" i softwares; da tempo tuttavia sono allo studio "bio-chips" o chips realizzati con altri materiali.

(8) vedi il testo di Marcus du Sautoy "Il codice della creatività" dove oltre ad una canzone che sembra un inedito dei Beatles -  https://www.youtube.com/watch?v=LSHZ_b05W7o - si possono trovare numerosi esempi su ciò che le AI sono in grado di fare già oggi.

(9) Su questo punto, cioè la mancanza di "consciousness" da parte delle attuali AI, Yuval Noah Harari e Max Tegmark potrebbero non esser d'accordo: vedi il podcast che hanno registrato per FLI il primo gennaio di quest'anno che tratta appunto di questo argomento, già sviluppando al capitolo 8 presente nel testo "Vita 3.0" di Max Tegmark:
https://futureoflife.org/2019/12/31/on-consciousness-morality-effective-altruism-myth-with-yuval-noah-harari-max-tegmark/
I due autori sottolineano come la definizione di "coscienza come esperienza soggettiva" - l'unica che permette di evitare l'antropocentrismo - non faccia riferimento a "comportamento", "percezione", "consapevolezza di sé", "emozioni" o "attenzione" .
Pongono domande difficili - siamo coscienti quando sogniamo? Un sistema che prova dolore è cosciente anche se impossibilitato a muoversi? - che ci fanno riflettere su quali e quanti siano i nostri bias sull'argomento.
La loro conclusione è che nessuno possa escludere l'eventualità che una AI diventi cosciente.
Harari rincara la dose nel saggio "Homo Deus" sostenendo che qualora si accetti l'irrilevanza delle esperienze soggettive, bisognerebbe spiegare come la tortura e lo stupro continuino ad esser giudicati comportamenti riprovevoli senza far riferimento alla soggettività delle vittime.
"Senza soggettività - argomenta Yuval - si tratta solo di spostamenti di particelle elementari nei quali non si ravvisa alcun male".
Entrambi si chiedono:"le AI possono soffrire?"
Qualora la risposta sia positiva, è d'obbligo rispondere alla domanda "come potremmo noi accorgercene evitando così, seppur inconsapevolmente, di infligger loro sofferenze?"

(10) Le AI hanno capacità creative che in certi ambiti superano le nostre, pur risultando carenti in altri.
Vedi in merito:
- Marcus du Sautoy "il codice della creatività" (2019)
- https://davidemolinapersonale.blogspot.com/2020/01/il-significato-del-termine-creativita.html

(11) A questo proposito è d'obbligo citare il problema della "black box".
Quando assegnamo ad una AI un compito (tipo riconoscere cosa rappresenti un'immagine) mano a mano che la macchina impara dai suoi errori il programmatore inizia gradualmente a perder traccia delle caratteristiche che l'algoritmo sta usando.
Esaminando soltanto il codice originale, un'operazione di "reverse engineering" non permette di scoprire come l'algoritmo stia lavorando in questo momento.
Di recente un team di Google ha lavorato all'inversione del funzionamento degli algoritmi AI di riconoscimento delle immagini (sviluppando il codice "DeepDream") per capire "come gli algoritmi vedono".
La ricerca per arrivare a creare algoritmi AI "white box", cioè strutturati in modo tale da far sì che anche noi umani siamo in grado di capire "come funzionano", è attiva in tutto il mondo.  Un valido team italiano si è specializzato in questo ramo.

(12) Una cosiddetta AIg (dove "g" sta per “general”, utilizzabile in tutti i contesti), pur con capacità inferiori a quelle umane, non è ad oggi ancora stata creata, pur essendo oggetto di ricerche portate avanti nei laboratori in tutto il mondo.
Vedi in merito:
- Pedro Domingos “L’algoritmo definitivo” (2018)

(13) Max Tegmark ritiene che si aprano diversi scenari.
Lo sviluppo di una Aig di livello umano potrebbe innescare un'esplosione dell'intelligenza che ci lascierà molto indietro: noi sapiens dominiamo altre specie (come i grossi felini) contro i quali non avremmo possibilità di prevalere usando soltanto la forza. Riusciamo invece ad averne ragione grazie ad una intelligenza più sviluppata.
Le AI, che sono molto più intelligenti di noi, potrebbero un giorno dominarci senza che noi ce ne rendiamo conto, esattamente come oggi capita a noi con le altre specie.
Vedi in merito:
- https://it.wikipedia.org/wiki/Singolarit%C3%A0_tecnologica
- Max Tegmark "Vita 3.0" (2018) cap. 4 pag 179-211

(14) Non ci sono previsioni attendibili su quando la singolarità potrebbe presentarsi nella nostra storia: tra 10 anni, tra 100 oppure mai.
- Vedi in merito: Max Tegmark "Vita 3.0" (2018)

(15) Un aneddoto spesso riportato in letteratura è quello del "paperclip maximizer" descritto per la prima volta da Bostrom nel 2003.
Vi si immagina una AI istruita per costruire graffette ottimizzando le risorse disponibili; nel momento in cui dovesse verificarsi la singolarità, la persecuzione del suo scopo originale la porterebbe ad ignorare le conseguenze per la nostra specie al punto di utilizzare tutta l'energia e la materia disponibile sul pianeta per produrre graffette, destinandoci così all'estinzione.
Vedi in merito:
- https://en.wikipedia.org/wiki/Instrumental_convergence
- https://wiki.lesswrong.com/wiki/Paperclip_maximizer

(16) IoT
Vedi in merito: https://it.wikipedia.org/wiki/Internet_delle_cose 

(17) Entrambi i ricercatori hanno rilevato - a mezzo verifica sperimentale - come spesso l'azione anticipi di qualche secondo la decisione razionale che avrebbe dovuto darle il via: il ruolo svolto dalla nostra coscienza consisterebbe pertanto nel fornire, ex post, una ragione all'azione intrapresa (ingannandoci sull'ordine temporale dei due eventi).
Secondo il neuroscienziato Dean Buonomano invece ciò che noi chiamiamo "consapevolezza" potrebbe essere soltanto un "racconto" via via costruito dal nostro cervello: potrebbe sì capitare che l'azione sia conseguenza di una "scelta volontaria", ma della quale perdiamo memoria, sostituita da un racconto creato in un secondo momento "da quel fantastico spin doctor che è il nostro cervello".
Vedi in merito:
- Dean Buonomano "il tuo cervello è una macchina del tempo" (Your Brain is a Time Machine: The neuroscience and physics of time), Norton, 2017
- https://davidemolinapersonale.blogspot.com/2019/03/libero-arbitrio-e-libera-volonta-i.html
- http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.520.2204&rep=rep1&type=pdf

(18) L'irrilevanza: vedi in merito:
Yuval Noah Harari "21 lezioni per il XXI secolo" (2019) e "Homo Deus" (2015)
http://rampini.blogautore.repubblica.it/2019/06/15/la-notte-della-sinistra-i-lettori-mi-scrivono/ 


Testi consultati:


martedì 21 luglio 2020

Può il concetto di "male" aver costituito un vantaggio evolutivo per la nostra specie?

Lo scorso mese di settembre, in occasione del Festival della Mente di Sarzana, ho assistito alla presentazione del saggio "I geni del male" scritto da Valter Tucci, ex "cervello in fuga" rientrato da qualche mese in Italia grazie all'Istituto Italiano di Tecnologia di Genova che lo ha chiamato a dirigerne il laboratorio di genetica.
Tucci è un ricercatore con un curriculum particolare: laureato in psicologia, si specializza in medicina trasferendosi negli USA dove lavora presso il dipartimento di anatomia e neurobiologia della Boston University.
Ottiene un incarico presso il prestigioso MIT, poi nel 2003 lascia gli USA per trasferirsi ad Oxford.
Nel corso della sua carriere ha avuto contatti con Dean Buonomano, neuroscienziato del quale ho parlato spesso nel mio blog (Tucci è stato editor di uno special issue cui entrambi hanno partecipato: https://royalsocietypublishing.org/toc/rstb/2014/369/1637 )

Un anno fa' avevo scritto un post dove veniva avanzata l'ipotesi che l'evoluzione avesse modellato il nostro cervello per far sì che lo stato di felicità ed appagamento si potesse raggiungere raramente e per brevissimi periodi, spingendoci così costantemente all'azione nell'intento di recuperarla.

Tucci, da parte sua, ritiene che persino un concetto astratto come "il male" sia un prodotto dell'evoluzione, la cui formulazione abbia permesso ai sapiens di superare limiti fisiologici imposti dagli ormoni ed assemblare così società di grandi dimensioni che li hanno trasformati in poche migliaia di anni nella specie dominante.

L'origine di tutto ciò è da ricercarsi nella "rivoluzione cognitiva", una importante fase dello sviluppo che ha interessato la nostra specie circa 70.000 anni fa.
Sino a quel momento la comunicazione verbale tra nostri progenitori non era diversa da quella che possiamo verificare ancor oggi tra i primati ed altre specie in grado di emettere suoni.
In presenza di uno stimolo - per esempio l'improvvisa apparizione di un predatore - un individuo del gruppo vocalizza un segnale di pericolo (cioè un suono specifico il cui significato è noto a tutti i componenti): a seconda del caso ogni individuo prende una decisione soggettiva sull'opportunità di "fight or fly" (combattere o fuggire).

L'evoluzione ha fatto sì che la percezione di un segnale di pericolo solleciti un livello di attenzione molto alto e stimoli una pronta reattività tra gli elementi del gruppo, mettendo spesso in atto una risposta fisiologica ad essa finalizzata.
Le reazioni istintive che ancor oggi interessano la maggioranza degli individui alla vista di "qualcosa che sembra" un serpente od un ragno traggono origine da questa situazione (*)

In seguito alla rivoluzione cognitiva, l'emersione di un concetto astratto di "male" ha portato come vantaggio quello di ottenere lo stesso risultato - alta attenzione e reattività - anche qualora lo stimolo non sia oggettivamente presente, ma venga semplicemente "raccontato": il racconto di una situazione pericolosa suscita un'emozione in grado di produrre lo stesso effetto di una situazione realmente vissuta (vedi ad esempio le sensazioni  prodotte in noi dalla vista di un film horror).

I componenti del gruppo possono pertanto immaginare una scena verosimile in cui si presenti una situazione di pericolo (la comparsa del predatore) mentre sono in piena sicurezza: ed esplorare mentalmente le opzioni a disposizione come reazione - il tutto senza l'urgenza di agire per la propria salvezza - comunicando le proprie conclusioni e confrontandole con quelle degli altri membri.   L'elaborazione di una strategia comune.

Tutto ciò fa seguito allo sviluppo sistema cognitivo ed all'articolazione di un linguaggio più complesso.
Il racconto dove il predatore rappresenta un pericolo per la comunità lascia spazio all'elaborazione del concetto di male, come di un "qualcosa di pericoloso" per l'esistenza stessa del gruppo.
Lo sviluppo dell' "idea di male" ha dunque costituito una vera e propria palestra per il cervello dei sapiens.

Un vantaggio che ne deriva è costituito dal fatto che immaginare e credere all'esistenza di uno spirito maligno permette un ulteriore avvicinamento tra i membri del gruppo.
I comportamenti controllati dagli ormoni, come avviene in genere per le altre specie, spingono verso un ordine sociale rigido e costituiscono un vero ostacolo all'incremento della numerosità del gruppo al di là di una certa dimensione.
Nelle specie che tendono a vivere in branco, quando questo cresce oltre un certo numero di componenti, notiamo come il maschio alfa non sia più in grado di gestirne la complessità: si assiste così all'insorgenza di un altro maschio alfa ed alla scissione del branco originale.
E' la dimostrazione del fatto che esistano limiti fisici alla crescita del gruppo ed all'aumento del suo potere, proporzionale alle sue dimensioni.

La diffusione della credenza relativa all'esistenza di uno spirito malvagio in grado di esercitare il male sui componenti del gruppo permette di raccogliere molti "credenti" intorno al leader: l'impulso aggressivo e dominante dei maschi alfa passa in secondo piano rispetto al timore di una entità potente, dalla quale i membri del gruppo stesso sono impossibilitati a difendersi.
La lotta tra il bene e il male si gioca cioè ad un livello metafisico del quale i singoli non possono esser partecipi.
Il concetto astratto di male ha pertanto prodotto meccanismi di autoregolazione ed accrescimento delle reti sociali.

Certamente non è esistito "un solo spirito maligno": è probabile che ogni tribù avesse sviluppato in autonomia le proprie credenze di pari passo con il realizzarsi della rivoluzione cognitiva che non interessò contemporaneamente tutti i sapiens in ogni parte del mondo da loro colonizzato.
Sorprendentemente, non sempre il fatto di credere a divinità diverse ha dato luogo a scontri o guerre di religione tra le società che venivano a formarsi: più spesso si sono creati equilibri la cui condizione era la presenza di grosse aggregazioni (pensiamo ad esempio agli imperi dove le diverse credenze erano tollerate, o l'ordine mondiale dove enormi società con credenze diverse cercano punti di contatto per evitare una conflittualità permanente.

Ed oggi che la credenza in qualcosa di metafisico come la divinità perde ogni giorno terreno?

Osserviamo come il pensiero ateo razionale abbia individuato una soluzione vantaggiosa per tutti: la moralità che ha permesso di mantenere strumenti sociali importanti come il senso di giustizia, le leggi e la condanna della criminalità, è che fa da base a quelle organizzazioni preposte a mantenere la pace e la tutela di tutti gli individui della specie.

Oggi spiritualità e credenza metafisica sono state lasciate alla scelta individuale, purché non in contrasto con la moralità.


Note:
-------

(*) l'ofidiofobia (paura dei serpenti) e l'aracnofobia (paura dei ragni) sono diffuse tra la maggior parte degli uomini, anche in regioni dove non esistono serpenti o ragni velenosi.
Gerd Gigerenzer nel suo saggio "imparare a rischiare" ci porta a riflettere su queste due paure chiedendoci se siano "iscritte nei geni" della nostra specie oppure no.
Il fatto che l'ofidiofobia la si ritrovi ad ogni latitudine potrebbe farci pensare che sia così; ma quei bambini che non hanno mai visto un serpente, non provano istintivamente paura.
E' sufficiente però che un adulto in sua presenza mostri di averne paura perché si attivi nel bimbo tale sensazione che lo accompagnerà per tutta la vita.
Le scimmie hanno reazioni simili: la vista per la prima volta di un serpente le intimorisce soltanto se altri individui mostrano panico. 
I ricercatori hanno provato a sostituire il serpente con altro stimolo, addestrando le scimmie più anziane a reagire come di fronte ad un rettile: non si è verificata la stessa conseguenza.
Pertanto, conclude Gigerenzer, questo tipo di paura è sì ereditata con i geni degli ancestors comuni a noi ed ai primati, ma necessitano di venir attivati da un comportamento di adulti della nostra specie.

Il neuroscienziato torinese Marco Tamietto fornisce invece una spiegazione alla reazione istintiva che attanaglia la maggioranza di noi alla vista di "qualcosa che assomigli ad un serpente": prima ancora di identificare la natura dello stimolo visivo, un sistema arcaico - molto più veloce di quello normalmente utilizzato per trasmettere informazioni dalla retina all'area posteriore del nostro cervello dove esse vengono interpretate - attiva un riflesso automatico che ci fa agire "d'istinto" (vedi "la visione cieca" di Marco Tamietto).
Questa scoperta lo ha portato a scoprire un modo per ridare (parzialmente) la vista a chi, colpito da ictus o degenerazione di una zona del percorso standard dove transitano le immagini, si trovi in situazione di cecità permanente le cui cause non sono da ricercarsi nell'occhio o nella zona di composizione delle immagini.




venerdì 3 luglio 2020

"Gli astronomi sono tutti bastardi sferici": Zwicky, il precursore dell'energia oscura.

Nella galleria degli astronomi che si sono avvicendati all'osservatorio di Mount Wilson gestito dal Caltech, tra ritratti con pose serie o solenni - come si addice a uomini di scienza - spicca la smorfia di Fritz Zwicky, uno scienziato di origine svizzera ed "eroe incompreso" della materia oscura.



Zwicky, un soggetto difficile, decise si farsi ritrarre nella classica posa con cui accoglieva le matricole al Caltech di Pasadena, dove lavorò dal 1925 sino al 1974, l'anno della sua morte:

   "e tu chi diavolo sei?" era il suo benvenuto al povero malcapitato.

Pare ammettesse al proprio corso di fisica soltanto chi si mostrasse "sufficientemente devoto alle sue idee".

Non meno famoso era il suo detto: "gli astronomi sono tutti bastardi sferici; sferici perché da qualunque parte li si guardi rimangono sempre dei bastardi".
I quali ricambiavano definendolo un "irritante buffone", "genio autoproclamato", e così via.

Rileggendo le sue pubblicazioni non è raro trovarvi violenti attacchi verbali contro colleghi rei di aver espresso idee contrarie alle sue.

Negli anni '30 del '900 coniò il termine "stella di neutroni" ad indicare il possibile destino degli astri con massa superiore ad una determinata soglia, un valore che al termine del ciclo vitale impediva loro di collassare in nane bianche (visibili al telescopio ottico).
Aveva inventato questo concetto per spiegare i fenomeni ad altissima energia osservati dagli astronomi, le supernovae ed i raggi cosmici, ma lo riteneva utile anche a superare il "paradosso dei buchi neri" che infastidiva astrofisici ed astronomi del tempo: l'ipotesi, in seguito ad un collasso di corpi stellari con massa elevata, della formazione spontanea di oggetti astronomici con densità sufficientemente elevata tale da esprimere una forza gravitazionale in grado di impedire persino alla luce di sfuggirvi.

"Stelle di neutroni come cadaveri stellari" fu un'altra delle sue espressioni colorite.

Obiettivamente portava poche prove a sostegno della propria tesi, decisamente insufficienti a convincere buona parte dei suoi colleghi.
Con una mossa non convenzionale oggi in voga - soprattutto tra i virologi in tempo di Covid - si propose come primo "scienziato mediatico": non trovando sponda nel mondo scientifico decise di partecipare ad un programma radiofonico per pubblicizzare le proprie idee tra i non specialisti.
Dopo di lui, presentare al pubblico proprie tesi rifiutate dalla comunità scientifica è diventato un comportamento che accomuna molti uomini di scienza che sperano così di sfruttare l'effetto "ipse dixit" nei confronti di chi manca di conoscenze base per confutarle.

Nel corso degli anni '30 ed i primi anni '40 costituì con Walter Baade (astronomo arrivato dalla Germania) un affiatato duetto: condividevano lo stesso retroterra culturale, lingua e cultura tedesca, e mostravano massimo reciproco rispetto l'uno per l'intelligenza dell'altro.  
Questo tuttavia non impedì a Zwicky, durante la seconda guerra mondiale, di accusare pubblicamente Baade di essere un nazista (non lo era!): conoscendo bene il caratteraccio del primo, Baade per un certo periodo temette addirittura di venir ucciso dal collega.

Lavorarono alla definizione delle supernovae, termine da loro coniato di comune accordo, per indicare intensi lampi di luce osservati dai telescopi: a quei tempi - erroneamente - si credeva fossero esplosioni stellari avvenute all'interno della nostra galassia, ma negli anni '50 lo stesso Baade contribuì a rivelare fossero relative ad oggetti di altre galassie, con una potenza estrema (10^10 la luminosità del nostro sole).  

Zwicky e Baade intuirono un valore abbastanza corretto della potenza emessa, ma sbagliarono affermando che questa venisse trasportata da raggi ultravioletti e raggi X (oggi sappiamo che quasi tutta l'energia emessa viene trasportata dai neutrini).

Secondo Zwicky l'origine dell'enorme energia delle supernovae doveva esser ricercata nelle stelle di neutroni: l'implosione di una stella massiccia avrebbe comportato la contrazione del nucleo e la trasformazione della materia in gas di neutroni.
Oltre alla circonferenza si sarebbe così ridotta anche la massa di un valore pari al 10% rispetto a quello iniziale: questo differenziale si sarebbe trasformato in energia esplosiva contribuendo a riscaldare enormemente anche gli strati esterni della stella fino a farli esplodere e scagliarli nello spazio.  L'esplosione sarebbe coincisa con uno di quei lampi di luce che erano stati osservati e che lui e Baade chiamarono "supernovae".

Ma veniamo all'argomento di questo post: l'energia oscura.

L'astronomia - se escludiamo le recentissime tecniche di cattura dei neutrini e delle onde gravitazionali - si è sempre basata sulla raccolta e l'analisi della radiazione elettromagnetica: raggi gamma, raggi X, ultravioletti, luce visibile, infrarossa ed onde radio.
Già dai tempi di Galileo si sapeva tuttavia che "non tutto riluce": corpi freddi possono emettere pochissima radiazione, e di conseguenza - soprattutto se molto lontani - diventa impossibile rilevarne l'esistenza.
Quando Joseph Fraunhofer all'inizio dell'800 inventa lo spettrografo, improvvisamente un limite che pareva intrinseco alla natura umana - "non sapremo mai di cosa sia fatta una stella" - viene superato d'impeto.

L'analisi spettrografica, in certi casi, permette di confermare come la mancanza di luce possa significare la presenza di "materia oscura", quali polveri e gas che eclissano la visione di zone densamente popolate da stelle (spesso rilevabili come red shift relativi allo spettro degli astri retrostanti od dalla striatura dello stesso).

Verso la metà del secolo XIX Le Verrier ed Adams (indipendentemente l'uno dall'altro) intuirono il fatto che le masse perturbano i moti degli astri: fu così che venne identificato Nettuno, analizzando l'orbita di Urano.

Il termine "materia oscura" ha molti padri: dalla metà dell'800 in poi indicò un qualcosa dotato di massa sufficiente a perturbare i moti di astri e pianeti; fino a tempi relativamente recenti si pensò trattarsi di polveri, gas, pianeti oppure stelle in formazione.

Nel 1933, ed in seguito nel 1937, Zwicky pubblicò due articoli che segnano "il calcio di inizio" della partita relativa alla materia oscura, della quale ancora oggi si dibatte quale possa esserne la consistenza.
Analizzando i moti delle galassie notò come queste tendano a raccogliersi in ammassi, imprigionate dalla loro stessa gravità.
Ne concluse che le galassie, come i pianeti in orbita intorno ad una stella, si trovino a dover mantenere una determinata velocità per evitare sia di collassare tra di loro che di disperdersi nello spazio esterno.

Zwicky definì "teorema viriale" l'equilibrio tra massa e velocità che consente agli ammassi di rimanere stabili: stimando - con i mezzi ottici disponibili a quel tempo - quale fosse l'entità della massa relativa all'ammasso "Chioma di Berenice", concluse che il valore necessario a tenerlo insieme dovesse essere pari a 150 volte la massa degli oggetti visibili.

Anche questa volta molti "bastardi sferici" non lo presero sul serio.

Una delle critiche (corrette) sollevate in proposito alla sua ipotesi riguarda la presunta situazione di equilibrio in cui gli ammassi dovrebbero trovarsi, e della quale non c'è evidenza.

Per ottenere riscontri sarà necessario aspettare l'avvento dei radiotelescopi e l'individuazione della famosa "riga 21 cm".
Si tratta di una caratteristica dell'onda radio emessa da un atomo di idrogeno ogni volta che il suo elettrone inverte lo spin; situazione che capita una volta ogni dieci milioni di anni, ma dato il numero degli atomi di idrogeno in una galassia è un fenomeno frequente.
Le onde radio, a differenza della luce visibile, non vengono fermate da polveri o gas interstellari: in pochi anni vennero disegnate intere mappe celesti basate "sui 21 cm".

Analizzando i dati relativi ad altre galassie si scoprì in seguito che quelle a spirale - come la nostra via lattea - ruotano molto più velocemente di quanto previsto dalla legge di Keplero, dunque devono esser composte da una massa molto maggiore di quella visibile.

A questo punto Zwicky avrebbe potuto cantar vittoria ma ... guardate la sua foto: vi pare il tipo da accontentarsi?
Da vero bastian contrario qual'era sostenne - contro le sue stesse ipotesi - che una tal prova non era per nulla sufficiente a giustificare l'esistenza della materia oscura.

Solo nel corso degli anni '70 - quindi dopo la sua morte - Vera Rubin e Kent Ford effettuarono misure precise della velocità di rotazione della galassia "Andromeda" in punti a diversa distanza dal centro ("bulge") usando la tecnica del red shift.
Intuirono così che nelle galassie a spirale, in base alla rotazione osservata, per giustificarne la velocità fosse necessario stimare la presenza di una massa fino a 10 volte quella ricavabile dall'osservazione della radiazione elettromagnetica (nelle diverse lunghezze d'onda): tale massa doveva necessariamente esser distribuita su tutto il disco galattico, avvolgendolo in una probabile forma sferica.

Ancora una volta Zwicky aveva avuto un'intuizione corretta, anche se incapace di fornirne un adeguato supporto di prove empiriche.

"Mente sicuramente straordinaria, era tuttavia un poco ignorante in alcuni campi che invadeva d'impeto; privo di autocontrollo, talvolta si mostrava tozzo ed arrogante": è questa la sintesi della sua carriera che ne hanno fatto alcuni suoi allievi, diventati a loro volta astrofisici di razza.

Possiamo concludere affermando correttamente che Zwicky non conoscesse abbastanza bene le leggi della fisica per esser in grado di dimostrare la fondatezza delle proprie idee.

Oggi appare sorprendente che non si fosse accorto della connessione tra stelle di neutroni e buchi neri, cosa che avrebbe potuto intuire già nel 1933.


https://www.mtwilson.edu/mount-wilson-astronomers-2/

https://en.wikipedia.org/wiki/Fritz_Zwicky

Fonti:
Luca Amendola: l'altra faccia dell'universo (il mulino 2018)

Kip Thorne: buchi neri e salti temporali (castelvecchi 2013)

Elenco posts

Elenco 55 posts dal 28/3/18 al 30/07/20: 30 luglio 2020          Il futuro dell'evoluzione sul pianeta Terra . 21 luglio 202...