contatore visite

giovedì 30 luglio 2020

Il futuro dell'evoluzione sul pianeta Terra.

Quando ci interroghiamo su quale possa essere il futuro della vita sul nostro pianeta, magari spingendo lo sguardo a qualche migliaio di anni di distanza da oggi, in genere ci troviamo a riflettere su "come sarà l'uomo del futuro", peccando così di antropocentrismo.

Ragione di questa miopia è da ricercarsi nei limiti delle nostre capacità previsionali, impressi dall'evoluzione nella struttura del nostro cervello.
Infatti ogni volta che azzardiamo una previsione sul futuro non facciamo che rielaborare informazioni accumulate nella nostra memoria - ad opera dell'esperienza passata - cercando situazioni simili delle quali siamo già a conoscenza dei successivi sviluppi.

L'assunto implicito di ogni metodo predittivo fino ad oggi utilizzato - inclusi i più tecnologicamente avanzati, quelli cioè basati su algoritmi di apprendimento automatico ("machine learning") - si può riassumere con l'espressione: "il nostro futuro è il passato".
Poiché dunque tutte le previsioni si basano sullo studio di associazioni tra dati relativi al passato, ciò vuol dire che riteniamo il futuro esser in qualche modo già "scritto nel passato" (n. 1).

Cosa vera, in linea di principio: il tempo ha infatti una direzione preferenziale che punta verso il futuro, dunque deve esistere “un che” di deterministico negli stati successivi di un sistema, un legame causa-effetto che si espande nel tempo (n. 2).

L'errore in cui incorrono le previsioni è perciò da ricercarsi in una qualche variabile che il modello predittivo utilizzato ha trascurato, o della quale ha sottostimato gli effetti in determinate condizioni: in una parola nell'estrema complessità che caratterizza l'ambiente in cui viviamo (n. 3).

Tenendo ben presenti difficoltà e limiti finora elencati, insiti nella "scienza delle predizioni", facciamo comunque il tentativo di "scrutare il futuro" del nostro pianeta nel corso dei prossimi millenni dal punto di vista della specie dominante, che al momento è indiscutibilmente la nostra.

Il rischio circa una possibile estinzione della specie "homo sapiens" - da lui stesso causata tramite eventi quali olocausto nucleare, distruzione dell'ambiente, sviluppo di armi autonome, creazione di intelligenze artificiali in grado di autodotarsi di finalità non allineate a quelle della nostra specie (n. 4), oppure determinata da cause esterne quali la caduta di meteoriti di grandi dimensioni, intense e frequenti attività vulcaniche esplosive che protraendosi nel tempo modificando la nostra atmosfera e schermano la luce del sole, perturbazioni dell'orbita terrestre, improvvisi cambiamenti climatici dovuti a cause naturali - risulta tutto sommato modesto se calcolato su un periodo relativamente breve quale quello che vogliamo prender in considerazione: con ogni probabilità tra qualche migliaio di anni l'umanità continuerà ad esistere.

L'ipotesi di assistere in questo lasso di tempo ad una "modifica hardware" imposta alla nostra specie ad opera dell'evoluzione - tipo l'ingrandimento del cranio per poter contenere un cervello dotato di una corteccia frontale più sviluppata, oppure il progressivo ridimensionamento e/o eliminazione di parti del corpo diventate inutili in ambienti "al di fuori della savana" - è del tutto improbabile, visti i tempi che sono stati necessari in passato per apportare minime modifiche alla fisiologia umana: sappiamo infatti per certo che uomini vissuti 5.000 / 10.000 anni fa non erano molto differenti da noi (n. 5).

Così come lo è uno scenario dove un'altra specie oggi presente sul nostro pianeta - animale o vegetale che sia - sviluppi in qualche millennio un'autocoscienza ed un livello di intelligenza tale da potersi mettere in competizione con la nostra (n. 6).

Rimane perciò un'unica ipotesi, dotata di un sufficiente grado di attendibilità, circa la possibile futura comparsa di un "competitor" per la nostra specie nel lasso di tempo indicato: la creazione, ad opera nostra, di un nuovo "genere di vita".
Qualcosa che già oggi possiamo individuare in fase embrionale, un "genere di vita" che non è basato sul carbonio (n. 7).
Si tratta delle Intelligenze Artificiali - indicate in letteratura con il termine "AI"- che potrebbero rivelarsi la prima "specie vivente" sul nostro pianeta a non essere un prodotto diretto dell'evoluzione (quest'ultima si sarebbe limitata a modellare il nostro cervello che a sua volta le ha immaginate e realizzate).
Come tutte le altre forme di vita le AI possono riprodursi (facendo una copia di sé stesse), spostarsi per il globo (usando la rete internet), manipolare oggetti (tramite i robot), aumentare la propria efficienza (attraverso processi di machine learning) ed imparare dall'esperienza (attraverso le reti neurali profonde).

Cosa manca dunque alle AI per esser definite una nuova specie vivente, e perché potrebbero rappresentare loro il futuro del nostro pianeta assistendo al declino della nostra specie?

La definizione di "intelligenza", utilizzata da Max Tegmark per smarcarsi dall'antropocentrismo che appare nel suo saggio "Vita 3.0", è semplice quanto inclusiva: "intelligenza è la capacità di portare a termine compiti complessi".

Le AI di oggi ci superano, in termini di performances, nell'esecuzione di parecchi compiti tutt'altro che semplici, e si mostrano in grado - perlomeno relativamente ad alcuni campi - di poter apprendere dall'esperienza meglio di quanto possiamo fare noi umani.
Vincono a mani basse contro i nostri campioni nei giochi degli scacchi, del Go, nei videogiochi e persino in quiz televisivi come Jeopardy, inferendo dall'esperienza quali siano le regole del gioco.
Non c'è infatti bisogno di istruire una AI prima che inizi a giocare: imparerà dai propri errori in tempi brevissimi, impensabili per un essere umano, e proprio a causa dell'assenza di "schemi a priori" (tipo una tabella di regole che per noi sarebbe indispensabile) risulterà abile ad esplorare strategie innovative, sorprendenti e sconosciute ai giocatori umani di professione.

Il loro ambito creativo non si limita alle strategie di gioco: esistono AI in grado di dipingere, comporre musica e testi, improvvisare Jazz, scrivere articoli per i giornali e racconti o romanzi, giocare in borsa, addirittura cimentantesi nella dimostrazione di teoremi matematici (n. 8).

Loro limite attuale è piuttosto rappresentato dalla mancanza di "autocoscienza" (n. 9) e da una ridotta "flessibilità" (n. 10)

Una AI campione di scacchi può infatti trasformarsi in campione di Go soltanto passando attraverso un nuovo processo di addestramento, durante il quale muterà l'assetto precedentemente raggiunto dalla "rete neurale profonda" come risultato degli innumerevoli tentativi euristici di trovare la strategia vincente. 
Partecipando ad un nuovo gioco, i risultati mano a mano conseguiti riconfigureranno la rete rendendo il nuovo assetto inadatto al compito precedente.
Proprio per questo motivo le AI finora sviluppate sono indicate con il termine "specialistiche" o "ad intelligenza ristretta": capaci cioè di "raggiungere un insieme limitato di fini".

Alla base di tale limite c'è il fatto che le AI “non sanno ancora imparare da sole”, mancano cioè di autonomia nel processo di apprendimento. 
Seppur non siamo in grado di comprendere del tutto il funzionamento dei deep learners - le reti neurali profonde si organizzano infatti da sole con il metodo punizione/ricompensa - siamo comunque noi umani a programmarli, e dunque in ultima analisi ad “insegnare” alle AI (n. 11)

Non è escluso che presto o tardi si possa assistere alla trasformazione di AI ad “intelligenza ristretta” in AI ad “intelligenza generale”, definita quest'ultima - sempre da Max Tegmark - come “la capacità di raggiungere qualsiasi fine, compreso l’apprendimento” (n. 12)
Secondo Tegmark, nel momento in cui si realizzerà questa transizione l'umanità correrà il rischio non soltanto di perdere la posizione come specie dominante, ma addirittura di estinguersi.
E' stato dato un nome a questo preciso istante: la "singolarità" (n. 13). 
In tal frangente le AI (qualunque cosa saranno nel frattempo diventate, macchine o substrati biologici) potranno apprendere in maniera autonoma - e molto più velocemente di quanto possiamo fare noi con il nostro hardware biologico - competenze "in ogni campo" trasformandosi in AIg in grado di  far completamente a meno dell'intervento umano (n. 14).
Qualora, in quel momento, i fini delle AIg risultino divergenti rispetto a quelli della nostra specie ci troveremmo improvvisamente accantonati ed ignorati, e rischieremmo di far la fine del proverbiale formicaio il cui destino è indifferente all'ingegnere che costruisce la diga (n. 15).

Non c'è consenso su quando (e se mai) si verificherà la "singolarità": dunque potrebbe essere che nel periodo per il quale stiamo provando a fare una previsione tale eventualità continui a rimanere soltanto un'ipotesi.  
In tal caso assisteremo allo sviluppo di AI sempre più intelligenti e performanti, ma incapaci di "raggiungere qualsiasi fine, compreso l’apprendimento”, cosa che ci permetterà di conservare la leadership.

Perché allora l'Intelligenza Artificiale - così come la conosciamo oggi - dovrebbe possedere maggiori chances rispetto al cervello umano nel rappresentare il futuro dell'evoluzione sul nostro pianeta?

La risposta - per certi aspetti sorprendente - è che già oggi le AI sono dotate di capacità delle quali noi esseri umani siamo sprovvisti: prime fra tutte la "connettività" e la "possibilità di aggiornamento istantanea".

Per capirne di più osserviamo il comportamento dei veicoli a guida autonoma, già oggi in circolazione in certe aree del pianeta.
Tramite l' "internet di tutte le cose"  - IoT è la rete che mette in comunicazione tra di loro anche gli oggetti dotandoli di fatto di "intelligenza" (comunicano dati su se stessi ed accedono ad informazioni sugli altri oggetti, anche in forma aggregata) il cui avvento dovrebbe coincidere con la diffusione del 5G (n. 16) - le AI che governano automezzi a guida autonoma possono scambiare continuamente, tra di loro o con AI delegate ad altri compiti,  informazioni sull'ambiente nel quale si muovono.
L'AI alla guida saprà sempre "cosa c'è dietro l'angolo", anche se si tratta di una zona cieca ai propri sensori, grazie alla connettività: le arriveranno informazioni dai sensori di altri automezzi nei paraggi, dai semafori intelligenti, dai sistemi di sicurezza e videocontrollo delle banche o di altre attività commerciali presenti in zona; persino dai satelliti.
Comunicazioni che avvengono istantaneamente e con la massima precisione, nulla di paragonabile - neppure lontanamente - alle limitate capacità di un autista umano.

La connettività consente pure di aggiornare, istantaneamente e contemporaneamente, il software di tutte le AI.
Immaginiamo si renda necessario cambiare una norma del codice della strada: ad esempio di omologare la guida a destra in quei paesi dove ancora permane l'uso di tenere la sinistra.
Con le regole attuali, create per poter funzionare con gli esseri umani, sarà necessaria la pubblicazione della nuova norma su uno media simile alla nostra Gazzetta Ufficiale, poi attendere un certo intervallo di tempo prima che essa entri in vigore così da consentire a tutti (autisti, controllori del traffico ed autorità responsabili) di prenderne visione ed adeguarsi.
Sicuramente non sarà facile cancellare le abitudini pregresse di chi così è abituato a guidare; nei primi tempi dall'entrata in vigore non saranno rari gli incidenti.
Nel caso invece di AI alla guida di automezzi, l'aggiornamento della norma richiede solo pochi istanti - il tempo di scaricare la nuova versione del software - e subito tutti gli automezzi si conformeranno alla nuova norma contemporaneamente.
Un compito all'apparenza semplice, come il passaggio dalla guida a sinistra a quella destra, è questione di un istante per le AI che governano le auto autonome mentre lo è di giorni (o addirittura settimane o mesi) nel caso gli autisti siano esseri umani.

Un altro ambito nel quale le IA ci hanno oramai surclassato è la comprensione delle nostre dinamiche emotive.
I campi di attività degli esseri umani sono sostanzialmente due: le attività fisiche e quelle cognitive.
Spesso le nostre attività fisiche vengono svolte "col pilota automatico", senza che apparentemente ci sia un'attività cognitiva consapevole che le guidi.  Pare cioè che gran parte di ciò che facciamo sia correlato ai sentimenti provati in quel momento.
Negli ultimi anni lo sviluppo delle neuroscienze promette di riuscire sempre meglio nell'impresa di "hackerare" il nostro cervello, decrittandone gli algoritmi biochimici alla base delle nostre emozioni.

Concetti come "libero arbitrio" o "intuizione", considerati sino a poco tempo fa esclusiva della nostra specie, assumono oggi significati diversi.

Il libero arbitrio, inteso come libertà di scelta, è alla base delle democrazie liberali e delle economie di mercato: scelgo da chi farmi guidare e cosa comprare.
Esperimenti condotti negli anni ‘60 da Benjamin Libet e perfezionati nel 2008 da John Dylan Hayes mettono in crisi la sua stessa esistenza (n. 17).

L'intuizione è invece stata "retrocessa" da strumento principe per accedere al mondo delle idee - un moderno collegamento tra uomo e disegno divino - al rango di una banale funzione che si limita a riconoscere modelli ricorrenti.

In confronto agli algoritmi delle AI, sviluppati tenendo conto della mansione che si troveranno svolgere, gli algoritmi biochimici del cervello umano non sono per nulla perfetti: si affidano all'euristica, a scorciatoie ed a circuiti obsoleti, frutto dell'adattamento all'ambiente della savana dove vivevano i nostri progenitori.

Al momento sono ancora in vantaggio laddove prevalga l'incertezza, la conoscenza incompleta dei fenomeni o dell'ambiente.
Riusciamo a prendere una palla che ci è stata lanciata mentre siamo in corsa su un terreno accidentato meglio di quanto sia oggi in grado di fare un robot; ma per il solo fatto che quest'ultimo non dispone di tutte le informazioni sulla conformazione del terreno, cosicché un piccolo sobbalzo richieda un ricalcolo di tutte le traiettorie.
Una situazione che sembra destinata a mutare nel breve periodo.

Le AI superano le prestazioni umane persino in compiti che prevedono l'intuizione, svolgendo meglio di noi mansioni che richiedano di comprendere cosa passi nella testa di altri esseri umani: guida automatica, scelta di coloro a cui sia opportuno concedere un credito, decidere con chi sia conveniente fare affari. 
Sanno decifrare meglio di noi emozioni e desideri, che sono il risultato di algoritmi biochimici complessi, analizzando le espressioni del viso, il tono della voce, i movimenti delle mani, la gestualità e gli odori corporei.

Un primo segnale dei profondi mutamenti che comporterà la coesistenza tra le due specie è già oggi manifesto: la progressiva perdita di posti di lavoro in posizioni non soltanto legate alla produzione di beni.
La minaccia di perdita di posti di lavoro proviene dall'azione combinata di tecnologie informatiche con quelle biologiche.
Le AI sembrano in grado di sostituire dirigenti, psicologi, medici, ricercatori, addirittura professionisti della politica e del giornalismo.
A lungo andare questa deriva comporterà quello che Yuval Noah Harari nel suo saggio "21 lezioni per il XXI secolo" definisce "il rischio dell'irrilevanza".
Già durante il decennio che si appresta a finire abbiamo assistito ad una crescita irruenta del numero individui che "si sentono messi da parte", le cui competenze cioè sono considerate inutili dall'attuale sistema economico e sociale. 
E non si tratta soltanto di operai sostituiti da robot e macchine, ma di professionisti che hanno investito molto sulla propria carriera e che dall'oggi al domani si trovano senza un futuro e senza la possibilità di riqualificarsi sul mercato del lavoro.
Finite le riserve finanziarie accumulate in precedenza saranno costretti a gravare sulla comunità che in qualche modo dovrà trovare il modo di farsi carico delle loro esistenze (n. 18)
Harari prefigura prossime rivoluzioni populiste che saranno promosse non contro una elite economica che sfrutta le altre classi, ma contro una elite economica che non ha più bisogno di loro.

Assistiamo all'apertura di una profonda spaccatura della società umana che la separa in due classi:
- da una parte una minoranza molto ricca i cui redditi tendono a crescere col tempo e che potrà godere appieno delle nuove opportunità fornite dalla diffusione delle AI e del progresso che ciò porterà con sé.
- dall'altra una maggioranza di persone "irrilevanti rispetto al sistema economico" dal quale si aspetta solo sussidi e che, sprovvista di mezzi finanziari sufficienti, non potrà approfittare delle innovazioni che contribuiranno ad aumentare progressivamente l'attesa di vita (in nota 5 sono elencati possibili scenari).

Marc O'Connel e lo stesso Harari ci avvertono del rischio di una progressiva divisione della specie homo sapiens in 2 razze distinte: chi potrà permettersi di modificare il proprio "hardware" e chi resterà legato a quello fornitogli dall'evoluzione.
Una prospettiva tutt'altro che ipotetica e lontana nel tempo, in grado di sparigliare le carte nella lotta per la posizione dominante tra le specie viventi.

Concludiamo questa breve riflessione su quello che potrebbe essere il futuro della vita sul nostro pianeta nei prossimi 5.000 / 10.000 anni fissando alcuni punti:

- Anche se non assistessimo all'avvento della "singolarità" (con tutti i rischi che ne conseguirebbero per la nostra specie) le AI sono destinate a diventare sempre più intelligenti.  
Già ora sono in grado di portare a termine compiti complessi - meglio di quanto riusciamo a fare noi umani - imparando dall'esperienza, e cioè dai propri errori; il tutto "senza libretto di istruzioni", cosa che permette loro di trovare soluzioni originali.
Il sistema di apprendimento delle AI si basa sull'utilizzo di reti neurali profonde che si autoconfigurano: al crescere della loro esperienza diventa impossibile per noi umani capire come l'AI affronti e risolva il compito assegnatole (fallisce il reverse engineering)

- La rivoluzione innescata nella società umana dallo sviluppo delle AI e dal loro utilizzo non è affatto democratica.
Mentre lo sviluppo della medicina ha portato vantaggi per tutta la popolazione del pianeta (basti pensare alle campagne di vaccinazione) le AI per funzionare hanno bisogno di disporre dei cosiddetti "big data", raccolti e custoditi gelosamente da pochi players mondiali.
Il rischio che già vediamo profilarsi all'orizzonte è quello di un'umanità "a due velocità", una delle quali potrà integrarsi con la pervasiva presenza delle AI in ogni settore, ed approfittare delle innovazioni per "correggere" il proprio hardware e prolungare l'attesa di vita. 
L'altra si sentirà sempre più emarginata e verrà progressivamente privata dei propri scopi.
Potremmo così assistere per la prima volta nella storia alla separazione del genere sapiens in due razze distinte.

Per evitare esiti tragici per la nostra specie - rivoluzioni violente o estinzione per mano di AIg - dobbiamo lavorare su due fronti:

1) trovare una soluzione al problema dell'irrilevanza fornendo uno scopo a chi se ne troverà privo, evitando nel contempo che la forbice della ricchezza si apra eccessivamente.
Ad imitazione di quanto concordato dalle Nazioni Unite circa l'Antartide e lo Spazio, si potrebbero considerare i big data "patrimonio dell'umanità" concedendone lo sfruttamento dietro il pagamento di royalties che andrebbero a finanziare un reddito per le classi escluse.

2) decidere quale tipo di AI vogliamo esistano in futuro, controllando attentamente affinché i loro fini siano sempre allineati con quelli della nostra specie, per evitare di trovarci improvvisamente scalzati dalla nostra posizione di specie dominante senza neppure rendercene conto.
E' indispensabile a tal fine lavorare con impegno per cercare di trasformarle le "black box" in "white box", mantenendo il controllo di ciò che le AI fanno MENTRE lo fanno.




Note:

(1) Non fanno eccezione a questo principio, contrariamente a quanto alcuni ricercatori ritengano, i metodi di predizione più recenti conosciuti con il termine di "mondi artificiali".
La disponibilità di computers dotati di grande capacità di elaborazione e dell'accesso all'enorme quantità di dati che incessantemente si accumulano sul cloud, permette di creare - ad un dato istante -  una "copia digitale" molto dettagliata di un'area (o di una società) la cui evoluzione vogliamo studiare, così da poter essere utilizzata dagli algoritmi predittivi i cui risultati vengono continuamente confrontati con le nuove informazioni raccolte.
Secondo Alessandro Vespignani, un loro sostenitore, i modelli algoritmici basati sul machine learning possono soltanto predire un futuro che derivi dalla conoscenza del passato a nostra disposizione, mentre quelli di simulazione (i "mondi artificiali") permetterebbero di alterare i meccanismi di interazione che definiscono il futuro del sistema tramite il loro aggiornamento costante, utilizzando i nuovi dati resi via via disponibili.
Tali modelli vengono perciò convalidati, nel mentre si costruiscono, con esperimenti e dati ricavati dal mondo reale.
Naturalmente tenendo conto del fatto che la conoscenza delle previsioni da parte di coloro che già sono oggetto di studio, può modificare il comportamento dei singoli individui: se una previsione infatti mi informa che il percorso che dovrò seguire sarà trafficato in un certo orario, io ne cercherò uno alternativo o cambierò l'ora della mia partenza, contribuendo così al decongestionamento dell'area ed al mancato riscontro della previsione stessa.
A mio parere invece, seppur possano produrre risultati molto precisi nel breve periodo, l'utilizzo dei "mondi artificiali" per la compilazione di previsioni a lungo termine si scontra con le stesse difficoltà che affliggono gli altri metodi.
Vedi in merito: Alessandro Vespignani "L'algoritmo e l'oracolo" (2019).

(2) Nonostante quanto qui affermato, in fisica la variabile "tempo" non compare nelle equazioni che interpretano l'attuale modello cosmologico. La visione "eternalista" tipica di questa disciplina immagina lo spazio tempo come un tutt'uno inseparabile, una struttura che possiamo immaginare di vedere dall'esterno come "un solido multidimensionale".
Carlo Rovelli nel suo testo "L'ordine del tempo" ritiene che esso non abbia caratteristiche di continuità, ma a scala subatomica presenti una struttura quantizzata.
Vedi in merito: https://spazio-tempo-luce-energia.it/tempo-e-meccanica-quantistica-1629d269e561

(3) Dovrei qui a affrontare il problema legato alla difficoltà di ottenere misurazioni precise: cosa che mi porterebbe a disquisire circa il principio di indeterminazione di Heisenberg (che ne sancisce l'impossibilità), la teoria del caos ed i suoi utilizzi ad esempio nel campo della meterologia, e l'alternativa all‘interpretazione di Copenhagen (la cui formulazione prevede il collasso della funzione d’onda di Shroedinger in un punto corrispondente ad un valore preciso, qualora un osservatore esegua una misurazione) rappresentata dall'interpretazione “a molti mondi” della meccanica quantistica, proposta per la prima volta nel 1957 da Huge Everett III e ripresa da Max Tegmark per sviluppare la teoria del multiverso (vedi il suo saggio del 2014 "Our mathematical universe").

(4) Di questi argomenti si occupa con regolarità il "Future of Live Insitute" (FLI) fondato da Max Tegmark nell'intento di render consapevole la comunità scientifica internazionale dei rischi connessi alla ricerca portata avanti in particolari ambiti (vedi https://futureoflife.org/ ). 
FLI aggiorna una lista di "oggetti di studio" che la comunità scientifica, seguendo l'esempio della moratoria messa in opera dai biologi circa la ricerca sulle armi batteriologiche, dovrebbe spontaneamente rifiutare di prendere in considerazione. 
Prime fra tutte le armi autonome, quelle che identificano e distruggono obiettivi senza intervento umano, già in fase avanzata di sviluppo nei laboratori militari di parecchie nazioni.
Stuart Russel, professore di robotica all'università di Berkeley e membro del board di "Future of life Insitute", ha realizzato un impressionante videoclip - "slaughterbots" - dove illustra magistralmente quali potrebbero essere esiti indesiderati conseguenti un loro utilizzo.
Ecco il link dove è possibile visionarlo:

https://www.youtube.com/watch?v=9CO6M2HsoIA&feature=youtu.be&fbclid=IwAR3T3O-wyAZLMDaxnDutQCnDlQu9OmdG3RjUVreXZwLxMb8bOaQQM9NgvJ4
Vedi anche il mio post al blog:
https://davidemolinapersonale.blogspot.com/2019/05/futur-of-life-institute-lethal.html

(5) Altro discorso sono le "modifiche hardware" apportabili al nostro corpo ad opera della tecnologia sviluppata dalla nostra specie: una linea di frontiera che stiamo già valicando.
La sostituzione di parti biologiche del nostro corpo con protesi artificiali, dotate di un più remoto "termine di scadenza", è già oggi una realtà che andrà intensificandosi di pari passo con il progresso tecnologico.
Non credo il nostro destino sarà quello di trasformarci in macchine come profetizzato nei romanzi di Arthur C. Clarke.
Più probabilmente riusciremo a creare, utilizzando l'ingegneria genetica, tessuti sintetici (nel senso di "costruiti" o "coltivati" artificialmente a partire da materiale biologico con DNA modificato) con prestazioni superiori rispetto a quelli forniti alla nostra specie dall'evoluzione.
Tessuti con i quali si potranno sostituire intere parti del nostro corpo e dei nostri organi vitali allungandone così la durata; la facilità di rimpiazzo permetterà un progressivo e continuo "ricambio" delle aree usurate (come già avviene ad esempio per gli aerei) così da spostare sempre più in avanti nel tempo la data di "fine vita".
Vedi in merito:
- Max Tegmark "Vita 3.0" (2019)
- Marc O'Connel "Essere macchina" (2019)
- https://davidemolinapersonale.blogspot.com/2019/04/transumanesimo-e-biohackers-un-fenomeno.html
- https://davidemolinapersonale.blogspot.com/2019/04/cellule-del-cervello-di-maiale.html

(6) Eccezione potrebbe esser costituita dall'improvvisa comparsa di una o più specie di origine extraterrestre che si trovino a competere con la nostra per lo sfruttamento delle risorse naturali del pianeta, una possibilità del tutto remota.
Rimando chi volesse approfondire l'argomento alla lettura del saggio scritto dal fisico Stephen Webb "Se l'universo brulica di alieni... dove sono tutti quanti" (2019): il paradosso di Fermi, relativo alla mancanza di evidenze sull'esistenza di vita fuori dal nostro pianeta, viene qui analizzato in dettaglio e Webb ci fornisce 75 possibili sue soluzioni.

(7) Al momento il substrato delle IA è il silicio con cui realizziamo i computers sui quali "girano" i softwares; da tempo tuttavia sono allo studio "bio-chips" o chips realizzati con altri materiali.

(8) vedi il testo di Marcus du Sautoy "Il codice della creatività" dove oltre ad una canzone che sembra un inedito dei Beatles -  https://www.youtube.com/watch?v=LSHZ_b05W7o - si possono trovare numerosi esempi su ciò che le AI sono in grado di fare già oggi.

(9) Su questo punto, cioè la mancanza di "consciousness" da parte delle attuali AI, Yuval Noah Harari e Max Tegmark potrebbero non esser d'accordo: vedi il podcast che hanno registrato per FLI il primo gennaio di quest'anno che tratta appunto di questo argomento, già sviluppando al capitolo 8 presente nel testo "Vita 3.0" di Max Tegmark:
https://futureoflife.org/2019/12/31/on-consciousness-morality-effective-altruism-myth-with-yuval-noah-harari-max-tegmark/
I due autori sottolineano come la definizione di "coscienza come esperienza soggettiva" - l'unica che permette di evitare l'antropocentrismo - non faccia riferimento a "comportamento", "percezione", "consapevolezza di sé", "emozioni" o "attenzione" .
Pongono domande difficili - siamo coscienti quando sogniamo? Un sistema che prova dolore è cosciente anche se impossibilitato a muoversi? - che ci fanno riflettere su quali e quanti siano i nostri bias sull'argomento.
La loro conclusione è che nessuno possa escludere l'eventualità che una AI diventi cosciente.
Harari rincara la dose nel saggio "Homo Deus" sostenendo che qualora si accetti l'irrilevanza delle esperienze soggettive, bisognerebbe spiegare come la tortura e lo stupro continuino ad esser giudicati comportamenti riprovevoli senza far riferimento alla soggettività delle vittime.
"Senza soggettività - argomenta Yuval - si tratta solo di spostamenti di particelle elementari nei quali non si ravvisa alcun male".
Entrambi si chiedono:"le AI possono soffrire?"
Qualora la risposta sia positiva, è d'obbligo rispondere alla domanda "come potremmo noi accorgercene evitando così, seppur inconsapevolmente, di infligger loro sofferenze?"

(10) Le AI hanno capacità creative che in certi ambiti superano le nostre, pur risultando carenti in altri.
Vedi in merito:
- Marcus du Sautoy "il codice della creatività" (2019)
- https://davidemolinapersonale.blogspot.com/2020/01/il-significato-del-termine-creativita.html

(11) A questo proposito è d'obbligo citare il problema della "black box".
Quando assegnamo ad una AI un compito (tipo riconoscere cosa rappresenti un'immagine) mano a mano che la macchina impara dai suoi errori il programmatore inizia gradualmente a perder traccia delle caratteristiche che l'algoritmo sta usando.
Esaminando soltanto il codice originale, un'operazione di "reverse engineering" non permette di scoprire come l'algoritmo stia lavorando in questo momento.
Di recente un team di Google ha lavorato all'inversione del funzionamento degli algoritmi AI di riconoscimento delle immagini (sviluppando il codice "DeepDream") per capire "come gli algoritmi vedono".
La ricerca per arrivare a creare algoritmi AI "white box", cioè strutturati in modo tale da far sì che anche noi umani siamo in grado di capire "come funzionano", è attiva in tutto il mondo.  Un valido team italiano si è specializzato in questo ramo.

(12) Una cosiddetta AIg (dove "g" sta per “general”, utilizzabile in tutti i contesti), pur con capacità inferiori a quelle umane, non è ad oggi ancora stata creata, pur essendo oggetto di ricerche portate avanti nei laboratori in tutto il mondo.
Vedi in merito:
- Pedro Domingos “L’algoritmo definitivo” (2018)

(13) Max Tegmark ritiene che si aprano diversi scenari.
Lo sviluppo di una Aig di livello umano potrebbe innescare un'esplosione dell'intelligenza che ci lascierà molto indietro: noi sapiens dominiamo altre specie (come i grossi felini) contro i quali non avremmo possibilità di prevalere usando soltanto la forza. Riusciamo invece ad averne ragione grazie ad una intelligenza più sviluppata.
Le AI, che sono molto più intelligenti di noi, potrebbero un giorno dominarci senza che noi ce ne rendiamo conto, esattamente come oggi capita a noi con le altre specie.
Vedi in merito:
- https://it.wikipedia.org/wiki/Singolarit%C3%A0_tecnologica
- Max Tegmark "Vita 3.0" (2018) cap. 4 pag 179-211

(14) Non ci sono previsioni attendibili su quando la singolarità potrebbe presentarsi nella nostra storia: tra 10 anni, tra 100 oppure mai.
- Vedi in merito: Max Tegmark "Vita 3.0" (2018)

(15) Un aneddoto spesso riportato in letteratura è quello del "paperclip maximizer" descritto per la prima volta da Bostrom nel 2003.
Vi si immagina una AI istruita per costruire graffette ottimizzando le risorse disponibili; nel momento in cui dovesse verificarsi la singolarità, la persecuzione del suo scopo originale la porterebbe ad ignorare le conseguenze per la nostra specie al punto di utilizzare tutta l'energia e la materia disponibile sul pianeta per produrre graffette, destinandoci così all'estinzione.
Vedi in merito:
- https://en.wikipedia.org/wiki/Instrumental_convergence
- https://wiki.lesswrong.com/wiki/Paperclip_maximizer

(16) IoT
Vedi in merito: https://it.wikipedia.org/wiki/Internet_delle_cose 

(17) Entrambi i ricercatori hanno rilevato - a mezzo verifica sperimentale - come spesso l'azione anticipi di qualche secondo la decisione razionale che avrebbe dovuto darle il via: il ruolo svolto dalla nostra coscienza consisterebbe pertanto nel fornire, ex post, una ragione all'azione intrapresa (ingannandoci sull'ordine temporale dei due eventi).
Secondo il neuroscienziato Dean Buonomano invece ciò che noi chiamiamo "consapevolezza" potrebbe essere soltanto un "racconto" via via costruito dal nostro cervello: potrebbe sì capitare che l'azione sia conseguenza di una "scelta volontaria", ma della quale perdiamo memoria, sostituita da un racconto creato in un secondo momento "da quel fantastico spin doctor che è il nostro cervello".
Vedi in merito:
- Dean Buonomano "il tuo cervello è una macchina del tempo" (Your Brain is a Time Machine: The neuroscience and physics of time), Norton, 2017
- https://davidemolinapersonale.blogspot.com/2019/03/libero-arbitrio-e-libera-volonta-i.html
- http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.520.2204&rep=rep1&type=pdf

(18) L'irrilevanza: vedi in merito:
Yuval Noah Harari "21 lezioni per il XXI secolo" (2019) e "Homo Deus" (2015)
http://rampini.blogautore.repubblica.it/2019/06/15/la-notte-della-sinistra-i-lettori-mi-scrivono/ 


Testi consultati:


3 commenti:

  1. Le AI mancano di coscienza e non potranno mai averla perché non possono "valutare" le proprie azioni i base a criteri generali. Applicano solo procedure che hanno appreso e di fronte a problematiche sconosciute daranno sempre i numeri. Inoltre lei hs parlato di cambiare ol software delle auto se cambia la guida da sinistra a destra. Zs cambia il software significa che si tratta di oggetti programmati e chisramente questa non è intelligenza artificiale. Se probabilmente adotteremo la guida automatica quando il numero di morti prodotti sarà inferiore a quelli prodotti dagli umani penso che nessun aerro verrà mai guidato da uns AI zenza supervisione umana con possibilità di esclusione istantanes della guida automatica e passaggio a quella umana perché non possiamo accettare la possibilità di incidente su un aereo mentre con la AI un incidente in una situazione imprevista potrà sempre accadere.

    RispondiElimina
    Risposte
    1. Concordo con lei sul fatto che le AI oggi NON siano dotate di coscienza, cioè di una "esperienza soggettiva" (secondo la definizione non antropocentrica di Max Tegmark); tuttavia questo non significa non potranno diventarlo in futuro.

      Per esprimere un giudizio completamente negativo su tale possibilità dovremmo prima disporre di una "teoria della coscienza" in grado di definire cosa essa sia, in quali occasioni si manifesti e di spiegare perché esiste qualcosa di cosciente e come lo sia diventato.
      Tale teoria dovrebbe poi esser "scientifica", cioè deve poter esser invalidata con un esperimento.

      L'esistenza della sindrome "locked in" è prova del fatto che ad oggi non siamo neppure in grado di riconoscere se una persona umana in coma sia cosciente o meno. Men che mai una AI che lo sia diventata.

      Perché mai una AI dovrebbe diventare cosciente?
      Siamo il prodotto dell'evoluzione di esseri viventi che per un lunghissimo periodo di tempo non sono stati dotati di coscienza (virus e batteri), e solo in seguito ne hanno sviluppato forme primordiali poi evolutesi sino alla forma attuale.
      Le forme di vita oggi presenti sul pianeta ne presentano diversi gradi.

      L'opinione corrente è che si tratti di una "proprietà emergente", quale ad esempio "l’umidità" per un liquido.
      Una molecola d’acqua (od un piccolo insieme) non sono “umidi”, mentre lo diventano grossi agglomerati.
      Da una certa soglia in poi la somma risulta maggiore delle parti.
      Così la coscienza si manifesterebbe progressivamente quando vengono superate certe soglie di numerosità.

      Uno scenario del genere lascia aperta la possibilità alle AI di raggiungere la coscienza di sé, di provare esperienze soggettive.

      Elimina

Elenco posts

 Elenco dei miei posts scritti nel periodo dal 28/3/18 all'11/04/24:                                                    ( su FB ) - vide...