contatore visite

venerdì 3 maggio 2019

Future of life institute & Lethal Autonomous Weapons (LAW)


Qualche giorno fa ho postato su FB un video - "Slaughterbots" - realizzato da Stuart Russel, professore di robotica all'università di Berkeley e membro del board di "Future of life Insitute".
Dato l'alto numero delle visualizzazioni ottenute direi che l'obiettivo del caricamento - e cioè attirare l'attenzione degli amici di FB su un argomento poco conosciuto ma di grande rilevanza - è stato raggiunto.
Da tempo l'organizzazione "Futur of life institute" (https://futureoflife.org), fondata dal fisico Max Tegmark (autore del saggio da me più volte citato "Vita 3.0"), si occupa di far conoscere al pubblico uno dei grandi rischi cui dovremo far fronte in un futuro davvero prossimo, e cioè lo sviluppo - oggi in fase avanzata - e la diffusione delle "armi autonome", le cui potenzialità offensive possono velocemente rendere obsolete le armi atomiche e sostituirsi a loro in una corsa al riarmo potenzialmente letale per la nostra specie.

Nell'ultimo numero il settimanale Panorama, con un articolo a firma di Maurizio Tortorella, lo porta alla ribalta dell'opinione pubblica italiana.

Con il termine "armi autonome" (indicate come LAW, cioè Lethal Autonomous Weapons) si intendono sistemi dotati di intelligenza artificiale che non solo scelgono in autonomia il bersaglio da colpire, ma agiscono SENZA sia necessaria un'autorizzazione od un qualsiasi tipo di intervento umano.
I droni da combattimento, oggi forse le armi più avanzate in uso agli eserciti, necessitano comunque di un supervisore umano, un "pilota in remoto" che dia il via libera allo sgancio di bombe od al lancio di missili: le operazioni belliche offensive sono quindi ancora sotto lo stretto controllo di una catena di comando formata da uomini e non da macchine.
E' una situazione che presenta vantaggi e svantaggi.
Nei casi in cui sia necessaria un'azione immediata, a differenza delle macchine i cui tempi di reazione si misurano in centesimi o addirittura millesimi di secondo, gli esseri umani necessitano di più tempo in quanto l'azione - sia essa premere un grilletto od un bottone per attivare l'arma - richiede a monte una decisione "cosciente" del nostro cervello, cioè un processo complesso di cui ho parlato nel mio post "libero arbitrio e libera volontà".
Non sempre tuttavia l'immediatezza è l'opzione migliore in campo strategico: vedremo tra un attimo il perché.

Qualora a decidere un'azione offensiva sia un essere umano, spesso si assiste ad una reazione inconscia ben nota a tutti i responsabili di strutture militari: il nostro cervello attua una specie di "censura" nei confronti della violenza gratuita sui propri simili.

La prova più evidente dell'esistenza e della potenza di tale "riflesso" è il fatto che siamo sopravvissuti alla guerra fredda.
Nel corso del lungo confronto tra i due blocchi, entrambi dotati di armi nucleari in quantità sufficienti a distruggere l'intera umanità e determinati ad usarle in casi particolari, si sono verificati parecchi falsi allarmi relativi ad un presunto attacco missilistico nemico.
In alcune occasioni, se fosse stata applicata alla lettera la procedura prevista, l'ufficiale responsabile della postazione missilistica avrebbe dovuto lanciare un'immediata rappresaglia, con il rischio di scatenare una guerra nucleare totale.
Questo non è mai successo!
In tali frangenti infatti il personale cui era stato affidato il compito di "premere il bottone", assumendosi enormi rischi, ha esitato, lasciando così trascorrere un tempo necessario ad ulteriori verifiche che hanno determinato il rientro dell'allarme, evitando così di dare il via alla 3^ guerra mondiale.
Una volta per tutte è stata messa in chiaro una caratteristica umana certo non gradita ai capi militari: l'evoluzione ci ha modellati cosicché all'homo sapiens non piaccia uccidere né far del male ad un proprio simile.
Semmai, forse grazie all'azione svolta dai "neuroni a specchio", tendiamo ad empatizzare con i nostri simili, condividendone le sensazioni.

Nonostante il condizionamento operato tramite l'addestramento, che è finalizzato a superare questo "freno morale", i soldati esitano prima di uccidere un proprio simile, perdendo così talvolta un vantaggio strategico.
Più il nemico è vicino, e possiamo perciò "guardarlo negli occhi", più tendiamo ad identificarlo come individuo della nostra stessa specie, e la violenza dello scontro tende a ridursi.
Significativo a questo proposito il testo della canzone di Fabrizio de Andrè "la guerra di Piero".

Un sistema adottato di recente dagli eserciti moderni è l'addestramento dei soldati in poligoni dove le sagome del nemico appaiono improvvisamente: riducendo i tempi di reazione, la speranza dei comandanti è quella di togliere al meccanismo di identificazione il tempo di attivarsi. Il militare spara prima di rendersi conto che l'obiettivo è un uomo come lui.
E' la ragione principale per cui la possibilità di sostituire un soldato "umano" con una macchina è molto apprezzata dalle gerarchie militari: tempi minimi di reazione e nessun conflitto di coscienza.

Ad oggi, per quanto ne sappiamo, le soli armi autonome operanti senza alcun intervento umano sono strumenti sofisticati di difesa, e cioè i missili anti-missile: non può che esser così perché la loro attivazione, per essere efficace, richiede tempi di reazione di molto inferiori alle capacità umane.

Tuttavia nei laboratori militari vengono studiati e sviluppati molti altri tipi di armi autonome, i cui obiettivi non sono testate di missili balistici di dimensioni rilevanti, ma prevalentemente esseri umani.
Il recente sviluppo dei vari sistemi di riconoscimento permette di definire con precisione un obiettivo umano da segnalare all'IA dell'arma, la quale procede in autonomia ad identificare la sua posizione nell'ambiente e successivamente a colpirlo.
L'identificazione attraverso riconoscimento facciale, quella mostrata nel clip, è già in parte superata: un viso infatti può venir coperto da una maschera, modificato, nascosto o reso irriconoscibile.
Sono già stati sviluppati metodi più efficaci per identificare con sicurezza un individuo: tracce olfattive (simulando un segugio, animale in grado di seguire una pista con uno sfasamento temporale senza la necessita di una visione diretta), specifiche cinetiche (ognuno di noi ha un particolare modo di muoversi, un “atteggiamento” che può contribuire ad identificarlo), timbro vocale specifico, e così via.
Sono tutte informazioni che possono esser utilizzate quali variabili in algoritmi di IA integrabili con armi autonome per localizzare un obiettivo.
A tutto ciò si aggiungono le possibilità offerte dalle nanotecnologie: costruire droni sempre più piccoli (miniaturizzazione) che operano in gruppo comunicando tra di loro, utilizzando tattiche proprie degli stormi.

L'obiettivo è la realizzazione di insetti "artificiali" trasformabili, come mostrato dalla clip, in killers completamente autonomi.
Una volta sviluppata ed integrata nelle armi tale tecnologia qualcuno dovrà prendere decisioni essenziali:
quale grado di autonomia sarà garantito alle IA militari nel perseguire i fini assegnati?
Chi fornirà una scala di rilevanza agli obiettivi indicati alle IA che governeranno tali sciami?

Già nel 1969 Arthur C. Clarke, nel suo romanzo "2001 Odissea nello Spazio", ipotizzava un cortocircuito logico di una intelligenza artificiale (Hal 9000 - che ricordiamo diventa IBM spostando di 1 posizione le lettere: H->I; A->B; L->M) che avrebbe provocato l'uccisione degli astronauti in quanto il fine "raggiungimento obiettivo della ricerca" era stato indicato come prevalente rispetto alla "salvaguardia salute degli umani compagni di viaggio".
Non è certo che ci si possa fidare delle scelte di un'autorità militare, di per sè non soggetta a troppi controlli da parte della politica.

Vale la pena ricordare a questo punto una legge fortemente voluta dal presidente USA Obama nel 2012 ed oggi in vigore:
"la Casa Bianca può decidere l'esecuzione in qualsiasi parte del mondo, di chiunque, anche cittadino USA, rappresenti una minaccia grave per la sicurezza nazionale degli Stati Uniti".
In pratica un'eccezione all'indipendenza dei 3 poteri: per "ragioni contingenti" il potere esecutivo (la Casa Bianca) può agire legiferando (al posto del Congresso e del Senato) ed emettendo sentenze (al posto della magistratura).
Iniziativa nata per contrastare il terrorismo e la sua guerra asimmetrica, oggi viene utilizzata da Trump per finanziare il suo progetto di costruzione del muro con il Messico (quindi una promessa elettorale) che non pare proprio indispensabile per fronteggiare "una minaccia grave per la sicurezza nazionale degli Stati Uniti".

Armi chimiche, batteriologiche e nucleari hanno dimostrato che una volta costruite in genere vengono usate.
L'attuale moratoria che riguarda questi sistemi d'arma è conseguenza della verifica dei terribili effetti del loro uso (prima e seconda guerra mondiale).

Future of life Insitute, conscio di tutto ciò, si pone come obiettivo quello di convincere gli scienziati ed i tecnici impiegati nei laboratori di ricerca militari dell'opportunità di conseguire un obiettivo limitato: non la messa al bando di tutte le armi autonome, difficile da realizzare, ma di limitarne l'uso alla difesa invece che all'offesa.
Sperando che tutto ciò non scappi di mano e di esser costretti ad assistere in futuro a qualcosa di simile ai momenti finali della clip.

Link alla video clip di Stuart Russel:



Future of life Insitute


Riferimenti su Facebook:








Nessun commento:

Posta un commento

Elenco posts

 Elenco dei miei posts scritti nel periodo dal 28/3/18 all'11/04/24:                                                    ( su FB ) - vide...