contatore visite

giovedì 1 novembre 2018

Dagli Usa all’Africa, come cambiano i dilemmi dell’auto autonoma

Questo articolo di Luigi Grassia (la stampa 31/10/18) dimostra ancora una volta come i nostri pregiudizi ci impediscano di vedere la realtà nella sua complessità.
In un mio precedente post (19/9/18) ho trattato dello “stato dell’arte” delle IA (intelligenze artificiali) delle prospettive di un loro sviluppo e dell’importanza di partecipare adesso al dibattito su come vorremo che siano le IA del futuro.
Non abbiamo ancora sviluppato IAg (IA con competenze generali) che potrebbero presto o tardi imparare ad apprendere autonomamente, lasciandoci definitivamente indietro come specie: infatti tutte le IA finora esistenti sono fortemente specializzate in un solo e ben determinato compito (nel quale spesso superano le capacità umane).
Tuttavia, come rilevavo nel post, vista la prossimità del momento in cui entreranno in circolazione mezzi di trasporto a guida autonoma è necessario interrogarsi su quali regole etiche dovremmo trasmettere alle IA che li governeranno sulle nostre strade.
Nell’impossibilità di scrivere un codice classico che esamini una ad una tutte le situazioni critiche cui potrebbe trovarsi di fronte l’auto a guida autonoma, l’addestramento della sua IA deve prendere in esame moltissimi casi, che l’addestratore umano avrà in precedenza selezionato.
In questa fase di “selezione degli esempi” l’intelligenza umana “trasmette” inconsapevolmente i propri pregiudizi alla IA che ne risulterà affetta.
I pregiudizi cui ognuno di noi è soggetto dipendono dalla cultura, e pertanto dalla società e dal paese in cui viviamo.
Nel mio post mi chiedevo:
“..L’auto a guida autonoma che trova improvvisamente sul suo percorso un pedone senza possibilità di rallentare ed evitare la collisione, deve sacrificare il conducente uscendo di strada oppure la vita della persona investita? Fa differenza se si tratti di un adulto o di un bambino? Un bianco o un nero? Un conducente ubriaco o sobrio?
Sono domande difficili cui tuttavia dobbiamo saper rispondere oggi MENTRE vengono creati i presupposti tecnologici alle future AI..”
Apprendo dall’articolo di Grassia che nel 2014 i ricercatori del MIT hanno avviato un esperimento “moral machine” per sondare attraverso una piattaforma cosa pensino le persone una IA debba fare di fronte alla scelta di quali vite salvare in caso di emergenza (a chi dare priorità)
In 4 anni sono stati intervistati 40 milioni di persone in 233 paesi.
Sorprendentemente sono emerse scale di priorità estremamente eterogenee, legate non solo alla cultura di un singolo paese ma anche al contesto urbano o rurale
La conclusione è che non esiste un principio comune a tutte le opinioni pubbliche: spesso anzi ci si trova davanti a scale di valori completamente ribaltate
In europa diamo la precedenza alla sopravvivenza dei giovani rispetto agli anziani, l’opposto in oriente!
Un indiano sacrificherà una vita (anche la propria) per evitare di uccidere una mucca ad esempio.
Senza una sintesi condivisa dell’etica, il rischio è che ogni società/paese trasferisca i propri pregiudizi alle IA che contribuirà a sviluppare.
E' presumibile che i veicoli a guida autonoma avranno la possibilità (e le autorizzazioni) di spostarsi e viaggiare in gran parte del mondo; come già avviene oggi poi, gli automezzi prodotti in un paese saranno esportati anche in altre nazioni.
Prima o poi i costruttori si troveranno a fare i conti con le opinioni pubbliche di quei paesi, dovendo rispondere delle scelte etiche delle IA da loro addestrate.
Il cammino è tutto in salita...


Nessun commento:

Posta un commento

Elenco posts

 Elenco dei miei posts scritti nel periodo dal 28/3/18 all'11/04/24:                                                    ( su FB ) - vide...