L'etica della vita nella guida autonoma

Created on 2018-11-05 12:08

Published on 2018-11-05 12:44

Published on Linkedin on November 5th, 2018

La guida autonoma ha introdotto un dilemma, anche etico, circa quali regole generali adottore in caso di incidente non evitabile. Un argomento che si era già affrontato ad aprile 2018 commentando un altro articolo in inglese:

Questa volta si affronta lo stesso dilemma prendendo spunto da un articolo in italiano che pone l'attenzione sul fatto che l'etica dietro a un incidente a guida autonoma è molto più complicata di quanto sembri.

Da un punto di vista metafisico, etico e filosofico è certamente un argomento complesso da dibattere ma da un punto di vista della comunicazione e della sua gestione pratica è molto meno complicato di quello che sembra.

La confusione di prendere delle decisioni

Quello di comprendere le decisioni di chi deve vivere o morire in un inevitabile incidente di un veicolo senza guidatore umano è un problema irrisolvibile in quanto non esiste alcuna metrica assoluta o unica.

In questo senso è un problema di comunicazione e quindi di accettazione sociale. Ci sono fondamentalmente due approcci possibili e nessuno dei due implica il coinvolgimento dell'etica.

  1. Il veicolo è parte di una flotta e l'algoritmo di decisione sceglie lo scenario a minima responsabilità per la società ma questo scenario implica di poter accedere e verificare in tempo reale un'enorme quantità di informazioni che si suppone siano corrette e aggiornate.
  2. Il veicolo sceglie di salvaguardare sempre a qualsiasi costo guidatore e passeggeri del veicolo stesso.

Inutile dire che la primo approccio è imperfetto e complicato mentre il secondo quello che chiunque di noi farebbe istintivamente e voglio sfidare chiunque a vendere auto/servizi di trasporto che non seguano questa regola.

Chi di noi salirebbe su un mezzo di trasporto sapendo che esso è programmato per sacrificarci a favore della minimizzazione del danno complessivo e/o della responsabilità della casa produttrice o della società di servizi? Mi auguro nessuno.

La questione legale della responsabilità

Allo stesso tempo il danno procurato a terzi per limitare i danni ai trasportati può diventare molto grande e tendenzialmente questo è il problema che le assicurazioni risolvono con il massimale e la legge con il massimale minimo.

L'unica possibilità di mitigare questa politica decisionale è quella per la quale si espliciti un massimale oltre il quale l'incolumità e/o la minimizzazione dei danni ai trasportati non è più una direttiva privilegiata e/o assoluta.

Se sali su questo veicolo, in caso di incidente inevitabile, la tua incolumità sarà una priorità decisionale fino a 7, 10, 20 milioni di euro. A quel punto la tariffa può variare in funzione del massimale.

L'unica possibilità di imporre un'etica decisionale per legge e perciò tutti i veicoli e i servizi sul mercato seguono strettamente quella politica. Ma bisogna armonizzarla fra gli stati altrimenti un veicolo potrebbe non essere abilitato a viaggiare in altri stati, salvo cambio di politica al confine.

In questo caso l'utente non avrebbe scelta ne voce in capitolo e i legislatori avrebbero un mare di gatte da pelare di cui capirebbero poco o niente e quest'ultimo punto non è affatto trascurabile.

Come agiscono gli esseri umani

Riguardo alle scelte istintive in situazioni di pericolo occorre ricordare che i picchi di adrenalina tagliano fuori dalle decisioni la corteccia dando priorità quasi esclusiva all'ipotalamo processo quasi istantaneo, sulla scala temporale umana, con il quale vengono a escludersi tutte le funzioni cognitive superiori e accessorie.

Tanto per portare un esempio: la vista perde la capacità di elaborare informazioni laterali e si focalizza (c.d. visione a tunnel).

Questa temporanea incapacità di elaborazione cognitiva superiore è la ragione primaria per la quale gli individui non hanno memoria di ciò che è accaduto a ridosso di un picco di adrenalina, salvo che non siano abituati a gestire picchi di adrenalina, e sviluppano false memorie ma non tutti, alcuni riportano correttamente di aver avuto un momento di buio che indica l'esclusione completa della corteccia celebrale dalla gestione delle informazioni e delle decisioni.

Questo sistema di gestione degli incidenti ha una struttura non lineare ma altamente codificata che in buona sostanza ha un unico scopo raffinato dalla selezione naturale: massimizzare le possibilità di sopravvivenza in un ambiente selvaggio.

Quest'ultimo punto non trascuriamolo: "selvaggio" quindi distante dal contesto sociale, urbano e tecnologico nel quale siamo immersi oggi che sulla scala dell'evoluzione risulta una recentissima novità: un centinaio di anni su una scala di almeno due milioni di anni.

Un approccio pragmatico come soluzione

La cosa migliore che si può fare è quella di verificare la risposta di un pilota professionista, possibilmente di rally che sono le corse che includono pubblico a bordo pista, in vari scenari e trovare una logica comune ai vari piloti e ai vari scenari.

La cosa ottimale è che un'A.I. sufficientemente sofisticata impari dai vari piloti e dalle varie situazioni la capacità di reagire agli eventi incidentali. Imparare dai migliori esseri umani per fornire una risposta ottimale e possibilmente anche migliorativa: migliore dei migliori umani.

Più immersivo sarà il simulatore più realistica sarà la reazione dei piloti. Il meglio (simulatori) del meglio (rally) del meglio (piloti). Voi vi fareste condurre da un A.I. che ha imparato dai migliori umani nelle migliori condizioni per affrontare il peggio? Io sì.

Un'ultima considerazione, i migliori piloti di rally da selezionare non sono coloro che hanno vinto più trofei o gare, quelli sono i più veloci. Nemmeno quelli che hanno avuto meno incidenti, perché quelli sono i più prudenti. Sono quelli che sono sopravvissuti al maggior numero di incidenti.

Perché è fuori di dubbio che chiunque, nel momento che sale su un taxi, vorrebbe assicurarsi la massima probabilità di uscirne illeso.

Così abbiamo risolto il problema etico e anche quello comunicativo.

Quali errori da non commettere

Ora, come abbiamo visto il problema etico si scinde in due parti

  1. quali direttive impartire all'A.I. in caso di incidente non evitabile
  2. come comunicare al pubblico la scelta di queste decisioni.

Il primo punto è un falso problema perché sappiamo dal film 2001, Odissea nello Spazio che HAL 9000 fallisce la sua missione, inclusa quella di essere un supporto accettabile per l'equipaggio umano, perché la sua intelligenza è stata oggetto di una direttiva prioritaria ovvero mantenere il segreto sul reale scopo della missione a costo anche di mentire.

Ora, possiamo argomentare che si tratti di un film ma è corretto ritenere che la questione si ponga anche nella realtà. A prescindere, se scegliamo per legge o per accettazione sociale o per maggioranza, delle direttive arbitrarie è abbastanza ragionevole che queste vadano a creare conflitto e confusione nell'esecuzione.

Inoltre, nel momento che vi sia un insieme arbitrario di direttive è facile comunicare quali siano, meno facile farle accettare in fase di vendita ma sopratutto è assai difficile ottenere una certificazione affinché esse siano rispettate perché la questione assumerebbe, ovviamente, anche un profilo legale.

Perché l'approccio pragmatico è una soluzione

Lo è nella misura in cui la casa produttrice certifichi la metodologia di selezione dei piloti istruttori e i criteri di apprendimento dell'intelligenza artificiale. Questo apprendimento ovviamente sarà a sua volta collaudato negli stessi scenari di simulazione e quindi si potrà avere un criterio di confidenza sull'effettiva risposta.

Questo da un punto di vista etico è accettabile perché avremmo sviluppato un'intelligenza aritficiale che ha imparato dai migliori di noi, nelle migliori condizioni di apprendimento, ad affrontare vari scenari inclusi i peggiori. Sarà perciò il meglio del meglio del meglio e comunque rimmarà umana quanto lo è la nostra natura. Se la nostra natura non dovesse piacerci, allora il problema si porrà ma sarà di tutt'altra natura: chi siamo noi, esseri umani, veramente?

Infine, da un punto di vista comunicativo, il problema è risolto implicitamente: se questo è il meglio che un'intelligenza artificiale poteva imparare dalla migliore selezione degli istruttori umani, cosa potremmo volere di più? Comunque, sarà il meglio di noi. Come base di partenza non è poca cosa.

Not all morals are created equal

Non tutte le culture del mondo condividono gli stessi principi etici e l'esperimento della Moral Machine ideata dal MIT, come descritto in questo articolo su singularityhub.com, dimostra che anbche l'etica differisce da individuo a individuo ma in generale si può distinguere tre differenti grandi macro-aree culturali:

The crowd-sourcing approach adopted by the Moral Machine researchers is a pragmatic one. After all, for the public to accept self-driving cars, they must accept the moral framework behind their decisions. It’s no good if the ethicists or lawyers agree on a solution that’s unacceptable or inexplicable to ordinary drivers. [...] The researchers found that they could cluster responses by country into three groups: “Western,” predominantly North America and Europe, where they argued morality was predominantly influenced by Christianity; “Eastern,” consisting of Japan, Taiwan, and Middle Eastern countries influenced by Confucianism and Islam, respectively; and “Southern” countries including Central and South America, alongside those with a strong French cultural influence.

Capacitor-based architecture for A.I. hardware accelerators

Non rientra nello specifico di questo dilemma ma vale la pena citare questo articolo in inglese su phys.org e le sue potenzialità per lo sviluppo di intelligenze artificiali di sucessiva generazione

IBM is reaching beyond digital technologies with a capacitor-based cross-point array for analog neural networks, exhibiting potential orders of magnitude improvements in deep learning computations. [...] The drawback could be a reduction in computational accuracy, but for systems that do not require high accuracy, it is the right trade-off.

A reduction in computational accuracy is equivalent to adding noise to the computational neuron function, which is the nowaday's missing fundamental to develops creative A.I.s

Deep learning, dual competitive A.I. (bipolar or dual emipheres mind) and fuzzy neural functions are the ingredients for creativity and obviously for producing mistakes, as well.

Indice di tutti gli articoli pubblicati

Articoli correlati

Riferimenti esterni citati

Condividi

(C) 2018, Roberto A. Foglietta, testo licenziato con Creative Common Attribuzione - Non commerciale - Condividi allo stesso modo 3.0 Italia (CC BY-NC-SA 3.0 IT).