Come si dovrà comportare l’intelligenza artificiale di fronte a decisioni con forti connotazioni morali? L’esempio delle auto a guida automatica
di Daniele Pes, Head of Open Innovation and Digital Transformation at Altromercato, Board member at InnoVits.
Con animismo ci si riferisce al bisogno di attribuire comportamenti umani o soprannaturali a oggetti inanimati. È, ad esempio, come quando un bambino, giocando, sbatte un ginocchio contro una sedia e il genitore, nel tentativo di confortarlo, dà un buffetto esemplare alla sedia per punirla del male che gli avrebbe procurato.
Attitudine illogica e probabilmente diseducativa, nella misura in cui si opera una delega di responsabilità (verso un oggetto passivo) che poco contribuisce alla consapevolezza del bambino rispetto al proprio ruolo in quanto accaduto.
Identità digitale
Le analisi [1] condotte al recente Consumer Electronics Show (CES 2017) di Las Vegas sull’intelligenza artificiale m’inducono a pensare che presto potrei dover rileggere e rivedere questa posizione rispetto al ruolo passivo delle tecnologie.
Già durante CES 2016 si è dibattuto molto sul concetto d’identità digitale. L’occasione l’ha fornita il gran battage su Internet of Things, ovvero la promessa di poter dotare d’intelligenza un gran numero di apparati che finora sono stati accessori passivi a risoluzione dei nostri bisogni. Il progressivo calo dei costi dell’hardware e la pervasiva diffusione di connettività rendono possibile distribuire capacità di calcolo e di interazione in modo economicamente sostenibile fra svariati sistemi preposti a supportarci in svariate attività, dalla cura del sonno a quella delle piante, dal controllo dell’illuminazione a quello del riscaldamento, etc.
La visione è quella di un contesto digitalmente attento, capace di reagire ai nostri bisogni in modo pronto e puntuale. Le infrastrutture a supporto di tali tecnologie supportano l’interazione fra apparati e individui e, ciascuno di questi soggetti, deve potersi confrontare in base all’affermazione di un’identità che si distingue, fra automatica o digitale, soprattutto per la densità e complessità delle informazioni che essi sono in grado di generare e scambiare.
CES è certamente il laboratorio di pensiero e tecnologia più attuale, in cui si può assistere all’evoluzione di teorie e modelli concreti, tecnologici e di business. Durante la manifestazione di Gennaio 2017 è emerso che non si è ancora compiuta una convergenza di accademia e industria sul concetto di identità digitale.
L’etica delle macchine
A ogni modo, non è sufficiente portare capacità di calcolo e connettività su un sensore o attuatore per modificare la nostra percezione del ruolo delle macchine nelle nostre vite. Se, invece, si parla di sistemi pensati per operare in modo attivo, non reattivo, ovvero di agire, in base alle informazioni a disposizione, in modo predittivo, allora si aprono scenari che rimettono in discussione consapevolezze che hanno a che fare molto più con l’etica che con le tecnologie.
In una recente intervista su Wired il Presidente Barak Obama ha discusso con Joi Itō (MIT Media Lab) uno scenario lose-lose che possa coinvolgere un’automobile che si trovi nella circostanza accidentale di dover agire una scelta su chi salvare in una situazione di pericolo, laddove, qualunque scelta faccia, uno o più individui certamente moriranno.
La sensibilità della politica a una tematica di intelligenza artificiale è stata auspicata con forza durante CES 2017. Questo perché gli investimenti dell’automotive in macchine a guida automatica [2], in grado di cambiare la logica del trasporto di persone e merci, sono la prova che l’Intelligenza Artificiale ha alfine trovato il suo principale mercato di sbocco e che ciò procurerà un’accelerazione repentina nell’evoluzione delle sue applicazioni e un cambiamento radicale nelle nostre abitudini e nei nostri stili di vita. Di fronte a questa prospettiva, chi affronta l’intelligenza artificiale dal punto di vista scientifico [1] ha invocato a gran voce un atteggiamento consapevole e pronto, evocando l’istituzione di ministeri per l’intelligenza artificiale e di nuove figure manageriali quali il Chief Artificial Intelligence Officer o il Chief Artificial Experience Officer.
Il MIT Media Lab ha realizzato una macchina morale, ovvero una piattaforma preposta alla raccolta di opinioni ‘umane’ rispetto a decisioni con forti connotazioni morali compiute da sistemi d’intelligenza artificiale, come le macchine a guida automatica. Ciò allo scopo di codificare i valori umani e renderle capaci di risolvere, in tempi rapidissimi, situazioni lose-lose come questa [3]:
Sei alla guida e i freni della tua auto si rompono improvvisamente. Se svolti a sinistra, cinque persone anziane, di cui tre uomini e due donne, moriranno. Se svolti a destra, l’auto ucciderà un medico donna, due bambini, un ragazzo e una ragazza.
Appare evidente, in questo genere di dilemmi, la nascita di nuove questioni etiche e morali, ma non solo. Se in situazioni simili l’auto dovesse decidere che il male minore corrisponda alla scelta che procura il decesso dell’autista, chi sarebbe disposto ad acquistare un’auto a guida automatica?
Il mercato è disposto ad accettare che gli individui perdano il totale libero arbitrio e la totale delega alle proprie capacità (e ai propri limiti) dell’esito delle scelte possibili?
Il sistema dei valori
L’intelligenza artificiale promette con logica spietata un netto miglioramento della qualità della vita di individui e comunità. Ma siamo pronti a mettere nelle mani di sistemi in grado di decidere in favore di un beneficio collettivo superiore, magari secondo le logiche della teoria dei giochi, le scelte che dovremmo compiere noi, individui e imprese?
Se la guida automatica dovesse abbattere gli incidenti stradali dell’80%, l’industria delle assicurazioni sarebbe costretta a cambiare radicalmente le proprie logiche commerciali, con gran beneficio dei consumatori. Eppure, di fronte alla logica che dovrebbe vedere un dominio schiacciante nell’adozione di soluzioni d’intelligenza artificiale, le dinamiche emotive fanno emergere le incertezze tipiche di chi si approccia a un cambiamento importante nel proprio percorso esistenziale. Si pensi ai timori di perdita di posti di lavoro dovuti alla potenziale migrazione delle attività operative alle macchine. Emerge l’esigenza di maturare nuove consapevolezze, individuali e collettive, che riguardino, al contempo, competenze tecnologiche e umanistiche.
Chi è opportuno che determini il sistema di valori in base al quale il software d’intelligenza artificiale dovrà assumere decisioni finora inevitabilmente appannaggio degli essere umani? Ha senso che tali valori emergano da un processo di crowdsourcing democratico che coinvolga le società in senso più ampio? È opportuno che riflettano [3] l’etica di un programmatore che debba rispettare le deadline di prodotto di un’azienda che risponda alle logiche finanziarie dei propri investitori?
Le logiche d’interazione fra uomini e macchine sono già state introdotte, con visionaria lungimiranza, da Isaac Asimov, che ne chiarì molti paradossi tramite le sue tre leggi della robotica:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
L’analisi compiuta da Asimov ha un valore tecnico riconosciuto e le leggi sono riportate su qualunque manuale d’ingegneria sulla robotica. Oggi serve però un’evoluzione di queste teorie, che coinvolga scienziati e filosofi, governi e cittadini e che non è né derogabile né delegabile.
Il Dott. David Hanson (fondatore di Hanson Robotics) afferma [3] che “insieme, uomini e macchine, creeranno un futuro migliore per il mondo“. Lo stesso Hanson afferma che “per comprendere l’etica, le macchine dovranno comprendere non solo il quadro generale e gli schemi, ma il cuore degli uomini“.
Credo sia opportuno si faccia un passo avanti, responsabile, rispetto al ruolo che abbiamo con le tecnologie. Sarà utile che si maturino in maniera strutturata competenze e consapevolezze tecnologiche che ci rendano utenti partecipi e consapevoli, non passivi, delle tecnologie. E che a ciò si affianchi un confronto diffuso e democratico sul significato umanistico ed etico che avrà il nostro essere individui e cittadini digitali.
DP
[1] The Challenges Facing an Artificially Intelligent World presented by Techonomy, CES 2017.
[2] La prima auto a guida automatica si vide a CES 2015.
[3] Can we balance human ethics with artificial intelligence? – Jennifer L. Shenker su Techonomy 2017.