iKnow: Sfida etica dell’IA

La domanda sorge spontanea: perchè parlare di Etica ed Intelligenza Artificiale (AI)?! E’così affascinante e sfidante questo mondo, che cambia in modo così disruptive e rapidamente, ma allora perché porsi domande filosofiche legate al comportamento umano (etica), quando ci potremmo godere la tecnologia lasciando agire liberamente il mercato e le sue applicazioni?

Lo chiediamo a Paolo Benanti, Docente di neuroetica, bioetica e teologia morale presso la Pontificia Università Gregoriana, e qui di seguito la sintesi dell’intervista.

Prima di rispondere a questa domanda però, facciamo un passo indietro e osserviamo la storia: sin dall’antichità L’homo Sapiens si è contraddistinto per il suo comportamento adattivo a differenza degli altri animali, e che lo ha fatto diventare l’essere più presente sul pianeta. Ma perché e cosa vuol dire comportarsi in modo adattivo?! Facciamo un esempio concreto: quando all’epoca dell’era glaciale ha dovuto spostarsi dalla natia e mite Africa verso le terre fredde della Siberia, non ha potuto aspettare che gli crescesse il pelo per coprirsi, in quanto il suo DNA non muta, era ed è tuttora questo, ma si è dovuto inventare un artefatto analogico al fine di adattarsi all’ecosistema antartico, la pelliccia! Questa è stata la tecnologia che gli ha permesso di sopravvivere a quell’epoca. Nel tempo poi l’homo sapiens è progredito, e ha fatto scoperte, inventando altre tecnologie, che applicate gli hanno permesso anche di aumentare la sua conoscenza e trasmetterla (es. mappe, libri, Computer, Web, ecc.) nel tempo.

Fino ad arrivare ai giorni nostri, in cui parliamo di tecnologia AI, ma cosa è? In sintesi: sono macchine che imparano in autonomo, attraverso algoritmi che sfruttano dati raccolti nell’ecosistema circostante, e a cui l’essere umano può delegare decisioni. Applicazioni sono oggi realtà, non fantascienza, come ad esempio la valutazione di esami strumentali medici (radiografia) per decidere su tumori. Ma torniamo al punto: se abbiamo detto che le macchine possono prendere Decisioni, è lecito chiedersi: le macchine possono sbagliare? La risposta è sì, possono fallire, perchè per loro natura utilizzano dati, che hanno una loro incertezza, e si basano su algoritmi stocastici, che per loro definizione si basano su probabilità.

Ma allora se non sono infallibili, perché utilizzarli allora!? Eh bhè dipende dall’utilità relativa che se ne può avere, anche noi sbagliamo a decidere, e se il tasso di errore dell’AI è inferiore a quello di noi esseri umani, o nel caso in cui ci vogliano troppe risorse per prendere una decisione, allora sì che ha senso l’utilizzo della AI. Quindi, per queste applicazioni, che ci sono e che verranno, si dovrà convivere con l’errore, in particolare per scenari con gravi impatti, ma soprattutto bisognerà iniziare a gestire l’incertezza, perché fin quando decidiamo noi direttamente siamo responsabili anche se non consapevoli, mentre se deleghiamo le macchine a decidere, siamo sempre e comunque responsabili ma almeno, siccome disegniamo noi il processo, questo ci obbliga a ragionare ed essere consapevoli degli errori.

Ed è qui che entra in gioco l’ETICA, che ci aiuta a definire linee-guida condivisibili, con cui disegnare il processo di decisione delle macchine, e che a seconda delle applicazioni può conseguire obiettivi diversi come: “Fear of Uncertain”, il  principio di precauzione, che decide secondo un criterio che misura due volte e poi taglia (es. scelta di utilizzo di armi) ; oppure “Pursuit of Equality and happiness” che combatte le disuguaglianze (es. da utilizzare negli algoritmi Social per penalizzare i BIAS).

Inoltre, siccome le macchine decideranno in un’ecosistema costituito da umani, è nato il movimento dell’Algor-Etica, che si promuove nel definire le direttrici etiche per l’interazione macchina-uomo. Un esempio, consiste nel definire cosa vogliamo che la macchina non decida, il cosiddetto il FREE-WANT, che si esplicita di solito, nel chiedere l’intervento dell’uomo da parte della macchina, se la domanda postagli non risponde alla normalità (per i programmatori in Python, questo è possibile con la libreria Pytorch). Poi, sono state definite e saranno promosse direttive utili a migliorare l’interazione macchina-uomo, intesa in termini di: Intuizioni (capire in anticipo problemi per aiutare) Intellegibilità (comunicare le proprie intenzioni), Adattabilità (capire l’emotività umana), Adeguatezza (capire da soli quando è troppo).

Inoltre, ad essere pragmatici, un punto da non sottovalutare, è che l’AI è uno strumento utile a Predire, ma il fine non è detto che sia giusto. Ad esempio, anticipare i guasti meccanici di un impianto produttivo è un bel risparmio di risorse, ma con gli stessi algoritmi potrei predire comportamenti e quest’informazione potrei utilizzarla come “arma” per influenzare masse, ad esempio promuove su Social e Piattaforme determinati prodotti o persone piuttosto che altri, o per determinare eventi, come il virus wannacry.

Ad oggi perciò il tema è serio, perché non ci sono restrizioni e il mercato è libero di applicare, ma se si vogliono gestire future distorsioni, per implementare questi principi non basterà parlarne, ma andranno definite le policies (diritti / doveri) scrivendole in Regolamenti ufficiali. Sotto quest’aspetto, l’immobilismo da parte dei Governi (ricordiamo che la GDPR è stata messa in atto solo dopo lo scandalo Cambridge Analytics di Facebook) in realtà non è lo è da un punto di vista degli investimenti per avere il dominio economico, perché la CINA ha dichiarato che diventerà il leader dell’AI entro il 2030 con gli USA a contendersi il mercato, con due approcci totalmente, ad ora, contrapposti. In tutto questo l’Europa nicchia, ma ovviamente non potrà stare indietro e in qualche modo si muoverà.

Perciò, possiamo concludere che L’AI è una tecnologia di cui non se ne può più fare a meno e, anche se non perfetta o se utilizzata impropriamente, non deve spaventare, e per far questo ci viene in aiuto l’Etica.  Quindi, Business ed Etica possono convivere, ma perché siano soddisfatti entrambi, bisogna definire le regole del “nuovo” gioco, ora che siamo all’inizio di questa rivoluzione.

 

Articolo a cura di Marco Berra