Dilemmi Etici per Intelligenze Artificiali

auto21
La tecnologia corre più veloce della filosofia e a breve potremo trovarci ad avere a che fare con automobili guidate completamente dalle intelligenze artificiali. Per ora l’autopilota è stato applicato solo come sistema di assistenza alla guida, principalmente di aerei e più recentemente di auto. Anche i treni automatici sono in realtà controllati da remoto. Le auto a giuda automatica per ora invece sono solamente dei prototipi che raramente vengono utilizzate in contesti reali, e anche in quei casi è molto raro che non ci sia un umano pronto a prendere il controllo.

Il problema è appunto come una macchina debba comportarsi in uno scenario loose-loose ovvero quando occorre prendere una decisione scegliendo arbitrariamente un male minore. Come esseri umani posti di fronte a questi scenari solitamente reagiamo per istinto se la situazione è rapida come quelle che ci si trova a fronteggiare alla guida, o seguendo la nostra etica, se abbiamo tempo sufficiente per riflettere. In entrambi i casi come umani accettiamo le conseguenze morali e giuridiche delle nostre azioni, qualunque esse siano.

Una macchina, per quanto sofisticata, può solo eseguire delle direttive, seguire delle regole, e puntare ad ottenere un risultato determinato. Una macchina non deve vivere con le conseguenze delle sue azioni, e non è naturalmente perseguibile legalmente (a differenza dei programmatori della macchina).

Per questa ragione l’MIT ha creato una serie di test da sottoporre a più persone possibili per cercare di rintracciare una morale comune per affrontare queste situazioni. Puoi partecipare al test qui.

Probabilmente alcuni dei tuoi risultati differiranno dalla opinione comune: ad esempio io considero sempre prioritario salvare il numero più alto di umani possibile, indipendentemente da tutti gli altri fattori (sesso, età, status …), e tendo sempre a salvaguardare il pedone se questo sta rispettando le regole della strada.

Uno degli elementi che non considero in questo scenario è se agire o lasciare che le cose procedano per il loro corso: a differenza del problema del carrello ferroviario non riconosco nella scelta operata da una intelligenza artificiale (a questo livello) alcuna agency e contemporaneamente assolvo i programmatori se questi hanno scelto le regole morali rispetto all’attuale senso comune. Questo ragionamento ha fatto nascere in me altri dubbi che andrò a illustrare in un altro articolo.

Problemi come questi che ci vengono posti dalla tecnologia ci fanno rendere conto di quanto non abbiamo una morale condivisa, e questo dovrebbe farci capire come mai ci si può dividere in più fazioni (politiche) e credere che l’altro sia sempre stupido, quando semplicemente parte da un ragionamento etico diverso.

Lascia un commento