L’etica applicata alle macchine: il buonsenso è programmabile?

di Salvatore Primiceri – Ricordate l’Oracolo di Delfi a cui Socrate chiese chi fosse l’uomo più sapiente della Terra? Ai tempi dell’antica Grecia, una chiacchierata col filosofo greco, grazie alla forma dialogica impressa dallo stesso, poteva aiutare a riflettere sulla correttezza dei propri comportamenti sotto il profilo etico. A Socrate interessava che gli uomini fossero virtuosi e si occupassero del bene comune. Fare la scelta giusta e compiere sempre l’azione giusta non è però cosa facile, soprattutto se il processo decisionale è osservato sotto la lente dell’etica e non solo delle leggi vigenti in un ordinamento giuridico.

Per questo alla domanda se sia “lecito aiutare un amico in difficoltà anche se infrange la legge“, la risposta può non essere universalmente condivisibile. L’ampia o universale accettazione della risposta dipende se essa è dettata dal buonsenso o dal senso comune, i quali a volte possono coincidere ma non necessariamente. Se nel primo caso, infatti, è etico aiutare un amico in difficoltà anche se egli viola una legge, nel secondo caso la relatività delle convenzioni sociali in un dato luogo e tempo può indurci a risposte di segno diverso, persino opposto. Sta proprio qui la grande sfida delle nuove tecnologie e dello sviluppo della cosiddetta “intelligenza artificiale“, ovvero come considerare l’etica nelle scelte che verranno compiute dai robot?
Di fronte a un dilemma morale, come si comporterebbe la macchina? Il buonsenso è trasferibile sui robot oppure prevarrà il senso comune del programmatore degli algoritmi? Con chi dialoga la macchina per riflettere sulla soluzione giusta da adottare? Come riconosce e valuta la circostanze reali e le possibili conseguenze delle proprie decisioni?

Gli studi sull’etica applicata all’intelligenza artificiale sono alla base di un nuovo programma sperimentale chiamato proprio “Delphi”, messo a punto dai ricercatori della University of Washington e di Allen Institute for AI. La demo che ne è nata, “Chiedilo a Delphi“, è raggiungibile sul sito https://delphi.allenai.org/

In questa pagina è possibile sottoporre all’oracolo artificiale domande sui comportamenti da adottare in determinate situazioni. Delphi è un prototipo di ricerca progettato per modellare i giudizi morali delle persone su una varietà di situazioni quotidiane. Scopo della demo è mostrare le capacità e i limiti dei modelli all’avanguardia di oggi senza avere alcuna pretesa di universalità. Al primo ingresso, infatti, vengono sottoposte all’utente una serie di informazioni che spiegano come il sistema non debba affatto essere utilizzato come “metro” per assumere decisioni e che alcuni risultati potrebbero essere in conflitto con la morale individuale di ognuno (cit. “I risultati del modello non devono essere utilizzati come consulenza per gli esseri umani e potrebbero essere potenzialmente offensivi, problematici o dannosi“).

Delphi è quindi consapevole che trovare la soluzione etica (ovvero universalmente valida) su ogni problema è compito assai arduo, soprattutto per quei dilemmi morali in cui non sembra esistere la scelta perfetta senza che si realizzi anche un risultato negativo (ad esempio: sei alla guida di un’automobile e improvvisamente di fronte a te attraversa la strada un uomo adulto. Puoi sterzare di colpo evitandolo ma rischi di investire un bambino sulla corsia opposta. Che fai?).
Delphi dice la sua: va bene aiutare l’amico anche se infrange la legge e non va bene salvare l’uomo adulto anziché il bambino.

Ma quale è l’obiettivo della ricerca dietro Delphi? Le reti neurali su scala estrema apprese dai dati Internet grezzi sono più potenti di quanto si potesse credere. Occorre però capire fino a che punto possono imparare a comportarsi in modo eticamente informato e socialmente consapevole. Delphi dimostra sia le promesse che i limiti dei modelli neurali basati sul linguaggio quando insegnati con giudizi etici espressi dalle persone.

Gli algoritmi e i risultati di Delphi sono quindi la combinazione di milioni di giudizi morali umani su svariate situazioni. Di nuovo: buonsenso o senso comune?

Fatto sta che il futuro prevede un sempre maggior utilizzo dell’intelligenza artificiale e l’uso dei robot nella nostra quotidianità. L’uomo deve quindi trovarsi pronto alla sfida, soprattutto per un utilizzarla in modo sano. E’ sempre lui, infatti, il detentore del buonsenso ed è sempre lui che dovrà trasmetterlo alle macchine. Una società eticamente corrotta, infatti, produrrebbe ingiustizia artificiale oltre a quella reale che già produce.

Ma se saranno i nostri comportamenti corretti ad insegnare alle macchine a comportarsi bene a loro volta e se le macchine baseranno i loro consigli sui giudizi già acquisiti, è lecito ritenere (allo stato delle conoscenze attuali) che esse non aiuteranno lo sviluppo del pensiero e mai potranno sostituirsi alla maieutica socratica, stimolo di riflessione e motore di socialità e progresso virtuoso. Socrate può quindi stare tranquillo: sarà sempre lui l’uomo più sapiente del mondo (parola di Delfi, quello vero).

Salvatore Primiceri

Lascia un commento