Tradizionalmente, si parla di etica in riferimento al comportamento umano. In questo senso, l’etica è la disciplina filosofica che si occupa di cosa si intende quando si dice che una persona agisce bene e delle ragioni per le quali si dice che una persona ha agito bene.
La gran parte dei problemi etici legati all’intelligenza artificiale, pur essendo problemi caratteristici e di enorme rilevanza sociale, possono essere annoverati tra i problemi etici che ogni tecnologia di grande impatto storico e sociale sollevano. Alcune questioni legate all’intelligenza artificiale, invece, toccano le fondamenta stesse del concetto di etica. La riflessione sulla possibilità di sviluppare sistemi artificiali che abbiano comportamenti pressoché indistinguibili da quelli di un essere umano, e gli effettivi sviluppi tecnici nell’ambito dell’intelligenza artificiale, hanno sollevato dubbi sull’estensione del dominio di questa disciplina. Ci si domanda, infatti, se abbia senso immaginare norme etiche e attribuzioni di responsabilità che riguardino i sistemi intelligenti in generale, senza fare distinzione tra quelli artificiali e quelli che non lo sono. Questa domanda è essenzialmente legata a quella (già discussa in “C come chatbot”) riguardante l’appropriatezza filosofica della tesi secondo la quale certi sistemi artificiali abbiano la capacità di pensare – capacità presumibilmente indispensabile qualora li si voglia considerare soggetti moralmente responsabili del loro comportamento.
Una questione strettamente legata a questa riguarda il concetto di fiducia computazionale. Si parla molto nella letteratura in lingua inglese di «trustworthy AI» (AI affidabile) in riferimento allo sviluppo di metodi per controllare che i sistemi di intelligenza artificiale facciano quello che ci si aspetta che essi facciano. Il concetto di trust (fiducia), però, non è che applicabile a relazioni tra esseri umani, tradizionalmente. Il fatto che si parli di «tradire la fiducia di un individuo», infatti, suggerisce che ci sia un’importante componente etica nelle relazioni di fiducia. Torna dunque la questione riguardante l’attribuzione di responsabilità morale a sistemi di intelligenza artificiale. Di fatto, le ragioni per cui alcuni di questi sistemi sono tanto autonomi, efficienti e versatili sono le stesse alla base della loro imprevedibilità e delle difficoltà che si incontrano se si tenta di dare un’interpretazione sensata dei meccanismi interni che li governano. Il problema filosofico riguardante il loro status etico si intreccia dunque inestricabilmente con il problema tecnico riguardante la loro prevedibilità.
Chi nutre un certo scetticismo rispetto all’idea che un computer possa avere una coscienza non si faccia illusioni, però. Anche qualora si voglia concludere che i sistemi di intelligenza artificiale non possano essere considerati capaci di pensiero, rimangono aperte numerose questioni etiche di grande rilevanza che li riguardano. Infatti, nonostante sia poco sensato, se non addirittura insensato, sostenere che un sistema artificiale incapace di pensiero possa prendere decisioni morali o immorali, rimangono i problemi legati allo sviluppo, alla produzione, alla commercializzazione e all’uso di questi sistemi.
Di particolare interesse sono, ad esempio, i problemi legati alla responsabilità morale degli esseri umani che sviluppano, addestrano o impiegano un sistema artificiale intelligente relativamente alle azioni di questo sistema. Questi problemi sono particolarmente spinosi proprio per via dell’autonomia di questi sistemi e a causa del fatto che il comportamento di un tale sistema non dipende esclusivamente dal codice scritto da chi ha programmato il sistema, ma dipende anche in buona parte dai dati su cui è stato addestrato.
Un’ulteriore famiglia di problemi etici relativi all’intelligenza artificiale riguarda intimamente la dipendenza del comportamento di certi sistemi intelligenti dalla qualità dei dati su cui sono stati addestrati: i problemi legati ai potenziali pregiudizi e alla potenziale iniquità di questi sistemi. I dati su cui questi sistemi sono addestrati possono essere incompleti o di di bassa qualità per via di bias che ne hanno viziato la raccolta. Inoltre, anche se la raccolta di questi dati è avvenuta secondo metodi adeguati, i dati stessi possono riguardare un periodo storico durante il quale le iniquità e i pregiudizi che si cercano di contrastare nel presente erano più forti e diffusi. L’uso di dati inadeguati comporta un alto rischio di produrre sistemi che presentano, nel loro comportamento, gli stessi pregiudizi e le stesse iniquità che viziano i dati su cui sono stati addestrati.