La fairness (o equità), in senso letterale, descrive l’agire o il decidere in modo che sia rispettata una giusta proporzione. Il principio etico ad essa collegato stabilisce, con possibili variazioni, che le situazioni simili dovrebbero essere giudicate e affrontate in modo analogo. Alcune versioni di questo principio, riguardanti l’equità politica e sociale, sottolineano come benefici e oneri debbano essere distribuiti all’interno della società in maniera proporzionata, ponendo particolare attenzione al miglioramento delle condizioni dei meno privilegiati; ciò indica che la fairness non consiste necessariamente nel trattare tutti in modo identico, ma nel compensare equamente le disuguaglianze esistenti per ristabilire un giusto equilibrio. Anche per quanto riguarda l’uso di sistemi di AI al fine di prendere decisioni e fare predizioni è possibile parlare di fairness. Infatti, la decisione o la predizione di un sistema può favorire o sfavorire classi più o meno privilegiate. Se si considera, inoltre, che sistemi di questo tipo vengono impiegati anche in contesti altamente sensibili dal punto di vista sociale ed economico—come la cessione del credito o la selezione del personale—questo problema specifico risulta di grande rilevanza.
Quanto detto finora solleva un dubbio legittimo: che cosa è “equo”? Ciò che è equo per un individuo lo sarà necessariamente per un altro? La risposta a questi interrogativi suggerisce che il concetto di fairness non è un valore universale e statico, ma deve essere considerato contestualmente, in quanto radicato nel panorama culturale e nella sensibilità individuale di ognuno.
Nonostante la fairness sia un valore soggettivo e contestuale, la sua adozione come principio regolatore ha reso necessario stabilire dei criteri condivisi relativamente ai quali sia possibile intraprendere azioni volte a compensare svantaggi e disuguaglianze. Alcune caratteristiche sensibili—come etnia, genere, posizione sociale e status economico—vengono tipicamente prese in considerazione per formulare questi criteri condivisi.
Un importante esempio di analisi della nozione di equità è quella proposta dal filosofo John Rawls. Figura centrale della filosofia politica moderna, nella sua proposta Justice as Fairness interpreta l’equità come meccanismo di correzione per le disuguaglianze prodotte dal caso o dalla sorte. Rawls struttura quindi un esperimento mentale concepito per stabilire i princìpi sociali in modo imparziale: agli individui chiamati a scegliere tali princìpi viene infatti imposta la condizione del veil of ignorance, che li priva della conoscenza della loro stessa posizione nella futura società. In questo modo si garantisce l’imparzialità poiché, non potendo formulare regole che favoriscano la propria posizione, gli individui sono spinti a tutelare anche i membri più svantaggiati della società.
Il veil of ignorance di Rawls rappresenta chiaramente un’utopia nella realtà umana e, a maggior ragione, un’irrealizzabilità tecnica e strutturale per quanto riguarda la fairness nell’intelligenza artificiale. Qui, infatti, il concetto si traduce nell’esigenza che i sistemi algoritmici operino senza perpetuare o amplificare bias esistenti. Il tentativo di declinare il principio etico di fairness mediante l’imposizione di vincoli che facciano sì che il sistema dia risultati conformi a metriche specifiche per misurarne l’equità, si confronta però con l’effettiva complessità dei modelli.
La prima e lampante difficoltà è che i modelli di AI non possono essere sviluppati se non impiegando dati esistenti che ne definiscano il comportamento futuro: se il set di dati di addestramento riflette sproporzioni o pregiudizi storici, ad esempio rappresentando in modo insufficiente o distorto un certo gruppo demografico, il modello non fa che amplificare e replicare tali disuguaglianze nelle sue previsioni o decisioni future. In questo caso si dice che il modello ha un bias strutturale (tema già affrontato nella voce “B come Bias”).
La seconda e altrettanto evidente osservazione riguarda la mancanza di intenzione etica. L’algoritmo non è capace di empatia e non ha alcuna volontà propria che lo spinga ad essere equo: tutto quello che fa è ottimizzare una funzione. Non si può, quindi, far altro che sperare che il sistema si accordi a una traduzione matematica, e per sua natura limitata, dell’ideale etico. Il problema della fairness nell’AI va perciò letto non solo dal punto di vista morale ma, e soprattutto, considerando le limitazioni tecniche dei modelli.
Tra le tante variabili di cui tenere conto, infine, vi sono le componenti umane che fanno parte del ciclo vitale di un modello: non solo i data scientists, i programmatori e gli altri addetti ai lavori, ma anche gli utenti finali. La considerazione di questi ultimi apre la strada a molte altre esigenze, tra cui quelle normative: temi giuridici come quelli di discriminazione, affidabilità ed explainability rendono l’attenzione verso la fairness dei sistemi di AI non più una scelta etica discrezionale, bensì un imperativo relativo alla legittimità dei sistemi di questo tipo.
Fairness e diritti legali
Come accennato in precedenza, parlare di fairness non è un’impresa semplice; il suo significato, infatti, è intrinsecamente dipendente dal contesto, dalla cultura e dalla situazione specifica. In informatica, così come nel diritto, ci si interroga da anni su cosa voglia dire che un sistema o una decisione siano equi. Diverse comunità scientifiche hanno tentato nell’impresa di tradurre questa idea in numeri e formule, producendo diverse misure di fairness. Tuttavia, nessuna di esse riesce a catturare singolarmente l’intera dimensione semantica del termine, e oltretutto risulta matematicamente impossibile soddisfare contemporaneamente alcune di queste misure. Così, un sistema può sembrare equo secondo un modello e iniquo secondo un altro: tutto dipende dal punto di vista assunto per analizzarlo.
La stessa difficoltà è stata riscontrata dal mondo del diritto. Spesso i legislatori si sono serviti del termine senza darne una definizione precisa. Una distinzione utile, però, è quella tra fairness procedurale e fairness sostanziale.
Con riferimento alla dimensione procedurale, il termine si riferisce al modo in cui gli individui vengono trattati: significa assicurare dignità, rispetto e un processo corretto. È l’idea alla base del diritto, sancito nella Carta dei diritti fondamentali dell’Unione Europea (art. 47), ad avere un ricorso effettivo e un giudice imparziale.
La seconda declinazione del concetto di fairness, invece, riguarda il contenuto: la conclusione raggiunta al termine del processo decisionale deve essere giusta e non discriminatoria, come sancito dal diritto alla non discriminazione (art. 21 della Carta). Tale accezione di fairness diviene cruciale in certi settori della giurisprudenza, come quelli riguardanti il lavoro e la tecnologia. Un esempio è quello di un sistema usato per la selezione del personale: esso deve valutare competenze e requisiti pertinenti per il lavoro, e non basare la decisione su caratteristiche irrilevanti per la decisione del candidato, quali etnia o orientamento sessuale.
Simili tendenze hanno fatto sì che l’incorporazione della fairness diventasse un elemento centrale nello sviluppo di sistemi di intelligenza artificiale. Le linee guida del Gruppo di esperti ad alto livello per un’AI affidabile la indicano come uno dei requisiti fondamentali per sviluppare sistemi affidabili. Anche l’AI Act, pur non citando il termine negli articoli, richiama il principio nel preambolo: richiede che i sistemi non generino discriminazioni (Considerando 27) e ribadisce la necessità di poter contestare una decisione automatizzata (Considerando 59).
Negli ultimi anni, il dibattito accademico si è concentrato anche sulla distinzione tra discriminazione algoritmica e discriminazione umana, interrogandosi sulle capacità delle attuali leggi antidiscriminatorie di affrontare decisioni automatizzate. In particolare, le norme oggi in vigore impediscono esplicitamente di basare decisioni su caratteristiche come sesso e etnia; tuttavia, possono risultare inadatte di fronte alle nuove forme di distinzione introdotte dagli algoritmi. Come evidenziano numerosi casi, i sistemi di AI sono in grado di trovare caratteristiche neutre, quindi non riconosciute dalla legge come sensibili, ma fortemente correlate con dati il cui utilizzo è vietato. In questo contesto, le tecniche di explainability, ossia quei metodi che permettono di comprendere come un sistema di AI sia arrivato a una determinata decisone, assumono un ruolo chiave. Da un lato, queste permettono di individuare eventuali bias e verificare il rispetto del principio di non discriminazione; dall’altro, rappresentano un requisito fondamentale per garantire un reale accesso alla giustizia. Solo conoscendo la logica alla base di una decisone algoritmica è infatti possibile contestarla o chiederne la revisione.
Benedetta Bonomi & Matteo Barakat


