Un bias, in generale, è una tendenza o inclinazione del comportamento o del giudizio. In quest’accezione generale, il bias è fondamentalmente connesso alla discriminazione, e, per quanto riguarda gli esseri umani, si può intendere come dovuto a opinioni, più o meno consapevoli, che influenzano il modo in cui un soggetto si comporta o giudica relativamente a individui o gruppi di individui.
I bias possono essere dovuti a fattori diversi: cognitivi o psicologici, culturali e sociali o, più in generale, contestuali. Ma questi sono solo alcuni esempi. Il concetto di bias infatti non si limita al comportamento umano. In fisica, la nozione di bias è essenzialmente connessa a quella di errore sistematico. Ovvero, un errore di misurazione che ha l’effetto di modificare i risultati sempre nello stesso senso. Una bilancia tarata male, per esempio, potrebbe indicare tre etti di troppo a ogni misurazione. Il collegamento con la nozione generale di bias è chiaro: questa bilancia ha la tendenza a indicare un peso maggiore rispetto al peso reale di ciò che si sta pesando.
Anche il bias algoritmico, la nozione di maggior rilievo nel contesto dell’intelligenza artificiale, riguarda gli errori sistematici. Si parla, infatti, di bias algoritmico quando un sistema automatico di decisione o classificazione produce risultati, diversi da quelli attesi, che siano ingiusti e che tendano a sfavorire (o favorire) una particolare classe di individui.
Questo genere di bias può insorgere per un gran numero di motivi: errori di programmazione o di definizione del sistema, errori nella codifica dei dati, parzialità nella raccolta o selezione dei dati per l’addestramento, uso improprio dei dati durante l’addestramento. Anche considerando l’uso estensivo che si fa di sistemi automatici di decisione e classificazione, è evidente che questo genere di bias può avere effetti sociali, economici e personali disastrosi per gli individui appartenenti alle classi negativamente discriminate da uno o più di questi sistemi. Inoltre, il rapporto tra bias algoritmico e discriminazione sociale è duplice. Da una parte, il bias algoritmico può nutrirsi di fenomeni di discriminazione preesistenti. Ad esempio, se i dati che vengono usati per l’addestramento di un algoritmo rispecchiano pratiche discriminatorie di raccolta e selezione delle informazioni, l’algoritmo ottenuto potrebbe esprimere un bias coerente con queste pratiche discriminatorie. D’altra parte, il bias algoritmico stesso può consolidare, o addirittura aggravare, fenomeni di discriminazione sociale, culturale, geografica e razziale. Sistemi decisionali che penalizzano classi deboli ostacoleranno certamente eventuali processi sociali di avanzamento verso una società più equa.
Nonostante questa nozione di bias sia chiaramente negativa, non bisogna dimenticare che il concetto generale di bias fa riferimento esclusivamente all’imparzialità del comportamento o del giudizio. E questa considerazione è cruciale. Infatti, in intelligenza artificiale, i sistemi decisionali, predittivi e di classificazione sono essenzialmente fondati su metodi di gestione di bias. Una qualche forma di imparzialità deve esistere se si ha l’obiettivo di distinguere tra individui e, di conseguenza, prendere decisioni su di essi. Esiste un teorema formale che parla proprio di questo (il teorema del brutto anatroccolo), ma non c’è bisogno di una dimostrazione matematica per capire che ogni decisione è necessariamente dovuta alla scelta di considerare certe proprietà come più rilevanti di altre, certe caratteristiche come positive e altre come negative. Ovviamente, questo non implica che tutti i bias debbano essere accettati come mali inevitabili, implica però che la lotta contro il bias algoritmico è un compito estremamente delicato che dipende in maniera essenziale da decisioni sociali e politiche. Infatti, è vero che un sistema di decisione che non è in grado di distinguere tra un individuo e un altro è un sistema equo, ma è anche vero che è un sistema completamente inutile.
Appendice
Per chi fosse interessato, ecco, in poche parole, il teorema del brutto anatroccolo.
Dato un insieme contenente n oggetti, supponiamo di volerne classificare gli elementi a seconda delle loro proprietà. Se non abbiamo nessun preconcetto (o bias, appunto) riguardante quali proprietà siano più naturali, o semplicemente più rilevanti per noi al momento, non possiamo fare altro che considerare tutte le proprietà possibili. Dato che una proprietà può essere definita specificando un insieme di oggetti (l’insieme di tutti gli oggetti che hanno quella proprietà), risulta che ogni sottoinsieme del nostro dominio rappresenterà una proprietà. Per motivi matematici che non serve rendere espliciti in questo momento, ci sono 2n sottoinsiemi del nostro insieme, e dunque avremo 2n proprietà da considerare. Se usiamo tutte queste proprietà per stabilire somiglianze e differenze tra i nostri oggetti, però, presi due oggetti qualsiasi, questi saranno tanto simili tra di loro quanto sono simili ad ogni altro oggetto nell’insieme. Infatti, per ogni due oggetti, ci saranno esattamente 2n-1 proprietà che li distinguono e 2n-1 che essi hanno in comune. Ovvero, senza bias, un cigno sarà tanto simile al brutto anatroccolo quanto ad ogni altro cigno.
Una certa quantità di bias, dunque, è indispensabile per strutturare il mondo e prendere decisioni che ci permettano anche solo di sopravvivere. Non bisogna però confondere questo bias con quello della discriminazione sociale. È vero che tra tutte le classificazioni possibili dobbiamo sceglierne alcune da considerare come rilevanti, ma questo non implica che ogni classificazione che abbia senso e che possa essere utile per un certo fine debba essere considerata come una divisione tra individui migliori e individui peggiori.