Algoritmi

Algoritmi e pregiudizi: le ingiustizie dell’ intelligenza artificiale discriminatoria

Attualità
L’intelligenza artificiale, con la sua capacità di elaborare enormi quantità di dati in tempi brevissimi, sta rivoluzionando numerosi settori della nostra vita, dal lavoro alla giustizia, dalla sanità ai servizi pubblici.

Nel panorama dell’intelligenza artificiale si inserisce il tema delle ingiustizie introdotte dalla discriminazione algoritmica che si sostanzia nella circostanza che gli algoritmi, addestrati su dati storici, perpetuano ed amplificano i pregiudizi presenti nella società.

Gli algoritmi, infatti, non sono entità neutre, ma apprendono dai dati con cui vengono alimentati e quindi se tali dati sono viziati da stereotipi di genere, razziali o sociali, l’algoritmo stesso ne sarà contaminato, replicandoli.

In altre parole, l’IA rischia di diventare uno specchio fedele delle disuguaglianze e dei pregiudizi che caratterizzano la società.

Un sistema di selezione del personale, ad esempio, potrebbe favorire candidati con determinate caratteristiche (genere, età, provenienza geografica) semplicemente perché, storicamente, ruoli simili sono stati ricoperti prevalentemente da persone con dette caratteristiche.

In Italia si stanno moltiplicando i casi in cui gli algoritmi finiscono sotto la lente d’ingrandimento.

Il Garante per la protezione dei dati personali è intervenuto in diverse occasioni, sollevando preoccupazioni in merito all’utilizzo di algoritmi nei processi decisionali automatizzati che possono avere un impatto significativo sulla vita delle persone.

Tra le altre, alcune piattaforme di credito online sono state oggetto di indagine da parte del Garante per la privacy a seguito di segnalazioni di discriminazioni basate su criteri quali l’età, il sesso o la provenienza geografica.

Ed ancora, un recente studio, condotto da un’università italiana, ha evidenziato come alcuni algoritmi utilizzati nelle prime fasi di selezione del personale tendessero a penalizzare candidati con cognomi di origine straniera o con un gap occupazionale prolungato.

Nel concludere ritengo che non sia corretto affrontare la questione dell’intelligenza artificiale discriminatoria intervenendo solo sugli errori dell’ IA, considerandoli quale problema meramente tecnologico e ciò in quanto è di tutta evidenza che a dovere essere risolto non è un difetto tecnologico, ma le disuguaglianze sistemiche, le bias  da cui hanno origine i sistemi dell’IA.

Avv. Simona Maruccio
simona@maruccio.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Moderazione dei commenti attiva. Il tuo commento non apparirà immediatamente.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.