Nel panorama dell’intelligenza artificiale si inserisce il tema delle ingiustizie introdotte dalla discriminazione algoritmica che si sostanzia nella circostanza che gli algoritmi, addestrati su dati storici, perpetuano ed amplificano i pregiudizi presenti nella società.
Gli algoritmi, infatti, non sono entità neutre, ma apprendono dai dati con cui vengono alimentati e quindi se tali dati sono viziati da stereotipi di genere, razziali o sociali, l’algoritmo stesso ne sarà contaminato, replicandoli.
In altre parole, l’IA rischia di diventare uno specchio fedele delle disuguaglianze e dei pregiudizi che caratterizzano la società.
Un sistema di selezione del personale, ad esempio, potrebbe favorire candidati con determinate caratteristiche (genere, età, provenienza geografica) semplicemente perché, storicamente, ruoli simili sono stati ricoperti prevalentemente da persone con dette caratteristiche.
In Italia si stanno moltiplicando i casi in cui gli algoritmi finiscono sotto la lente d’ingrandimento.
Il Garante per la protezione dei dati personali è intervenuto in diverse occasioni, sollevando preoccupazioni in merito all’utilizzo di algoritmi nei processi decisionali automatizzati che possono avere un impatto significativo sulla vita delle persone.
Tra le altre, alcune piattaforme di credito online sono state oggetto di indagine da parte del Garante per la privacy a seguito di segnalazioni di discriminazioni basate su criteri quali l’età, il sesso o la provenienza geografica.
Ed ancora, un recente studio, condotto da un’università italiana, ha evidenziato come alcuni algoritmi utilizzati nelle prime fasi di selezione del personale tendessero a penalizzare candidati con cognomi di origine straniera o con un gap occupazionale prolungato.
Nel concludere ritengo che non sia corretto affrontare la questione dell’intelligenza artificiale discriminatoria intervenendo solo sugli errori dell’ IA, considerandoli quale problema meramente tecnologico e ciò in quanto è di tutta evidenza che a dovere essere risolto non è un difetto tecnologico, ma le disuguaglianze sistemiche, le bias da cui hanno origine i sistemi dell’IA.
Avv. Simona Maruccio
simona@maruccio.it
Laureato in legge col massimo dei voti, ha iniziato due anni fa la carriera di startupper, con la casa editrice digitale Leo Libri. Attualmente è Presidente di Leotech srls, che ha contribuito a fondare. Si occupa di internazionalizzazione di imprese, marketing e comunicazione,