Sempre più istituzioni e aziende affidano i propri processi decisionali (come per esempio quelli relativi alla selezione del personale) a sistemi di intelligenza artificiale, nella convinzione che un algoritmo possa fornire una risposta scevra da qualsiasi condizionamento o influenza. Ma è proprio così?
Il discorso sembrerebbe non fare una piega: gli algoritmi si limitano a fare ciò che si chiede loro e sono completamente indifferenti rispetto ai dati su cui sono chiamati a operare. Ma, c’è un ma: i dati su cui si basano sono infatti generati, raccolti e catalogati da persone in carne e ossa, le quali determinano anche da quali datasets gli algoritmi debbano attingere e su quali variabili e regole debbano fondarsi. E in entrambe queste fasi possono essere introdotti (e di fatto lo sono) pregiudizi e distorsioni, che in tal modo vengono incorporati nei sistemi di intelligenza artificiale.
Studi e ricerche a conferma di ciò non mancano (raramente però superano i confini delle riviste specializzate, nonostante l’attenzione che il tema meriterebbe nelle nostre società sempre più tecnologizzate). In un recente articolo pubblicato su Stanford Social Innovation Review, Genevieve Smith e Ishita Rustagi (analiste del Center for Equity, Gender and Leadership dell’Università di Berkeley, California) hanno affrontato la questione prendendo le mosse da un’esperienza personale. Nel 2019, Genevieve e il marito hanno fatto richiesta per la stessa carta di credito: nonostante Genevieve avesse un punteggio di credito leggermente migliore e medesime entrate, spese e debiti del ma…