Il lato oscuro dell’IA: quando a discriminare sono gli algoritmi

Siamo abituati a considerare la tecnologia come un elemento neutro e performante, in grado di implementare i processi che regolano le nostre vite. Ma non dobbiamo dimenticare che a programmarla siamo noi e quindi non può che riflettere il nostro modo di approcciarci al mondo, con tutti i suoi difetti. Avviene così anche con l’Intelligenza Artificiale, troppo spesso discriminatoria. È quindi necessaria una maggiore regolamentazione: che cosa succede a proposito in ambito UE?
algoritmi

Quando nel 2015 il software Photos di Google, utile all’identificazione dei volti nelle fotografie, identificò come “scimmie” due persone di colore, fu grande l’imbarazzo negli uffici di Big G, che si prodigò in scuse e promise miglioramenti. Peccato che tre anni dopo uno studio del MIT a firma della ricercatrice Joy Buolamwini rivelò come effettivamente il dataset che componeva molta dell’Intelligenza Artificiale non avesse all’interno persone di colore. In altri termini, l’addestramento, l’educazione di questi software e dei loro algoritmi era basato su dati riguardanti solo uomini, per lo più bianchi. Solo una parte del mondo. Senza sensibilità alle differenze, a eventuali anomalie, segni particolari, colori.

Si è ben visto durante la pandemia, quando le società che producevano software di sorveglianza per il remote working e per gli esami online hanno dato vita a un boom di collaborazioni con aziende e università. In quell’occasione, molti studenti delle università americane hanno avuto modo di sperimentare violazioni e discriminazioni di diverso genere: i software come Proctor Exam, uno dei più utilizzati per monitorare l’ambiente, il dispositivo e il corretto svolgimento dell’esame, non riconosceva al primo colpo gli studenti di colore, causando perdite di minuti preziosi durante i test e costringendoli molto spesso a vedersi annullato l’esame. Riconosceva come “imbrogli” alcuni tic nervosi, o movimenti eccessivi degli occhi magari dovuti a disabilità, per non parlare anche della situazione socioeconomica: il software di sorveglianza chiedeva un’inquadratura molto larga del luogo in cui si stava svolgendo l’esame e si trattava spesso di stanze condivise, aule studio, co-working. Il risultato? Penalizzazioni e segnalazioni finivano per ricadere su studenti che non potevano permettersi ambienti solitari, non bianchi, magari con copricapi religiosi, o con difetti di vista. 

Pensiamo poi a cosa deve aver provato Robert Julian-Borchak Williams, un comune cittadino di colore del Michigan, quando nel 2020 è stato arrestato e trattenuto diverse ore dalla polizia di Detroit con l’accusa di furto, sulla base di un software di riconoscimento facciale nel quale era stato inserito un fermo immagine di alcune telecamere di sorveglianza all’ingresso di una gioielleria e che ha subito identificato il signor Williams nel suo database come ladro.

L’atteggiamento sommario della polizia, l’uso improvvido di questi software e il loro inaccurato funzionamento, provocano da anni errori giudiziari, arresti sommari, capi d’accusa imprecisi. E, quasi sempre, discriminatori. Questo tipo di errori o di scambi di persona, infatti, accadono più spesso tra le persone di colore. La Florida ha addirittura vietato agli imputati di opporsi, ovvero la possibilità di verificare con i loro avvocat…

A Hebron è in vigore l’oppressione permanente dei palestinesi

Dalle punizioni collettive alle tecniche di sorveglianza e riconoscimento facciale,  passando per le “sterilizzazioni” delle strade dalla presenza palestinese come le chiamano i soldati, ogni “misura temporanea di sicurezza” che istituzioni e coloni israeliani testano su Hebron diventa poi uno strumento d’oppressione permanente imposto sull’intera Cisgiordania. Per usare le parole di Issa Amro, leader della resistenza non violenta nella regione, Hebron è il “laboratorio dell’occupazione”.

“Israelism”, la rivolta dei giovani ebrei negli USA contro l’indottrinamento sionista

Il film di Sam Eilertsen ed Erin Axelman “Israelism”, proiettato recentemente in Italia, racconta il processo di presa di coscienza di una intera generazione di ebrei americani cresciuti fin da bambini in un ambiente di ferreo indottrinamento al culto di Israele e alla propaganda sionista. Finché molti di loro, confrontandosi con la realtà dei palestinesi attraverso viaggi sul posto o nei campus universitari, non capiscono di essere stati spinti ad annullare la loro ebraicità nella fede cieca in un progetto etnonazionalista.

Basta con le Identity politics: non conta se sei oppresso ma se combatti l’oppressione

Nella sinistra postmoderna il discorso sull’oppressione tende a ridursi al punto di vista della vittima. Gli oppressi vengono collocati all’interno di un gruppo indifferenziato la cui unica cifra è l’oppressione stessa. Questo atteggiamento porta ai giudizi ad hominem, poiché non contano tanto le idee ma la posizione in cui si colloca chi le esprime: se non sei un oppresso, non puoi parlare di emancipazione. Se sei un “vecchio uomo bianco”, tenderai sempre e solo a voler mantenere i tuoi privilegi. Le discussioni su chi ha il diritto di parola dovrebbero però lasciare il posto alle discussioni su che cosa ha da dire.