Algorithmic Justice League

Riepiloto del libro di NotebookLM:

“Dopo aver terminato la mia laurea in informatica alla Georgia Tech, ho viaggiato in Zambia come borsista Fulbright per insegnare ai giovani a programmare, prima di dirigermi all’Università di Oxford, dove avrei rivolto di nuovo la mia attenzione al mondo accademico e alla tecnologia. Quando stavo terminando il mio periodo come borsista Rhodes a Oxford, ho avuto una conversazione con il mio scienziato preferito. Mio padre, sempre attento alle credenziali accademiche, mi ha ricordato che non avevo ancora conseguito il dottorato di ricerca e che avrei dovuto prendere in considerazione la possibilità di fare domanda per la scuola di specializzazione. La sua chiamata mi ha fatto pensare all’eredità della mia famiglia. Prima di mio padre c’era il padre di mia madre, che ha conseguito il dottorato di ricerca in Inghilterra nel 1969, decenni prima che io nascessi nel 1990. Ho ricordato i miei sogni d’infanzia e il fascino di un robot di nome Kismet sullo schermo televisivo di famiglia e così, quando è arrivata la stagione delle domande per la scuola di specializzazione, ho fatto domanda solo per un posto.”

Quali sono i principali modi in cui il pregiudizio algoritmico si manifesta nel campo della visione artificiale?

Ecco alcuni dei principali modi in cui il bias algoritmico si manifesta nel campo della visione artificiale, basati sulle informazioni fornite:

  • Dati di addestramento sbilanciati: I sistemi di visione artificiale sono addestrati su set di dati di immagini e, se questi dati sono sbilanciati, ad esempio con una sovra rappresentazione di volti bianchi, il sistema avrà maggiori probabilità di funzionare bene su volti bianchi e di classificare in modo errato volti di persone di colore. Questo può portare a gravi conseguenze, come l’arresto ingiusto di persone di colore a causa di una falsa corrispondenza del riconoscimento facciale.
  • Errori nella rilevazione dei volti: La ricerca ha dimostrato che i sistemi di rilevamento dei volti hanno maggiori probabilità di non rilevare i volti di persone con la pelle scura rispetto a quelli con la pelle chiara. Questo è dimostrato dall’esperienza dell’autrice, che ha dovuto indossare una maschera bianca per essere rilevata da un sistema di rilevamento dei volti. Questo problema può avere conseguenze negative per la sicurezza, ad esempio se un’auto a guida autonoma non riesce a rilevare un pedone con la pelle scura.
  • Classificazione di genere imprecisa: Gli algoritmi di classificazione di genere addestrati su set di dati sbilanciati possono classificare in modo errato il genere di persone di colore, in particolare delle donne. Questo è stato dimostrato dalla ricerca dell’autrice, che ha riscontrato che i sistemi di classificazione di genere hanno avuto un tasso di errore più elevato per le donne di colore rispetto a qualsiasi altro gruppo demografico.
  • Proliferazione di sistemi non testati: Le aziende spesso commercializzano sistemi di visione artificiale senza divulgare informazioni sui dati di addestramento o sulla loro accuratezza su diversi gruppi demografici. Ciò rende difficile per il pubblico valutare il potenziale di bias e discriminazione. L’esempio dei residenti di Atlantic Towers che si oppongono all’installazione di un sistema di riconoscimento facciale per l’ingresso dimostra la necessità di trasparenza e valutazione prima dell’implementazione di tali sistemi.
  • Mancanza di diversità tra i creatori di IA: La mancanza di diversità tra i ricercatori e gli sviluppatori di IA contribuisce al problema del bias algoritmico. Se i team che creano questi sistemi non sono rappresentativi della società nel suo insieme, è più probabile che i loro pregiudizi si riflettano nei sistemi che creano.

È importante ricordare che i sistemi di visione artificiale sono creati dagli esseri umani e, come tali, sono suscettibili ai pregiudizi umani. È essenziale affrontare il problema del bias algoritmico per garantire che questi sistemi siano equi e giusti per tutti.