Automazione dell’ineguaglianza

Secondo Barassi, ma anche per vari altri studiosi, è la conseguenza-rischio del fatto che algoritmi e processi decisionali sono spesso sessisti, razzisti e ingiusti e in genere venogo concepiti secondo il “pregiudizio caucasico” e con una logica imperialistica.

L’effetto è aggravato dalla mancanza di trasparenza sui criteri effettivamente adottati e sulle procedure seguite.

Inoltre, ancora Barassi:

(…) uno dei problemi della profilazione e dei sistemi automatizzati è il fatto che (…) [essi] trovano correlazioni tra dati e li presentano come se fossero “verità’’ rivelatrici di specifici comportamenti, senza avere la certezza che essi siano di fatto oggettivi. Al contrario, le “regolarità” nei dati possono essere semplicemente il riflesso di modelli preesistenti di esclusione e disuguaglianza. Esempi di questo tipo ce ne sono tantissimi, basta sfogliare il report creato da Joanna Redden, Jessica Brand e Vanesa Terzieva (2017), aggiornato nel 2020, dove vengono citati moltissimi casi di ingiustizia sociale automatizzata.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...