Secondo Barassi, ma anche per vari altri studiosi, è la conseguenza-rischio del fatto che algoritmi e processi decisionali sono spesso sessisti, razzisti e ingiusti e in genere venogo concepiti secondo il “pregiudizio caucasico” e con una logica imperialistica.
L’effetto è aggravato dalla mancanza di trasparenza sui criteri effettivamente adottati e sulle procedure seguite.
Inoltre, ancora Barassi:
(…) uno dei problemi della profilazione e dei sistemi automatizzati è il fatto che (…) [essi] trovano correlazioni tra dati e li presentano come se fossero “verità’’ rivelatrici di specifici comportamenti, senza avere la certezza che essi siano di fatto oggettivi. Al contrario, le “regolarità” nei dati possono essere semplicemente il riflesso di modelli preesistenti di esclusione e disuguaglianza. Esempi di questo tipo ce ne sono tantissimi, basta sfogliare il report creato da Joanna Redden, Jessica Brand e Vanesa Terzieva (2017), aggiornato nel 2020, dove vengono citati moltissimi casi di ingiustizia sociale automatizzata.