L’etica digitale non è una checklist tecnica

Nowotny è netta:

(…) la costruzione di etica e correttezza nei modelli di apprendimento automatico richiede prima una definizione normativa che può essere tradotta in una funzione matematica e quindi utilizzata come vincolo in alcuni problemi di ottimizzazione. Non esiste quasi nessuna ricerca su approcci positivi per integrare l’etica nell’intelligenza artificiale, invece di indicare ciò che deve essere evitato. Un approccio positivo richiederebbe che i modelli di apprendimento automatico tengano davvero conto delle definizioni contestuali locali di ciò che è considerato etico e di come conformarsi a leggi e regolamenti (…) Pertanto, l’etica non è una lista di controllo, in cui spuntare una casella assolve un’azienda o un’organizzazione da ulteriori responsabilità. Siamo ancora lontani dall’andare oltre la retorica e le buone intenzioni. Quando si discutono casi concreti, l’importanza di tenere conto del contesto emerge di volta in volta. Il contesto è importante e il discorso sull’etica e l’intelligenza artificiale potrebbe trarre vantaggio dall’ampliamento della sua prospettiva per guardare ad altre aree in cui la questione dell’allineamento della ricerca controversa con gli standard etici va avanti da tempo. L’esperienza nel campo biomedico suggerisce che è necessario fare meno affidamento sulla competenza etica e prestare maggiore attenzione alla rappresentanza di coloro che saranno direttamente interessati. (H. Nowotny, “In AI We Trust: Power, Illusion and Control of Predictive Algorithms” – traduzione in proprio)