Consiste nell’essere messi al corrente di come funzionano gli algoritmi che agiscono su dati personali.
Elena Esposito riflette sul tema.
(…) Se le macchine lavorano in un modo che è diverso dalla nostra intelligenza, e che spesso per noi è incomprensibile, come facciamo a controllare i risultati delle loro operazioni? L’intrasparenza delle procedure degli algoritmi più avanzati, spesso discussa come opacità, sembra essere la vera sfida che le tecniche di machine learning e i Big Data ci pongono oggi.
Anche se gli algoritmi che auto-apprendono sono molto efficienti, infatti, che siano delle black boxes non è affatto rassicurante, soprattutto quando sappiamo che le loro operazioni non sono immuni da pregiudizi ed errori di vario tipo (…). In molti casi vorremmo verificare la correttezza dei risultati prodotti dalle macchine, che possono essere sbagliati o inappropriati in molti modi differenti, con diverse conseguenze. (…)
La recente branca di ricerca sulla “ia spiegabile” (explainable ai o xai) cerca di rispondere a questa preoccupazione sviluppando delle procedure per spiegare le operazioni degli algoritmi che auto-apprendono (…). Ma nel caso degli algoritmi di deep learning c’è un ostacolo di fondo: se per spiegazione si intende una procedura che permetta agli osservatori umani di capire cosa fa la macchina e perché, l’impresa è senza speranza. I processi dei recenti algoritmi che appaiono intelligenti sono intrinsecamente incomprensibili per l’intelligenza umana. (…)
molti progetti sull’ia spiegabile stanno recentemente adottando un altro approccio, compatibile con la radicale oscurità dei processi algoritmici e coerente con l’idea di focalizzare l’attenzione sulla capacità degli algoritmi di partecipare alla comunicazione. In modo un po’ contraddittorio rispetto al loro nome, (…). L’obiettivo è piuttosto quello di produrre una condizione di dialogo tra l’algoritmo e l’utente, in cui la macchina fornisce delle risposte prendendo come input le richieste di chiarimento dei suoi interlocutori, che sono sempre diverse (…) Lo scopo non è, e non può essere, che l’interlocutore capisca questi processi e l’intelligenza della macchina, ma che interpreti ciò che la macchina comunica su di essi in modo tale da poter esercitare una forma di controllo. Le macchine devono essere in grado di produrre spiegazioni adeguate rispondendo alle richieste dei loro interlocutori.
(…). Quando si ottiene una spiegazione, si ottengono informazioni sulla decisione senza essere informati sui processi neurofisiologici o psichici (…). Spiegare le nostre operazioni non richiede di rivelare il nostro processo di pensiero, e ancor meno le connessioni dei nostri neuroni. Le spiegazioni, sostiene Luhmann, sono “riformulazioni con il beneficio aggiunto di una migliore connettività” (…) il processo è interamente comunicativo: non abbiamo bisogno di accedere al cervello o alla mente dei nostri interlocutori, né abbiamo bisogno di accedere al mondo esterno – abbiamo solo bisogno di ottenere indizi che permettano alla comunicazione di andare avanti in modo controllato e non arbitrario.
Lo stesso approccio può essere adottato per affrontare i dilemmi della spiegazione nell’interazione con gli algoritmi che auto-apprendono. (…). La questione è (….) fare in modo che le macchine, opache o meno, producano “riformulazioni” dei loro processi che corrispondano alle richieste dei loro interlocutori e consentano loro di esercitare la forma di controllo appropriata al contesto. Si tratta di riprodurre con un partner digitale la situazione comunicativa in cui vengono richieste e fornite spiegazioni tra esseri umani.
In effetti, molti recenti progetti di xai non cercano di imitare i calcoli fatti dall’algoritmo, ma mirano piuttosto a produrre “spiegazioni post-hoc” che riproducano ciò che gli esseri umani fanno nella comunicazione (…). nel campo della xai i progettisti stanno addestrando i programmi a produrre spiegazioni che illustrano (…) a posteriori il funzionamento degli algoritmi, senza influire sulle loro prestazioni. Come i processi linguistici che generano spiegazioni umane differiscono dai processi neurali che producono le decisioni da spiegare, così i processi che producono spiegazioni dei modelli algoritmici saranno diversi dai processi del modello.(…) Ciò che l’utente capisce delle spiegazioni della macchina non devono essere necessariamente i processi della macchina. Ciò che i programmi realizzano non è una forma alternativa di intelligenza, ma una forma alternativa di comunicazione.