Assistenza interessata

Adattamento da S. Natale, “Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale”

Natale è molto netto:

«Alexa», «Siri» e «Assistente Google» non esistono mai da soli; esistono solo incorporati in un sistema nascosto di strutture materiali e algoritmiche che garantiscono il dominio del mercato ad aziende come Amazon, Apple e Google. Sono punti di accesso alle risorse basate su cloud amministrate da queste aziende ed erodono la distinzione tra il web e i servizi cloud proprietari controllati da queste grandi società. Questa erosione si ottiene attraverso una stretta interazione tra la rappresentazione messa in scena dal personaggio digitale incarnato da ciascun assistente e il modello di business della rispettiva azienda (… la costruzione del personaggio dell’assistente ha lo scopo di collegarsi all’attività commerciale delle rispettive società. Infatti, attraverso la lente di Siri o Alexa, non c’è alcuna differenza sostanziale tra il web e i servizi basati su cloud gestiti dalla Apple e da Amazon. Sebbene le interfacce siano talvolta viste come secondarie rispetto alla comunicazione che ne deriva, contribuiscono in modo potente a dare forma alle esperienze degli utenti. È per questo motivo che la natura delle interfacce degli assistenti vocali va presa sul serio. Come le metafore e le rappresentazioni evocate da altre interfacce, la costruzione del personaggio dell’assistente non è neutra ma impronta di sé l’esito stesso della comunicazione. Nel fornire l’accesso al web, gli assistenti vocali lo rimodellano e lo ripropongono in una forma che risponde piú da vicino al modo in cui aziende come Amazon, Apple e Google vogliono che appaia ai loro clienti. (…) la voce umanizzata di Siri, Alexa o Assistente Google non inganna al punto da farli scambiare per umani. Il fatto che essi comunichino con una voce che fornisce precise coordinate di genere, classe, provenienza, però, non rimane senza conseguenze. Queste coordinate, richiamando dei tratti che gli utenti sono abituati a riconoscere nelle piú comuni interazioni sociali con altre persone, aiutano a integrare piú facilmente queste tecnologie negli ambienti domestici e nelle routine quotidiane. (…)

Appropriandosi delle dinamiche dell’inganno banale, gli sviluppatori di IA hanno la potenzialità di influenzare le strutture piú profonde delle nostre vite ed esperienze sociali. Un problema cruciale risiede nel fatto che l’inganno banale porta già in sé i germi di un vero e proprio inganno. Ho mostrato, per esempio, come le dinamiche di proiezione e gli stereotipi rendono piú facile per gli assistenti vocali basati sull’IA adattarsi alle nostre abitudini e convenzioni sociali. Organizzazioni e individui possono sfruttare questi meccanismi per scopi politici e di marketing, basandosi sul sentimento di empatia che un assistente simile a un essere umano stimola nei consumatori e negli elettori2. Altri meccanismi alla base dell’inganno banale possono essere usati in modo malizioso o a sostegno di obiettivi non condivisibili.

(ibidem)