Inganno banale, inesistenza dell’AI, approccio “scettico”

Natale definisce il concetto di “inganno banale” (o benevolo) in campo digitale:

[è quello che] non viene percepito come tale, cosa che ha degli ovvi vantaggi dal punto di vista commerciale, perché dà all’utente l’illusione di mantenere il controllo dell’esperienza. Ed è banale perché ha a che fare con delle situazioni che sono immerse nel nostro vivere quotidiano, e non facilmente distinguibili dalla nostra esperienza per cosí dire «normale». Questo carattere ordinario dell’inganno lo rende spesso impercettibile ma anche pregno di conseguenze, permettendo a queste tecnologie di inserirsi negli strati piú profondi delle nostre abitudini quotidiane. Riconoscere la presenza strutturale di forme di inganno nelle interazioni con l’IA non equivale, dunque, a proporre una teoria complottista o una visione apocalittica, per la quale saremmo tutti vittime di una grande manipolazione orchestrata dalle aziende che producono queste tecnologie. Al contrario, è importante enfatizzare come questi meccanismi possano rivelarsi utili e produttivi, permettendoci per esempio di inserire piú naturalmente gli assistenti vocali nel nostro ambiente domestico e quotidiano, o aiutandoci a superare sofferenze individuali e sociali, come nel caso di strumenti sviluppati come forme di auto-aiuto contro il disagio psicologico. (…) [Per esempio], i media sonori, dal fonografo all’Mp3, sono stati realizzati in base al funzionamento dell’udito umano. Al fine di migliorare la capienza mantenendo la qualità del suono, vengono ignorate le frequenze non percepibili dall’udito umano, adattando la riproduzione tecnica a ciò che udiamo effettivamente e a come lo udiamo. Il problema non era tanto che suono hanno un vecchio cilindro fonografico, un disco in vinile o un Mp3 in termini fisici; era che suono hanno per gli esseri umani. In questo senso tutti i media moderni incorporano l’inganno banale: sfruttano i limiti e le caratteristiche degli apparati sensoriali e della psicologia umani per creare gli specifici effetti necessari per gli impieghi per cui sono pensati. (…) [Analogamente] un’interfaccia crea un paradosso tra invisibilità e visibilità. Le interfacce grafiche alla base di sistemi operativi di uso comune come Windows o macOs, per esempio, «ci offrono una relazione immaginaria con il nostro hardware: non mostrano transistor, bensí scrivanie (è questo il significato della parola inglese desktop) e cestini». Realizzare interfacce per computer, in questo senso, implica la creazione di mondi immaginari che nascondono la struttura soggiacente dei sistemi tecnici a cui danno accesso. Il compito dell’interfaccia di assicurare l’accesso ai computer nascondendo al contempo la complessità dei sistemi è correlato con il modo, di cui abbiamo parlato nel capitolo precedente, in cui l’IA facilita una forma di inganno banale. (…) l’effetto di magia ispirata dai computer non ha a che fare solo con le esagerazioni giornalistiche o con i sogni popolari della fantascienza. È qualcosa che caratterizza entrambi i lati dell’interazione umano-computer. Da una parte, questo effetto di magia ha le sue radici nelle relazioni degli esseri umani con gli oggetti e nella loro naturale tendenza ad attribuire intelligenza e socialità alle cose. Dall’altra parte, questa sensazione è incorporata nel funzionamento delle interfacce informatiche che emergono attraverso la costruzione di strati di illusione che nascondono (rendendo al contempo «trasparente») la complessità sottostante dei sistemi informatici. Per questo, ancor oggi, gli informatici rimangono consapevoli della difficoltà di dissipare false credenze quando si tratta di percezioni e usi dell’IA. La magia dell’IA è impossibile da far sparire perché coincide con la logica soggiacente dei sistemi di interazione umano-computer. La chiave della resilienza dei miti sull’IA, quindi, non va cercata nelle leggende colorite sui cervelli elettronici e sui robot umanoidi, ma nell’innocente gioco di nascondere e mostrare che rende gli utenti pronti ad abbracciare l’amichevole e banale inganno delle macchine «pensanti». (…) non esiste l’«intelligenza artificiale»: ci sono solo interazioni socialmente orientate che portano ad attribuire intelligenza alle macchine. (…) [Questa situazione implica che] man mano che i meccanismi di inganno banale si dissolvono nel tessuto della nostra vita quotidiana, diventerà sempre piú difficile mantenere una distinzione netta a livello sociale e culturale tra macchine ed esseri umani. L’influenza dell’intelligenza artificiale sulle abitudini e sui comportamenti sociali, inoltre, riguarderà anche situazioni in cui non sono coinvolte macchine. C’è per esempio una crescente preoccupazione che le strutture stereotipate di genere, etnia e classe incorporate nell’IA comunicativa possano essere di stimolo a riprodurre gli stessi pregiudizi in altri contesti. Analogamente, le interazioni tra i bambini e l’IA possono modellare le loro relazioni non solo con i computer ma anche con gli esseri umani, ridefinendo le dinamiche dei contatti sociali all’interno e all’esterno della famiglia. (…) Riconoscere che nell’IA viene incorporato l’inganno banale richiede un’etica dell’equità e della trasparenza tra il venditore e l’utente che non dovrebbe concentrarsi solo su potenziali abusi della tecnologia, ma interrogarsi piú largamente sulle implicazioni dei diversi meccanismi di progettazione incorporati nell’IA. La comunità dell’intelligenza artificiale può inoltre considerare i principî della progettazione trasparente e delle interfacce intuitive, sviluppando nuovi modi per rendere evidente l’inganno e aiutando gli utenti a interagire meglio con le barriere tra l’inganno banale e quello deliberato. Il fatto che tecnologie come l’elaborazione del parlato e la generazione del linguaggio naturale sono sempre piú facilmente disponibili a gruppi e individui rende ancora piú urgente lavorare in questa direzione. (…) facciamo bene a ricordare che qualsiasi modellizzazione dell’utente – ovvero le rappresentazioni dell’«essere umano» attorno alle quali sviluppatori e aziende costruiscono tecnologie di intelligenza artificiale comunicativa – è essa stessa frutto di una valutazione culturale influenzata dai propri pregiudizi e dalla propria ideologia. (….) Enfatizzare il ruolo dei programmatori e delle aziende che producono e diffondono tecnologie di IA non deve portare a negare il ruolo attivo degli utenti. Al contrario, l’inganno banale richiede che l’utente si impegni attivamente con i meccanismi ingannevoli, il che rende l’utente una variabile cruciale nel funzionamento di ogni sistema di IA comunicativa. (…) Il segreto per interagire con l’inganno banale, da questo punto di vista, sta nella nostra capacità di mantenere una posizione scettica nelle interazioni con i calcolatori e i media digitali. Rifiutarsi del tutto di interagire con l’IA non è, purtroppo, una scelta possibile: se anche ci sconnettessimo da tutti i dispositivi, essa continuerebbe a improntare la nostra vita sociale in modo indiretto, attraverso l’impatto che ha sugli altri. Ciò che possiamo cercare, tuttavia, è un equilibrio tra, da una parte, la nostra capacità di trarre profitto dagli strumenti che l’IA mette a nostra disposizione e, dall’altra, quella di adottare un atteggiamento informato e ragionato nei confronti dell’intelligenza artificiale stessa. Per raggiungere questo obiettivo, dobbiamo resistere alla normalizzazione dei meccanismi ingannevoli incorporati nell’IA contemporanea e al potere silenzioso che le società di media digitali esercitano su di noi. (S. Natale, “Macchine ingannevoli. Comunicazione, tecnologia, intelligenza artificiale”)