Contingenza virtuale e algoritmi di apprendimento

Elena Esposito sviluppa in proposito un illuminante ragionamento, nell’ambito delle sue riflessioni sulla comunicazione artificiale:

La contingenza implica selezione e incertezza. Significa che ci sono una serie di possibili opzioni tra cui scegliere e le nostre decisioni potrebbero essere sempre diverse. Tuttavia, gli algoritmi per definizione non conoscono l’incertezza; non scelgono tra le possibilità, né sono creativi, essendo progettati per seguire le istruzioni che programmano il loro comportamento. In questo senso, gli algoritmi non sono contingenti, motivo per cui possono operare in modo così efficiente e affidabile. (…)
Gli algoritmi recenti, tuttavia, sono diversi: la loro parvenza di contingenza è una caratteristica essenziale. Anche se queste macchine seguono un corso completamente determinato, vogliamo che i loro risultati siano imprevedibili e producano qualcosa che non sappiamo ancora, ovvero nuove informazioni appropriate per una determinata interazione con un utente. Il risultato atteso non è previsto da nessuno e, nel caso degli algoritmi di autoapprendimento, non può essere previsto: ecco perché utilizziamo algoritmi e perché sembrano creativi. (…) Anche se la macchina è completamente determinata, il suo comportamento dovrebbe apparire contingente e reagire alla contingenza dell’utente. (…) Un assistente personale come Alexa dovrebbe rispondere in modo appropriato alle richieste dell’utente, producendo nuove e rilevanti informazioni nel corso dell’interazione. Lo scopo paradossale della programmazione di algoritmi intelligenti è quello di costruire macchine imprevedibili in modo controllato. L’obiettivo è una controllata mancanza di controllo.
(…) In alcuni casi, la contingenza di una macchina è semplicemente la proiezione della contingenza del suo utilizzatore. Questo accade, ad esempio, con i giocattoli robotici (…)
Gli algoritmi di autoapprendimento vanno oltre e fanno qualcosa di più enigmatico. Quando un utente interagisce con un algoritmo di apprendimento, deve affrontare una contingenza che non è di sua creazione, sebbene non appartenga nemmeno alla macchina. La prospettiva che la macchina presenta è ancora una prospettiva riflessa, perché l’algoritmo inevitabilmente non possiede una propria contingenza, sebbene non rifletta semplicemente la prospettiva dell’utente. Invece, ciò che l’algoritmo riflette e rappresenta sono le prospettive di altri osservatori; ciò che l’utente osserva attraverso la macchina è il risultato dell’elaborazione dell’osservazione di altri utenti. Chiamo contingenza virtuale la capacità degli algoritmi di utilizzare la contingenza degli utenti come mezzo per agire come partner di comunicazione competenti.(…) Dove trovano gli algoritmi la contingenza che riflettono? Come accedono alle prospettive esterne che elaborano e presentano ai loro partner di comunicazione? Per poter partecipare alla comunicazione, gli algoritmi devono essere sul web.(…) L’effetto pionieristico del “web partecipativo” (Web 2.0, e forse 3.0) non è stato tanto la personalizzazione, quanto piuttosto l’inclusione e lo sfruttamento della contingenza virtuale. Gli algoritmi “si nutrono” parassitariamente dei contributi degli utenti e li utilizzano attivamente per aumentare la complessità del proprio comportamento, insieme alla complessità delle loro capacità comunicative. Nelle interazioni con gli algoritmi di apprendimento, affermo, gli utenti sperimentano una forma (artificiale) di imprevedibilità e riflessività. Tali interazioni riproducono artificialmente le condizioni della comunicazione.
Il prototipo di questo approccio è Google, e questo è anche il motivo del suo successo. La svolta è arrivata nel 1998 con l’introduzione dell’analisi dei link nel World Wide Web. (…) L’algoritmo è progettato per apprendere e riflettere le scelte fatte dagli utenti, attivando un ciclo ricorsivo in cui gli utenti utilizzano l’algoritmo per ottenere le informazioni, le loro ricerche modificano l’algoritmo e l’algoritmo quindi interferisce con le successive ricerche di informazioni. Ciò che i programmatori progettano è solo la capacità dell’algoritmo di auto-modificare. Cosa e come seleziona l’algoritmo dipende da come gli utenti lo utilizzano.
Questo sistema è stato ulteriormente sviluppato per tenere conto di fattori al di là della popolarità, come il comportamento dei clic degli utenti, il tempo di lettura e i modelli di riformulazione delle query. Come Google dichiara nelle pagine InsideSearch del suo sito Web, gli algoritmi oggi si basano su più di duecento segnali e indizi che si riferiscono a “cose come i termini nei siti Web, la freschezza dei contenuti, la tua regione”. (…) Google è diventato il simbolo di un approccio che si ritrova in altri progetti di successo sul web. Dal 2003 il termine “googlizzazione” è stato utilizzato per descrivere la diffusione, in sempre più applicazioni e contesti, di un modello che non si basa sugli status maker tradizionali come editori o esperti, ma “si nutre” delle dinamiche del web per organizzare le sue operazioni e persino se stessa. Vaidhyanathan sostiene che il web è guidato da una “googlizzazione di tutto” che sfrutta le operazioni eseguite dagli utenti per produrre una condizione in cui “Google lavora per noi perché sembra leggere la nostra mente”. In realtà, Google non ha bisogno di tali poteri. Piuttosto, Google utilizza semplicemente i risultati di ciò che avevamo in mente per produrre ciò che non avevamo. Google, insieme ad altri sistemi che funzionano allo stesso modo, si nutre delle informazioni fornite dagli utenti per produrre nuove informazioni, che vengono introdotte nel circuito della comunicazione. Sono queste informazioni che gli utenti ottengono dalle loro interazioni con gli algoritmi e che possono essere attribuite solo agli algoritmi stessi. Quando si parla di interazioni con gli algoritmi, non ha senso riferirsi solo al punto di vista di chi ha inserito i dati, perché non potrebbe sapere con precisione come verrebbero utilizzati i dati. Allo stesso modo, non ha senso fare riferimento alla prospettiva di ciò che l’algoritmo stesso significava, perché non significava nulla. I vincoli e l’orientamento non dipendono dalle intenzioni ma dai programmi, che normalmente sono inaccessibili.
Gli algoritmi effettuano selezioni e scelte in base a criteri non casuali, riflettendo ed elaborando invece l’indeterminatezza dei partecipanti. Gli utenti ricevono risposte contingenti che reagiscono alla loro contingenza utilizzando la contingenza di altri utenti. Sebbene non comunichino direttamente con questo assortimento di altri utenti, il risultato di questa interazione è una risposta specifica a una domanda specifica che non esisterebbe se anche altri utenti non fossero coinvolti nella comunicazione. (…) I recenti algoritmi che utilizzano i big data possono imparare a riconoscere immagini mai incontrate prima, portare avanti conversazioni su argomenti sconosciuti, analizzare dati medici e formulare diagnosi, nonché anticipare il comportamento, il ragionamento e anche i desideri degli utenti. Sulla base delle loro capacità, possiamo (o saremo presto in grado di) guidare auto a guida autonoma, tradurre telefonate online da una lingua all’altra in tempo reale e utilizzare assistenti digitali per fornire le informazioni di cui abbiamo bisogno in qualsiasi momento . Ma cosa imparano gli algoritmi di apprendimento? E chi li insegna?
Apparentemente, gli algoritmi di autoapprendimento possono apprendere da soli. Che siano supervisionati, semi-supervisionati o non supervisionati, gli algoritmi di apprendimento decidono autonomamente come apprendere e cosa imparare. Sono in grado di utilizzare i dati per apprendere funzioni per le quali non sono stati specificatamente programmati. I loro programmatori progettano solo un insieme di procedure che dovrebbero consentire alla macchina di sviluppare il proprio modo per risolvere un compito, o anche (in caso di apprendimento non supervisionato) di determinare il proprio compito, trovando strutture nei dati come raggruppamenti o cluster. I programmatori non sanno cosa sta imparando la macchina, invece le insegnano ad apprendere autonomamente.
(…) Quando ci si aspetta che un algoritmo di apprendimento impari a giocare, ad esempio, i programmatori non gli insegnano le mosse, o anche le regole del gioco. La macchina fa mosse casuali e, dopo un certo numero di tentativi, i programmatori le dicono se ha vinto o perso. L’algoritmo di apprendimento utilizza questi “rinforzi” per calcolare a modo suo una funzione di valutazione che indica quali mosse fare, senza fare pronostici, senza una strategia di gioco, senza “pensare” e senza immaginare la prospettiva del suo avversario. (…)
AlphaGo ha imparato a diventare un eccezionale giocatore di Go ea battere i migliori giocatori del mondo. A questo scopo non ha imparato a giocare come i giocatori umani (o meglio). In effetti, l’algoritmo non ha imparato Go: ha imparato a partecipare a Go, sfruttando le mosse degli altri partecipanti per sviluppare e perfezionare le proprie mosse. AlphaGo è stato originariamente addestrato con i dati di un server che consentiva alle persone di giocare l’una contro l’altra su Internet. I giocatori erano tutti dilettanti e le loro abilità erano piuttosto grossolane, ma il programma ha perfezionato enormemente queste abilità giocando milioni di partite contro se stesso. AlphaGo e altri algoritmi orientati al gioco apprendono tramite il gioco autonomo, perfezionando le proprie abilità con un processo per tentativi ed errori. Il sistema impara “non solo dalle mosse umane, ma anche dalle mosse generate da più versioni di se stesso”.
Queste procedure confermano l’ipotesi che gli algoritmi imparino a non pensare ma a partecipare alla comunicazione, cioè a sviluppare (artificialmente) una prospettiva autonoma che consenta loro di reagire in modo appropriato e di generare informazioni nella loro interazione con gli altri partecipanti. Ciò che AlphaGo pensa o non pensa è irrilevante per le sue prestazioni. È competente, reattivo e creativo e può anche essere sorprendente. È un compagno di gioco perfetto anche e proprio perché non pensa come un giocatore umano. (…) Gli algoritmi di apprendimento imparano a partecipare alla comunicazione e possono farlo perché non hanno bisogno di capire cosa hanno in mente le persone. Per lo stesso motivo, le persone stesse possono imparare dalle loro interazioni con gli algoritmi di apprendimento, anche se non li capiscono. (…) Nessun algoritmo, per quanto avanzata sia la sua capacità di autoapprendimento, può generare possibilità che non siano implicite nei dati forniti. Nessun algoritmo può generare in modo indipendente la contingenza, ma gli algoritmi possono elaborare la contingenza generata dall’uomo in modi senza precedenti, modi che potrebbero generare ulteriori possibilità e ulteriore contingenza nelle interazioni con gli esseri umani. Anche e soprattutto se l’algoritmo non è un alter ego, se non segue una strategia e se non comprende il nostro ragionamento, gli utenti umani possono comunque imparare dalle loro interazioni con un algoritmo per sviluppare le proprie strategie. Non attraverso algoritmi comprensibili in grado di innescare processi comprensibili, ma attraverso l’ottenimento e l’utilizzo di indizi che nessuno avrebbe potuto immaginare, cambiando così il proprio modo di osservare. Le persone che usano la loro intelligenza per imparare da macchine non intelligenti sono un’opportunità per aumentare la complessità della comunicazione. (…) Eppure affidarsi alle scatole nere non è rassicurante, soprattutto quando si sa che le loro operazioni non sono immuni da pregiudizi ed errori di vario genere. Il recente ramo di ricerca sull'”IA spiegabile” tenta di rispondere a questa preoccupazione cercando procedure che consentano alle macchine di fornire spiegazioni sulle loro operazioni. Ma spiegare processi incomprensibili sembra un compito senza speranza. Come afferma Weinberger, equivarrebbe a qualcuno che cerca di costringere l’IA “a essere abbastanza stupida artificialmente da poter capire come arriva alla sua conclusione”. Tuttavia, gli algoritmi come partner di comunicazione possono essere spiegabili senza essere comprensibili. Il requisito sarebbe che essi abbiano una competenza comunicativa sufficiente per rispondere alle richieste di chiarimento dei loro interlocutori in modo appropriato, comprensibile e controllabile. Ciò che gli utenti capiscono attraverso una spiegazione della macchina non devono necessariamente essere i processi più fini della macchina. Questo in realtà accade spesso anche nelle spiegazioni umane, nella misura in cui offrono indizi per dare un senso a una comunicazione senza dare accesso ai processi psichici del partner ed è la direzione in cui si sta attualmente muovendo la progettazione di algoritmi avanzati.  (…) Dobbiamo [pertanto] essere in grado di mostrare come le interazioni con gli algoritmi influiscano sulla comunicazione nella società in generale e di fornire spunti che possano aiutare a dirigere il lavoro di coloro che progettano e scrivono algoritmi. In sempre più ambiti, il riferimento familiare all’intelligenza (artificiale) diventa inutile, sia che si tratti di casi in cui le comunicazioni sono attribuite a cose (es. Internet delle cose) o di casi in cui le comunicazioni siano trattate come cose (es. umanistiche). Questo significa che ci stiamo muovendo verso uno stato di intelligenza diffusa in cui non ci sarà separazione tra cose e persone, tra algoritmi intelligenti e menti coinvolte nella comunicazione? Sostengo invece che questi sviluppi richiedono un passaggio dai riferimenti all’intelligenza ai riferimenti alla comunicazione. Ciò che gli algoritmi stanno riproducendo non è l’intelligenza delle persone ma l’informatività della comunicazione. Quando le nuove forme di comunicazione combinano le prestazioni degli algoritmi con le prestazioni delle persone, gli algoritmi non vengono confusi con le persone, né diventano intelligenti. La differenza tra le operazioni degli algoritmi e il pensiero umano dà origine a nuovi modi di trattare i dati e produrre informazioni nel circuito della comunicazione. (Elena Esposito, “Artificial Communication. How Algorithms Produce Social Intelligence”, MIT Press – rilasciato in Creative Commons, CC-BY-NC-ND)