Conoscenze algoritmiche di base

In sintesi, un algoritmo è un computo statistico sofisticato.

Nella scia di Vespignani, approfondiamo ulteriormente, nella convinzione che – per una cittadinanza piena e riflessiva – sia utile, anzi necessario!, possedere in proposito un quadro concettuale emancipante, che vada oltre la mera definizione tecnica, in direzione etica e civile. Un algoritmo è

una serie di istruzioni precise ed espressioni matematiche che usiamo per trovare associazioni, identificare tendenze, estrarre le leggi e le dinamiche alla base di fenomeni come il contagio, la diffusione di idee, o l’andamento dei mercati finanziari“.

L’autore fa l’esempio di Amazon, che suggerisce i prodotti sulla base delle abitudini rilevate, così come in Facebook un altro algoritmo ci indica i post da vedere e altri modi d’uso, in base agli apprezzamenti precedenti (like e condivisione). Gli algoritmi si fondano su modelli di apprendimento automatico, che impiega la statistica: rilevano nei dati similarità e ripetizioni, prevedendo – almeno in termini di alternative probabilistiche – i comportamenti futuri. La potenza di calcolo e di elaborazione dei dispositivi digitali coglie ciò che gli esseri umani non sono in grado di individuare e costruiscono così profilo psicometrici e psicodemografici.

Secondo Pariser è quindi necessario che tutti i cittadini acquiscano “un livello basilare di competenza in materia di algoritmi“, perché è loro diritto e loro dovere comprendere e valutare “i sistemi informatici che agiscono sulle strutture e sulle scelte pubbliche.

E quindi elenca i concetti fondamentali dei quali è necessario comprendere la gestione nelle procedure computazionali con fini decisionali, predittivi e persuasivi:

  • variabili,
  • iterazioni,
  • memoria.

Oltre a questo, a scopo di trasparenza e sempre per Pariser, è necessario comprendere che “gli algoritmi della personalizzazione possono creare un circolo vizioso in cui quello che il codice sa di noi costruisce il nostro ambiente mediatico e il nostro ambiente mediatico condiziona le nostre preferenze future. Questo problema si può evitare, ma è necessario creare un algoritmo che includa la «falsificabilità», vale a dire capace di confutare l’idea che si è fatto di noi. (Se Amazon è convinto che ci piacciano i romanzi gialli, potrebbe presentarci altri generi letterari per capire se è veramente così)”.

Screenshot_2019-08-24 Transcript of Kevin Slavin Come gli algoritmi danno forma al nostro mondo

Oltre all’affermazione del diritto alla spiegazione, ci aiutano sulla strada della consapevolezza  le risposte individuali, collettive e istitizionali alle domande indicate da T. Gillespie in “The Relevance of Alghoritms“:

Screenshot 2019-10-28 15.44.06

In questa prospettiva, segnaliamo il manifesto “Five ways to ensure that models serve society “:

“La modellizzazione matematica e la quantificazione sono, in ultima analisi, attività sociali. Come tali, non possono essere svolte unicamente dai modellisti o dai tecnici, ma richiedono processi inclusivi in tutte le fasi – dallo sviluppo del modello alla comunicazione dei risultati, fino alla traduzione in policy”. (da Cinque modi per garantire che i modelli servano la società)

In calce, la distinzione tra Intelligenza artificiale debole e forte. La prima è concepita come ausilio al pensiero e all’attività umana su loto aspetti e funzioni specifiche e settoriali ed è sempre più diffusa nei dispositivi digitali personali; la seconda è invece immiginata come sostitutiva o addirittura come dominante, perché con valenza ed estensione generali e tendenza all’autonomia e all’auto-incremento quantitativo e qualitativo.

Chiriatti si esprime in proposito aggiungendo il concetto di IA generale:

L’IA può essere (…) tipizzata su tre livelli:

1) IA debole, che corrisponde alla percezione aumentata ed è al servizio dell’essere umano;

2) IA forte, che corrisponde alla cognizione aumentata ed è appena paragonabile all’essere umano;

3) IA generale, che corrisponde a un essere umano aumentato ed è (…) un obiettivo utopistico, al momento. In quest’ultima visione utopistica, si tratta di colmare in poco tempo una distanza che l’evoluzione naturale ha coperto in milioni di anni, replicando artificialmente la complessità evolutiva via hardware e software.

Benanti parla poi di algoretica, contrapponibile all’algocrazia:

Se vogliamo dare alla macchina un certo grado indipendenza rispetto a un controllore umano, si apre la questione di come conciliare valori numerici con valori etici. Questo è il motivo per cui ho proposto di scrivere questo nuovo grande capitolo dell’etica, che si chiama algoretica. (…=) Possiamo intenderla come una sorta di guardrail etico, che tiene la macchina all’interno di una strada e per quanto possibile evita alcuni eventi infausti. (…) il guardrail rappresenta una soglia, che rende percorribili alcuni tratti di strada. C’è poi tutta un’altra questione, ed è una questione che riguarda come gestire questa soglia di attenzione etica per la macchina. È chiaro che qui si tratta di uscire da un modello di etica delle professioni (per cui basta l’ingegnere che è etico, e tutto il resto segue a cascata), e per uscire da questo modello secondo me è molto utile il lavoro di (…) Langdon Winner. In un paper degli anni Ottanta, per spiegare che cos’è l’etica delle tecnologie rispetto all’etica delle professioni, fece un esempio: se voi guardate i ponti in calcestruzzo che stanno sulla Parkway che porta da New York a Long Island, vedete dei ponti in calcestruzzo sull’autostrada; in realtà la questione etica lì si pone se noi andiamo a scavare un pochino nella storia di quei ponti, che sono stati voluti da Robert Moses, la cui biografia (…) racconta come Moses avesse delle idee sociali molto precise e quindi aveva chiesto – siccome la sua amata Jones Beach secondo lui doveva essere destinata solo alla white middle class – che i ponti venissero realizzati un piede e mezzo sotto misura, così gli autobus non sarebbero potuti arrivare alla spiaggia. Questo significa, concludeva Winner, che ogni artefatto tecnologico implica una relazione di potere, è un dispositivo di potere, di relazione tra le persone.

E aggiunge

(…) gli informatici tendono a sentirsi un po’ accusati di qualcosa di cui nessuno li accusa. L’algoritmo è un po’ come il farmaco che dà il medico: (…) deve avere il suo bugiardino, cioè deve essere conoscibile nei suoi effetti benefici e nei suoi effetti collaterali. L’algoritmo è un qualcosa di proprietà (…) [, ]un prodotto dell’intelletto. Se un algoritmo che oggi è in una platform ormai è protetto, dagli stessi diritti, dobbiamo pretendere che anche gli algoritmi, come i medicinali, dichiarino effetti positivi e negativi. Questo è un punto su cui non basta più l’etica, perché è un principio di soft law, servono invece dei principi di hard law, (…) in qualche misura cogenti, e provengano dagli Stati, dalle autorità politiche (…)

(…) si tratta di creare nuove piazze, nuove agorà, in cui le diverse competenze possano confrontarsi, come stiamo facendo noi in questo momento, sulla pluralità e la problematicità connesse a questa evoluzione tecnica e tecnologica.

David Theo Goldberg e Jenna Ng definiscono come segue gli studi algoritmici, concepiti in termini esplicitamente critici


“Gli studi algoritmici si basano sull’affermazione epistemologica che le tecnologie digitali rimodellano le condizioni di possibilità per una serie di pratiche discorsive e materiali cruciali. Queste pratiche e le loro modalità di produzione, rappresentazione, distribuzione e circolazione includono la definizione dell’Essere, la strutturazione del Sociale, la strumentalizzazione del Politico e l’animazione del Culturale. Attraverso intensi interventi nella struttura stessa di queste pratiche concettuali chiave, esse ri-strumentano – e in molti modi fabbricano di nuovo – la natura stessa di ciò che intendiamo come vita stessa.
Bruno Latour e Eduardo Viveiros de Castro, tra gli altri, hanno commentato i cambiamenti significativi subiti da distinzioni categoriche che erano state sostenute con relativa stabilità all’interno del progetto occidentale di modernità. Considera la crescente indistinguibilità tra umanità e animalità, l’umano e il non umano: le classiche opposizioni binarie scardinate dall’onnipresente intervento della mediazione tecnologica. Sviluppando capacità sensoriali e “intelligenza” evolutiva, le tecnologie digitali rendono possibile e materializzano un’altra condizione dell’Essere tra (o oltre?) L’umano e l’animale, che coincide con nessuno dei due ma interessa entrambi. Queste tecnologie pervadono la nostra carne e si fondono con la nostra pelle e il nostro sangue; ricollegano le nostre reti neurali e alterano i nostri schemi di pensiero, anche se gli oggetti acquisiscono capacità sempre maggiori per l’apprendimento, la reazione, il giudizio e la risposta intelligenti. Questi cambiamenti influenzano profondamente la coscienza, il sensorio, l’evoluzione e la cognizione di agenti sia umani che non umani. Anche quel binario potrebbe non reggere più: potremmo iniziare a pensare al digitale in una forma umana – un agente digitale a sé stante, con una propria intelligibilità, il cui senso del mondo è genuinamente oltre l’antropocentrico?
Un elemento chiave di questo spostamento di prospettiva e possibilità verso quest’altra definizione di Essere è l’algoritmo computazionale, brevemente definito come le istruzioni o le regole scritte in un linguaggio appropriato affinché un computer elabori un compito e, successivamente, lo svolga o lo esegua. Quando la tecnologia digitale prende il suo posto nel nuovo ternario (con umanità e animalità) compie una doppia impresa. L’algoritmo assume una vita propria, ma assume anche le nostre vite, nella misura in cui possiamo iniziare a parlare della vita algoritmica stessa e delle sue condizioni attraverso le sue numerose istanze nel mondo. Man mano che la cultura computazionale cambia ed evolve, possiamo iniziare a chiarire non solo lo stato delle condizioni algoritmiche nella vita del ventunesimo secolo, ma anche a identificare i contrattempi e i modi in cui la cultura computazionale non riesce a mantenere ciò che aveva promesso. L’analisi di regole, glitch ed errori allo stesso modo è di grande rilevanza per la valutazione di come gli algoritmi salgono e scendono. In breve, questo tipo di analisi inquadra un nuovo campo discorsivo, dove gli algoritmi diventano oggetto di studio socio-critico.
Il Codice che abbiamo sviluppato stabilisce i parametri per lo studio delle determinazioni algoritmiche (Peters 2012) della vita economica, sociale, politica e culturale, insieme ai loro modi emergenti di essere e fare. Delinea un elenco non esaustivo di proposizioni per lo studio degli stati algoritmici, per prestare attenzione analiticamente alle forme di vita prodotte dagli algoritmi, per pensare in modo critico all’estensione degli intrecci della vita con algoritmi e operazioni algoritmiche. Il Codice esprime il nostro appello per gli studi algoritmici (AS) e apre l’esplorazione di orizzonti dell’essere definiti, raffinati e prodotti algoritmicamente.

Codice
I dati sono la moneta del nostro tempo.
L’uso e il valore di scambio dei dati sono guidati da algoritmi.
La produzione, la raccolta, la distribuzione, la circolazione e la proprietà dei dati funzionano solo con la stessa efficacia degli algoritmi che le consentono.
AS è lo studio critico della vita sociale, politica e culturale dell’algoritmo e delle sue condizioni di cambiamento, evoluzione e possibilità. Valuta criticamente l’ordine sociale (ing) della vita effettuato dagli algoritmi.
AS è lo studio della digitalizzazione dei dati, la data-ificazione della vita, l’appificazione dell’essere, la bio-strumentazione e la strumentalizzazione e calcolabilità del quotidiano.
AS è lo studio della conoscenza algoritmica, delle sue formazioni epistemiche e formulazioni.
AS è lo studio di reti prodotte algoritmicamente, la produzione meccanica e l’intercomunicazione di macchine in rete. AS è, quindi, lo studio della vita della macchina abilitata algoritmicamente.
AS è lo studio del soggetto algoritmico: il soggetto sociale e politico prodotto e riproducente la pratica algoritmica e le sue modalità di essere, fare e divenire.
AS è lo studio dei futuri (pre) impostabili algoritmicamente, delle soggettività consumatrici che struttura.
AS di conseguenza è lo studio critico della ristrutturazione del agency modellata algoritmicamente e della sua perdita, autonomia e delle sue restrizioni e restrizioni.
AS, in breve, è la critica del capitalismo algoritmico, del suo modo di produzione, dell’essere e delle soggettività; di vita transitoria; di consumare la vita; della cultura politica e della politica culturale.
AS è lo studio della crescente transitività della vita sociale basata sui dati, la sua codifica, i suoi codici e le sue applicazioni: l’algoritmo”. (da Posthuman Glossary – a cura di R. Braidotti e M. Hlavajova)

Sempre in Posthuman Glossary – a cura di R. Braidotti e M. Hlavajova, Luciana Parisi, nella voce “Svolta computazionale” avverte che:

Nel ventunesimo secolo, il predominio epistemologico dell’informatica non solo ha ridotto la conoscenza a informazione, ma l’informazione stessa è arrivata a coincidere con grandi blocchi di dati altamente complessi che gli algoritmi di apprendimento correlano e modellano continuamente. Questa nuova forma di discretizzazione comporta non solo la scomposizione di blocchi di informazioni in bit che possono essere più facilmente riassemblati e classificati. Invece, in questo secolo la svolta computazionale è stata delimitata da un nuovo tipo di elaborazione delle informazioni in grado non solo di dividere e aggiungere stringhe di dati secondo funzioni programmate. Lo sviluppo di algoritmi di apprendimento nelle reti neurali artificiali mostra in modo importante che il compito di scomporre è stato sostituito dalla funzione di elaborazione per la quale le macchine automatizzate apprendono dai dati stabilendo relazioni inferenziali tra immagini facciali e nomi, o frequenza vocale e modelli. La velocità di correlazione tra blocchi di dati indipendenti corrisponde a funzioni algoritmiche di elaborazione per le quali questo e quel tipo di informazioni vengono elaborate inferenzialmente, elaborate attraverso la logica di implicazione lineare e non lineare per la quale può essere determinata una regola generale o verità. Con lo sviluppo di reti neurali artificiali e il metodo di apprendimento automatico, il passaggio alla computazione significa l’emergere di sistemi automatizzati di conoscenza (…)
Con la Macchina di Turing, la conoscenza entra pienamente nella moderna infrastruttura dell’assiomatica computazionale o verità contenente la logica che assorbe le attività sociali di comunicazione e trasmissione delle informazioni. (…) Alla fine degli anni ’80, la Macchina di Turing si era sviluppata per diventare interattiva e dialogicamente reattiva all’ambiente; non più basata sulla logica deduttiva di verità programmate, ma sulle capacità dei sistemi automatizzati di recuperare (e quindi di agire direttamente su) grandi quantità di informazioni. Con la macchina interattiva, anche i metodi computazionali della conoscenza sono cambiati radicalmente e coinvolgono verità non più programmate, ma programmabili derivanti dalle capacità degli algoritmi di stabilire inferenze dal recupero, correlazione e classificazione dei dati. Man mano che la conoscenza viene elaborata computazionalmente mediante procedure algoritmiche di ricerca e ordinamento dei dati, l’automazione algoritmica è diventata centrale per la produzione culturale (attraverso la ricerca orientata all’algoritmo e l’analisi di simulazioni al computer), per la macchina politica della governance (attraverso sistemi algoritmici e di data mining di sicurezza e controllo) e alla natura del pensiero meccanico. Più esplicitamente che mai, la svolta computazionale sta sollevando la questione di cosa e chi stia producendo conoscenza.
È possibile distinguere tre distinti ordini di conoscenza (produzione culturale, governance e pensiero stesso) (…)
Il primo ordine riguarda il modo in cui l’infrastruttura computazionale sta trasformando il compito stesso della produzione di conoscenza all’interno delle discipline umanistiche (una produzione di cultura guidata da algoritmi).
Il secondo riguarda il modo in cui le macchine autonome, il data scraping e le tecniche di data mining mostrano come la governance delle popolazioni stia sempre più tendendo verso la meta-governance dei dati, coinvolgendo l’incorporamento algoritmico del corpo sociale all’interno del corpo dei dati. Il terzo ordine riguarda il calcolo del pensiero stesso; (…)

Sovranità algoritmica (…) la svolta computazionale arriva a coincidere con un apparato di governance che opera non solo sui corpi, ma attraverso la datificazione di specificità biologiche, fisiche e culturali.

Ed ecco le “spurious correlations“, a testimoniare un pensiero logicamente fasullo.

Leggiamo poi in “IA: lavorare con l’intelligenza artificiale. Una cassetta degli attrezzi 4.0“:

(…) le strutture del dialogo sociale, la contrattazione collettiva, l’informazione, la consultazione e la partecipazione dei rappresentanti dei lavoratori e dei sindacati sono fondamentali per fornire il supporto necessario ai lavoratori per meglio modellare l’introduzione e il monitoraggio dell’IA.
Gli algoritmi, che rappresentano l’ossatura e il motore dell’IA, devono rispettare lo Stato di diritto e i diritti fondamentali, essere concepiti in modo democratico ed essere comprensibili. Dovrebbero cioè essere incorporati in regole etiche.
L’impostazione dell’algoritmo è fatto del tutto umano, una sorta di manuale delle istruzioni finalizzato a raggiungere un obiettivo.
È evidente che il potere discriminatorio dell’algoritmo è figlio di una scelta del tutto umana. Ed è altrettanto evidente che ammantare la scelta assunta con il sostegno di una procedura automatizzata come giusta perché neutra è un inganno.
Allora, per rendere trasparente e vivibile l’applicazione algoritmica, sarebbe necessario che si fornisse libero accesso al codice sorgente prima dell’implementazione del sistema di intelligenza artificiale, e non solo per quanto attiene le questioni lavorative. (..)

Nel 2019 la CE ha pubblicato linee guida sull’etica per un’IA affidabile, elaborate dal gruppo di esperti ad alto livello sull’intelligenza artificiale, secondo cui l’IA dovrebbe essere lecita (ovvero rispettare tutte le leggi e i regolamenti applicabili), etica (ovvero in linea con i principi e i valori etici) e robusta anche dal punto di vista tecnico. Inoltre, le tecnologie di IA dovrebbero soddisfare 7 requisiti:
1.     dimensione umana e supervisione;
2.     robustezza tecnica e sicurezza;
3.     privacy e governance dei dati;
4.     trasparenza;
5.     diversità, non discriminazione ed equità;
6.     benessere ambientale e sociale;
7. responsabilità (…)

tutte le decisioni basate su algoritmi dovrebbero essere spiegabili, interpretabili, comprensibili, accessibili, concise, coerenti, trasparenti, in linea con i principi e le disposizioni del GDPR. Per soddisfare questo requisito, tutte le decisioni basate su algoritmi che hanno un impatto sui lavoratori devono essere verificate da un organismo indipendente.
E in virtù delle potenzialità discriminatorie legate alle impostazioni algoritmiche, [è necessaria] una maggiore diversità nella progettazione degli algoritmi perché siano costruiti tenendo in considerazione la prospettiva di genere e l’eterogeneità della società.(..) i rappresentanti sindacali dovrebbero essere dotati delle competenze e delle conoscenze necessarie per (…) essere coinvolti nel processo.

Dal punto di vista didattico, propedeutico alla comprensione della gestione dei dati, sono interessanti, può se collegate a una poco convincente Educazione Civica di impostazione mainstream, le proposte di “Dati Cittadinanza e Coding“, imperniate sul concetto di “dati educativi”:

[che sono] i dati che permettono di apprendere in maniera significativa. Non dati da trasmettere, da acquisire, da assorbire, ma dati da cercare, da scoprire e interpretare. Dati sui quali riflettere e su cui costruite delle ipotesi da verificare.

Osservava Gallino:

Tranne forse che nell’immaginazione dei semplici, la democrazia elettronica (se mai si darà alcunché del genere), perfino nel ristretto ambito delle organizzazioni produttive, non potrà mai consistere – ma a ben vedere ciò dovrebbe valere anche per la democrazia in linguaggio naturale – unicamente nella possibilità di premere il più spesso possibile un bottone per esprimere le proprie preferenze; bensì dovrà fondarsi sulla possibilità ben più incisiva, e per questo assai più difficilmente ottenibile a fronte di qualsiasi tipo di potere politico o economico, di sviscerare a fondo, per ragioni tecniche imposte dalla costruzione stessa dell’algoritmo che dovrà sintetizzare le decisioni di molti individui, le dimensioni, la topologia, le discontinuità dello spazio reale delle decisioni da prendere, assai prima di accingersi a muovere i primi passi in esso con l’ausilio d’un elaboratore. (…) La intelligenza del lavoro (la capacità di intelligerlo) risulta allora sempre più strettamente associata all’effetto che la qualità del lavoro stesso in un ambiente informatizzato può avere sull’intelligenza di chi lo svolge. Con una relazione cartesiana diretta, che può però essere invertita: perché se l’intelligenza del lavoro permane separata dal suo svolgimento, per quanto questo possa in sé risultare complesso, grazie al programma che ne delimita lo spazio decisionale, l’intelligenza dell’esecutore apparirà gradualmente sempre più arretrata. Da molti segni, inclusa la facilità paurosa con cui giovanissimi compiono lavori di programmazione difficili anche per uno specialista, l’informatica sta ormai trasformando l’ecologia dell’intelligenza, forse della mente: cioè il rapporto tra la mente individuale e la totalità del suo ambiente fisico, sociale e culturale. Sebbene l’intelligenza artificiale sia limitata a rigore allo studio di modelli della mente umana, sembra arduo negare che i grandi sistemi dell’informatica installati nelle organizzazioni produttive, prodotti ciascuno da centinaia di anni/ricercatore, configurino una forma interamente nuova di intelligenza artificiale, una intelligenza organizzativa: nuova per l’immensa portata e varietà delle sue decisioni, per l’implacabile precisione, per la velocità di operazione, per il fatto di non poter essere localizzata in nessun luogo, in nessuna mente, in nessuna macchina. Tutto ciò che al caso stava un tempo nella memoria, nella intelligenza potenziale e cinetica di migliaia di persone, è ora concentrato in un singolo programma, o sistemi di programmi. L’interazione del singolo individuo con l’intelligenza organizzativa diffusa attorno a lui non può non modificarne la struttura della mente, il modo programmabile in cui essa recepisce, elabora e ritrasmette informazioni. Chi è fuori dal circuito dell’intelligenza organizzativa è destinato, si diceva, alla peggiore delle estraniazioni; ma chi è attivamente inserito in esso, chi lo usa come chi partecipa alla sua costruzione, è esposto a esperienze il cui effetto può sintetizzarsi in una sorta di informatizzazione della mente: l’acquisizione e lo sviluppo di modelli di ragionamento assimilabili in ogni campo a quelli che furono scientemente sviluppati allo scopo limitato e specifico di comunicare con l’elaboratore. (L. Gallino, “Tecnologie e democrazia. Conoscenze tecniche e scientifiche come beni pubblici”, Einaudi)

Diamo ora spazio a un articolo “totemico”

Terranova fa alcune considerazioni importanti

Andrew Goffey descrive gli algoritmi come “il concetto unificante per tutte le attività in cui si impegnano gli informatici […] e l’entità fondamentale con cui [essi] operano”. Un algoritmo può essere provvisoriamente definito come la “descrizione del metodo con cui un compito deve essere portato a termine” mediante sequenze di passi o istruzioni che operano secondo dati e strutture computazionali. In quanto tale, un algoritmo è un’astrazione “che ha un’esistenza autonoma indipendente da ciò che gli scienziati informatici chiamano ‘dettagli di implementazione’, cioè la sua incarnazione in un particolare linguaggio di programmazione per una particolare architettura di macchina”. Può variare in complessità dal più semplice insieme di regole descritte nel linguaggio naturale (…) alle più complesse formule matematiche che coinvolgono tutti i tipi di variabili (…). Allo stesso tempo, per funzionare, gli algoritmi devono esistere come parti di assemblaggi che includono hardware, dati, strutture di dati (come elenchi, database e memoria) e comportamenti e azioni dei corpi. Affinché l’algoritmo diventi software sociale, infatti, “deve acquisire il suo potere come artefatto e processo sociale o culturale attraverso un adattamento sempre migliore ai comportamenti e ai corpi che si verificano al suo esterno”. Inoltre, per Luciana Parisi, l’ingresso della logica del calcolo nella cultura segna la trasformazione degli algoritmi da “istruzioni da eseguire” in “entità performanti”. Questa trasformazione è collegata alla “tendenza entropica dei dati ad aumentare di dimensioni”, che fa sì che “quantità infinite di informazioni [per] interferiscano con e riprogrammino le procedure algoritmiche”. Per Parisi, questa «nuova funzione degli algoritmi comporta quindi non la riduzione dei dati a cifre binarie, ma l’ingresso di quantità casuali nel calcolo». Pertanto, gli algoritmi non sono né un insieme omogeneo di tecniche, né garantiscono “l’esecuzione infallibile dell’ordine e del controllo automatizzati”. Esse non corrispondono semplicemente a una nuova modalità di “regolazione algoritmica” che assicura la regolare ottimizzazione di tutti i tipi di processi, ma confrontano la governance con “dati che producono regole aliene”, regole che sono “allo stesso tempo discrete e infinite, unite e frattalizzato”. Oppure, come direbbero i teorici del comune, quando gli algoritmi incontrano gli infiniti dati prodotti dalla cooperazione sociale, non ottengono un controllo regolare ma si confrontano con un eccesso, cioè un surplus, che fa sì che il governo capitalistico della bio -lavoro cognitivo per affrontare nuove indeterminatezze. Dal punto di vista del capitalismo, invece, gli algoritmi sono principalmente una forma di capitale fisso: sono solo mezzi di produzione. Codificano una certa quantità di conoscenza sociale (astratta da quella elaborata da matematici, programmatori e anche attività degli utenti), ma non hanno valore di per sé. Nell’economia attuale, hanno valore solo in quanto consentono la conversione della conoscenza in valore di scambio (monetizzazione) e la sua accumulazione esponenzialmente crescente (i titanici quasi-monopoli dello Stack aziendale). Nella misura in cui costituiscono capitale fisso, algoritmi come il PageRank di Google e l’EdgeRank di Facebook appaiono “come un presupposto rispetto al quale il potere di creazione di valore della capacità lavorativa individuale è una grandezza infinitesimale, evanescente”, ed è per questo che richiede retribuzioni individuali agli utenti per il loro “lavoro gratuito” sono fuori luogo. Ciò che deve essere messo in primo piano non è il lavoro individuale dell’utente, ma i poteri molto più ampi della cooperazione sociale così liberati. Ciò implica una profonda trasformazione della presa che la relazione sociale che chiamiamo economia capitalista ha sulla società. Ma, come tutte le tecnologie e le tecniche, non è tutto ciò che sono. [Ne “Il frammento sulle macchine“] Marx afferma esplicitamente che, anche se il capitale si appropria della tecnologia come la forma più efficace di sussunzione del lavoro, non è tutto ciò che si può dire al riguardo. La sua esistenza come macchina, insiste, non è “identica alla sua esistenza come capitale […] e quindi non ne consegue che la sussunzione sotto il rapporto sociale del capitale sia il rapporto sociale di produzione più appropriato e ultimo per l’applicazione della macchina”. È quindi essenziale ricordare che il valore strumentale che gli algoritmi hanno per il capitale non esaurisce il valore della tecnologia in generale e degli algoritmi in particolare, cioè la loro capacità di esprimere non solo il “valore d’uso” come diceva Marx, ma anche valori estetici, esistenziali, sociali ed etici. Dobbiamo chiederci, quindi, non solo come funziona oggi l’automazione algoritmica (principalmente in termini di controllo, monetizzazione e alimentazione dell’economia del debito), ma anche che tipo di tempo ed energia assorbe e come potrebbe essere fatta funzionare diversi assemblaggi sociali e politici che non sono completamente sussunti o soggetti alle spinte capitaliste verso l’accumulazione e lo sfruttamento.

5 commenti

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...