Descrivere le tecnologie digitali come prodotti sociali e svelarne le ambiguità in modo emancipato e con scopo emancipante è dovere politico-culturale di una critica radicale della "platform society", capace di decostruire mediante cortocircuiti concettuali l'inganno tecno-liberista della "società della conoscenza sorvegliata".
Costituisce una delle 5 famiglie in cui viene suddivisa l’Intelligenza artificiale (computer vision, linguaggio, assistenti virtuali e automazione di processo robotizzata le altre quattro): è un processo mediante il quale gli algoritmi imparano a riconoscere modelli nella realtà, analizzando insiemi molto estesi di dati. L’algoritmo è privo di regole e modelli espliciti pre-programmati e diventa capace di identificare autonomamente relazioni tra i dati, perché adatta sé stesso elaborando le informazioni che riceve e ricavandone schemi e associazioni.
Questo modello consente di identificare schemi e correlazioni spesso troppo complessi per essere individuati dagli esseri umani. Secondo vantaggio è l’altissima velocità operativa, associata alla potenza di calcolo.
Va chiarito che il concetto “decisione algoritmica” prevede due tipologie:
– classificazione, ovvero riconoscimento di un modello assegnando un’etichetta a una classe discreta;
– previsione/raccomandazione), ovvero generazione di un modello predittivo.
Come ricorda Chiriatti:
Classificazione e previsione lavorano insieme, come nel caso delle vetture a guida autonoma che devono riconoscere gli oggetti e prevederne i movimenti. L’apprendimento automatico viene utilizzato per prevedere tendenze e comportamenti futuri in base a quelli passati, ossia per completare l’informazione quando se ne conosce solo una parte. (M. Chiriatti, “Incoscienza artificiale. Come fanno le macchine a prevedere per noi”)
.
Vi sono tre categorie principali di tecniche: supervised, unsupervised e reinforced.
Il supervised learning è la tecnica per cui l’algoritmo confronta i suoi risultati con i risultati corretti durante la fase di apprendimento: formula previsioni sui dati ed è corretto se sbaglia; questo meccanismo cessa quando le prestazioni raggiungono un livello accettabile.
Con il unsupervised learning l’algoritmo deve individuare strutture, schemi e associazioni che legano un insieme di dati, senza confrontarli con un insieme di risultati.
Il reinforced learning (apprendimento con rinforzo) prevede che l’algoritmo impari per tentativi ed errori: prova schemi diversi, da mantenere o scartare in funzione della corretteza o meno dei risultati fino a quando individua lo schema che rende minimo il numero di errori.
Il deep learning, inoltre, utilizza le reti neurali – che imitano il funzionamento del cervello (neuromimetismo) – in cui l’algoritmo stimola con dati in entrata un insieme di neuroni che producono un dato in uscita. La rete neurale comprende più livelli e i segnali di input e output passano da un nodo all’altro utilizzando connessioni o collegamenti analoghi alle giunzioni sinaptiche tra i neuroni. Il livello finale definisce la risposta dell’intero processo.
Con il termine black boxsi definiscono alcuni sistemi di machine learning che da un input forniscono un output e in cui i calcoli che il processo comporta non sono del tutto trasparenti e interpretabili. In particolare, vengono individuate correlazioni che non hanno necessariamente un rapporto di causazione.
Il natural language processing comprende gli algoritmi in grado di «comprendere» il linguaggio parlato o scritto, mediante analisi di vocabolario, grammatica, contesto e variazioni d’uso, e si situa nel machine learning.
Le conquiste tecniche del deep learning hanno permesso un salto qualitativo dell’intelligenza artificiale, rappresentato dal passaggio dall’elaborazione di dati già strutturati, come avveniva nei primi decenni, alla capacità di organizzare e analizzare dati non strutturati, quali ad esempio i testi in linguaggio naturale, la voce umana, le immagini video. Nel 2017, i più efficienti assistenti vocali erano già in grado di comprendere la voce umana con una percentuale di parole fraintese inferiore a quella che si registra mediamente nel dialogo tra due persone; e da allora i progressi sono stati rapidissimi perché quanto più il sistema intelligente ingerisce parole e frasi, tanto più diviene esperto e tanto più si riduce il tasso di errore. I sistemi intelligenti sono così in grado di interagire con il mondo reale, sia esso costituito da attività umana o da eventi raccolti e analizzati da sensori, i cui dati possono presentare un’elevata imprevedibilità e casualità. Senza questa svolta sarebbero inconcepibili l’auto senza guidatore o l’automatizzazione dell’assistenza clienti o di una filiera logistica. I passi sono stati rapidi, soprattutto per l’integrazione dei progressi del deep learning nei prodotti e nei servizi di largo consumo. Nel 2011, Apple ha integrato negli smartphone l’assistente vocale Siri – anche se aver fatto tale passo per prima, con una tecnologia allora solo in parte matura, non è servito ad Apple a mantenersi in vantaggio rispetto ad Amazon o Google nell’utilizzo commerciale dell’intelligenza artificiale.10 Nel 2014 Youtube è riuscito a riconoscere e classificare immagini di gatti all’interno di video: il deep learning consente infatti di contestualizzare in modo dinamico soggetti e azioni in un evento. Nel 2019, il riconoscimento facciale, la selezione e l’organizzazione della documentazione legale più di routine, la traduzione istantanea di videoconferenze, l’utilizzo delle ricerche degli utenti su Google per anticipare le epidemie d’influenza sono solo alcuni dei tantissimi esempi della pervasività delle tecnologie d’intelligenza artificiale fondate sul deep learning.
Brevetto per “un metodo che permette ad un sistema informatico di utilizzare l’assistenza umana nell’esecuzione di compiti e (… ) di remunerare l’umano”, depositato nel 2001 da V. Harinarayan, per conto di Amazon.
[…] e classificati da parte degli “operai del clic” allo scopo di alimentare l’intelligenza artificiale dei mediatori informazionali globali. Questi lavoratori sono reclutati da parte di piattaforme […]
[…] L’estrazione di valore dalle risorse materiali da una parte e dai dati dall’altra è in posizione di comando nell’assetto complessivo del capitalismo. L’estrattivismo è profitto che si trasforma in rendita e si estende anche al campo open-source, come nel caso dell’appropriazione da parte di Google del sistema operativo Android. Esso sussume il “sociale” nell’economico, catturando identità e interazioni in funzione della profilazione; trasforma il tempo libero in lavoro gratuito e invisibile, occultato dal mito degli algoritmi e dell’intelligenza artificiale. […]
[…] indirette dei lavoratori del dito, che classificando e etichettando i Big Data, mettono le macchine nelle condizioni di costruire categorie, relazioni, modelli e […]
[…] Dati sull’esperienza umana che il capitalismo della sorveglianza utilizza come materia e trasforma in prodotti predittivi dei comportamenti, sottoponedolo a un processo di lavorazione avanzato chiamato “intelligenza artificiale” e “machine learning“. […]
[…] del processo di sviluppo dell’Intelligenza Artificiale e del machine learning oltre il quale questi dispositivi andrebbero oltre il controllo e le capacità progettuali e […]
[…] dei dati e dei metadati “primari”, frutto delle procedure algoritmiche e dell’apprendimento automatico, in funzione delle proprie attività e del proprio incremento qualitativo e […]
[…] e classificati da parte degli “operai del clic” allo scopo di alimentare l’intelligenza artificiale dei mediatori informazionali globali. Questi lavoratori sono reclutati da parte di piattaforme […]
"Mi piace""Mi piace"
[…] L’estrazione di valore dalle risorse materiali da una parte e dai dati dall’altra è in posizione di comando nell’assetto complessivo del capitalismo. L’estrattivismo è profitto che si trasforma in rendita e si estende anche al campo open-source, come nel caso dell’appropriazione da parte di Google del sistema operativo Android. Esso sussume il “sociale” nell’economico, catturando identità e interazioni in funzione della profilazione; trasforma il tempo libero in lavoro gratuito e invisibile, occultato dal mito degli algoritmi e dell’intelligenza artificiale. […]
"Mi piace""Mi piace"
[…] indirette dei lavoratori del dito, che classificando e etichettando i Big Data, mettono le macchine nelle condizioni di costruire categorie, relazioni, modelli e […]
"Mi piace""Mi piace"
[…] la classificazione di informazioni secondo criteri e categorie, destinate ad allevare e istruire il machine learning del capitalismo di […]
"Mi piace""Mi piace"
[…] Dati sull’esperienza umana che il capitalismo della sorveglianza utilizza come materia e trasforma in prodotti predittivi dei comportamenti, sottoponedolo a un processo di lavorazione avanzato chiamato “intelligenza artificiale” e “machine learning“. […]
"Mi piace""Mi piace"
[…] di processi di negoziazione e interazioni con decisioni algoritmiche e interventi di IA unilaterali e finalizzati all’estrazione di profitto e […]
"Mi piace""Mi piace"
[…] del processo di sviluppo dell’Intelligenza Artificiale e del machine learning oltre il quale questi dispositivi andrebbero oltre il controllo e le capacità progettuali e […]
"Mi piace""Mi piace"
[…] dei dati e dei metadati “primari”, frutto delle procedure algoritmiche e dell’apprendimento automatico, in funzione delle proprie attività e del proprio incremento qualitativo e […]
"Mi piace""Mi piace"