Apprendimento automatico (machine learning) e deep learning

Il ML è una delle 5 famiglie in cui viene suddivisa l’Intelligenza artificiale (computer vision, linguaggio, assistenti virtuali e automazione di processo robotizzata le altre quattro): è un processo mediante il quale gli algoritmi imparano a riconoscere modelli nella realtà, analizzando insiemi molto estesi di dati. L’algoritmo è privo di regole e modelli espliciti pre-programmati e diventa capace di identificare autonomamente relazioni tra i dati, perché adatta sé stesso elaborando le informazioni che riceve e ricavandone schemi e associazioni.

Questo modello consente di identificare schemi e correlazioni spesso troppo complessi per essere individuati dagli esseri umani. Secondo vantaggio è l’altissima velocità operativa, associata alla potenza di calcolo.

Va chiarito che il concetto “decisione algoritmica” prevede due tipologie:

– classificazione, ovvero riconoscimento di un modello assegnando un’etichetta a una classe discreta;

–  previsione/raccomandazione), ovvero generazione di un modello predittivo.

Come ricorda Chiriatti:

Classificazione e previsione lavorano insieme, come nel caso delle vetture a guida autonoma che devono riconoscere gli oggetti e prevederne i movimenti. L’apprendimento automatico viene utilizzato per prevedere tendenze e comportamenti futuri in base a quelli passati, ossia per completare l’informazione quando se ne conosce solo una parte. (M. Chiriatti, “Incoscienza artificiale. Come fanno le macchine a prevedere per noi”)

.

Vi sono tre categorie principali di tecniche: supervised, unsupervised e reinforced.

Il supervised learning è la tecnica per cui l’algoritmo confronta i suoi risultati con i risultati corretti durante la fase di apprendimento: formula previsioni sui dati ed è corretto se sbaglia; questo meccanismo cessa quando le prestazioni raggiungono un livello accettabile.

Con il unsupervised learning l’algoritmo deve individuare strutture, schemi e associazioni che legano un insieme di dati, senza confrontarli con un insieme di risultati.

Il reinforced learning (apprendimento con rinforzo) prevede che l’algoritmo impari per tentativi ed errori: prova schemi diversi, da mantenere o scartare in funzione della corretteza o meno dei risultati fino a quando individua lo schema che rende minimo il numero di errori.

Il deep learning, inoltre, utilizza le reti neurali – che imitano il funzionamento del cervello (neuromimetismo) – in cui l’algoritmo stimola con dati in entrata un insieme di neuroni che producono un dato in uscita. La rete neurale comprende più livelli e i segnali di input e output passano da un nodo all’altro utilizzando connessioni o collegamenti analoghi alle giunzioni sinaptiche tra i neuroni. Il livello finale definisce la risposta dell’intero processo.

Con il termine black box si definiscono alcuni sistemi di machine learning che da un input forniscono un output e in cui i calcoli che il processo comporta non sono del tutto trasparenti e interpretabili. In particolare, vengono individuate correlazioni che non hanno necessariamente un rapporto di causazione.

Il natural language processing comprende gli algoritmi in grado di «comprendere» il linguaggio parlato o scritto, mediante analisi di vocabolario, grammatica, contesto e variazioni d’uso, e si situa nel machine learning.

Balestrieri e Balestrieri chiariscono che:

Le conquiste tecniche del deep learning hanno permesso un salto qualitativo dell’intelligenza artificiale, rappresentato dal passaggio dall’elaborazione di dati già strutturati, come avveniva nei primi decenni, alla capacità di organizzare e analizzare dati non strutturati, quali ad esempio i testi in linguaggio naturale, la voce umana, le immagini video. Nel 2017, i più efficienti assistenti vocali erano già in grado di comprendere la voce umana con una percentuale di parole fraintese inferiore a quella che si registra mediamente nel dialogo tra due persone; e da allora i progressi sono stati rapidissimi perché quanto più il sistema intelligente ingerisce parole e frasi, tanto più diviene esperto e tanto più si riduce il tasso di errore.
I sistemi intelligenti sono così in grado di interagire con il mondo reale, sia esso costituito da attività umana o da eventi raccolti e analizzati da sensori, i cui dati possono presentare un’elevata imprevedibilità e casualità. Senza questa svolta sarebbero inconcepibili l’auto senza guidatore o l’automatizzazione dell’assistenza clienti o di una filiera logistica. I passi sono stati rapidi, soprattutto per l’integrazione dei progressi del deep learning nei prodotti e nei servizi di largo consumo. Nel 2011, Apple ha integrato negli smartphone l’assistente vocale Siri – anche se aver fatto tale passo per prima, con una tecnologia allora solo in parte matura, non è servito ad Apple a mantenersi in vantaggio rispetto ad Amazon o Google nell’utilizzo commerciale dell’intelligenza artificiale.10 Nel 2014 Youtube è riuscito a riconoscere e classificare immagini di gatti all’interno di video: il deep learning consente infatti di contestualizzare in modo dinamico soggetti e azioni in un evento. Nel 2019, il riconoscimento facciale, la selezione e l’organizzazione della documentazione legale più di routine, la traduzione istantanea di videoconferenze, l’utilizzo delle ricerche degli utenti su Google per anticipare le epidemie d’influenza sono solo alcuni dei tantissimi esempi della pervasività delle tecnologie d’intelligenza artificiale fondate sul deep learning.

Molto chiaro anche Cristianini:

Il machine learning è la tecnologia dedicata all’individuazione di relazioni e regolarità nei dati, estraendo quelle di cui possiamo fidarci, evitando di essere ingannati da coincidenze, al fine di fare previsioni affidabili. Come abbiamo visto nel capitolo 2, i teorici di oggi pensano che lo scopo di questo gioco sia solo di fare previsioni, non di identificare alcuna verità profonda sulla sorgente dei dati. Gli stessi teorici accettano anche altri limiti: per esempio che potrebbero essere incapaci di interpretare le relazioni scoperte dalla macchina. (N. Cristianini, “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”)

A loro volta, Panciroli e Rivoltella ragionano di deep learning in questi termini:

Si indica con questo termine un’architettura artificiale che simula il cervello umano grazie alla sua organizzazione basata su reti neurali multistrato; l’aggettivo “profondo” va proprio ricondotto allo spessore di questa stratificazione. Tre sono gli elementi che concorrono a definire il Deep learning: una significativa base di dati, che serve a mettere in apprendimento la rete neurale; una consistente potenza di calcolo e una altrettanto consistente capacità di memoria; algoritmi che sorreggono il processo di apprendimento automatico (C. Panciroli – P.C. Rivoltella, “Pedagogia algoritmica. Per una riflessione educativa sull’Intelligenza Artificiale”)

McQuillan parla apprendimento automatico come insieme di operazioni matematiche di iterazione e ottimizzazione. (fonte: D. McQuillan, “Resisting AI: An Anti-fascist Approach to Artificial Intelligence” – traduzione in proprio)

amazon
amazon2
Brevetto per “un metodo che permette ad un sistema informatico di utilizzare l’assistenza umana nell’esecuzione di compiti e (… ) di remunerare l’umano”, depositato nel 2001 da V. Harinarayan, per conto di Amazon.

Clicca per accedere

8 commenti

  1. […] L’estrazione di valore dalle risorse materiali da una parte e dai dati dall’altra è in posizione di comando nell’assetto complessivo del capitalismo. L’estrattivismo è profitto che si trasforma in rendita e si estende anche al campo open-source, come nel caso dell’appropriazione da parte di Google del sistema operativo Android. Esso sussume il “sociale” nell’economico, catturando identità e interazioni in funzione della profilazione; trasforma il tempo libero in lavoro gratuito e invisibile, occultato dal mito degli algoritmi e dell’intelligenza artificiale. […]

    "Mi piace"

Lascia un commento