In sintesi, un algoritmo è un computo statistico sofisticato.
Seguendo Vespignani, approfondiamo, nella convinzione che – per una cittadinanza piena e riflessiva – sia necessario possedere in proposito un quadro concettuale emancipante, che vada oltre la mera definizione tecnica, in direzione etica e civile. Un algoritmo è
“una serie di istruzioni precise ed espressioni matematiche che usiamo per trovare associazioni, identificare tendenze, estrarre le leggi e le dinamiche alla base di fenomeni come il contagio, la diffusione di idee, o l’andamento dei mercati finanziari“.
L’autore fa l’esempio di Amazon, che suggerisce i prodotti sulla base delle abitudini rilevate, così come in Facebook un altro algoritmo ci indica i post da vedere e altri modi d’uso, in base agli apprezzamenti precedenti (like e condivisione). Gli algoritmi si fondano su modelli di apprendimento automatico, che impiega la statistica: rilevano nei dati similarità e ripetizioni, prevedendo – almeno in termini di alternative probabilistiche – i comportamenti futuri. La potenza di calcolo e di elaborazione dei dispositivi digitali coglie ciò che gli esseri umani non sono in grado di individuare e costruiscono così profilo psicometrici e psicodemografici.
Secondo Pariser è quindi necessario che tutti i cittafini acquiscano “un livello basilare di competenza in materia di algoritmi“, perché è loro diritto e loro dovere comprendere e valutare “i sistemi informatici che agiscono sulle strutture e sulle scelte pubbliche.
E quindi elenca i concetti fondamentali dei quali è necessario comprendere la gestione nelle procedure computazionali con fini decisionali, predittivi e persuasivi:
- variabili,
- iterazioni,
- memoria.
Oltre a questo, a scopo di trasparenza e sempre per Pariser, è necessario comprendere che “gli algoritmi della personalizzazione possono creare un circolo vizioso in cui quello che il codice sa di noi costruisce il nostro ambiente mediatico e il nostro ambiente mediatico condiziona le nostre preferenze future. Questo problema si può evitare, ma è necessario creare un algoritmo che includa la «falsificabilità», vale a dire capace di confutare l’idea che si è fatto di noi. (Se Amazon è convinto che ci piacciano i romanzi gialli, potrebbe presentarci altri generi letterari per capire se è veramente così)”.
Molto importanti per la consapevolezza le risposte individuali, collettive e istitizionali alle domande indicate da T. Gillespie in “The Relevance of Alghoritms“:
In questa prospettiva, segnaliamo il manifesto “Five ways to ensure that models serve society “:
“La modellizzazione matematica e la quantificazione sono, in ultima analisi, attività sociali. Come tali, non possono essere svolte unicamente dai modellisti o dai tecnici, ma richiedono processi inclusivi in tutte le fasi – dallo sviluppo del modello alla comunicazione dei risultati, fino alla traduzione in policy”. (da Cinque modi per garantire che i modelli servano la società)
In calce, la distinzione tra Intelligenza artificiale debole e forte. La prima è concepitato come ausilio al pensiero e all’attività umana su loto aspetti e funzioni specifiche e settoriali ed è sempre più diffusa nei dispositivi digitali personali; la seconda è invece immiginata come sostitutiva o addirittura come dominante, perché con valenza ed estensione generali e tendenza all’autonomia e all’auto-incremento quantitativo e qualitativo.
[…] di potere da parte degli algoritmi corporativi, per esempio da parte delle procedure di proprietà di GAFAM (Google, Amazon, Facebook, […]
"Mi piace""Mi piace"
[…] delle abitudini e dei comportamenti usuali da parte degli utenti di dispositivi muniti di Intelligenza Artificiale debole mediante sussunzione, rimodulazione, […]
"Mi piace""Mi piace"
[…] sono chiamate le elaborazioni dei dati e dei metadati “primari”, frutto delle procedure algoritmiche e dell’apprendimento automatico, in funzione delle proprie attività e del proprio incremento […]
"Mi piace""Mi piace"
[…] mediante IA e algoritmi, che selezionano, fanno circolare e valorizzano i contenuti, sulla base di regole e procedure […]
"Mi piace""Mi piace"
[…] Strutture coerenti di elementi non misurabili direttamente, presenti all’interno di un insieme di variabili osservabili in forma diretta direttamente. I modelli a fattori latenti sono utilizzati nella computazione algoritmica. […]
"Mi piace""Mi piace"