Intelligenza meccanizzata e meccanizzante

Pasquinelli è ancora una volta illuminante:

L’IA non è una manifestazione di superintelligenza come certe vulgate, sia tecno-entusiaste che tecno-apocalittiche, sostengono. Al contrario, essa rappresenta una meccanizzazione dell’intelligenza media di una data società. Matematicamente parlando, l’IA funziona in base a una rappresentazione statistica (di certo estesissima, ma pure sempre statistica) della cultura umana codificata nella forma di archivi digitali (i cosiddetti training dataset). Sistemi di IA, come ChatGPT, elaborano enormi quantità di questi dati – testi, immagini e altro ancora – per poi generare previsioni e classificazioni basate sui valori medi di questi archivi digitali della conoscenza collettiva. È in un certo senso un modello statistico dell’essere umano medio epurato da estremismi e comportamenti anomali. Questo potere di normalizzazione insito nell’IA è già stato discusso da molti studiosi che hanno ricordato l’origine dell’apprendimento automatico (machine learning) nelle varie tecniche di calcolo della prima statistica (correlazione, deviazione standard, regressione logistica, analisi fattoriale eccetera) (…) La vocazione normalizzante della statistica originaria si riflette e riconosce anche nell’IA contemporanea. (…) [Il] processo di misurazione si è spostato dalle risorse naturali e dal lavoro manuale a quello mentale e, infine, al lavoro come capacità universale, alla cooperazione sociale come forza produttrice. Diversi economisti hanno evidenziato il ruolo della conoscenza nell’economia, di quello che i socialisti ricardiani e più recentemente gli operaisti hanno chiamato il general intellect, o intelletto generale (..) L’IA rappresenta per la prima volta una meccanizzazione dell’intelletto generale in quanto forma collettiva e un monopolio di questa stessa dimensione collettiva su scala globale (…) [e] si sta affermando come metrica analitica per valutare il lavoro e l’intelletto collettivo. (…) Ai processi di digitalizzazione, l’IA ha contribuito (…) con l’automazione della classificazione, ovvero la capacità di riconoscere e interpretare segni e oggetti. (…) i sistemi di IA di oggi sono macchine interpretative di natura statistica e non rigide macchine logiche. Questo forse rimane l’aspetto più interessante dell’IA attuale e non ha tanto a che fare con una logica interna dell’intelligenza macchinica ma con una logica esterna, con l’associazione del suo output a una convenzione che stabilisce il significato di un’immagine o altro simbolo in una data cultura. La caratteristica chiave dei modelli di IA attuali è di registrare regole esterne, cioè convenzioni sociali. La loro “intelligenza” è sociomorfica, non biomorfica o matematica. (…) , classificando linguaggio, immagini e azioni, i sistemi di IA come ChatGPT misurano implicitamente la qualità, l’accuratezza e l’efficienza del lavoro umano. La capacità di classificazione insita nei grandi modelli di linguaggio diventa un potente strumento per giudicare capacità individuali, intelligenza collettiva e patrimonio culturale. Il test di Turing viene trasfigurato in un imitation game perfetto per il mercato del lavoro, in cui un modello algoritmico impersonale giudica quali esseri umani siano qualificati e quali no, quali possono accedere a un lavoro e quali no. (M. Pasquinelli, “LA VITA NON È UN TEST DI TURING. CONTRO L’IA COME NUOVA METRICA SOCIALE” – in Micromega 6/24)