Paradigma connessionista dell’intelligenza, semplificazione, quantificazione e condizionamento

Chiariscono e argomentano Milani e Garcia:

Nel connessionismo l’analogia funzionale si sposta dalla mente (tipica del paradigma simbolico-cognitivista) al cervello umano e alle reti neurali biologiche. L’attività della mente risulta distribuita tra le connessioni delle unità di calcolo (i “neuroni”); non è quindi analizzabile nei singoli processi cognitivi. La macchina connessionista “impara” iterando modelli di calcolo sotto forma di algoritmi, principalmente costrutti condizionali di tipo IF-THEN-ELSE. (…) Il modello connessionista di gran lunga più comune e conosciuto è ispirato al cervello. Si parla quindi di reti neurali, in cui i singoli nodi (le unità di calcolo) delle reti sono le unità che rappresentano i neuroni, mentre le connessioni tra loro potrebbero rappresentare le sinapsi (…) Probabilmente non è un caso che l’attuale diffusione delle tecniche di deep learning (apprendimento profondo) per l’addestramento dell’“intelligenza” nelle macchine si sviluppi in parallelo con l’ampia diffusione degli approcci comportamentali nella psicologia umana e in molti altri campi, per quanto mescolati a quelli cognitivi. (…) Consideriamo in maniera più generale il funzionamento concreto dei processi di deep learning. Sottoinsieme del machine learning (…), indica un insieme di tecniche basate su reti neurali artificiali organizzate in diversi strati, dove ogni strato/livello (layer) calcola i valori per quello successivo. Si basa su classi di algoritmi di apprendimento automatico che utilizzano livelli multipli (iterazioni, cioè ripetizioni procedurali) per estrarre progressivamente caratteristiche di livello superiore dall’input grezzo. La nostra ipotesi è che si tratta di una tipologia di apprendimento automatico che può essere descritta come un modo di condizionare le macchine. Il condizionamento può essere visto come una particolare forma di automazione, cioè l’automazione di un comportamento attraverso l’iterazione ripetuta di modelli semplici, ma in evoluzione, prendendo in considerazione alcuni feedback (retroazioni) e inserendoli in uno schema esistente. Questo condizionamento è possibile e anzi necessario perché corrisponde al condizionamento parallelo su larga scala degli esseri umani coinvolti nelle interazioni con le cosiddette macchine intelligenti. Più gli esseri umani si rivolgono a queste macchine in modo meccanicamente semplice e non ambiguo, andando incontro alla tendenza degli algoritmi a semplificare e quantificare seguendo schemi di automazione, più le macchine agiscono “automaticamente” e sembrano “intelligenti”. L’esperienza acquisita dagli esseri umani con i motori di ricerca sul World Wide Web è forse il modo più semplice per esemplificare questa tesi. (…) Quando gli umani iniziano a riempire il campo vuoto del motore di ricerca di Google, dove il cursore lampeggia, di solito hanno cura di inserire qualche parola chiave che sembra adatta a descrivere ciò che stanno cercando. Tendono a evitare di complicare troppo le cose e non di rado optano per le ricerche suggerite dal sistema, cioè quelle più ricercate. Il comportamento umano nei confronti della macchina è quindi semplificato e adattato a parametri statisticamente quantificabili. SE la maggior parte degli utenti con caratteristiche analoghe a me (ad esempio, il browser configurato in lingua italiana) ha cliccato un certo risultato, ALLORA automaticamente il sistema proporrà quel risultato per primo, perché statisticamente più cliccato dal gruppo di utenti a cui il sistema mi ha assegnato. ALTRIMENTI cercherà un risultato più vicino a quelle che ha identificato come caratteristiche che mi determinano, assimilandomi statisticamente ad altri utenti. Il costrutto condizionale IF-THEN-ELSE è all’opera. Semplificazione e quantificazione non sono concetti comuni per definire “l’intelligenza”, eppure questi sono i due principali attributi degli attuali sistemi di IA. Questo comportamento non è il risultato del caso, una caratteristica “emersa” dalle macchine grazie a un implacabile processo evolutivo, ma il risultato di un lungo processo di selezione, aggiustamento e perfezionamento di algoritmi e tecniche basato su presupposti teorici e ideologici. (C. Milani – V. García, “L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco”)