Epistemologia artificiale artificiale

Anche se in modo non del tutto preciso, già Luciano Gallino poneva il problema dell’inclusione o dell’esclusione dalla conoscenza riconosciuta da parte dei dispositivi digitali:

Un motore di ricerca, come noto, presenta i risultati della sua attività disponendo i documenti in un ordine stabilito automaticamente in base al numero di consultazioni, ovvero di scaricamenti (downloads), di cui sono stati in precedenza oggetto. Ora avviene che pochissimi utenti, inclusi gli esperti, abbiano il tempo o la motivazione per esaminare da vicino i riferimenti proposti dal motore di ricerca al di là dei primi 50 o 100 che vengono esposti, dieci alla volta, sullo schermo dal browser (…) Le altre decine di migliaia di documenti restano per lui e per i suoi simili, e sono destinati a restare, perpetuamente nell’ombra. Ben più incisivi, quali fattori di esclusione dal patrimonio culturale presente nel web (…) sono i portali generalisti, (…) che offrono in prima pagina informazioni sull’attualità e sul meteo, sulle borse e sui risultati sportivi [e] propongono anche migliaia di collegamenti a siti selezionati dei principali ambiti disciplinari della scuola e dell’università. Sono quindi molto usati da studenti e insegnanti. Fonti di cospicui ricavi pubblicitari, i portali conoscono da tempo (…) un processo di concentrazione monopolistica.(…) si stima che sulle centinaia di milioni di accessi giornalieri alla rete da parte di utenti privati, aziende escluse, intorno al 50 per cento avvenga attraverso (…) Yahoo, AOL e MSN (…) . Le altre migliaia di portali generalisti oggi in funzione si dividono il resto. Si calcola inoltre che circa la metà del tempo passato complessivamente in rete dagli stessi utenti sia speso nello spazio informativo e culturale selezionato e organizzato dai medesimi portali. Tra gli effetti del monopolio o oligopolio dei portali generalisti vanno annoverati i seguenti: 1. alla massa dei loro utenti, almeno il 95 per cento delle conoscenze disponibili nel web rimangono invisibili; 2. tutti i maggiori portali sono stati sviluppati negli Stati Uniti, sebbene ciascuno possegga una versione in altre lingue nazionali. Pertanto i loro contenuti riflettono inevitabilmente le opzioni culturali e ideologiche della classe media di quel paese – o di quelle che lo strato dei manager dei mezzi di comunicazione suppone lo siano. Sono opzioni che potrebbero essere, ovviamente, anche l’esito di una libera scelta da parte degli utenti di altri paesi, se non fosse che tutte le altre possibili opzioni sono per loro invisibili; 3. la produzione della conoscenza formata dalla selezione e organizzazione del contenuto dei portali è unicamente opera di imprese private e deriva in preminenza da considerazioni economiche circa il «bersaglio» o target di pubblico da prediligere per massimizzare gli introiti pubblicitari; 4. le conoscenze che attraversano le frontiere sono principalmente quelle selezionate dal gestore del portale, sebbene passando da un link a un altro l’utente possa avere casualmente l’occasione di effettuare attraversamenti autonomi. (L. Gallino, “Tecnologie e democrazia. Conoscenze tecniche e scientifiche come beni pubblici”, Einaudi)

Il monopolio di fatto di Google Search, con i suoi algoritmi dinamici, per monitoraggio, raffinamento, tracciamento e continuto ri-adattamento targettizzato, con scopi di marketing e profitto, ha in seguito reso sempre più evidente la problematicità dell’affidamento della responsabilità epistemica ai dispositivi digitali di massa.

A rendere evidente il valore e la valenza delle decisioni umane è però – quasi paradossalmente – la grande visibilità che in questi giorni ha avuto ChatGpt, chatbot in grado di rispondere a domande e condurre conversazioni.

Non è infatti difficile spegnere rapidamente i facili entusiasmi di chi strepita su un’epocale disruption e ipotizza la prossima fine dei Search Engines tradizionali, costringendo il neonato dispositivo a dichiarare con ammirevole franchezza i propri forti limiti, come esemplificato dall’immagine:

Il corpus di testi su cui il chatbot è stato addestrato è infatti fermo al 2021, per scelta dichiarata degli esseri umani che lo hanno realizzato, tornando pertanto a una classificazione statica della base di conoscenze di riferimento, come nel caso dei portali citati da Gallino.

Con poche altre domande è inoltre facile individuare campi concettuali che i programmatori non hanno ritenuto di considerare nella definizione e nella conseguente gerarchizzazione degli insiemi su cui far effettivamente insistere il chatbot, limitandone probabilmente l’addestramento alle informazioni computazionalmente più significative, perché più diffuse e popolari, più frequenti e condivise.