Approccio davvero critico a ChatGPT (et similia, si spera)? Metalettura di verifica

NotebookLM: La tesi principale del testo è che l’entusiasmo per ChatGPT e le altre intelligenze artificiali generative deve essere bilanciato da una profonda analisi critica dei loro limiti, delle implicazioni sociali, economiche, politiche e legali, e dei rischi per i diritti fondamentali. Il testo mira a decostruire le narrazioni troppo ottimistiche che circondano queste tecnologie, sottolineando la necessità di un approccio più cauto e consapevole.

I concetti fondamentali del testo sono riassunti nella seguente tabella:

Concetto ChiaveDescrizione
Intelligenza Artificiale Generativa (IAG)Sistemi di intelligenza artificiale, come ChatGPT, che generano testi, immagini e altri contenuti basandosi su modelli linguistici e reti neurali, dando l’impressione di essere intelligenti come o più degli esseri umani.
Limiti dell’IAGNonostante le loro capacità, le IAG non comprendono il significato delle parole, non hanno coscienza del mondo reale e sono soggette ad “allucinazioni”, ovvero generano affermazioni false e non verificabili. La loro intelligenza è di tipo sintattico, non semantico o pragmatico.
AllucinazioniLe IAG producono affermazioni che appaiono vere ma che sono in realtà false, a causa della loro incapacità di comprendere il significato delle informazioni che elaborano e della loro dipendenza da dati non sempre accurati.
Pappagalli StocasticiLe IAG sono spesso descritte come “pappagalli stocastici”, sottolineando che non fanno altro che ripetere e combinare frasi e parole trovate nei dati di addestramento, senza una vera comprensione o pensiero. Questa definizione è controversa.
Hype e Criti-hypeL’entusiasmo eccessivo (hype) per l’IAG è spesso alimentato da interessi economici e di marketing. In contrapposizione all’hype, è nato il “criti-hype”, un’analisi critica che mette in luce i limiti e i rischi di queste tecnologie.
SALAMIAcronimo per “Systematic Approaches to Learning Algorithms and Machine Learning,” un termine coniato per depotenziare la narrazione dell’hype e sottolineare la natura algoritmica e meccanica dell’intelligenza artificiale.
Ethics WashingLe grandi aziende che investono nell’IA tendono a utilizzare la discussione sull’etica come una sorta di “specchietto per le allodole”, per distogliere l’attenzione dai problemi reali di sfruttamento del lavoro, discriminazione e violazione della privacy.
Diritto d’AutoreL’addestramento dell’IA generativa solleva complesse questioni legali relative all’uso di opere protette da copyright. L’utilizzo di opere protette durante l’addestramento è legale o costituisce violazione del diritto d’autore? L’output di queste IA, può essere considerato una creazione originale o una contraffazione mascherata?
Privacy e Protezione Dati PersonaliLa raccolta e l’utilizzo di dati personali da parte delle IAG, spesso senza il consenso degli interessati, sollevano serie preoccupazioni in materia di privacy. I garanti della privacy e le norme come il GDPR tutelano i dati personali, anche se pubblicati online. Il titolare del trattamento è responsabile dell’uso corretto dei dati.
Impatto Sociale ed EconomicoL’IAG ha un grande potenziale per cambiare il mondo del lavoro e la società, ma ci sono rischi di disuguaglianze, discriminazioni, sfruttamento del lavoro e concentrazione di potere nelle mani di poche aziende. L’automazione del lavoro e la sostituzione degli esseri umani con le macchine sono tra le maggiori preoccupazioni.
Etica e ResponsabilitàÈ fondamentale discutere l’etica dell’uso dell’IAG, ponendosi domande sulla qualità delle informazioni utilizzate per l’addestramento, sull’impatto sulle minoranze e sulla diffusione di disinformazione e manipolazione. È necessario capire a chi giova che si parli in un certo modo dell’IA.
RegolamentazioneÈ necessario un quadro normativo efficace per affrontare le problematiche legali ed etiche legate all’IAG, proteggendo i diritti dei cittadini e dei creatori e garantendo trasparenza e responsabilità. L’Europa si sta muovendo in questa direzione.
Modelli di FuturoA seconda di come viene interpretata la rivoluzione digitale, si possono immaginare quattro scenari futuri: individualista, tribale, responsabile o inclusivo. È fondamentale scegliere il modello desiderabile per orientare l’uso di queste tecnologie verso un futuro sostenibile e giusto.

In sintesi, il testo sottolinea che l’IAG presenta grandi potenzialità, ma solleva anche numerose questioni critiche che richiedono un dibattito aperto e una regolamentazione efficace per garantire che queste tecnologie siano utilizzate a beneficio di tutta la società e non solo di pochi.

Marco: Vi sono riferimenti di economia politica? si pone la questione dell’oligopolio?

NotebookLM: Sì, il testo contiene diversi riferimenti all’economia politica e affronta, sebbene non esplicitamente con il termine “oligopolio”, la questione del potere di mercato e della concentrazione di potere nelle mani di poche grandi aziende tecnologiche.

Ecco alcuni punti chiave relativi all’economia politica presenti nel testo:

  • Critica al modello neoliberista: Il testo critica apertamente una visione neoliberista della società, in cui ChatGPT e le IA generative vengono viste come strumenti di empowerment individuale per chi può permettersi il loro utilizzo. Questa visione, secondo gli autori, ignora le disuguaglianze e le forme di sfruttamento che tali tecnologie acuiscono.
  • Tecnofeudalesimo: Viene introdotto il concetto di “tecnofeudalesimo” per descrivere l’attuale sistema economico dominato dalle grandi aziende tecnologiche. In questo sistema, pochi “signori della tecnologia” estraggono valore da una massa di “servi digitali” che utilizzano le loro piattaforme, mantenendo e rafforzando le rendite di posizione tipiche del capitalismo maturo.
  • Estrazione del valore: Il testo analizza come le grandi piattaforme tecnologiche non ricavino più valore solo dalla vendita di contenuti, ma lo estraggano direttamente dagli utenti, offrendo loro i contenuti gratuitamente in cambio dei loro dati e della loro attività. Questo modello è definito “capitalismo estrattivo”.
  • Conflitto tra copyright e nuove tecnologie: Il testo descrive il conflitto tra i proprietari di contenuti (autori, artisti, editori) e le grandi aziende tecnologiche che utilizzano le opere protette per addestrare le IA. Questo conflitto non è solo una disputa sul copyright, ma riflette una transizione tra due modalità di estrazione capitalistica del valore: dalla vendita di contenuti al valore estratto direttamente dagli utenti.
  • Mercato dei contenuti indipendenti: Un regime di diritto d’autore debole danneggia i modelli di business basati sulla monetizzazione dei contenuti indipendenti, favorendo le piattaforme che distribuiscono gratuitamente i contenuti per promuovere le vendite di beni complementari.
  • Ethics Washing: Le grandi aziende che investono nello sviluppo dell’IA vengono criticate per pratiche di ethics washing, ovvero per fingere interesse verso le implicazioni etiche delle loro attività, al solo scopo di migliorare la loro immagine e aumentare il valore del loro marchio. In realtà, secondo il testo, queste aziende continuano ad operare senza considerare i problemi reali di sfruttamento del lavoro e violazione dei diritti.
  • Influenza sul dibattito: Le aziende influenzano il dibattito pubblico sull’IA, promuovendo una visione entusiastica e minimizzando i rischi, per favorire i loro interessi economici. Questo include anche la tendenza a finanziare ricerche etiche che si concentrano su argomenti di impatto emotivo ma poco problematici per i loro affari.
  • Mancanza di finanziamento per la ricerca indipendente: Il testo sottolinea come le università, a causa della scarsità di finanziamenti, non riescano a svolgere ricerche indipendenti sull’IA, rendendo più difficile il ruolo di controllo disinteressato verso le aziende tecnologiche.
  • Sfruttamento del lavoro: Il testo evidenzia come lo sviluppo dell’IA sia spesso legato a pratiche di sfruttamento del lavoro, in particolare nei paesi del sud del mondo, dove i lavoratori vengono sottoposti a condizioni di lavoro precarie e stressanti per addestrare le IA ed evitare che si esprimano in modo inappropriato.
  • Modello di business: Il testo descrive come l’interesse delle aziende sia quello di trasformare l’etica della tecnica in una merce, attraverso un modello culturale “lungotermista” che mira a far sembrare imminenti alcune minacce future, giustificando così l’accentramento di potere economico e politico nelle mani di chi controlla le tecnologie.

Per quanto riguarda la questione dell’oligopolio, sebbene il testo non utilizzi esplicitamente questo termine, descrive chiaramente una situazione in cui poche grandi aziende tecnologiche (definite “signori della tecnologia” o “giganti dell’informazione”) esercitano un enorme potere di mercato e controllano gran parte delle risorse e delle infrastrutture digitali. Queste aziende, grazie alla loro posizione dominante, sono in grado di:

  • Influenzare il dibattito pubblico e la percezione dell’IA.
  • Estrarre valore dai dati e dalle attività degli utenti.
  • Sfruttare il lavoro a basso costo.
  • Imporre le proprie condizioni nel mercato del lavoro.
  • Eludere le leggi e le normative.

In sintesi, il testo pone una forte critica al potere di mercato delle grandi aziende tecnologiche e descrive un sistema in cui queste aziende, attraverso pratiche di sfruttamento, ethics washing, manipolazione del dibattito pubblico e innovazione spinta, perpetuano e rafforzano il loro controllo, creando di fatto una situazione simile a un oligopolio in cui poche aziende detengono un potere di mercato quasi assoluto. Il testo sottolinea la necessità di una regolamentazione efficace per contrastare questo squilibrio e proteggere i diritti dei cittadini e dei lavoratori.

Marco: vi è spazio dedicato al micro-lavoro di addestramento e verifica dei dispositivi di AI?

NotebookLM: Sì, il testo dedica ampio spazio al tema del micro-lavoro di addestramento e verifica dei dispositivi di intelligenza artificiale (IA), evidenziando le problematiche e le implicazioni etiche che esso comporta. In particolare, il testo si concentra sulle condizioni di lavoro precarie e sullo sfruttamento che caratterizzano questo settore, spesso nascosto dietro la facciata tecnologica delle grandi aziende.

Ecco alcuni punti chiave relativi al micro-lavoro nell’ambito dell’IA, così come vengono descritti nel testo:

  • Sfruttamento della manodopera a basso costo: Il testo sottolinea come l’addestramento delle IA generativa, come ChatGPT, richieda un’enorme quantità di lavoro umano, spesso svolto da lavoratori in paesi del sud del mondo, sottopagati e con condizioni di lavoro estreme. Questi lavoratori sono impiegati per “ripulire” i dati utilizzati per l’addestramento, rimuovendo contenuti inappropriati, violenti o discriminatori.
  • Reinforcement Learning from Human Feedback (RLHF): Il testo descrive come questo tipo di lavoro sia spesso definito con termini altisonanti come RLHF, presentandolo come un’attività di “tutoraggio” degli algoritmi da parte di esseri umani. Tuttavia, questa descrizione nasconde la realtà di mansioni iper-parcellizzate, micro-transate e dequalificanti, svolte in cambio di paghe misere.
  • “Mary Poppins” dell’IA: Il testo riporta come alcuni tecno-entusiasti, come Kaplan, descrivano questi lavoratori come le “Mary Poppins” dei nostri giorni, addetti a spiegare ai sistemi di IA come interagire con gli umani. Tuttavia, questa visione edulcorata contrasta con la dura realtà del lavoro, dove i lavoratori sono spesso costretti a operare come se fossero dei robot.
  • Lavoro de-mansionante e ripetitivo: Il testo evidenzia come il micro-lavoro di addestramento dell’IA comporti lo svolgimento di compiti ripetitivi, noiosi e de-mansionanti, che spesso includono la revisione di grandi quantità di dati, anche di natura problematica (es. abusi sessuali su minori, violenze, incesti).
  • Turni massacranti e salari bassi: I lavoratori impiegati in questo settore sono sottoposti a turni di lavoro massacranti e pagati cifre irrisorie, spesso meno di due euro l’ora, senza alcun supporto psicologico o tutela. Ciò avviene sia nelle periferie dei paesi occidentali, in aziende come Amazon, sia in paesi del sud del mondo.
  • “Cottimisti sottopagati”: Il testo definisce questi lavoratori come “cottimisti sottopagati assunti e licenziati sulle piattaforme digitali”, evidenziando la precarietà e l’instabilità che caratterizzano questo tipo di impiego.
  • Sfruttamento per l’automazione: Il micro-lavoro è funzionale al processo di automazione, in quanto i lavoratori sono impiegati per fornire i dati necessari affinché le IA possano sostituirli nelle loro stesse mansioni, in un circolo vizioso.
  • Critica alla visione edulcorata: Il testo critica la visione edulcorata e positiva del progresso tecnologico, che minimizza o ignora le conseguenze negative del micro-lavoro e dello sfruttamento che ne sono alla base.
  • Esempio di OpenAI: Il testo riporta un’inchiesta del “Times” sull’operato di OpenAI, che ha utilizzato lavoratori in Kenya per ripulire i training set di ChatGPT da dati legati ad abusi, pagandoli meno di due euro l’ora. Questo esempio mette in luce le pratiche di sfruttamento e le condizioni di lavoro precarie che caratterizzano il settore.
  • Dati come materia prima: Il testo evidenzia come, in questo contesto, l’esperienza umana depositata in dati personali sia vista come una “materia prima” da sfruttare per l’addestramento delle IA, con una logica estrattiva che richiama quella del petrolio.

In sintesi, il testo dedica un’attenzione significativa al micro-lavoro di addestramento dell’IA, descrivendolo come un’attività che si basa sullo sfruttamento della manodopera a basso costo, condizioni di lavoro precarie e la svalutazione del lavoro umano. Questo aspetto viene presentato come una delle principali criticità etiche legate allo sviluppo e all’implementazione delle IA generative, mettendo in discussione la narrazione positiva e spesso entusiastica promossa dalle aziende del settore. Gli autori mettono in guardia contro la tendenza a idealizzare la tecnologia e a ignorare le implicazioni reali sulla vita di chi lavora in questo settore.

Marco: leggerò il libro, avendo verificato l’impianto critico grazie alla meta-lettura assistita.

Post scriptum: il testo appare rilasciato in Creative Commons 4.0 (by-nc-sa), anche se poi il prodotto editoriale è protetto da DRM. La meta-lettura è comunque certamente una finalità di carattere personale.