Intenzione critica radicale

Basandosi sulle informazioni fornite nelle fonti, la tesi centrale di Evgeny Morozov e i concetti che la supportano possono essere delineati come segue:

La tesi di fondo di Morozov è che la traiettoria attuale dell’intelligenza artificiale, dominata da un focus sulla ragione strumentale (ovvero, la risoluzione di problemi e il raggiungimento di obiettivi definiti) e guidata principalmente dalle grandi aziende tecnologiche e dalle agende militari ed economiche (“Efficiency Lobby”), non era l’unica o la migliore via possibile. Egli sostiene che è necessaria una visione alternativa radicale per la tecnologia, che chiamo “AI’s missing Other”, basata sulla ragione ecologica e realizzabile solo attraverso un progetto politico radicale che sfidi il quadro capitalista predominante.

I concetti chiave a supporto di questa tesi includono:

  • La Ragione Strumentale come Obiettivo Storico dell’IA: Morozov traccia le origini dell’IA nella Guerra Fredda, notando come i primi sforzi, supportati da istituzioni come la RAND Corporation e finanziati da enti legati alla difesa, fossero orientati alla creazione di sistemi capaci di risolvere problemi ben definiti e raggiungere obiettivi specifici, rispecchiando il lavoro di impiegati e lavoratori amministrativi all’interno di tali istituzioni. Questa enfasi sulla ragione strumentale è stata inglobata dall’IA fin dall’inizio, in parte a causa degli imperativi di finanziamento e dell’influenza della cibernetica primitiva, che vedeva i sistemi di controllo (come i missili guidati o i termostati) come modelli di comportamento orientato all’obiettivo.
  • Le Origini Non Democratiche e l'”Efficiency Lobby”: Lo sviluppo iniziale dell’IA fu fortemente influenzato dalle esigenze militari e industriali, con John McCarthy e altri pionieri che strinsero alleanze con aziende e ottennero finanziamenti militari, bypassando la comunità scientifica più ampia e, di fatto, definendo il campo in modo non democratico. Questa “Efficiency Lobby” (gruppo di pressione per l’efficienza) ha continuato a gravitare verso l’IA perché prometteva operazioni snellite, maggiore produttività e controllo gerarchico più stretto.
  • L’Alternativa Perduta: la Ragione Ecologica e l'”Eolithism”: Contrapponendosi alla ragione strumentale, Morozov propone di esplorare la ragione ecologica, una forma di intelligenza che non è puramente orientata al problema o all’obiettivo, ma che abbraccia l’indeterminatezza e l’interazione con l’ambiente per trovare significato e scopo. Questo concetto si ispira all’idea di “eolithism” di Hans Otto Storm, che descrive un processo creativo in cui gli oggetti (come le pietre preistoriche, le “eolithes”) non vengono raccolti per un uso predefinito, ma “suggeriscono” i loro usi in un processo di scoperta giocoso e open-ended, guidato dalla “idle curiosity” (curiosità oziosa). La ragione ecologica è intrinsecamente difficile da formalizzare e automatizzare.
  • Critica dell’IA Attuale e del suo Ethos di Mercato: Sebbene l’IA generativa attuale (come i Large Language Models) mostri una maggiore flessibilità rispetto ai sistemi basati su regole criticati da figure come Terry Winograd, Morozov sostiene che essa incarna l’ethos del mercato, con servizi dominati da giganti tecnologici che trattano gli utenti come consumatori. Questo modello di business, che privilegia l’uso individuale e la massimizzazione delle query, mina la ragione ecologica e rinchiude le nostre attività in una griglia orientata al profitto, limitando il potenziale emancipatorio della tecnologia.
  • La Necessità di un Progetto Politico Radicale: Morozov sostiene che le riforme pragmatiche (come una maggiore trasparenza o alternative open-source) sono insufficienti. Per realizzare il potenziale emancipatorio della tecnologia e promuovere la ragione ecologica, è necessario un progetto politico radicale che vada oltre gli aggiustamenti a livello di implementazione. Le esperienze latinoamericane degli anni ’70 (come Project Cybersyn di Allende o il lavoro di Oscar Varsavsky) vengono citate come esempi di tentativi, sebbene falliti a causa di pressioni esterne, di utilizzare la tecnologia per esplorare alternative di sviluppo nazionale, promuovere la partecipazione civica e sganciarsi dall’agenda di efficienza imposta dal Nord globale. Queste esperienze dimostrano che le soluzioni ai problemi posti dalla tecnologia sono innanzitutto politiche, non tecnologiche.
  • L'”AI’s Missing Other” è un Progetto Non-AI: La visione alternativa (“AI’s missing Other”) non è semplicemente una versione più giocosa o democratica dell’IA attuale. È un progetto non-AI che impiegherebbe alcune delle tecnologie utilizzate nell’IA (e altre risorse) per coltivare la ragione ecologica negli esseri umani, promuovendo il ragionamento morale, l’immaginazione politica e l’apprezzamento estetico, rendendo più cose significative per più persone.

In sintesi, la tesi di Morozov è un appello a riconceptualizzare il rapporto tra tecnologia e intelligenza al di fuori del paradigma dominante ereditato dalla Guerra Fredda e dall'”Efficiency Lobby”, promuovendo una visione più ricca dell’intelligenza umana (ragione ecologica) attraverso un progetto politico radicale che metta in discussione le strutture di potere esistenti.


Basandosi sulle fonti fornite e sulla nostra conversazione precedente, che ha delineato la tesi di fondo di Evgeny Morozov sulla necessità di un progetto politico radicale per un’IA basata sulla ragione ecologica [come discusso precedentemente], gli altri contributi presenti nelle fonti offrono diverse prospettive che supportano, ampliano, mettono in discussione o offrono alternative a questa visione.

Ecco i concetti chiave emersi dagli altri contributi:

  • Le Origini Militari e Corporate dell’IA e la Critica all'”Efficiency Lobby”: Molti autori concordano con Morozov sul fatto che lo sviluppo dell’IA è stato profondamente influenzato dalle esigenze militari e corporate, dominato da un gruppo di pressione orientato all'”efficienza” (“Efficiency Lobby”). Bruce Schneier e Nathan Sanders, tuttavia, sostengono che, sebbene l’IA sia nata in contesti militari, essa non è “irrimediabilmente contaminata” da tali origini, paragonandola a Internet, che è passato da un progetto militare a uno strumento accademico e infine a un mercato corporate. Argomentano che l’IA moderna è plasmata più dai venture capitalist e dalle Big Tech che dai militari o dagli accademici idealisti. Sophia Goodfriend descrive come le operazioni militari e di sicurezza siano state esternalizzate a aziende private, con un’enorme crescita degli investimenti in defense tech, creando “terreni di prova lucrativi” per nuove tecnologie.
  • La Ragione Strumentale e le sue Alternative: Sebbene Morozov critichi la ragione strumentale, Bruce Schneier e Nathan Sanders ne difendono il valore, notando che la risoluzione dei problemi e il perseguimento di obiettivi non sono intrinsecamente negativi, e che gli strumenti AI attuali possono aumentare le capacità individuali (come l’app per l’apprendimento delle lingue di Morozov). Terry Winograd accetta che l'”Efficiency Lobby” abbia orientato l’IA, ma sposta il focus dalla “ragione ecologica” alla necessità di sistemi che supportino la cura e la preoccupazione umana (“human care and concern”), piuttosto che limitarsi a essere giocosi o efficienti. Vede la critica alla burocrazia (e all’IA che la rispecchia) nella sua tendenza a svuotare il significato umano e l’intenzione, non nel suo essere teleologica di per sé.
  • L'”AI’s Missing Other” come Progetto Politico e Sociale: C’è ampio consenso sulla necessità di un progetto politico radicale per realizzare il potenziale emancipatorio della tecnologia. Tuttavia, la sua forma è dibattuta.
    • Audrey Tang suggerisce un percorso più consensuale basato sull’eredità della cibernetica orientata alla collaborazione (man-computer symbiosis, kaizen, internet) e sull’esperienza dei paesi asiatici (Giappone, India, Taiwan) che integrano l’innovazione tecnologica con il tessuto sociale e promuovono infrastrutture pubbliche digitali e partecipazione civica.
    • Sarah Myers West e Amba Kak enfatizzano che l’alternativa (“AI’s missing Other”) deve emergere dalle visioni di coloro che sono stati esclusi (“AI’s missing others”) e dai “flussi critici” estromessi dalla Silicon Valley. Criticano le riforme superficiali come il semplice “dare un posto al tavolo” alle comunità colpite o gli investimenti pubblici che ricalcano l’agenda dell’industria.
    • Wendy Liu sottolinea che “AI Democratica” richiede democrazia reale e politica, non solo aggiustamenti tecnici. Critica la mancanza di attenzione ai valori intrinsecamente codificati nell’IA, che spesso riflettono gli obiettivi di profitto delle aziende piuttosto che un bene oggettivo.
    • Edward Ongweso Jr. identifica la finanziarizzazione e la bolla speculativa come forze motrici dell’attuale boom dell’IA e della costruzione di infrastrutture dannose a livello ecologico. Propone un progetto politico radicale che affronti simultaneamente Big Tech, finanza, combustibili fossili e industria della difesa, suggerendo politiche concrete come un regime fiscale contro il capitale speculativo e un’Autorità Nazionale per gli Investimenti come alternativa pubblica al capitale di rischio.
    • Brian Merchant riporta il dibattito storico tra i Ludditi (resistenza radicale) e i riformisti (abbracciare la tecnologia sotto diverse condizioni) come rilevante oggi. Vede il potenziale in una forma moderna di Luddismo (azioni legali, sindacali, di consumo) per resistere all’uso sfruttatore dell’IA e reclamare il controllo della tecnologia da parte dei lavoratori (come nell’esempio degli sceneggiatori della WGA). Suggerisce che democratizzare la tecnologia include la possibilità di uno “switch off” se ritenuta troppo dannosa.
  • Critica dell’IA Attuale e delle sue Implicazioni Umane:
    • Brian Eno critica l’IA attuale per essere guidata dal profitto (“maximize engagement”), il che porta a distorsioni e impatti sociali negativi. Sottolinea che l’IA inverte il valore del processo creativo e manca di provenienza e intenzionalità, paragonandola a un cane che cammina sulle zampe posteriori – sorprendente, ma privo di scopo profondo.
    • Omer Rosen esplora le implicazioni etiche e umane delle tecnologie di monitoraggio (AI, sensoristica) sugli anziani, usando il concetto di “Internet dei Corpi” (IoB). Argomenta che la tecnologia, anche con buone intenzioni, può minare l’autonomia, rendere la sorveglianza impersonale e senza controlli umani, e portare a un’ossessione per i dati corporei a scapito del vivere. Sottolinea come il monitoraggio degli altri (anche emozionale) possa impoverire le interazioni umane e le capacità interpersonali cruciali per la cura.
    • Terry Nguyen analizza l’impatto dell’IA generativa sulla letteratura e sull’idea di autore. Discute romanzi scritti con l’assistenza dell’IA, notando la tendenza alla metanarrativa. Osserva che l’autore umano assume un ruolo di editor/curatore del testo generato dall’IA. Sostiene che l’originalità è incongrua con le LLM, che tendono a produrre risultati formulaici. Conclude che, nonostante l’IA, ciò che conta è l’opera finale, e una buona opera rimane tale indipendentemente da chi o cosa l’ha prodotta, suggerendo un’ottica più aperta sul futuro della letteratura.
  • Le Implicazioni Politiche Profonde:
    • Alexander Hartley affronta le questioni di autore e proprietà intellettuale nell’era dell’IA. Analizza il problema degli “input” (dati di training) e degli “output” (contenuto generato). Utilizzando esempi legali storici e attuali, esplora chi potrebbe detenere i diritti (sviluppatori, licenziatari, creatori di dati, utenti/prompter, nessuno/dominio pubblico, l’IA stessa). Conclude che queste domande sono profondamente politiche e con enormi conseguenze distributive, non solo analisi legali o filosofiche. Sfidando il mito romantico dell’autore-proprietario, invoca la necessità di un nuovo quadro normativo per la proprietà intellettuale che favorisca il dominio pubblico e rifletta una volontà collettiva per il bene comune, non l’incentivo privato. Suggerisce persino di non permettere alle aziende private di brevettare la tecnologia AI, citando l’analogia con il nucleare.
    • Sophia Goodfriend critica l’uso di AI e tecnologia avanzata nella guerra e nel controllo delle frontiere, evidenziando che spesso falliscono nel garantire sicurezza e sono guidate dal profitto e da agende politiche (militari, nazionaliste) piuttosto che dall’efficienza tecnica. Sottolinea che l’AI serve una funzione ideologica, facendo sembrare che siano le macchine a operare, nascondendo le scelte e le responsabilità umane dietro la violenza.
    • Lily Hu, analizzando la critica agli algoritmi predittivi, sostiene che l’introduzione del machine learning non crea nuove disuguaglianze ma rivela quelle già esistenti nei sistemi umani preesistenti. Vede nell’IA un’opportunità unica per rendere i processi decisionali più trasparenti, dibattibili e aperti alla “co-creazione” da parte dei cittadini, promuovendo l’uguaglianza politica. Propone un “AI Equality Act” e il concetto di “democratic utilities” per le piattaforme digitali. Sottolinea la tensione tra l’enfasi sui processi democratici e l’ostacolo fondamentale del sistema economico capitalista.
    • Brian J. Chen lega il successo dell’industria dei semiconduttori di Taiwan alla sua storia coloniale e postcoloniale, mostrando come sia stata plasmata da forze imperiali (giapponesi, statunitensi) e politiche interne (Kuomintang autoritario, transizione democratica) per integrarsi nella catena di approvvigionamento globale a scapito dei lavoratori e dell’ambiente. Argomenta che questa tecnologia, nata in parte da esigenze militari, ora esacerba le tensioni geopolitiche (“nuova guerra fredda”).
    • Joelle M. Abi-Rached, attraverso l’esperienza di Beirut sotto attacco, illustra la “nuova guerra” resa possibile dalla tecnologia (dispositivi elettronici come bombe, droni, sorveglianza). Esprime la disillusione verso il “doppio standard” occidentale sui diritti umani e il diritto internazionale, percependo che le vite in determinate regioni sono considerate sacrificabili per testare nuove armi. Riflette sulla necessità di un pensiero basato sulla convergenza e i destini comuni dell’umanità, piuttosto che sul nazionalismo e l’esclusione.

In sintesi, gli altri contributi arricchiscono la tesi di Morozov confermando l’influenza determinante dei poteri economici e militari sullo sviluppo dell’IA, ma offrono visioni più articolate sulle possibili alternative. Alcuni esplorano percorsi di riforma pragmatica o nuove forme di infrastrutture pubbliche, altri enfatizzano la necessità di recuperare l’attenzione sulla cura umana e le relazioni, molti sottolineano che la lotta è eminentemente politica e deve confrontarsi con le strutture di potere esistenti (capitalismo, finanziarizzazione, militarismo, colonialismo, proprietà intellettuale), e alcuni riflettono sugli impatti dell’IA in settori specifici come la letteratura o la cura personale. Nel complesso, emerge un quadro complesso che rafforza l’idea che la traiettoria tecnologica non è inevitabile e che le alternative dipendono da scelte politiche e sociali consapevoli e spesso radicali.