I tre articoli presentano diversi punti in comune e concetti specifici che convergono nell’analisi delle tecnologie basate sull’intelligenza artificiale (AI), in particolare i chatbot, nel contesto dell’assistenza alla salute mentale per le popolazioni vulnerabili, come i rifugiati.
Ecco i principali punti in comune e i concetti specifici:
Punti in comune
- Enfasi sull’Efficienza e il Risparmio Economico: Tutti gli articoli riconoscono che la costo-efficacia e l’efficienza sono le motivazioni primarie dietro lo sviluppo e l’adozione di queste applicazioni AI nel settore umanitario e della salute mentale. Tuttavia, questa motivazione viene spesso presentata in una luce critica, suggerendo che l’efficienza possa portare a risultati problematici.
- Critica alla Universalizzazione e alla Depoliticizzazione del Trauma:
- Abdelrahman critica l’uso pervasivo del framework del Disturbo da Stress Post-Traumatico (PTSD), sostenendo che riduce l’esperienza umana del trauma a sintomi individuali gestibili, ignorando le cause politiche e socio-economiche e le esperienze collettive.
- Madianou e Pozzi & De Proost rafforzano questa critica, evidenziando come queste tecnologie impongano criteri e valori occidentali sulla psicoterapia, non tenendo conto delle specificità culturali e sociali delle popolazioni assistite.
- Raccolta e Monetizzazione dei Dati (Datafication): Un tema centrale è la raccolta massiccia di dati dai rifugiati attraverso queste app.
- Abdelrahman parla della raccolta di “mental prints” del trauma dei rifugiati, trasformando le loro esperienze in “merce quantificabile e commerciabile”. Spiega che questa datafication è parte di un mercato globale di dati biometrici e serve anche a scopi di sorveglianza.
- Madianou sottolinea i rischi legati alla salvaguardia dei dati e alla privacy, specialmente quando i servizi sono esternalizzati a piattaforme come Facebook, dove i dati degli utenti sono “estratti a scopo di lucro”. Entrambe le autrici evidenziano come i rifugiati paghino per gli aiuti con i propri dati.
- Scetticismo sull’Efficacia e l’Intelligenza dei Chatbot: Tutti e tre gli articoli esprimono dubbi significativi sulla reale “intelligenza” e utilità terapeutica dei chatbot.
- Madianou osserva che i chatbot “non soddisfano le promesse di ‘intelligenza’” e sono spesso “bot funzionali semplici che si attengono in modo affidabile a uno script predefinito”, incapaci di gestire domande complesse o fornire una partecipazione significativa.
- Pozzi & De Proost affermano che l’IA conversazionale è “limitata nella gamma” e insufficiente per acquisire nuova comprensione di sé, poiché le interazioni terapeutiche vanno oltre il semplice trasferimento di informazioni. Mettono in discussione la capacità dei chatbot di fornire un supporto significativo senza la supervisione umana.
- Abdelrahman menziona la “consulenza sbagliata per l’auto-gestione” e la natura effimera di molte di queste app, spesso destinate a diventare “defunte”.
- Critica al Modello “AI for Good” (AI4SG): Madianou analizza in dettaglio il fenomeno dell’“AI for good” (AI4SG), considerandolo un’“incantesimo della tecnologia” che maschera le dinamiche di potere e spesso serve a fini di branding aziendale piuttosto che al bene sociale autentico. Pozzi & De Proost, sebbene non usino il termine, mettono in discussione l’idea che l’AI possa essere una soluzione efficace alla carenza di terapisti, soprattutto a costo di nuove ingiustizie.
- Sostituzione dell’Interazione Umana: Gli articoli sollevano la preoccupazione che queste tecnologie riducano o eliminino l’interazione umana essenziale nell’assistenza alla salute mentale.
- Abdelrahman afferma che le app di salute mentale per i rifugiati sono “progettate per sostituire il supporto umano faccia a faccia da parte di professionisti medici”.
- Madianou sottolinea che l’automazione “semplifica i processi a distanza” e può “disumanizzare” le interazioni, creando una disconnessione tra le comunità colpite e le agenzie umanitarie.
- Pozzi & De Proost evidenziano il “gap di responsabilità” creato dall’assenza di un terapista e la mancanza di supervisione umana, che è particolarmente cruciale in situazioni di emergenza.
- Il Caso del Chatbot “Karim”: Il chatbot “Karim”, sviluppato da X2AI per i rifugiati siriani in Libano, è citato da Madianou e Pozzi & De Proost come esempio emblematico delle problematiche discusse. Entrambi gli articoli menzionano il limitato studio pilota (60 siriani) rispetto alla vasta popolazione target e le preoccupazioni sulla mancanza di supervisione umana rispetto alla sua controparte “Tess” utilizzata negli Stati Uniti.
Concetti Specifici
- Dall’articolo di Abdelrahman:
- “Rifugiato Smart”: Un concetto che descrive il rifugiato ideale secondo il nuovo paradigma digitale: “auto-monitorante, agile, intraprendente e resiliente di fronte alle avversità”, una “nodo in una rete di flusso di informazioni”.
- “Mental Prints”: Termine coniato dall’autrice per i dati di trauma raccolti dalle app, che si aggiungono all’arsenale di dati biometrici già esistenti sui rifugiati.
- “Gamification” e “Snacktivity”: L’uso di elementi di design di gioco (narrazione, punti, livelli, badge, esercizi brevi) nelle app per incoraggiare il cambiamento comportamentale e l’auto-ottimizzazione.
- “Trauma Brokers” / “E-helpers”: Nuove categorie di figure professionali (o pseudo-professionali) che emergono in questo contesto digitale per offrire supporto occasionale o tecnico, spesso con formazione limitata e responsabilità ambigua.
- Dall’articolo di Madianou:
- “Nonhuman Humanitarianism”: Il concetto centrale dell’articolo, che si riferisce all’introduzione di applicazioni AI nelle operazioni umanitarie e alla critica delle assunzioni alla base del fenomeno “AI for good”.
- “Decolonial Critique” e “Coloniality of Power”: Un approccio teorico che analizza come l’umanitarismo e l’AI riproducano le asimmetrie di potere, i sistemi di conoscenza eurocentrici e le gerarchie sociali e razziali ereditate dal colonialismo.
- “Enchantment of Technology” (Incantesimo della Tecnologia): Basato sul lavoro di Alfred Gell, questo concetto spiega come la tecnologia possa “incantare” le persone nascondendo il lavoro della sua produzione e conferendo potere ai suoi proprietari, amplificando le gerarchie sociali esistenti.
- “Technocolonialism”: Il punto di incontro tra la logica del soluzionismo tecnologico e la mercificazione umanitaria, che porta all’estrazione di valore dall’uso di tecnologie non testate in contesti vulnerabili.
- Dall’articolo di Pozzi & De Proost:
- “Epistemic Injustice” (Ingiustizia Epistemica): Il quadro teorico principale, che si concentra sul “danno alle persone come soggetti conoscenti”. Distingue tra:
- Ingiustizia Testimoniale: Si verifica quando a qualcuno viene attribuito un livello ridotto di credibilità a causa di pregiudizi d’identità.
- Ingiustizia Ermeneutica: Un danno strutturale che si verifica quando qualcuno non ha le risorse concettuali per dare un senso alla propria esperienza sociale e comunicarla.
- “Participatory Injustice” (Ingiustizia Partecipativa): La forma specifica di ingiustizia epistemica su cui si concentra l’articolo. Si verifica quando un soggetto non viene riconosciuto o non ha la possibilità di contribuire attivamente alla generazione di conoscenza, ad esempio formulando ipotesi, ponendo domande critiche o acquisendo auto-conoscenza, in un contesto collaborativo.
- “Capability Sensitive Design” (CSD): Un quadro proposto come soluzione per mitigare l’ingiustizia partecipativa. Combina il metodo del “Value Sensitive Design” (VSD) con l’approccio delle capacità di Martha Nussbaum, mirando a progettare tecnologie che migliorino ed espandano le capacità fondamentali degli utenti, inclusa la partecipazione epistemica.
- “Epistemic Injustice” (Ingiustizia Epistemica): Il quadro teorico principale, che si concentra sul “danno alle persone come soggetti conoscenti”. Distingue tra:
In sintesi, tutti gli articoli analizzano le complessità e le criticità delle soluzioni tecnologiche per la salute mentale dei rifugiati, spingendosi oltre le promesse iniziali di efficienza per rivelare le implicazioni etiche, politiche e sociali, in particolare quelle legate alle disuguaglianze di potere, alla sorveglianza e all’erosione dell’agenzia individuale.