Mentre gli attori del settore privato promuovono la guerra in rete e la sorveglianza automatizzata come unica via per la sicurezza, i casi di studio di Molnar rivelano un paradosso: la maggior parte di questi sistemi non è riuscita a mantenere proprio questa promessa. Dietro le affermazioni secondo cui siamo entrati in un’era radicalmente nuova di guerra tecnologica si celano i soliti attori umani, alla ricerca di potere e profitto. (…) I miliardi investiti nelle cosiddette “soluzioni per la sicurezza” esacerbano la violenza che promettono di mitigare, creando una domanda inesauribile di algoritmi migliori e sistemi d’arma più letali per salvaguardare la sicurezza nazionale in patria e nelle guerre all’estero. (…) I regimi di confine e le guerre offrono una lezione pratica dell’incapacità dell’IA di mantenere le esagerate promesse pubbliche dell’industria. (..) i resoconti critici degli effetti disumanizzanti di questa tecnologia rischiano di ignorare gli esseri umani che, alla base, sono responsabili delle politiche e della violenza. Investire in queste tecnologie e impiegarle è una scelta. Dai campi di battaglia mediorientali ai confini dell’Europa meridionale, la maggior parte delle nuove tecnologie che arrivano sul mercato conferisce una parvenza di razionalità tecnica disincarnata alle solite campagne umane di distruzione brutale. Invece di quote razziste che determinano chi può entrare in quale Paese e quando, abbiamo algoritmi razzialmente discriminatori. Invece di operatori umani che decidono quando e dove bombardare a tappeto le abitazioni civili, abbiamo algoritmi che raccomandano quando e dove munizioni inefficaci dovrebbero annientare le abitazioni civili. Gli eserciti affermano di essere sull’orlo di una rivoluzione dell’intelligenza artificiale, e i regimi di sicurezza nazionale potrebbero adottare sistemi “intelligenti” con effetti radicali. (S. Goodfriend, “The New Old Warfare”, in AI Futures)
La tesi fondamentale del libro “The Walls Have Eyes” di Petra Molnar è che le tecnologie di confine, lungi dall’essere strumenti neutrali per l’efficienza e la sicurezza, sono in realtà armi deliberate di violenza e di esclusione che esacerbano le disuguaglianze storiche, in particolare contro le comunità razzializzate ed emarginate, trasformando le zone di confine in “laboratori umani” non regolamentati per esperimenti tecnologici ad alto rischio che alla fine colpiscono tutti noi. Molnar sostiene che queste tecnologie non solo infliggono danni fisici e psicologici, ma rafforzano anche i sistemi di oppressione e sfruttamento già esistenti.
A supporto di questa tesi centrale, il libro sviluppa diversi concetti chiave:
- Violenza Tecnologica ai Confini: Molnar evidenzia l’ampia gamma di tecnologie “spaventose” impiegate per il controllo delle migrazioni, che vanno dai droni equipaggiati con taser agli scanner dell’iride nei campi profughi, e dalle vaste infrastrutture di sorveglianza agli AI lie detector (rilevatori di bugie basati sull’intelligenza artificiale), alla stampa vocale (voice printing) e ai robo-cani. Queste tecnologie non solo facilitano i respingimenti illegali ma espongono anche le persone a terreni pericolosi e a rischi per la vita. Esempi specifici includono le torri di sorveglianza alimentate dall’AI nel deserto di Sonora, i droni Predator B e le telecamere di riconoscimento facciale ai valichi.
- Confine come “Laboratorio Umano”: Le zone di confine sono presentate come luoghi in cui la regolamentazione è intenzionalmente limitata, permettendo la sperimentazione tecnologica che non sarebbe tollerata altrove o sui cittadini. Questo include lo sviluppo di strumenti come il Huduma Namba in Kenya, che digitalizza la discriminazione, e progetti dell’UE come ROBORDER per la sorveglianza autonoma. Molnar nota che le tecnologie perfezionate ai confini spesso “si riversano in altri aspetti della vita pubblica che ci riguardano tutti”.
- Complesso Industriale di Confine e Motivazioni di Profitto: Viene evidenziato un settore multimiliardario che trae profitto dalla militarizzazione e dalla sorveglianza dei confini. Aziende private come Elbit Systems, NSO Group, Palantir e Clearview AI sono attori chiave in questo complesso, spesso sviluppando e implementando tecnologie con poca trasparenza o responsabilità. I loro interessi corporativi definiscono l’agenda per l’innovazione, spesso a scapito dei diritti umani.
- Criminalizzazione della Migrazione (“Crimmigration”): Il libro descrive come la migrazione sia sempre più equiparata alla criminalità, offuscando i confini tra il diritto civile dell’immigrazione e il diritto penale. Questo porta a politiche più dure, come la detenzione automatica e la raccolta di DNA da individui che non sono stati accusati di alcun crimine. La presunzione di colpevolezza (“innocent until proven guilty”) è spesso invertita per le persone in movimento.
- Colonialismo dei Dati e Sorveglianza Coloniale: La “fame di dati” degli algoritmi porta a vaste operazioni di estrazione di dati, in particolare nel “Sud globale”, per servire gli interessi geopolitici del “Nord globale”. Le organizzazioni internazionali, come l’UNHCR e l’OIM, sono coinvolte nella raccolta di dati biometrici sui rifugiati, sollevando preoccupazioni sulla privacy, il consenso (che è spesso coercitivo) e la condivisione dei dati con governi repressivi.
- Politiche di Esclusione e Paura: Le tecnologie di confine sono giustificate da narrazioni che dipingono i migranti in termini apocalittici (“onda”, “ondata”) e li collegano a minacce alla sicurezza nazionale. Molnar sottolinea come “la tecnologia non è né neutra né oggettiva”, ma “socialmente costruita” e “reproduce i pregiudizi” che mettono a rischio determinate comunità. La discriminazione razziale è intrinseca a molte di queste tecnologie, come dimostrato dai pregiudizi nel riconoscimento facciale contro le persone di colore.
- Strategie di Resistenza e Potere della Narrazione: Nonostante la natura opprimente di queste tecnologie, il libro evidenzia numerose forme di resistenza e solidarietà. Questo include la narrazione come forma di resistenza e come mezzo per umanizzare le esperienze delle persone. Le strategie di resistenza includono contenziosi strategici contro algoritmi discriminatori, campagne di disinvestimento, l’adattamento della tecnologia per la condivisione di informazioni da parte delle persone in movimento, e l’adozione di approcci partecipativi che mettono al centro le voci delle comunità colpite,