Edoardo Greblo ci fa riflettere sul fatto che
(…) gli sviluppi dell’Intelligenza artificiale (ia) potrebbero ri-orientare [i] processi politici, che siamo abituati a dare per scontati, in una direzione potenzialmente non-democratica. L’ia permette di raccogliere e analizzare una massa enorme di informazioni – concesse esplicitamente oppure carpite tracciando e profilando le attività delle persone in rete – in modo centralizzato e di rendere i sistemi accentrati più efficienti dei sistemi diffusi, dal momento che il funzionamento delle procedure di apprendimento automatico migliora in proporzione alla massa delle informazioni che è possibile analizzare. Se si concentra in un database il controllo sui dati rilevanti delle persone, la cui esclusione dal pubblico dominio è cruciale per costruire e garantire la loro identità, diventa possibile istruire gli algoritmi in modo molto più efficiente che tutelando la privacy informazionale. (…) [I] governi autoritari potrebbero assumere decisioni ancora più “informate” dei governi democratici, poiché il loro accesso all’archivio universale dei dati non sarebbe ostacolato da vincoli giuridici o da scrupoli morali. Mentre le dittature “disinformate” del passato sono crollate sotto il peso della loro inefficienza perché prive degli strumenti tecnici per controllare in modo generalizzato la vita dei cittadini, le potenziali dittature “informate” del futuro potrebbero invece creare una sorta di “Panopticon digitale”, uno spazio in cui l’individuo viene lasciato libero di agire come meglio crede, ma in un regime di controllo assoluto. (…) Quando le informazioni vengono tarate da algoritmi automatici sui Big Data di ognuno e sottoposte al cosiddetto framing effect, per cui a contare non sono tanto le informazioni in sé quanto il modo in cui sono presentate, in cui sono, cioè, formulate (framed), allora diventa possibile “ingannare tutti per tutto il tempo” e addebitare ad altri le responsabilità dei propri fallimenti, per esempio deviando l’attenzione su pericoli immaginari. Basti pensare ai political bots, i quali generano automaticamente dei messaggi sui social media che sembrano redatti da un essere umano e che hanno lo scopo di promuovere uno specifico orientamento politico o una specifica ideologia o idea politica. Oppure all’astroturfing che, tramite l’impiego di un software di machine learning che utilizza molteplici identità fittizie, crea la sensazione che una politica, un individuo o un prodotto godano di un sostegno di base ben superiore a quello reale, in modo da ingannare l’opinione pubblica.
Ma una democrazia dove le informazioni sono estrapolate, ripulite ed elaborate da applicazioni dell’ia capaci di indirizzare ai cittadini sciami di informazioni personalizzate predisposte dagli algoritmi automatici è ancora una democrazia? Il cittadino “profilato” che riceve le informazioni suscettibili di plasmarne inavvertitamente la mentalità, le opinioni e persino le scelte politiche è ancora il cittadino capace di individuare i probabili effetti di decisioni alternative oppure di modificare la propria opinione di partenza per effetto delle informazioni avanzate da altre parti? Il cittadino è ancora in condizioni di scegliere tra programmi politici alternativi e di convincersi che l’andata al governo di un certo partito favorisca soluzioni migliori che non l’andata al governo di un altro? In sintesi: una democrazia incapace di contrastare l’uso improprio di informazioni per la profilazione e per le learning machines è ancora una democrazia oppure rischia di trasformarsi in qualcosa di simile a una “algocrazia”, una democrazia digitalmente modificata? (Democrazia o algocrazia?, Aut Aut, 392)