
Linguaggi artificiali: dalla promessa di universalità alla cattura algoritmica
C’è stato un momento, nella storia lunga dell’umanità, in cui costruire un linguaggio artificiale significava tentare un atto di emancipazione. Non una fuga dalla realtà, ma un’operazione radicale su di essa: rifondare la comunicazione, sottrarla all’ambiguità, renderla trasparente, condivisibile, universale. Era un progetto politico prima ancora che tecnico.
Nel XVII secolo, figure come Gottfried Wilhelm Leibniz immaginavano una lingua in cui pensare coincidesse con calcolare, e discutere significasse risolvere equazioni. Se due filosofi fossero stati in disaccordo, avrebbero potuto dirsi: calculemus. Non più retorica, non più potere discorsivo: solo verità computabile. Analogamente, John Wilkins progettava un sistema in cui ogni parola fosse mappata su una tassonomia del reale. Il linguaggio, finalmente, avrebbe smesso di essere storia, cultura, conflitto: sarebbe diventato struttura.
Il fallimento operativo di questi progetti è noto. Ma il loro fallimento è anche la loro verità: l’idea che il linguaggio possa essere purificato dalle condizioni sociali è un’illusione. E tuttavia, quell’illusione ha prodotto effetti duraturi. Ha generato la logica formale, la matematizzazione del pensiero, e infine le condizioni stesse dell’informatica.
Con Gottlob Frege e poi con Bertrand Russell, il linguaggio smette di essere un mezzo e diventa un sistema chiuso, autoreferenziale, governato da regole interne. Non si parla più per capirsi: si scrive per dimostrare. La lingua naturale è sospetta; quella artificiale è affidabile. È qui che nasce una frattura destinata a crescere: tra il linguaggio come esperienza e il linguaggio come macchina.
Nel frattempo, un altro filone prova a salvare l’utopia comunicativa: le lingue pianificate. L’Esperanto di L. L. Zamenhof non è solo un codice semplificato; è un progetto etico. Una lingua senza nazione, senza dominio, senza gerarchie implicite. Ma proprio per questo resta marginale. Perché il linguaggio non è mai neutro: è sempre inscritto in rapporti di forza. Non basta essere più razionali per essere adottati; bisogna essere più potenti.
Il Novecento compie il salto decisivo. I linguaggi artificiali smettono di rivolgersi agli umani e iniziano a rivolgersi alle macchine. Assembly, C, Python: non sono strumenti di comunicazione, ma dispositivi di esecuzione. Qui l’ambiguità non è un problema teorico: è un errore fatale. Il linguaggio diventa comando. Non descrive il mondo: lo attiva.
E tuttavia, questa trasformazione non è neutrale. Trasformare il linguaggio in codice significa trasformare il pensiero in operazione. Significa accettare che ciò che non è formalizzabile non è trattabile. Il mondo si riduce a ciò che può essere scritto in una sintassi valida.
Arriviamo così al presente, dove il paradosso si compie. I sistemi di intelligenza artificiale sembrano riportare il linguaggio al centro: parlano, scrivono, dialogano. Ma questa apparente restituzione è, in realtà, una cattura. Il linguaggio naturale viene scomposto in token, vettorializzato, probabilizzato. Non è più un mezzo di espressione: è una materia prima.
Qui la rottura è radicale. I linguaggi artificiali classici erano progettati: si conoscevano le regole, si potevano studiare, modificare, insegnare. I linguaggi dell’IA contemporanea, invece, sono opachi. Non esiste una grammatica accessibile. Non esiste una semantica condivisa. Esiste un modello statistico proprietario che produce stringhe plausibili.
Il cosiddetto “prompting” è spesso presentato come una nuova competenza linguistica. In realtà, è una negoziazione con una macchina che non parla, ma calcola probabilità di sequenze. L’utente non padroneggia il linguaggio: tenta di adattarsi a una funzione.
E qui emerge il punto politico. I linguaggi artificiali non sono più strumenti per costruire mondi condivisi, ma infrastrutture per governare flussi di informazione. Sono parte integrante di quella che si può definire una logistica capitalistica della conoscenza: un sistema in cui il linguaggio è estratto, trasformato e redistribuito come risorsa economica.
Il passaggio è netto:
- dal linguaggio come bene comune
- al linguaggio come servizio proprietario
- dalla lingua come spazio di negoziazione
- al codice come vincolo operativo
- dalla comunicazione come relazione
- alla generazione come output
In questo contesto, parlare di “linguaggi artificiali” al plurale rischia di essere fuorviante. Non siamo più di fronte a una pluralità di esperimenti, ma a un’infrastruttura dominante che tende all’unificazione. Non un nuovo Esperanto, ma una standardizzazione invisibile guidata da pochi attori.
Il problema non è che questi linguaggi siano artificiali. Lo sono sempre stati. Il problema è che non sono più nostri.
E allora la questione non è tecnica, ma politica:
chi può progettare, comprendere e modificare i linguaggi che organizzano il nostro rapporto con il mondo?
Finché questa capacità resta concentrata, ogni discorso sulla “alfabetizzazione all’IA” rischia di essere un’operazione cosmetica. Non si tratta di imparare a usare i linguaggi artificiali. Si tratta di riaprire la possibilità di costruirli.
Altrimenti, non stiamo parlando.
Stiamo solo completando frasi iniziate da altri.

Devi effettuare l'accesso per postare un commento.