Logistica illogica della conoscenza. Of course!

Sono debitore dell’idea al professor Antonio Calvani, che per primo ha rivolto la domanda da me riutilizzata al chiacchieratissimo ChatGPT, in italiano, dimostrando che il dispositivo non è in grado di cogliere che “donne incinte” è un sottoinsieme di “donne”. Ho provato a porre la stessa questione al meno mediatizzato Google Bard e l’esito è stato identico:

In realtà, questa illogicità è del tutto coerente con le architetture fondative sia di ChatGPT sia di Google Bard. Entrambi gli assistenti oligopolistici ad attività cognitive e culturali, infatti, non sono sistemi esperti (concezione old style e inefficace dell’intelligenza artificiale) fondati su campi di conoscenza strutturati e regole logico-deduttive implementate, ma dispositivi che si basano su correlazioni statistiche acquisite mediante addestramento, esplorazione e organizzazione di BigCorpora e definizione di modelli e su predizione probabilistica. Il tutto ricorsivo. L’interrogativo – almeno per me – se è quanto imparino dalle interazioni. Come certamente fanno gli algoritmi estrattivi dei search engine.