Sono debitore dell’idea al professor Antonio Calvani, che per primo ha rivolto la domanda da me riutilizzata al chiacchieratissimo ChatGPT, in italiano, dimostrando che il dispositivo non è in grado di cogliere che “donne incinte” è un sottoinsieme di “donne”. Ho provato a porre la stessa questione al meno mediatizzato Google Bard e l’esito è stato identico:

In realtà, questa illogicità è del tutto coerente con le architetture fondative sia di ChatGPT sia di Google Bard. Entrambi gli assistenti oligopolistici ad attività cognitive e culturali, infatti, non sono sistemi esperti (concezione old style e inefficace dell’intelligenza artificiale) fondati su campi di conoscenza strutturati e regole logico-deduttive implementate, ma dispositivi che si basano su correlazioni statistiche acquisite mediante addestramento, esplorazione e organizzazione di BigCorpora e definizione di modelli e su predizione probabilistica. Il tutto ricorsivo. L’interrogativo – almeno per me – se è quanto imparino dalle interazioni. Come certamente fanno gli algoritmi estrattivi dei search engine.