L’intelligenza artificiale è un campo, piuttosto che una cosa specifica. Il campo dell’intelligenza artificiale comprende la pianificazione, il ragionamento, la ricerca, la rappresentazione della conoscenza, l’apprendimento automatico, l’apprendimento profondo, l’apprendimento probabilistico, gli alberi decisionali e gli algoritmi evolutivi. L’apprendimento automatico, un sottocampo importante, è costituito da tre metodi: apprendimento supervisionato, di rinforzo e non supervisionato.1 Tuttavia, in quanto campo, l’intelligenza artificiale è unificata da una capacità ampiamente condivisa. Di conseguenza, molti studiosi usano una definizione performativa per l’IA: l’IA si riferisce a programmi per computer che fanno cose solitamente associate a esseri intelligenti. Sulla base di questa definizione performativa, si potrebbe dire che l’IA si riferisce a programmi software per computer che manipolano i dati, indipendentemente dalla direzione umana, per produrre risultati non programmati ma comunque coerenti e utili. L’intelligenza artificiale vede, correla e analizza i dati per trarre conclusioni che a volte gli esseri umani non possono. Poiché elabora i dati per produrre risultati non programmati, sembra essere intelligente. (…) L’intelligenza artificiale di seconda generazione, che funziona attraverso reti neurali, opera in modo induttivo. Un programma di apprendimento automatico elabora enormi quantità di dati attraverso le sue reti neurali fino a generare risposte che si accordano con i risultati desiderati da un programmatore umano. Il sistema è completamente probabilistico e induttivo. Gli algoritmi non sanno nulla. Non sono consapevoli del mondo reale e, in senso umano, inconsapevoli del significato dei dati che elaborano. Costruiscono semplicemente modelli di probabilità statistica sulla base di ripetuti tentativi ed errori. I programmi di apprendimento automatico identificano le correlazioni statistiche nei dati quantitativi. La maggior parte delle IA non riconosce la causalità o l’intenzione. Non “capiscono” in senso umano; Non hanno una comprensione innata del contesto. Sono incapaci di interpretare il significato. Tuttavia, poiché le IA vengono addestrate su una grande quantità di dati, è molto probabile che queste correlazioni si rivelino accurate.Poiché si tratta di un sistema induttivo, l’IA di seconda generazione è, quindi, costituzionalmente fragile (…) i modelli linguistici di grandi dimensioni sono tutti costruiti su un’architettura “trasformatore”. Un trasformatore si riferisce a un livello di attenzione nella rete neurale che consente a un modello di concentrarsi su una parte specifica dei dati, tracciando più relazioni tra tali dati. Questi modelli sono in grado di calcolare una moltitudine di parametri regolabili che vengono ponderati dal modello. (…) (A. King, “AI, Automation, and War: The Rise of a Military-Tech Complex”)