Si tratta, sintetizza Cristianini, di
un linguaggio matematico creato combinando discipline diverse, e in grado di dare un nome ai molti modi in cui una macchina può fallire nel suo tentativo di imparare dagli esempi. Quella terminologia si trova ancora oggi in articoli e brevetti, anche al di fuori delle scienze informatiche. Per esempio: le entità o le situazioni su cui un agente intelligente è chiamato a prendere una decisione o fare una previsione sono descritte da proprietà (features), annotate da etichette (labels), divise in dati di addestramento e dati di valutazione (training e testing data), il prodotto dell’apprendimento è chiamato «ipotesi» e il nemico dichiarato è l’insidioso fenomeno dell’overfitting (…). Questi concetti, e le relative teorie, risalgono ai giorni della grande convergenza che risultò nel moderno campo del machine learning. (N. Cristianini, “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”)