Tecnologie sensoriali

Kelly e Hamm si sbilanciano nelle previsioni:

Tutte le tecnologie sensoriali e di apprendimento hanno degli elementi di base in comune, a partire dal sensore, ovvero un dispositivo o una capacità in grado di individuare qualcosa nel mondo. Poi vi è l’abilità di rilevare caratteristiche dagli input sensoriali, come i colori o i contorni nei dati visivi o i fonemi nel riconoscimento vocale. Il passo successivo è la modellazione. I sistemi di calcolo usano svariati strumenti analitici per raggruppare le peculiarità di un’entità, sia essa una persona, un edificio, una canzone o un odore. Quindi applicano la semantica per collocare le entità nelle categorie, per esempio luoghi, eventi e comportamenti. In ogni fase viene utilizzato l’apprendimento automatico. Il sistema è istruito dal software per riconoscere caratteristiche, entità e categorie semantiche. In ultima analisi, poiché non possiamo insegnare alle macchine a identificare qualsiasi cosa e ogni rapporto tra gli elementi, esse dovranno dar prova di un ragionamento induttivo, grazie a cui ricavare asserzioni da esempi specifici. È questo il punto in cui i sistemi cognitivi cominciano a superare i confini dell’elaborazione dei dati nell’accezione di von Neumann. Non si limitano a eseguire ciò che viene ordinato loro; capiscono in modo autonomo come procedere. Per compiere questo grande salto e diventare vere e proprie macchine pensanti, i sistemi cognitivi del futuro integreranno le informazioni provenienti da varie tecnologie sensoriali. Oggi, mentre gli scienziati lavorano alla creazione di tecnologie automatiche per aumentare i nostri sensi, vi è una forte tendenza a considerare separatamente ogni area sensoriale. Gli specialisti, infatti, si concentrano soltanto su una singola capacità. Ciascun esperto sensoriale non legge le riviste dedicate agli altri campi e non partecipa alle conferenze altrui. Persino in IBM, i nostri specialisti nelle differenti tecnologie sensoriali non interagiscono molto. Eppure, se le macchine devono aiutarci a capire il mondo, esse dovranno trovarvi un senso e parlare di esso in un modo che ci sia familiare e comprensibile. Questa integrazione di dati estratti dalle varie tecnologie sensoriali comincia a verificarsi nell’ambito dei multimedia and visual analytics, dove vista e udito sono correlati. (John E. Kelly – Steve Hamm, “Macchine intelligenti. Watson e l’era del cognitive computing”, Egea)