Siamo nell’era dell’intelligenza artificiale (IA) ma nessuno è finora riuscito a dare una definizione d’intelligenza oggettiva e universalmente riconosciuta.
Cos’è l’intelligenza e quando un’entità – umana o no – può essere ritenuta intelligente?
Il primo che si pose questa domanda e tentò di dare una risposta scientifica fu Alan Turing, che nel 1950 pose le basi di quella disciplina che oggi chiamano Intelligenza Artificiale.
Partendo dal famoso gioco vittoriano dell’imitazione – the Imitation Game – propose una variante che fungesse da test per identificare un comportamento intelligente. Il test consiste nel porre una serie di domande a due soggetti: un uomo e una macchina. L’intervistatore non sa quali siano le risposte dell’uno e dell’altro; se la macchina ha un comportamento intelligente, l’intervistatore sarà ingannato e sbaglierà ad attribuire la paternità delle risposte.
Questa definizione empirica dell’intelligenza fu presto confutata da alcuni pensatori e filosofi perché ritenuta debole. Quello che Turing non considerava era come la macchina arrivasse a ingannare l’uomo, dando risposte intelligenti. Lo scienziato britannico ignorava ciò che accadeva nella stanza e l’importante per lui era il risultato e non il meccanismo di ragionamento.
Quella che definiamo oggi Intelligenza Artificiale è il risultato degli studi in ambiti come le neuroscienze computazionali, l’architettura cognitiva, la programmazione, le reti neurali e i big data. Una delle correnti di pensiero e di studio attuale analizza l’intelligenza artificiale sempre relazionata a un contesto; una macchina pensante, che emuli il cervello umano, deve avere contatti con l’esterno e apprendere esattamente come farebbe una persona, ma più velocemente.
A questo scenario appartengono le reti neurali. Cos’è esattamente una rete neurale?
Una rete neurale emula fisicamente la struttura del nostro cervello e può quindi considerarsi come una rete di neuroni artificiali. I primi studi furono svolti nel 1957 da Rosenblatt nell’università Cornell di New York.
Lo studioso creò i percettroni, ovvero neuroni artificiali il cui scopo è propagare dei segnali elettrici. La teoria alla base della propagazione di un segnale elettrico in una rete è abbastanza semplice e ricalca quella biologica.
Come si evince dallo schema, i segnali d’ingresso (INPUT) possono essere molteplici e fare riferimento a diverse informazioni date in pasto alla rete.
Ogni segnale è come un vettore, in altre parole una grandezza fisica rappresentata da una direzione, un’intensità e un verso. A noi al momento interessa l’intensità, per cui poniamo che ogni vettore abbia un peso associato (che nella realtà si traduce nell’ipotesi di avere delle informazioni in ingresso più o meno importanti per la risoluzione del problema posto alla rete neurale).
La rete restituisce un segnale di uscita dato dalla somma dei segnali d’ingresso (OUTPUT). Trasportando il tutto da concetto fisico-biologico a matematico, avremo quanto segue:
Se la risposta della rete è zero, vuol dire che la somma dei vettori, ovvero dei segnali di ingresso, è inferiore ad una soglia stabilita, per cui il segnale non si propaga. Se la risposta è uno, invece, il valore di soglia è superato e abbiamo una risposta dalla rete.
La schematizzazione qui riportata è molto semplificata. Nella realtà ogni rete è composta da più livelli di percettroni che interagiscono tra loro facendo avanzare il segnale elettrico fino all’output. Più percettroni ci sono, più la risposta al problema sarà elaborata, nel vero senso della parola.
Per molti anni il limite più grande allo sviluppo dell’intelligenza artificiale è stato l’hardware, quindi la potenza di calcolo. Negli ultimi anni ci sono stati enormi progressi in tal senso, grazie all’uso di componenti elettronici sempre più veloci e piccoli, ma si stima che la miniaturizzazione non possa procedere all’infinito a causa dell’instabilità dei materiali in condizioni quantistiche.
La cosa assolutamente più affascinante di questa – relativamente – nuova branca di studio è il numero di elementi in gioco. Da una parte le neuroscienze, che studiano da sempre il cervello umano, di cui ancora si conosce ben poco; dall’altra la computazione, la fisica e la statistica, che spingono verso al creazione di una super intelligenza artificiale capace di superare quella umana e migliorare se stessa a velocità impressionanti e mai immaginate prima.