Recentemente anche Facebook ha annunciato di aver varato un programma di intelligenza artificiale finalizzato a proporre ai suoi utenti contenuti il più possibile pertinenti ai loro interessi – sia per quanto concerne i post testuali, che le immagini.
Il MIT Technology Review, nel riportare la notizia, fa esplicito riferimento al fatto che i ricercatori di Facebook si avvarranno della tecnica di intelligenza artificiale chiamata deep learning. Nel 2012, anche Google e Microsoft avevano annunciato di aver ottenuto, mediante l’applicazione del deep learning, importanti progressi nei loro algoritmi di riconoscimento delle immagini e di riconoscimento vocale.
Alla base di questi progressi c’è un modello di rappresentazione dell’intelligenza detto reti neurali artificiali. Le reti neurali artificiali sono note ai ricercatori da molto tempo: vennero infatti proposte per la prima volta da Warren McCulloch e Walter Pitts in un articolo del 1946 come modello computazionale finalizzato a rappresentare un’ipotesi del funzionamento delle reti neurali biologiche.
La prima applicazione significativa delle reti neurali fu implementata da Frank Rosenblatt nel 1958: il Perceptron, come venne battezzato da Rosenblatt, era costituito da un circuito capace di eseguire semplici compiti di classificazione automatica – come per esempio distinguere un triangolo tra varie forme. Il Perceptron suscitò un certo stupore all’epoca, ravvivando la fiducia nelle possibilità di realizzare una vera e propria intelligenza artificiale.
Tuttavia, nel 1969 il famoso ricercatore Marvin Minsky pubblicò, insieme al suo collaboratore Seymour Papert, un libro in cui ridimensionava di molto le capacità del Perceptron. La pubblicazione di Minsky piantò il primo seme di sfiducia nelle potenzialità delle reti neurali artificiali e dell’intelligenza artificiale più in generale, portando a una lunga crisi nel finanziamento della relativa ricerca accademica, che venne indicata con il nome evocativo di “inverno dell’intelligenza artificiale“.
Rosenblatt morì poco dopo la pubblicazione del libro di Minsky, e non poté dunque assistere all’inarrestabile serie di innovazioni nel campo delle reti neurali che permisero non solo di trovare adeguate soluzioni ai problemi evidenziati da Minsky, ma di aumentare notevolmente le capacità di rappresentazione delle reti neurali e le loro performance in termini di qualità e velocità di apprendimento.
Infatti, dalla semplice forma del Perceptron si passò nel corso degli anni a progettare reti neurali costituite da molteplici livelli, che potessero propagare l’informazione nel tempo, e che fossero in grado di modificare le connessioni tra i neuroni nell’intera struttura correggendo gli errori commessi in fase di apprendimento.
Tutte queste innovazioni, sviluppate nel corso degli anni ’80 e ’90, richiedevano una quantità notevole di risorse computazionali per risultare efficaci; conseguentemente, sebbene abbiano trovato applicazioni in molti campi, non riuscirono mai a rinnovare l’entusiasmo nelle possibilità di realizzare una vera intelligenza artificiale.
L’ultima di questa lunga serie di innovazioni nel campo delle reti neurali è il deep learning. L’idea di base è che la rete neurale è composta da una serie di livelli ognuno addestrato su un sotto-compito di classificazione, con i quali si possono realizzare compiti sempre più astratti e di alto livello. Il deep learning si è dimostrato particolarmente efficace nel realizzare i compiti cosiddetti di “classificazione non-supervisionata“: si tratta di quelle attività in cui, dato un insieme di oggetti, per esempio delle immagini, è necessario raggrupparle in categorie secondo principi di somiglianza.
L’enorme quantità di dati che i giganti della raccolta di informazioni come Google e Facebook hanno a disposizione, e l’inedita e spropositata quantità di risorse computazionali di cui possono beneficiare, sono i fattori che permettono al deep learning di costituire una concreta speranza di realizzare quanto di più simile all’intelligenza umana sia mai stato realizzato mediante una macchina.
Nonostante ciò, alcuni commentatori rimangono scettici: ancora una volta il dubbio riguarda la capacità dei calcolatori elettronici di rappresentare e includere il senso comune nei loro processi di apprendimento.
[Fonte: MIT Technology Review]