Seguici anche su

14 novembre 2017

Google ML, figli di un algoritmo migliore

Google sta testando un nuovo protocollo per le reti neurali: AutoML è un sistema di deep learning che programma altri sistemi di apprendimento

Paolo Bottazzini

 ► Dal numero di pagina99 in edicola dal 10 novembre e in edizione digitale

Le scimmie sognano di saper scrivere? Linneo non nasconde la sua simpatia per loro: quando fonda la tassonomia scientifica moderna, le distingue dagli uomini solo per il fatto che «hanno uno spazio vuoto tra i canini e gli altri denti». Emile Borel si è mostrato meno galante: nel 1913 conia il «teorema della scimmia instancabile», che attribuisce un giudizio poco lusinghiero su scimpanzé e affini. La dimostrazione, sviluppata nell’ambito della matematica della probabilità, chiarisce che una scimmia riuscirebbe prima o poi a compilare tutti i volumi raccolti nella Biblioteca Nazionale di Francia, pestando a caso sulla tastiera di una macchina da scrivere. L’unica condizione è che abbia a disposizione un tempo infinito – con altrettanti carta e inchiostro.

Il sogno si realizza con la pazienza, non con la razionalità. Per di più occorre una scimmia ammaestrata con molta disciplina, perché Dawkins ha calcolato che, al ritmo di una lettera al secondo, la probabilità di azzeccare un verso di Shakespeare è di 1 su 10 seguito da 28 zeri (mentre di vincere al superenalotto è di 1 su 6 seguito da solo 8 zeri). Un risultato che potrebbe rattristare anche il macaco Naruto, e vandalizzare il sorriso del suo selfie apprezzato in tutto il mondo.
Ma Google ha deciso di intervenire contro lo sciovinismo degli uomini – o almeno contro il protezionismo instaurato da Borel nei confronti del libero scambio di intelligenza con le altre specie.

Da maggio 2017, nei laboratori di Mountain View viene sviluppato un nuovo approccio, battezzato AutoML, nei confronti delle reti neurali e dei loro processi di apprendimento. Una macchina di deep learning è un dispositivo che impara ad analizzare e a dirimere una famiglia di problemi, invece di eseguire un pacchetto di istruzioni già cablate dal programmatore: la procedura viene trovata attraverso l’esperienza, senza essere iniettata dall’esterno.

L’architettura del sistema che imprime questa evoluzione cognitiva nei calcolatori è una rete neurale, progettata per riconoscere, in un flusso di stimoli, le configurazioni di dati più funzionali alla soluzione del compito. L’ambiente da esaminare viene esplorato a diversi livelli di astrazione; i risultati di ogni strato diventano l’input per quelli successivi. La rete neurale, in analogia a quanto si assume avvenga nel sistema nervoso, procede in questo modo alla costruzione di una gerarchia di concetti, attraverso i quali rappresenta le le scoperte della sua ricognizione.

I pattern di informazioni, che rimangono costanti nel flusso delle trasformazioni, le permettono di identificare le stesse parole nella variazione dei timbri e delle intonazioni della voce; o di risalire, attraverso l’esame di grandi quantità di enunciati, ad espressioni equivalenti in lingue diverse; o di riconoscere il volto della stessa persona (o dello stesso macaco) nella pluralità di profili che l’aspetto assume con la rotazione della testa, con la moltiplicazione delle angolature, la variazione delle ombre, con la modifica di dettagli come la barba o il colore dei capelli – o l’inserimento di un sorriso da selfie.

Come accade ai bambini, la macchina non nasce con un talento per l’apprendimento pronto all’uso: se fosse già scolarizzata, si replicherebbe il trucco del nano nascosto dentro l’automa – solo con qualche aggiornamento per renderlo adeguato ai nostri tempi. Anche gli algoritmi devono allenarsi per ottenere buoni risultati: l’addestramento può essere supervisionato o non esserlo, ma in ogni caso innesca strategie di retroazione che modificano l’architettura della rete, al fine di affinare la sua capacità di avvicinare i risultati corretti.

È in questa fase di autoregolazione che Google ha compiuto alcuni passi inaspettati. Il tirocinio cui è stato sottoposto AutoML però non serve a discernere l’identità di uomini e macachi nel campo visivo, o a comprendere le frasi di una conversazione. È consacrato a programmare nuovi algoritmi di deep learning. Come hanno spiegato sul blog ufficiale Zoph e Le, ricercatori del gruppo Google Brain, il lavoro per modificare i modelli di rete neurale è lungo e noioso: l’obiettivo alla fine è controllare quale combinatoria di pesi e rapporti tra i nodi produrrà i risultati migliori. Di regola il metodo per testare le varie configurazioni è provarle tutte.

È qui che entra in scena la scimmia infaticabile di Borel, sotto le spoglie di un super-computer che sogna il suo stesso allenamento – visto che, al contrario del macaco, sa già scrivere. Una macchina che impara, riesce a rintracciare segnali anche minimi di potenzialità per l’ottimizzazione della rete, presagendo euristiche dove i colleghi umani si immergono lentamente nel sonno senza sogni della noia. In altre parole, la macchina riesce a orientarsi sempre meglio, e trova un sentiero dove i ricercatori si abbandonano alla malinconia dei calcoli di quante combinazioni dovranno tentare prima di sapere qual è il risultato migliore. Per una rete neurale a dieci livelli, il tipo oggi più diffuso, le permutazioni sono 10 seguito da 10 zeri.

Nelle migliori storie non si onora solo la disciplina, o si ammira solo il coraggio; si premiano i sogni, anche se ronzano nella testa di scimmie elettriche. AutoML non solo codifica in poche ore, quando i colleghi di lavoro impiegano mesi per svolgere gli stessi compiti; secondo quanto ha testimoniato Google alla fine di ottobre, le macchine che progetta funzionano meglio di quelle allestite dai suoi stessi creatori umani. Mountain View ha svelato i dati relativi allo sviluppo di reti neurali destinate al riconoscimento delle immagini. I software disegnati da AutoML raggiungono vertici di accuratezza dell’82% nelle condizioni più facili; nella media comunque raggiungono un punteggio del 42%, mentre quelli elaborati dal team dei ricercatori in carne ed ossa si fermano al 39%. L’allievo ha superato il maestro; il macaco primeggia sul suo addestratore – Taylor si prepara a sbarcare su una Terra dominata da scimmie (elettriche, questa volta: anche la fantascienza finisce per ibridarsi).

Ma a Mountain View non credono (ancora) di essere vicini alla singolarità, né di essere entrati nell’era dell’autocoscienza delle macchine. Il commento è ispirato alla prudenza: tutto quello che è legittimo aspettarsi, è che nel calendario dell’intelligenza artificiale, le scadenze dell’evoluzione potrebbero essere anticipate grazie all’applicazione delle reti neurali su se stesse. Fuori dal ronzio nella mente delle scimmie elettriche, i sogni sono ancora proibiti.

[Foto in apertura di Science Photo Library / Contrasto]

Altri articoli che potrebbero interessarti