Sorprendenti varietà intellettive

INTELLIGENZA ARTIFICIALE E CERVELLO UMANO

di Domenico Palomba

Questa settimana, mio figlio di quattro anni, all’uscita di scuola, mi ha candidamente confessato: “Sai, papà, penso molto spesso alle cose infinite”. Inizialmente sorpreso, gli ho chiesto cosa fossero per lui le cose infinite. E lui, con il candore che soltanto un fanciullo di quattro anni può avere, mi ha risposto: tutte le cose che non finiscono mai!

Continuo sempre a meravigliarmi di quanto bella sia la nostra forma di intelligenza, che, entro certi limiti, è anche diffusa a molti altri mammiferi, a dispetto di quel che generalmente crediamo.

Già a pochi mesi dal concepimento, siamo in grado di percepire suoni e di reagire al tocco. Nasciamo e, dopo appena poche ore, sappiamo già afferrare il seno materno per nutrirci.

A distanza di due anni dalla nostra nascita, abbiamo piena consapevolezza dell’“io” e, a quattro anni, ci poniamo interrogativi che ci continueranno a tempestare per tutta l’esistenza:  cosa è l’infinito, da dove veniamo e perché siamo venuti al mondo, cosa è il tempo e perché scorre solo in un senso, eccetera eccetera. 

Una “macchina” affascinante, il cervello umano, che ha congegnato, attraverso il suo pensiero, macchine altrettanto affascinanti, in grado di supportarlo nei suoi compiti più ardui: ammassi enormi di circuiti elettronici (un microprocessore attuale ha più di 7 miliardi di transistor in uno spazio pochi cm2) in grado di effettuare calcoli a velocità impensabili per la mente umana, e, più di recente, in grado di esibire un’apparente “intelligenza artificiale”. Naturalmente si tratta di apparenza, anche se nei recenti anni l’intelligenza artificiale ha fatto passi da gigante. 

Ma cosa è una intelligenza artificiale” e perché la distinguiamo da quella umana? Alan Turing, considerato il padre fondatore dell’attuale Scienza dell’Informazione, definì nel 1950 il criterio per determinare se una macchina possa o meno esibire un comportamento intelligente. Facendo uso del gioco dell’imitazione, definì una macchina intelligente quella in grado di ingannare il proprio interlocutore a tal punto da portarlo a credere di relazionarsi con un suo simile, di pari intelligenza. 

È in quegli stessi anni che si svilupparono gli algoritmi di “intelligenza artificiale” e si cominciarono a escogitare nuovi metodi di elaborazione dell’informazione affinché le macchine potessero acquisire conoscenza ed esperienza, per riutilizzarla in contesti simili, prendendo decisioni in modo autonomo, come fanno gli esseri umani. 

L’accelerazione tecnologica ha risvegliato l’interesse per gli algoritmi di intelligenza artificiale: si vuole insegnare alle macchine ad agire.

Gli algoritmi dell’intelligenza artificiale si sono evoluti nel tempo, ma gli approcci al problema sono rimasti immutati: un primo approccio “teorico”, mirato a fornire alla macchina i rudimenti del ragionamento, e un approccio più “pratico”, mirato a fornire alla macchina l’esperienza diretta affinché impari ad agire in situazioni simili a quelle già viste, ma non uguali.

Lo sviluppo di macchine a intelligenza artificiale fu, per molti anni, abbandonato e relegato nel mondo delle accademie, perché le capacità di calcolo e la quantità di informazioni necessarie per fornire sufficiente “esperienza” alle macchine erano enormi per i tempi. 

L’accelerazione tecnologica dello sviluppo dell’elettronica su silicio, l’avvento di Internet e lo sviluppo di macchine da capacità computazionali sorprendenti hanno negli ultimi dieci anni risvegliato l’interesse per lo sviluppo di macchine e algoritmi di intelligenza artificiale, dato che i principali ostacoli allo sviluppo dell’intelligenza artificiale erano stati ormai rimossi.

Tra i due approcci, prevale principalmente quello pratico, impartendo alle macchine conoscenza o esperienza pregressa, affinché queste siano in grado di prendere decisioni in virtù di situazioni simili osservate in passato (macchine ad apprendimento – Machine Learning). La conoscenza pregressa può a sua volta essere impartita (apprendimento in supervisione – Supervised Learning), oppure appresa in modo autonomo dalla macchina stessa (apprendimento autonomo – Unsupervised Learning). 

È interessante che gli esseri umani si riferiscano alla natura per cercare il modo migliore di costruire le proprie macchine: il cervello umano è il migliore modello di intelligenza noto in natura.

Nel caso dell’intelligenza artificiale, gli ingegneri si sono affidati al migliore modello di intelligenza noto in natura: il cervello umano. Gli algoritmi di intelligenza artificiale sono infatti basati su una rete molto ampia di elementi tutti identici che simulano il comportamento di un “neurone”: come i veri neuroni, reagiscono a stimoli elettrici producendo a loro volta ulteriori stimoli elettrici in cascata; così, i neuroni di una rete artificiale elaborano valori numerici in uscita, in funzione di un numero molto elevato di valori numerici in ingresso. 

Le reti neurali combinano un numero estremamente elevato di tali neuroni di base, mediante architetture di connessione divenute via via più complesse nel tempo. 

Il saggio uso della matematica, finalizzata all’ottimizzazione di parametri numerici, completa la magia dell’apprendimento: l’acquisizione della conoscenza pregressa si traduce, per una rete artificiale, nell’ottimizzazione di un numero strabiliantemente elevato di parametri numerici (fino a centinaia di milioni) che determinano la risposta (numerica) dei singoli neuroni agli stimoli (numerici) in ingresso. Più grande è la conoscenza pregressa, migliore sarà la risposta della macchina a stimoli o esperienze simili. 

Esistono reti neurali per ogni genere di “intelligenza artificiale”, ad esempio: riconoscimento del linguaggio, traduzione e interpretazione di testo, riconoscimento delle immagini, diagnosi medica, guida autonoma, studio del genoma umano. Le reti neurali di ultima generazione tendono ad avere un numero elevato di strati di neuroni interconnessi (da cui il nome Deep Learning – apprendimento “profondo”). Mediante tecniche particolari di trasferimento di conoscenza (Transfer Learning), la conoscenza acquisita in alcuni contesti viene trasferita in altri contesti per svolgere compiti più complessi. Con queste tecniche, è stato possibile far generare pseudo-musica o dipingere pseudo-quadri o scrivere pseudo-poesie a intelligenze artificiali. 

Le opere generate sono ottenute facendo uso di regole probabilità: si tratta di generazione casuale di elementi (note, pixel, parole) che rispettano, però, la conoscenza pregressa della macchina. 

Nonostante tanto progresso, siamo tuttavia ancora lontani dal definire l’intelligenza artificiale una vera forma di intelligenza. 

Le ragioni principali sono dovute all’approccio metodologico seguito: le intelligenze artificiali sono programmate per compiti specifici e, per questo motivo, il loro apprendimento è specializzato soltanto sui compiti specifici.  Una macchina che ha imparato a leggere una risonanza magnetica e a riconoscere con elevata probabilità di successo l’insorgere di un tumore polmonare, non saprà fare altro che quello. 

Di recente, gli ingegneri stanno sviluppando modelli di macchine a intelligenza artificiale di capacità più generali. L’approccio che stanno seguendo è quello di imitare il modello di apprendimento di un essere umano. 

Limitando al massimo la fornitura di esperienza pregressa, e fornendo soltanto delle regole di comportamento di base, una ricompensa in caso di successo nell’apprendimento e una punizione in caso di insuccesso, si stimola la macchina a trovare da sola il modo di raggiungere il massimo grado di ricompensa minimizzando gli insuccessi.

Anche in questo caso, sebbene si sia conseguita una generalizzazione, le macchine sinora costruite con questo approccio (apprendimento rafforzativo – Reinforcement Learning) assolvono a compiti ancora molto specifici se confrontati ad un cervello umano. 

Il Reinforcement Learning è, per esempio, usato in robotica industriale, dove vengono costruite macchine che imparano da sole a muovere bracci meccanici, afferrare oggetti ed eseguire compiti di automazione. 

Persino la dimostrazione di Google Duplex nell’esperimento del 2018 (una macchina in grado di interagire con un umano per prenotare una cena presso un ristorante), a dispetto delle roboanti dichiarazioni di John Hennessy, membro del Consiglio di Amministrazione di Alphabet, proprietaria di Google, sembra non abbia ancora passato il severo test di Turing.

Secondo alcuni studiosi, la complessità dei problemi attualmente risolvibili da una intelligenza artificiale, con gli approcci finora utilizzati, è giunta al limite. 

La corsa alla ricerca di intelligenze artificiali più generali (AGI – Artificial General Intelligence) è aperta e i percorsi che si intende percorrere sono: ripartire dagli insegnamenti di base, fornendo alle macchine tutta la conoscenza teorica necessaria ad assolvere i compiti che le sono stati dati (Symbolic AI); e combinare capacità di acquisire e memorizzare esperienza pregressa caratteristica delle reti neurali (Deep Learning) con la capacità di sperimentare nuove soluzioni per massimizzare la ricompensa ricevuta in apprendimento (Reinforcement Learning). La sfida è aperta, e le migliori menti di tutto il mondo continuano a esplorare soluzioni al problema, mentre i nostri figli possono ancora, con l’avida curiosità della mente di un bambino, sollevare la testa al cielo, mirare le stelle, e interrogarsi sulla profondità del cosmo, senza alcun timore per la supremazia degli uomini sulle macchine!

Continuare
Abbonati per leggere tutto l'articolo
Ricordami