Quando è lontana la formazione della memoria umana da quella favorita dall’intelligenza artificiale?
Ebbene, secondo quanto ha scoperto un team interdisciplinare composto da ricercatori del Center for Cognition and Sociality e del Data Science Group all’interno dell’Institute for Basic Science (IBS), in realtà i punti di contatto sarebbero molto più frequenti e intensi di quanto si potrebbe pensare.
Lo studio ha infatti rivelato quella che definisce essere una sorprendente somiglianza tra l’elaborazione della memoria dei modelli di intelligenza artificiale (AI) e l’ippocampo del cervello umano. Una nuova scoperta che fornisce una prospettiva inedita sul consolidamento della memoria, il processo che trasforma i ricordi a breve termine in ricordi a lungo termine, nei sistemi di intelligenza artificiale.
Nella corsa verso lo sviluppo dell’Intelligenza Artificiale generativa, con entità influenti come OpenAI e Google DeepMind in testa, la comprensione e la replica di un’intelligenza simile a quella umana è diventata un importante interesse di ricerca. Al centro di questi progressi tecnologici c’è il modello Transformer, i cui principi fondamentali vengono ora approfonditi.
La chiave per ottenere sistemi di intelligenza artificiale potenti è capire come imparano e ricordano le informazioni. Il team ha applicato i principi dell’apprendimento del cervello umano, concentrandosi in particolare sul consolidamento della memoria attraverso il recettore NMDA nell’ippocampo, ai modelli di IA.
Il recettore NMDA è come una porta intelligente nel cervello che facilita l’apprendimento e la formazione della memoria. Quando è presente una sostanza chimica cerebrale chiamata glutammato, la cellula nervosa subisce un’eccitazione. D’altra parte, uno ione magnesio agisce come un piccolo guardiano che blocca la porta. Solo quando questo guardiano ionico si fa da parte, le sostanze possono entrare nella cellula. E questo è il processo che permette al cervello di creare e conservare i ricordi, e il ruolo del guardiano (lo ione magnesio) nell’intero processo è piuttosto specifico.
Il team ha dunque compiuto una scoperta affascinante: il modello Transformer sembra infatti utilizzare un processo di gatekeeping simile al recettore NMDA del cervello, con una rivelazione che ha portato i ricercatori a indagare se il consolidamento della memoria del Transformer possa essere controllato da un meccanismo simile al processo di gating del recettore NMDA.
Nel cervello degli animali, un basso livello di magnesio è noto per indebolire la funzione della memoria. I ricercatori hanno scoperto che la memoria a lungo termine di Transformer può essere migliorata imitando il recettore NMDA. Proprio come nel cervello, dove la variazione dei livelli di magnesio influisce sulla forza della memoria, la modifica dei parametri di Transformer per riflettere l’azione di gating del recettore NMDA ha portato a un miglioramento della memoria nel modello di intelligenza artificiale. Una scoperta che ora suggerisce che il modo in cui i modelli di intelligenza artificiale apprendono può essere spiegato con le conoscenze consolidate delle neuroscienze.
Justin LEE, direttore neuroscienziato dell’Istituto, ha dichiarato in particolar modo che “questa ricerca rappresenta un passo fondamentale per il progresso dell’intelligenza artificiale e delle neuroscienze. Ci permette di approfondire i principi di funzionamento del cervello e di sviluppare sistemi di IA più avanzati sulla base di queste conoscenze”.
Gli ha poi fatto eco CHA Meeyoung, data scientist del team e del KAIST, che ha osservato come “il cervello umano è straordinario per il modo in cui funziona con un’energia minima, a differenza dei grandi modelli di IA che richiedono risorse immense. Il nostro lavoro apre nuove possibilità per sistemi di IA a basso costo e ad alte prestazioni che imparano e ricordano le informazioni come gli esseri umani”.