Tutti gli esseri umani svolgono una elevatissima quantità di compiti, combinando tra loro diversi elementi di informazione. Percepiamo gli oggetti combinando i bordi, categorizziamo le scene combinando gli oggetti, interpretiamo gli eventi combinando le azioni e comprendiamo le frasi combinando le parole.
Tuttavia, i ricercatori non hanno ancora capito bene come il cervello forma e mantiene il significato dell’insieme, come una frase, a partire dalle sue parti. Ebbene, i ricercatori della Carnegie Mellon University del Dipartimento di Machine Learning (MLD) della School of Computer Science (SCS) hanno cercato di portare alla luce i processi cerebrali che supportano il significato emergente delle parole combinate.
Mariya Toneva, ex dottoranda dell’MLD ora docente presso il Max Planck Institute for Software Systems, ha collaborato con Leila Wehbe, professore assistente dell’MLD, e Tom Mitchell, Founders University Professor dell’SCS, per studiare quali regioni del cervello elaborano il significato delle parole combinate e come il cervello mantiene e aggiorna il significato delle parole. Il loro lavoro potrebbe ora contribuire a una comprensione più completa del modo in cui il cervello elabora, mantiene e aggiorna il significato delle parole e potrebbe riorientare l’attenzione della ricerca verso aree del cervello adatte alle future neurotecnologie indossabili, come i dispositivi in grado di decodificare ciò che una persona sta cercando di dire direttamente dall’attività cerebrale. Questi dispositivi possono aiutare le persone affette da malattie come il Parkinson o la sclerosi multipla che limitano il controllo muscolare.
Per arrivare ai loro risultati, Toneva, Mitchell e Wehbe hanno usato le reti neurali per costruire modelli computazionali in grado di prevedere le aree del cervello che elaborano il nuovo significato delle parole quando vengono combinate. Hanno dunque testato questo modello registrando l’attività cerebrale di otto persone mentre leggevano un capitolo della saga di Harry Potter.
I risultati suggeriscono che alcune regioni del cervello elaborano sia il significato delle singole parole sia quello delle parole combinate, mentre altre elaborano solo il significato delle singole parole. Gli autori hanno anche scoperto che uno degli strumenti di registrazione dell’attività neurale utilizzati, la magnetoencefalografia, non ha catturato un segnale che riflettesse il significato delle parole combinate. Poiché i futuri dispositivi di neurotecnologia indossabili potrebbero utilizzare strumenti di registrazione simili alla MEG, un limite potenziale è la loro incapacità di rilevare il significato delle parole combinate, il che potrebbe influire sulla loro capacità di aiutare gli utenti a produrre il linguaggio.
Il risultato è stato il primo modello computazionale integrato della lettura, che ha identificato quali parti del cervello sono responsabili di sottoprocessi quali l’analisi delle frasi, la determinazione del significato delle parole e la comprensione delle relazioni tra i personaggi.