Non tutti sanno che il nostro cervello ha una notevole capacità di distinguere una voce tra le tante, anche in mezzo a una folla particolarmente rumorosa.
Ebbene, per capirci un po’ di più un team di neuroingegneri della Columbia University ha scoperto quali sono procedimenti che hanno luogo nel cervello, e che riescono a rendere possibile questa impresa. La scoperta aiuta a risolvere una questione scientifica di lunga data su come la corteccia uditiva, il centro di ascolto del cervello, può decodificare e amplificare una voce rispetto alle altre, a velocità fulminee. Una conoscenza che permette di stimolare lo sviluppo di tecnologie di apparecchi acustici e di interfacce cervello-computer che assomigliano più da vicino al cervello.
“La nostra capacità di concentrarci sulla persona accanto a noi ad un party mentre si evita il rumore circostante è straordinaria, ma finora abbiamo capito così poco su come funziona“, ha detto Nima Mesgarani, PhD, autore senior del giornale e ricercatore principale presso il Columbia’s Mortimer B. Zuckerman Mind Brain Behavior Institute. “Lo studio di oggi porta quella comprensione tanto necessaria, che si rivelerà fondamentale per gli scienziati e gli innovatori che lavorano per migliorare le tecnologie del linguaggio e dell’udito“.
La corteccia uditiva è il fulcro di ascolto del cervello. L’orecchio interno invia infatti a questa regione cerebrale i segnali elettrici che rappresentano un miscuglio di onde sonore provenienti dal mondo esterno. La corteccia uditiva deve quindi distinguere i suoni significativi da quel guazzabuglio.
“Studiare come la corteccia uditiva ordina suoni diversi è come cercare di capire cosa sta accadendo su un grande lago – in cui ogni barca, nuotatore e pesce si muove, e quanto velocemente – avendo solo i modelli di increspature nell’acqua come guida“, ha detto il Dr. Mesgarani, che è anche professore associato di ingegneria elettrica alla Columbia Engineering.
“Sappiamo da tempo che le aree della corteccia uditiva sono disposte in una gerarchia, con decodifica sempre più complessa in ogni fase, ma non abbiamo osservato come una voce particolare possa essere elaborata lungo questo percorso“, ha detto James O’Sullivan, PhD, il primo autore della carta che ha completato questo lavoro. “Per capire questo processo, avevamo bisogno di registrare l’attività neurale direttamente dal cervello“.
I ricercatori erano particolarmente interessati a due parti della gerarchia della corteccia uditiva: Il giro di Heschl (HG) e il giro temporale superiore (STG). Le informazioni provenienti dall’orecchio raggiungono prima l’HG, passando attraverso di esso e arrivando poi a STG.
“Abbiamo scoperto che è possibile amplificare la voce di un altoparlante o l’altro ponderando correttamente il segnale di uscita proveniente da HG. Sulla base delle nostre registrazioni, è plausibile che la regione STG effettui questa ponderazione“, ha detto il Dr. O’Sullivan.
Nel loro insieme, questi risultati rivelano una chiara divisione dei compiti tra queste due aree della corteccia uditiva: HG rappresenta, mentre STG seleziona. Il tutto avviene in circa 150 millisecondi, che sembra istantaneo ad un ascoltatore.
I ricercatori hanno anche trovato un ruolo aggiuntivo per STG. Dopo la selezione, STG ha formato un oggetto uditivo, una rappresentazione del suono che è analoga alle nostre rappresentazioni mentali degli oggetti che vediamo con i nostri occhi. Questo dimostra che anche quando una voce è oscurata da un altro oratore – come quando due persone parlano tra loro – STG può ancora rappresentare l’oratore desiderato come un insieme unificato che non è influenzato dal volume della voce concorrente.
Le informazioni qui raccolte potrebbero essere utilizzate come base per algoritmi che replicano artificialmente questo processo biologico, come negli apparecchi acustici, e non solo.