L'atto di parlare richiede il funzionamento ed il
coordinamento di varie parti del corpo umano, è un
processo molto complesso e poco noto. Un nuovo
studio ne ha chiariti alcuni aspetti individuando
alcuni dei meccanismi cerebrali che sovraintendono
al linguaggio umano.
Per parlare il cervello deve coordinare rapidamente
e con grande precisione labbra, mascella lingua e
laringe. Problemi del linguaggio come la balbuzie
riguardano cinque il 5% dei bambini americani alla
prima elementare, ma nella maggior parte dei casi le
cause vengono poco comprese.
Precedenti studi avevano individuato la corteccia
sensomotoria ( detta VSMC) come la parte del
cervello che controlla il linguaggio. Per mezzo di
stimolazioni elettriche i ricercatori hanno potuto
scoprire quali parti di questa area controllano
quali parti della faccia e della bocca, anche se
questo tipo si stimolazione non era in grado di
fornire risposte risolutive.
I risultati dello studio mostrano che i suoni della
voce non sono nascosti in qualche area nascosta del
cervello, ma sono il risultato del lavoro coordinato
di diverse aree.
Un gruppo di ricerca coordinato dal Dr. Edward Chang
della University of California, San Francisco, ha
registrato l'attività dei neuroni sulla superficie
del cervello di tre persone cui erano stati
impiantati elettrodi come parte della preparazione
per un intervento chirurgico al cervello.
Le registrazioni sono state abbinate con altre
registrazioni, effettuate con un microfono, della
voce dei pazienti mentre leggevano alcune sillabe ad
alta voce.
Sono stati quindi identificati 30 elettrodi attivi
per soggetto: l'analisi delle registrazioni ha
mostrato che i diversi suoni erano coordinati
secondo complessi modelli dinamici di attività che
riguardava diverse aree del cervello.
I vari schemi di funzionamento elettrico nel
cervello avevano luogo in decine di millisecondi tra
le rappresentazioni, ben distinte, delle diverse
vocali e consonanti.
Gli scienziati hanno scoperto che le regioni del
cervello attive mentre si parla sono organizzate
secondo una struttura gerarchica a livelli
sovrapposti, organizzata per caratteristiche
fonetiche. Per esempio, consonanti che richiedono un
uso simile della lingua hanno aree sovrapposte di
attività.
Le maggiori differenze tra i modelli di attività
cerebrale sono quelli presenti tra vocali e
consonanti. Secondo i ricercatori questo potrebbe
spiegare perchè i lapsus normalmente riguardano due
consonanti o due vocali, ma raramente una consonante
ed una vocale mescolate.
Gli studiosi spigano che i modelli di base trovati
riguardano la lingua inglese, ma sono gli stessi
osservati dai linguisti anche nelle altre lingue nel
mondo, facendo immaginare che si tratti di principi
universali del linguaggio.
La speranza ora è quella di arrivare ad utilizzare
queste scoperte nel trattamento dei problemi legati
al linguaggio ed all'eventuale sviluppo di
interfacce cervello-computer per poter parlare in
modo artificiale.
Lo studi è stato parzialmente finanziato dagli
istituti, parte dei NIH, National Institute of
Neurological Disorders and Stroke (NINDS) e National
Institute on Deafness and Other Communication
Disorders (NIDCD).
I risultati sono stati pubblicati online il 20
febbraio 2013 su Nature.
Per saperne di più
Nature. 2013 Feb 20. doi: 10.1038/nature11911. [Epub
ahead of print]. PMID: 23426266.
http://www.ncbi.nlm.nih.gov/pubmed/23426266
MDN)
|