l'Unità 9.6.08
Musica e parole: la stessa origine nel nostro cervello
di Pietro Greco
Non esiste una scala universale di sette note. Tutto è legato alla cultura
Le orecchie occidentali non sentono i microtoni delle melodie indiane
NON C’È un luogo nei nostri emisferi cerebrali dedicato esclusivamente alle attitudini musicali che invece sono strettamente connesse alle lingue. I risultati di una ricerca pubblicata su «Nature»
Non c’è un’isola della musica nel nostro cervello. Né nell’emisfero destro né altrove. La musica è legata ad altri processi cognitivi, il linguaggio in primo luogo; il suo apprendimento è largamente determinato da fattori culturali; coinvolge, sia pure in maniera differenziata, molte aree cerebrali; non c’è una scala musicale universale; tanto meno quella scala è la nostra, basata sulle sette note che dividono l’ottava.
È questo il messaggio che Aniruddh D. Patel, ricercatore dell’Istituto di neuroscienze di San Diego in California, autore del recentissimo libro «Music, Language, and the Brain» e tra i primi a studiare le basi neurobiologiche delle nostre attitudini musicali attraverso l’analisi dei linguaggi e delle musiche utilizzati nei paesi non occidentali, ha affidato a un articolo pubblicato sulla rivista Nature giovedì scorso. Ed è un messaggio in molte parti nuovo.
L’uomo è una specie musicale, così come è una specie parlante. Ma, come ci ricorda Silvia Bencivelli in un altro libro, «Perché ci piace la musica» pubblicato lo scorso anno dall’editore Sironi, le due funzioni sono state a lungo considerate poco connesse anche dai neuroscienziati che le hanno iniziate a studiare con scientifica sistematicità a partire dagli anni ‘60 del secolo scorso. Diana Deutsch, anche lei neurobiologa in California, nel 1969 dimostrò che la memoria musicale è cosa diversa e indipendente dalla memoria verbale. E pochi anni dopo la psicologa canadese Doreen Kimura ha dimostrato che la memoria musicale è localizzata nell’emisfero destro, mentre quella verbale è localizzata nell’emisfero sinistro.
Vero è che, negli ultimi anni, un’intera costellazione di studi ha dimostrato che questa indipendenza tra quelle nostre due capacità cognitive è più apparente che reale. Già dalla metà degli anni ‘70, per esempio, sappiamo che la localizzazione della memoria musicale nell’emisfero destro vale solo per i non musicisti, chi fa musica per professione o comunque con continuità usa l’emisfero sinistro. E quindi usano strategia di apprendimento e memorizzazione diverse.
Ciò che sappiamo oggi delle basi neurobiologiche della musica è molto di più e di più complesso rispetto a quello che sapevamo solo trent’anni fa. Ma pochi, finora, avevano studiato insieme linguaggi e tradizioni musicali che non appartenessero alla cultura occidentale. Aniruddh D. Patel è tra i pochi pionieri.
Abbiamo capito, per esempio, che la nostra scala musicale non è affatto universale e non si fonda su leggi matematiche assolute, come sosteneva Pitagora. Le scale pelog e slendro della musica gamelan di Giava e Bali, in Indonesia, usano timbri a noi sconosciuti. E le nostre orecchie occidentali neppure riescono a percepire alcuni microtoni della musica indiana e araba. È evidente, dunque, che la nostra scala musicale non è universale. E che non esistono scale universali.
Eppure sulla base di questo assunto (sbagliato) ci siamo formati un’idea (relativamente corretta) sulla percezione del ritmo con cui abbiamo stabilito le prime connessioni tra musica e linguaggio. In particolare tra la sintassi musicale e la sintassi linguistica. Per esempio pensavamo che appartenesse alla sintassi musicale universale il susseguirsi di suoni brevi e lunghi nella percezione normale del ritmo, come succede da noi. Ma in Giappone si verifica esattamente il contrario. E secondo Aniruddh D. Patel ciò è legato alla sintassi del linguaggio: in occidente quando parliamo costruiamo frasi in cui il suono breve di un articolo precede sempre il suono più lungo di un sostantivo - il libro (in italiano), the book (in inglese), le livre (in francese). In Giappone si verifica il contrario: il libro si dice hon-wo, dove hon è il sostantivo e wo è l’articolo. Il ritmo della frase ne è profondamente cambiato. E ciò in relazione con la percezione del ritmo musicale.
Patel ritiene che ci siano molti legami neurobiologici, anche di natura computazionale, tra musica e linguaggio. Per esempio il cervello usa meccanismi simili per processare i suoni non periodici prodotti sia in ambito musicale che in ambito linguistico. E, molto probabilmente nella elaborazione della sintassi dei due sistemi sonori usa il medesimo sistema di integrazione dell’organizzazione gerarchica dei suoni. Ma nel suo articolo su Nature, Patel insiste sullo studio comparato delle musiche e dei linguaggi non occidentali. Ci diranno, sostiene, se i due sistemi di comunicazione hanno un’origine comune e se si sono evoluti da un sistema unico e più generale di riconoscimento dei suoni prodotti nell’ambiente. Diventando al tempo stesso effetto e concausa dello sviluppo delle nostre capacità cognitive.
Musica e parole: la stessa origine nel nostro cervello
di Pietro Greco
Non esiste una scala universale di sette note. Tutto è legato alla cultura
Le orecchie occidentali non sentono i microtoni delle melodie indiane
NON C’È un luogo nei nostri emisferi cerebrali dedicato esclusivamente alle attitudini musicali che invece sono strettamente connesse alle lingue. I risultati di una ricerca pubblicata su «Nature»
Non c’è un’isola della musica nel nostro cervello. Né nell’emisfero destro né altrove. La musica è legata ad altri processi cognitivi, il linguaggio in primo luogo; il suo apprendimento è largamente determinato da fattori culturali; coinvolge, sia pure in maniera differenziata, molte aree cerebrali; non c’è una scala musicale universale; tanto meno quella scala è la nostra, basata sulle sette note che dividono l’ottava.
È questo il messaggio che Aniruddh D. Patel, ricercatore dell’Istituto di neuroscienze di San Diego in California, autore del recentissimo libro «Music, Language, and the Brain» e tra i primi a studiare le basi neurobiologiche delle nostre attitudini musicali attraverso l’analisi dei linguaggi e delle musiche utilizzati nei paesi non occidentali, ha affidato a un articolo pubblicato sulla rivista Nature giovedì scorso. Ed è un messaggio in molte parti nuovo.
L’uomo è una specie musicale, così come è una specie parlante. Ma, come ci ricorda Silvia Bencivelli in un altro libro, «Perché ci piace la musica» pubblicato lo scorso anno dall’editore Sironi, le due funzioni sono state a lungo considerate poco connesse anche dai neuroscienziati che le hanno iniziate a studiare con scientifica sistematicità a partire dagli anni ‘60 del secolo scorso. Diana Deutsch, anche lei neurobiologa in California, nel 1969 dimostrò che la memoria musicale è cosa diversa e indipendente dalla memoria verbale. E pochi anni dopo la psicologa canadese Doreen Kimura ha dimostrato che la memoria musicale è localizzata nell’emisfero destro, mentre quella verbale è localizzata nell’emisfero sinistro.
Vero è che, negli ultimi anni, un’intera costellazione di studi ha dimostrato che questa indipendenza tra quelle nostre due capacità cognitive è più apparente che reale. Già dalla metà degli anni ‘70, per esempio, sappiamo che la localizzazione della memoria musicale nell’emisfero destro vale solo per i non musicisti, chi fa musica per professione o comunque con continuità usa l’emisfero sinistro. E quindi usano strategia di apprendimento e memorizzazione diverse.
Ciò che sappiamo oggi delle basi neurobiologiche della musica è molto di più e di più complesso rispetto a quello che sapevamo solo trent’anni fa. Ma pochi, finora, avevano studiato insieme linguaggi e tradizioni musicali che non appartenessero alla cultura occidentale. Aniruddh D. Patel è tra i pochi pionieri.
Abbiamo capito, per esempio, che la nostra scala musicale non è affatto universale e non si fonda su leggi matematiche assolute, come sosteneva Pitagora. Le scale pelog e slendro della musica gamelan di Giava e Bali, in Indonesia, usano timbri a noi sconosciuti. E le nostre orecchie occidentali neppure riescono a percepire alcuni microtoni della musica indiana e araba. È evidente, dunque, che la nostra scala musicale non è universale. E che non esistono scale universali.
Eppure sulla base di questo assunto (sbagliato) ci siamo formati un’idea (relativamente corretta) sulla percezione del ritmo con cui abbiamo stabilito le prime connessioni tra musica e linguaggio. In particolare tra la sintassi musicale e la sintassi linguistica. Per esempio pensavamo che appartenesse alla sintassi musicale universale il susseguirsi di suoni brevi e lunghi nella percezione normale del ritmo, come succede da noi. Ma in Giappone si verifica esattamente il contrario. E secondo Aniruddh D. Patel ciò è legato alla sintassi del linguaggio: in occidente quando parliamo costruiamo frasi in cui il suono breve di un articolo precede sempre il suono più lungo di un sostantivo - il libro (in italiano), the book (in inglese), le livre (in francese). In Giappone si verifica il contrario: il libro si dice hon-wo, dove hon è il sostantivo e wo è l’articolo. Il ritmo della frase ne è profondamente cambiato. E ciò in relazione con la percezione del ritmo musicale.
Patel ritiene che ci siano molti legami neurobiologici, anche di natura computazionale, tra musica e linguaggio. Per esempio il cervello usa meccanismi simili per processare i suoni non periodici prodotti sia in ambito musicale che in ambito linguistico. E, molto probabilmente nella elaborazione della sintassi dei due sistemi sonori usa il medesimo sistema di integrazione dell’organizzazione gerarchica dei suoni. Ma nel suo articolo su Nature, Patel insiste sullo studio comparato delle musiche e dei linguaggi non occidentali. Ci diranno, sostiene, se i due sistemi di comunicazione hanno un’origine comune e se si sono evoluti da un sistema unico e più generale di riconoscimento dei suoni prodotti nell’ambiente. Diventando al tempo stesso effetto e concausa dello sviluppo delle nostre capacità cognitive.