Apprendimento dall’input vocale
In un recente articolo scientifico, segnalato nella Newsletter “Neuromusic” della Fondazione Mariani e pubblicato il 3 maggio 2023 su Developmental Science, si evidenzia come i neonati siano in grado di estrarre e apprendere regolarità basate sulla ripetizione dall’input vocale. Di seguito ne pubblichiamo un breve estratto in italiano seguito da un commento di Costantino Panza, componente del Coordinamento Nazionale di Nati per la Musica.
[…]
“I neonati sono in grado di estrarre e apprendere regolarità basate sulla ripetizione dall’input vocale, cioè mostrano una maggiore attivazione cerebrale nelle regioni temporali bilaterali e frontali inferiori di sinistra a pseudoparole trisillabiche della forma AAB (ad esempio, “babamu”) che a parole casuali Sequenze ABC (ad esempio, “bamuge”). Se questa capacità sia specifica della parola o si applichi anche ad altri stimoli uditivi rimane inesplorato. Per indagare su questo, hanno testato se i neonati sono sensibili alle regolarità nei toni musicali. I neonati hanno ascoltato sequenze di toni AAB e ABC, mentre la loro attività cerebrale è stata registrata utilizzando la spettroscopia funzionale nel vicino infrarosso (fNIRS). Il paradigma, la frequenza dell’occorrenza e la distribuzione dei toni erano identici a quelli delle sillabe utilizzate in studi precedenti con il linguaggio. Gli Autori hanno osservato una maggiore risposta emodinamica invertita (negativa) all’AAB rispetto alle sequenze ABC nelle aree temporale bilaterale e fronto-parietale. Questa risposta invertita era causata da una diminuzione dell’ampiezza della risposta, attribuita all’assuefazione, nel corso dell’esperimento nella regione fronto-temporale sinistra per la condizione ABC e nella regione fronto-temporale destra per entrambe le condizioni. Questi risultati mostrano che la capacità dei neonati di discriminare le sequenze AAB dalle sequenze ABC non è specifica del linguaggio. Tuttavia, la risposta neurale ai toni musicali e alla lingua parlata è notevolmente diversa. I toni hanno dato origine all’assuefazione, mentre è stato dimostrato che il linguaggio innesca risposte crescenti nel corso dello studio. In modo correlato, la regolarità della ripetizione ha dato origine a una risposta emodinamica invertita quando portata dai toni, mentre era canonica per il linguaggio. Pertanto, la capacità dei neonati di rilevare la ripetizione non è specifica del linguaggio, ma coinvolge meccanismi cerebrali distinti per il linguaggio e la musica. La capacità dei neonati di rilevare le regolarità basate sulla ripetizione non è specifica del linguaggio, ma si estende anche ad altre modalità uditive. I meccanismi cerebrali alla base dell’elaborazione del linguaggio e della musica sono notevolmente diversi“.
Ecco il commento di Costantino Panza: “Il legame tra musica e linguaggio è di interesse ed è esplorato a diversi livelli. È nata prima la musica e poi il linguaggio oppure ambedue nascono in modo indipendente nel corso dell’evoluzione? Non è solo curiosità perché la scienza sta cercando trattamenti sul disturbo del linguaggio basati su una “musicoterapia” ad hoc. Chomsky ad esempio considera la musica come protolinguaggio. E così sia musica che linguaggio, secondo questa ipotesi, dovrebbero utilizzare le stesse aree cerebrali per la codifica delle informazioni prosodiche o melodiche. E su questo ha fatto studi Aniruddh Patel cercando similitudini fonetiche-fonologiche, morfosintattiche-sintattiche e lessicali-semantiche (e, a parer suo, trovandole).
Da questo studio di Nallet e colleghi in realtà sembrerebbe che le cose non stiano proprio così e che la questione sia di intricata complessità. Sembra che lo studio indichi come il neonato elabori l’informazione del parlato in modo differente rispetto alla melodia: potrebbe essere così, tuttavia, perché deve ancora apprendere la complessità delle parole, mentre ha già imparato i toni (e i semitoni) e altre caratteristiche di base della musica durante la vita fetale“.