IT   EN

Ultimi tweet

Il cervello riconosce il linguaggio delle emozioni nella musica

Un meccanismo neurale comune che permette di percepire la musica come triste oppure allegra nello stesso modo in cui cogliamo le emozioni espresse dalla voce umana sotto forma di linguaggio verbale o di vocalizzazioni. Questo il risultato di una serie di ricerche di Milano-Bicocca, chiariscono le capacità del cervello di comprendere la musica in modo universale ed innato.

Il progetto è stato realizzato dal gruppo di ricerca del Dipartimento di Psicologia di Milano-Bicocca, coordinato dalla professoressa Alice Mado Proverbio: “ERP markers of valence coding in emotional speech processing” appena pubblicato su iScience (DOI 10.2139/ssrn.3480697) e “Shared neural mechanisms for processing emotions in music and vocalizations”( https://doi.org/10.1111/ejn.14650) pubblicato su European Journal of Neuroscience.

E’ stata registrata la risposta bioelettrica cerebrale spontanea (combinata con immagini anatomiche di risonanza del Montreal Neurological Institute) da 128 sensori metallici posti sul cuoio capelluto di 60 studenti universitari maschi e femmine, mente altri 32 studenti hanno valutato la componente emotiva degli stimoli stabilendone la valenza negativa oppure positiva, per un totale di 92 partecipanti al progetto, durato più di 2 anni.

Gli stimoli erano di carattere verbale, vocale o musicale. Si trattava di 200 enunciati verbali con valenza emotiva (per es.: “Tutti mi disprezzano…”, oppure “Assolutamente fantastico!”, oltre a 25 frasi neutre contenenti un nome, tutti pronunciati da speaker professionisti. Inoltre sono stati proposti ai partecipanti 64 file audio di vocalizzazioni spontanee di uomini e donne adulti e bambini (gridolini di gioia, grida di sorpresa, risate, pianti, grida di paura, lamenti di tristezza). Sia le voci che il linguaggio sono stati poi trasformati digitalmente in melodie eseguite al violino o alla viola/violoncello e presentati in cuffia.

E’ risultato che i partecipanti erano in grado di riconoscere le sfumature emotive distinguendole in negative e positive – per le vocalizzazioni tra i 150 e i 250 millisecondi dopo l’inizio dell’emissione, verso i 350 millisecondi per linguaggio verbale – e a partire dai 450 ms per la musica strumentale. A partire da tale istante il cervello esibiva risposte bioelettriche simili per i 3 tipi di segnale (voce, musica, linguaggio), nella comprensione del loro significato emotivo.

Dall’analisi dei generatori cerebrali è emerso che solo per la musica si attivavano: area paraippocampale destra, lobo limbico e corteccia cingolata destra; solo per le vocalizzazioni: corteccia temporale superiore sinistra BA39; solo per il linguaggio verbale la corteccia temporale superiore sinistra BA42/BA39. Le aree comuni che, a prescindere dalla tipologia di suoni, erano attive nel comprendere la loro natura emotiva erano: per gli stimoli negativi il giro temporale mediale dell’emisfero destro, e per quelli positivi la corteccia frontale inferiore (si veda la fig. 1 allegata).  La notazione ottenuta trasformando i segnali acustici in note musicali ha mostrato come i suoni emotivamente negativi tendevano ad essere in tonalità minore o a contenere più dissonanze di quelli positivi.

«Questi dati mostrano - dice la professoressa Alice Mado Proverbio - come il cervello sia in grado di estrarre e comprendere le sfumature emotive dei suoni attraverso popolazioni neurali specializzate della corteccia fronto/temporale, e dedicate a comprendere il contenuto prosodico e affettivo delle vocalizzazioni e del linguaggio umano. Questo spiega la relativa universalità di certe reazioni innate alla musica, che prescindono dall’età e dalla cultura dell’ascoltatore».

Commenta questo articolo:

*
Il tuo indirizzo email non sarà visibile agli altri utenti.
Il commento sarà pubblicato solo previa approvazione del webmaster.