AASJホームページ > 新着情報 > 論文ウォッチ > 2月29日 音楽と言葉は左右脳別々に処理される(2月28日号 Science 掲載論文)

2月29日 音楽と言葉は左右脳別々に処理される(2月28日号 Science 掲載論文)

2020年2月29日

プロの音楽家は少し複雑なようだが、私のような一般人では言葉と音楽はそれぞれ左脳と右脳の聴覚野で処理されると言われている。根拠の多くは、脳の局所損傷による失語や、失音楽症状の研究と、音楽や言葉を聞いた時の脳活動の記録だが、例えば歌を聴くときに実際に右左への振り分けが起こっているのかどうか明確な実験はなかった。

今日紹介するカナダ・マクギル大学からの論文は言語認識に用いられる実際の声を電気的に時間と音のスペクトラムをボカせて聴かせる手法を用いて、歌を聞いたときに振り分けが行われていることを示した面白い研究で2月29日号のScienceに掲載された。タイトルは「Distinct sensitivity to spectrotemporal modulation supports brain asymmetry for speech and melody (歌の声をスペクトラムと時間的変化に対する異なる感受性から脳の言葉とメロディーの認識の非対称性を示している)」だ。

もちろん歌を聴くとき、私たちは言葉とメロディーの両方を認識しているのだが、同時に聞こえる各要素に対する反応を正確に測定するのは難しい。この課題を解決するため、この研究では英語、フランス語で10シラブルからなる文章を作り、プロの作曲家に言葉に合わせたメロディーを作曲してもらい、全ての文章に同じメロディーを当てはめ、最終的に10文章X10メロディーの100種類のパターンを創出している。この中から2曲聴かせると、メロデーだけが一致する、言葉だけが一致する、両方一致する、両方とも違うという4通りに判断される。実際、こうしてで作詞作曲された音楽を伴奏なしにアカペラでプロの歌手に歌ってもらい、英語圏、フランス語圏の被験者に聞いてもらうと、4種類の判断を正確に下すことができる。すなわち、言葉とメロディーを正確に認識できている。

さてここからが肝心なポイントになるが、こうして歌われたアカペラの録音の時間分解度と音のスペクトラム分解能をわざと別々に劣化させた音源を作り(ハイレゾ音源からレゾリューションを劣化させると考えればいい)、劣化した音源を聴かせたときに言葉かメロディーかどちらの聞き取りができなくなるかを調べている。結果は明瞭で、時間分解度を劣化させたときは言葉の認識が低下し、逆に音のスペクトラムを劣化させるとメロディーの区別ができなくなる。実際の音を聞いてみたいが、言語の聞き取り能力を調べるために開発された分解能をぼかすという方法と、アカペラで歌を聴かせるという方法を組み合わせたことが、この研究のハイライトで、うまい課題の設計だと唸ってしまった。

こうして、メロディーと言葉の認識を別々に測定することができるようになると、あとは脳の反応を調べればいいわけで、この研究では機能MRIを用いて特に聴覚領域に焦点を当てて調べると、分解度が劣化して言葉の聞き取りが悪くなるときは左の聴覚野の反応が変化し、逆にメロディーの聞き取りが悪くなるときは右脳の聴覚野の反応が変化することを明らかにしている。

脳全体の反応も測定して、この分解度の違いに反応するのは聴覚野だけであることも示して、この振り分けは音を聞いたときに自動的に振り分けられていることも示している。

以上の結果は、私たちが言葉とメロディーを違う次元(時間と音のスペクトラム)にわけて認識していること、それを自発的に左右の聴覚野に振り分けて一つの歌として認識していることを示したものだ。もちろん、本当に前頭葉のネットワークの関与がないのか、あるいはどんな言語でも同じなのかさらに知りたいところだ。

日本語で考えると、普通の文章とは違って、和歌を頭の中に浮かべると自然にメロデーが付いてくる。 「天の原―――、」と安倍仲麻呂の和歌を聞いたとき本当に同じことが言えるのか興味は尽きない。いずれにせよ、専門外の私でも新しい問題が浮かんでくるような面白い課題を設計した著者に脱帽だ。