说话和唱歌_互动科普

使用社交账号登录

购买价格:
付款方式:

互动科普

主页 > 科普纵览 > 心理 • 人文

说话和唱歌

admin  发表于 2017年12月01日

       1995年夏天的一个下午,一件奇怪的事情发生了。当时,我正在为我的一张评论音乐和大脑关系的演讲CD做最后润色。为了检测录音时可能产生的小差错,我把一些短句子设置成循环播放,以便反复收听。我一个人待在屋子里,把一个短句“有时表现得很奇怪”设置成循环播放后就忙着去做其他事情了。突然,我仿佛听见一个陌生女人在唱歌!我四下环顾,发现周围没有其他人。这时,我才意识到,自己听见的是扬声器里循环播放的我自己念出的短句——不过这段录音此刻听起来不再是演说,而是一段悦耳的曲调。我的演讲只是经过简单地重复就变成了歌曲。

       我后来发现,许多人都曾有过类似体验。这种令人惊讶的知觉改变说明,演讲和歌唱之间的差异并非那么显著。作曲家一直都很重视唱和说之间的密切联系,他们会把口语中的词汇和短语糅合到作品中。此外,还有很多发声方式似乎都介于唱歌和说话之间,包括诵读宗教里的经书和咒文、祷告、演绎歌剧中的宣叙调(recitative,歌剧中一种类似说唱的发声方式),还有街头小贩的叫卖以及一些说唱音乐。

       然而,几十年来,音乐家的经验和人们的日常观察与科学观点格格不入。科学界一直认为,说话和唱歌是由完全分离的不同脑区分别控制的。直到近些年,心理学家、语言学家和神经科学家才逐渐改变了看法,因为借助复杂的神经影像学技术,他们得到大量证据,表明控制音乐和语言的脑区确有重合。最新研究结果显示,语言和音乐的关系实际上密不可分:对音乐的感知在婴儿语言能力的发展中起到关键作用,甚至还会增进孕妇与胎儿之间的联系。有些研究还显示,在儿童逐渐成长的过程中,音乐方面的训练可以增进他们与人沟通交流的能力,甚至还可以增强他们的阅读能力。音乐和语言的神经生物学联系还是双方面的:一个人的母语也会影响他或她对音乐的感知。同样的一组音符在不同的人听起来,感受是不一样的,这取决于听者在成长环境中所学习的语言。使用中国话这类有声调语言的人可能就比讲西方语言的人掌握更多的音调。

文字交响曲

借助成像技术,科学家发现,从神经生物学的角度来说,音乐和语言并不像从前想象的那样泾渭分明。

       音乐家和哲学家一直都认为,音乐和语言是相通的。俄国作曲家莫杰斯特·穆索尔斯基(Modest Mussorgsky)相信,音乐和语言在本质上是相同的,因此作曲家甚至可以通过音乐来重现一场对话。他在给朋友里姆斯基—科尔萨科夫(Rimsky-Korsakov)的信中写道:“不论我听到什么话,不管这些话是谁说的……我的脑子马上就会把这些话以音乐的形式表现出来。”实际上,当你聆听穆索尔斯基的一些钢琴作品和管弦乐作品的时候,你会突然感觉自己听到的是俄语。

       尽管这些非正式的证据表明音乐和语言之间存在联系,但是,在20世纪中期,一些研究者开始支持相反的观点。他们的证据部分来源于那些脑区受损的患者,这些患者说话的能力受损,音乐方面的能力却不受影响。这些研究者提出一种假设:既然大脑分为两个半球,那么它的功能也可以被截然分开,语言功能位于左半球,而音乐功能位于右半球。他们的理论认为,对话产生的神经信号绕过了一般声音信号传导的路径,被一个位于大脑左半球的独立“模块”分析处理。研究者推测,该模块会排斥除了语言以外的其他声音,比如音乐。同样地,这个理论认为,音乐在大脑中是由位于右半球的模块进行处理的,而这个模块会排斥语言。这一套“分解理论”非常有吸引力,很快风靡一时,其他一切认为语言和音乐无论在神经结构还是在功能方面都可能有重合的理论都失去了立足之地。

到了20世纪90年代末,年轻研究者中出现了一些不拘泥于权威理论的人,他们开始质疑上述语言和音乐截然分开的观点。他们研究得出的一些数据显示,某些音乐方面的功能与大脑左半球的联系甚至多于右半球。而且,开创性的新实验显示[其中许多都运用了最先进的技术,例如功能性核磁共振成像技术(fMRI)],从神经生物学的角度来说,音乐和语言并不像从前想象的那样泾渭分明。

一组研究证实,大脑中负责音乐感知与理解的区域跟传统观点认为的负责语言处理的脑区确有重叠。在2002年的一项研究中,当时在德国莱比锡马普人类认知和脑科学研究所(Max Planck Institute for Human Cognitive and Brain Sciences)工作的斯特凡·克尔施(Stefan Koelsch)和同事让受试者收听一系列和弦音乐,同时用功能性核磁共振成像仪记录受试者脑区的影像。他们发现,在听到和弦后,受试者大脑两个半球的活跃程度都有增加,特别是位于左半球的布洛卡(Broca)脑区和维尼克(Wernicke)脑区,这两个区域在语言处理过程中起非常关键的作用(见下页插图),许多研究者一直都认为它们只与人的语言处理功能相关。后来的一些研究显示,说话能够激活许多控制唱歌的脑区。许许多多类似的实验发现已经明确,控制说话的脑区和负责唱歌的脑区的神经网络有着明显的重叠。

这种重叠有一定道理,因为语言和音乐原本就有许多共性。它们都有语法可循,在各自的语法中,它们的基本元素按照已经建立的规则,有顺序分层次地被组织起来。在语言中,词汇构成短语,短语构成复杂短语,复杂短语组合起来构成句子。音乐也一样,音符构成小节,小节构成乐章,如此延伸下去。这样看来,无论是想理解语言,还是要认识音乐,都必须利用经验总结出语法规则,来推断听到的段落的结构。

此外,语言还有一种天然的旋律,叫做韵律(prosody)。韵律包含了所有音调、音域、音高曲线(音高升降的模式)、音量变化、节奏和速度。韵律特征通常可以反映说话者的情绪状态。人们在喜悦或者兴奋的时候,说话的语速通常比较快,音调较高,音域也比较广;而在悲伤的时候,他们倾向于说得比较慢,声音比较低沉,音调变化也较少。韵律还可以帮助我们理解谈话的目的和含义。停顿往往是短语之间的分界,而较低的音调和较慢的语速是叙述结束的特征。而且,人们在说到重要词汇的时候,音调往往较高。有趣的是,一些口语中常常出现的音调和时间特征也会出现在音乐中,这表明,语言和音乐各自涉及的神经环路有重叠的部分。

2222.jpg

含义丰富的旋律

虽然察觉话语中的旋律是一种与生俱来的能力,但人们可以通过学习音乐课程来增进这种能力。

人出生的时候,就已经熟悉了母亲说话的旋律。孕妇开始分娩的时候在子宫内部采集声音表明,在胎儿听来,母亲的说话声是很响亮的。虽然在胎儿听到声音之前,母亲说的话会经过母体组织的过滤,那些明快、高频的声音(这类声音携带着确定词汇含义的重要信息)就听不到了,但是话语中的音乐特征完好地保留了下来,比如音高曲线、音量变化、语速以及节奏模式等。

这些话语中的旋律似乎在母婴之间建立起了联系的纽带。在一篇发表于1980年的论文中,美国北卡罗来纳大学格林波若分校(University of North Carolina at Greensboro)供职的心理学家安东尼·J·德卡斯珀(Anthony J. De-Casper)和威廉·P·菲费尔(William P. Fifer,现供职于美国哥伦比亚大学)设计了一个精妙的实验。他们让刚生完小孩的妈妈大声朗读一个故事,并录下了声音。实验中的一种装置让婴儿可以通过吮吸奶嘴来播放妈妈朗读故事的录音。久而久之,婴儿就了解了吸奶嘴和播放录音之间的联系。如果婴儿在吸奶嘴后听到的是自己妈妈讲故事的声音,他们就会更努力地吸奶嘴,吮吸的频率远比听到其他妈妈的声音时高。研究者得出推论,婴儿更喜欢听出生之前就已经熟悉的声音。1996年,美国得克萨斯大学达拉斯分校(University of Texas at Dallas)的心理学家梅拉妮·J·斯彭斯(Melanie J. Spence)和马克·S·弗里曼(Mark S. Freeman)也做了类似实验。他们利用低通滤波器(low-pass filter,过滤掉高频信号而保留低频信号的装置)处理女性声音的录音,使那些声音听起来就像胎儿在子宫里听到的那样。虽然声音经过滤波处理,婴儿还是更喜欢听自己母亲的声音,而不是其他女性的声音。这再次说明胎儿在子宫里就已经熟悉了妈妈说话的旋律。

婴儿早期接触音乐般的语音,除了能让母婴之间建立起初级联系,还可能有助于婴儿开启学习说话的历程。1993年的一项研究显示,两天大的婴儿更喜欢收听用自己的母语录制的谈话,而非外语录音。这么小的婴儿只可能是在子宫里熟悉这些说话声音的,因此,通过该实验,我们可以认为,母语中的音乐元素是最早能让婴儿觉得舒服的声音。

相应地,婴儿在学习重复别人说话时,第一步可能也是以音乐的形式表达的;婴儿在真正能够清楚说话之前的哭喊声中就已经带有他们母语固有的旋律。在发表于2009年的一项研究里,德国维尔茨堡大学(University of Würzburg)的医学人类学家凯瑟琳·韦姆克(Kathleen Wermke)和同事记录了出生在讲法语或德语的家庭里的婴儿的哭喊声——这些哭喊声的音调先升高后降低。研究人员发现,在法语家庭的婴儿的哭声中,上升的音调占了绝大部分,而德语家庭的婴儿的哭声则以降调为主。我们知道,在法语里升调是很常见的,而在德语里降调占多数。因此,这项研究得出结论,婴儿把语言里的音乐元素融合到了他们的哭声中,而这些语言是他们还在妈妈肚子里的时候就听到的。这项研究还反映出,婴儿已经学会使用母语中的一些特征了。

在婴儿降生以后,语言中的旋律对于他跟母亲的交流来说也至关重要。父母亲对宝宝说话时,常采用一种夸张的方式,这种说话方式被形象地称为“妈妈语”(motherese,也成为亲情用语),特征是音调较高、音域较广、语速较慢、有较长的停顿以及多用短语。这些旋律上的夸张手法可以帮助还不能理解词汇含义的宝宝明白母亲的意图。宝宝如果难过,妈妈就会用下降的音调来安慰他,而如果妈妈想要吸引宝宝的注意力,就会用上升的音调。如果妈妈想表达赞同或表扬,她们的音高曲线表现为急升和急降,就像说“Go-o-o-d girl!(乖宝贝)”那样。而当她们想表达不赞成,比方说“不要那样做”的时候,就会一字一顿,语气是缓慢且不连贯的。

1993年,美国斯坦福大学的心理学家安妮·弗纳尔德(Anne Fernald)公布了一项研究。他们让出生于英语家庭的5个月大的婴儿听赞同和禁止的短语,这些短语分别用德语、意大利语、无意义的英语和正常的英文妈妈语说出来。虽然所有的话在婴儿听来都是胡言乱语,但他们的情绪反应都很恰当——婴儿在听到赞同的话时展现微笑,而在听到禁止的话时表示顺从或哭泣。因此,即使离开了内容,语言中的旋律也能够传达信息。

虽然察觉话语中的旋律是一种与生俱来的能力,但人们可以通过学习音乐课程来增进这种能力。2009年,法国国家科学研究中心(CNRS in France)的神经科学家米雷耶·贝松(Mireille Besson)、西尔万·莫雷诺(Sylvain Moreno,现供职于加拿大多伦多罗特曼研究所)和同事完成了一项研究。他们招募了一群8岁大的从未受过音乐训练的儿童作为受试者,并把他们分为两组。研究者让其中一组孩子接受为期6个月的音乐课程,而让另一组孩子接受绘画课程。在接受培训课程之前,研究者让孩子们收听录音里的句子,在6个月的课程期满之后,让孩子们再听一次。在这些句子里,一部分句子里最后一个词的音调是升高的,使得这个句子听起来与众不同。研究者要求孩子们把这些特别的句子挑出来。一开始,两组孩子在分辨句子音调变化的能力上并无差别,但经过6个月的训练后,学习音乐课程的那组孩子表现得更为出色。因此,受过音乐培训的孩子在领会对话中的情感内容和含义上或许更具优势。

音乐训练会影响人对韵律的感知,这也许与听觉脑干(auditory brain stem,一组接收从耳朵传来的信号并帮助解码语言和音乐的结构)的调整有关。2007年,美国西北大学(Northwestern University)的神经科学家黄俊文(Patrick Wong)、尼娜·克劳斯(Nina Kraus)和同事们完成了一项研究。研究者让讲英语的人聆听中国普通话对话,并通过放置于受试者头皮上的电极来记录他们听觉脑干的电活动。记录结果显示,受试者越早接受音乐训练、训练的时间越长,他们在听到中国普通话时相应脑区的电活动就越明显(参见第XX页插图)。

此外,还有研究显示,音乐课程可以增进人们捕捉对话所传递的情绪的能力(初步推测是由于对韵律的感知增强引起的)。在发表于2004年的一项研究里,加拿大多伦多大学的心理学家威廉·F·汤普森(William F. Thompson)和同事让一组6岁大的儿童学习键盘乐器。一年以后,研究者测试了孩子们辨别对话中情绪的能力,并跟那些没有接受该课程的儿童进行比较。他们发现,学习过音乐的孩子更容易辨别出语句中恐惧或愤怒的情绪,哪怕这些句子是用孩子们并不熟悉的语言讲出来的。

音乐训练也许还可以加速学习阅读的过程。总体来说,阅读能力强的人在音乐能力的测试上也会强于阅读能力差的人(当然,也有许多例外)。莫雷诺和同事在2009年进行了一项研究,他们发现,学过音乐的8岁儿童阅读能力要强于学习绘画的同龄孩子,暗示音乐方面的才能对文字阅读理解也有帮助。研究人员甚至推想,音乐训练(辅助以其他治疗方法)也许对治疗诵读困难(dyslexia,指儿童不能达到相应年龄阅读的正常水平)有用。

 

如歌之语

汉语、越南语等声调语言的使用者比英语等非声调语言的使用者更容易获得完美音感。

不仅接触音乐可以增进我们的语言能力,我们听到的语言也会影响我们对音乐的感知。在上世纪80年代发现的一个叫做三全音悖论(tritone paradox)的音乐错觉现象就是这样。受试者会听到电脑发出的一前一后两个音调,它们间隔半个八度音阶(octave),或者说相差一个三全音(tritone)。每个音调都是明确的,可以是C调、升C调或D调,但它所在的八度音阶模棱两可,即这个音调可能是中音C,也可能是比它高八度的高音C或者低八度的低音C。受试者需要判断听到的音调组合是上升还是下降。(由于所产生的音调在八度音阶上是模糊的,因此没有正确答案,感受会因人而异。)有趣的是,我发现这种判断的结果跟受试者掌握的语言或接触的方言有关。在1991年的一项研究里,我分别让在加利福尼亚和在英国南方长大的人做这个测验。我发现加利福尼亚人大多报告说听到的音调上升的时候,英国南方的人却大都报告说音调下降,而英国南方人报告音调上升时,加利福尼亚人却又认为音调在下降。2004年,我和同事做的另一项研究发现,同是讲英语的越南移民和加利福尼亚本地人之间也存在这样的对立。这些研究说明,幼年时所学习的语言会为我们提供了一个“音乐模板”,影响我们对音调的感知。

这种模板可能也会限制我们说话声音的音调范围。2009年,我和同事在中国的两个村庄对女性说话时的音域范围进行了调查。我们发现,同一村庄的人说话的音域基本相同,但不同村庄的人说话的音域不同。这意味着哪怕在同一个地方,我们听到周围的别的人说话的口音差异也会影响我们说话的声调。

我后来了解到,说越南话和中国普通话的人不仅对听到的音调特别敏感,他们说话时也会保持一种特有的音调。在2004年发表的一项研究里,我和同事请那些讲普通话或越南语的当地人分两天用他们的母语背诵一系列词汇。我们发现,他们在不同时间背诵词汇的音调可以保持高度一致:就隔了很多天再背诵,也只有一半的受试者出现小于半个半音(semitone,即一个音调的一半,比如F调和升F调之间的差异)的差别。

受到这些发现的启发,我想进一步了解,声调语言的使用者是否在婴儿时期就获得了对母语完美音感,并掌握了母语的其他特征。如果是这样,声调语言的使用者就会比非声调语言(比如英语)的使用者更容易发展出对音乐的完美音感。在2006年发表的一项研究里,我和同事对两大组音乐学院的学生进行了完美音感的测试。一组是中国中央音乐学院(Central Conservatory of Music)的学生,他们讲普通话;另一组是美国伊士曼音乐学院(Eastman School of Music)的学生,都说英语。我们经过对比发现,讲普通话的学生中具有完美音感的人的比例明显高于说英语的学生。这些发现与我的假设一致,但由于所有中央音乐学院的学生都是中国人,这个结果也可能是由于中国人先天具有能促进完美音感发展的基因。

为了判断哪一种解释是正确的,我们对南加利福尼亚大学(University of Southern California)音乐学院的学生进行了完美音感测试。这次的测试对象包括一组讲英语的学生,以及3组来自东亚的学生,分组的依据是他们讲本土声调语言的好坏程度。在讲英语的学生中,5岁以前就开始接受音乐训练的人里有8%的具备完美音感,而6~9岁之间开始接受音乐训练的学生中只有1%的人具有完美音感;而在那些不能熟练使用母语的东亚学生中,这个统计数据是差不多的,但在那些能够流利使用声调语言的学生中,这个比例出奇地高:5岁以前就开始接受音乐训练的学生中有92%的人具备完美音感,6~9岁之间开始接受音乐训练的学生中也有67%的人拥有完美音感。而在使用声调语言的能力处于中等水平的学生中,这个比例数据也居中。我们在2009年对此进行了报道,这些研究发现明确指出,声调语言的使用者更可能获得完美音感,并不是由基因决定的,而是跟他们所处的语言环境有关。

我们在胎儿时期就开始学习、长大后也在不停使用的语言,会在很大程度上影响我们理解音乐的方式。其实,从很多方面来说,音乐和语言就好比一对镜像,它们在对方的发展中都起着至关重要的作用——在我们人类的联系和交流方面,在我们如何感知周围的声音方面,在我们理解语言方面,以及我们的意识如何工作等方面,都是如此。

在声调语言,比如普通话中,一个词的意思取决于它的音调和音调模式。下表是一些例子。这些词的发音都是相同的,但发音的声调不同就是完全不同的意思。每个词对应一个汉字。


全部评论

你的评论