声音是由振动产生的,是一种波。例如,当我们用筷子敲击脸盆,脸盆会产生振动,从而发出声音。拨动吉他琴弦使之振动,也可以发出声音。吹口琴时,表面上看不出什么东西在振动,但其实从口里吹出来的气流引起了口琴内部的簧片振动,从而发出声音。单纯的机械振动还不足以产生声音,它必须通过弹性物质(例如空气)来传递,形成声波,传入人耳,使人的听神经受到触动,才能使人感觉到声音。曾有人做过实验,把一个正在振铃的闹钟放入一个空心容器内,然后抽去里面的空气,变成真空,就听不见到闹铃了。在月球上,因为没有大气,即使两个人面对面大声说话,也听不见。所以声音在本质上是一种波,即声波。
声音分为音乐和噪音。在电脑音乐制作中,我们主要与音乐打交道,但有时在音乐中也会有意使用一些噪音以制造特定的效果。乐音有三个基本性质:音高、音量和音质。
音高就是人们常说的声音听起来是高亢还是低沉。女高音和男低音声音的差异之大,连五音不全的人都能感觉出来,这里最主要就是音高的差异。音高的物理本质是声波振动的频率,频率越高,高音就越高。频率的单位是Hz(赫兹),一赫兹的含义是每秒钟振动一次。因此我们可以说,女高音的声带比男低音的声带振动的要快。音乐里的音阶概念也是由于乐音音高的差异而形成的。乐器定音用的标准A音的振动频率为440Hz,钢琴中央C音的振动频率为261.63Hz。人耳的可听声范围是20Hz~20000Hz,这个范围内的声音称之为可听声,也就是常说的音频。低于20Hz的是次声波,高于20000Hz的是超声波。所有的音乐都是在音频范围以内。次声波可以制造杀人武器,超声波可以探测海里的鱼群,但与音乐都没什么关系。在数字音频技术里,我们只关心音频。
音量则是人们常说的声音听起来响不响,即声音的强弱。音量与声波的振副有关。振幅越大,声压越高,声音听起来就越响。但人耳是一个非常复杂的系统,对声音的强弱感觉并不是成线性的,而是大体上与声压的对数成比例。为了适应人类听觉的这一特性,同时也为了计量方便,一般都用声压有效值或声强值取对数来表示声音的强弱。 这种表示声音强弱的数值较声压级或声强级,单位是dB(分贝)。声学研究表明,人对声音强弱变化的察觉能力是有限的。相当多的人对同一声音信号在其声压突然变大或突然变小(量不大于3dB)时是觉察不出来的,只有那些经过专门训练的音乐工作者和电声工作者才能觉察1~2dB的声压级突变。因此,在电声工程中常以3dB这个数值来衡量一般电声设备某些指标的优劣,而高质量专业用电声设备则常使用1~2dB这个数值来衡量起质量。在Cakewalk 软件的音频编辑功能里,有个命令可以使音频信号增加3dB或减少3dB。为什么不多不少,恰好以3dB为单位,正是这个道理。
音质的概念稍微复杂一些。同样高音和音量的声音,听起来可以有显著差别。例如,用钢琴弹奏一个A音和用小提琴拉出一个A音,我们可以轻易分辨出其中的不同来,这就是因为两种音质不同。在音乐术语里,也常用音色这个词,意思是一样的。音质的不同是因为音谱特性和波形包络的不同引起的。前面曾说过标准A音振动频率是440Hz,严格地说,这个音频指的是基频的频率,而非钢琴上弹奏的A音包括的所有音频。实际上,一般的乐器声波并不是只一个单纯的正弦波,而是包括了许许多多的高频分量,也称谐波分量。音高取决于基频的频率,而音质则受谐波分量的影响。根据傅立叶变换定理,声波的谐波分量可以分解若干个频率和振幅都不同的单独正弦波。这样,乐器的波形再复杂,都可以看作是许多不同频率和振幅的正弦波的迭加。不同的迭加方式可以组合成复杂的波形,从而形成丰富多采的音色。知道了这一点,我们即可以把已有的乐器波形通过富立叶变换分解成多个简单的正弦波来分析,也可试着数字手段制造不同的正弦波,然后迭加起来,以合成新的音色。
另外,音色还与波形的包络有关。简单的说,钢琴声是有音头的,先有个起音然后逐渐衰减。而小提琴声的音头就不明显,有一种持续的长音。这种区别,就是由波形包络的不同引起的。如果想办法把钢琴的音头去掉,只剩下后面的部分,那听起来会完全面目全非,根本分辨不出是钢琴。所以,在电子合成器里,改变包络是调节音色的一种重要手段。在音频编辑软件里可以观察不同音频信号的包络,并可以编辑它。
最后谈谈人耳的非线性。实验表明,人的听觉系统对于波形的反应并非完全性的,声音信号在人的听觉系统中会被非线性“加工”。这种非线性,即是听觉系统在强烈声音到来时的保护性反应,也是音乐中配器法的生理基础。当A乐器和B乐器一起协同演奏某个和弦时,听起来的效果可能不像A乐器也不像B乐器,而是造成另一种新颖的听觉印象,这就是人的听觉非线性造成的。在作曲时有意识地利用这一点,可以配出优美的音色来
最后在2000HZ以后也可以组成音乐 比如亚当洛佩兹的海豚音你可以去搜一下