「ジャーン」とピアノを一回叩くと、音が生まれる。
じゃあ「ジャーン、ジャーン」と2回叩くと、何が生まれる?
そう、音楽が生まれるのです。
一度鳴るだけなら、’音の固まり’に過ぎなかったものが、
二回鳴らされると、音と音との間隔にリズムが生まれ、テンポが生じます。
そして「音楽」が生まれてくるのです。
(でここから先はちょっとマニアックな話)
プログラミングと「音」はひじょーに相性がいい。
本屋に行って、波形処理関係の教科書を見れば
時間軸で**khzでサンプリングして、**bitで録音。
フーリエ変換して、フィルタつくって、
イコライザの出来上がり、なんて書いてある。
(イコライザ作ってみたい人はこういう本を参考に よくわかる信号処理 - フーリエ解析からウェーブレット変換まで)
ただその反面「音楽を扱う」、事に関する
資料って圧倒的に少ないと思う訳です。
とりわけITと音楽に興味が有る学生などへの資料という意味でも。
コンピューターのプログラミングは基本的にリニアな物で、
命令をとにかくはやくこなそうはやくこなそう、とするものなので
きっかり1秒後に次の音を鳴らす、という処理をする場合
最初の音をならす→一秒休む→次の音を鳴らす
という複雑な処理になる。
この場合の1秒って目覚まし時計機能なら、0.94秒でも1.06秒でもいいかもしれないけど、
音楽だと0.0X秒単位のズレが致命的になって、これを実現するための
ノウハウ、ここでは割愛するけど、結構これが奥が深いのです。
この辺りの話はいずれまた。
0 件のコメント:
コメントを投稿