というのはずっと技術者の夢であり、音楽家の葛藤であったわけです。
というわけで、ここで二つの1981年と2014年の研究成果を例に出して聞き比べてみましょう。
1981年 David Cope
まずは1981年のカリフォルニア大学の教授で作曲家・科学者のDavid Copeの作成したアルゴリズム。
彼のアルゴリズムは、「バッハ」や「モーツァルト」といった古典的な作曲家の作品を学ばせることで、’それっぽい”音楽を作らせています。
AIの中でもエキスパートシステムもしくはルールベースと呼ばれるアプローチになります。
「この音の後にはこの音が来る」「この和音の後にはこの和音が合う」といった法則を大量に積み重ねていくことで、新しい音楽を生み出すという手法です。
当時はシンセサイザーの音色が貧弱だったこともあり、いかにもコンピューターという感じはしますが、作曲作品自体は、人間の作ったものと区別できないと思います。
バッハの未発表曲、と言われて聞かされたら。。。。。信じてしまうのではないでしょうか。
古典的音楽の制約にのっとった単純なものであれば、1981年の時点でここまで作れたわけです。
2014年 Melomics109
そしてこちらが、2014年のスペイン・マラガ大学にてMelomics109というコンピューターが作り出した音楽です。
いかがでしょうか。。。。。
音色はもちろん、音に強弱があり、場面の構成があり、複雑なリズムがあります。
1981年のものと比べると随分と進化した印象を受けるんじゃないでしょうか。
こちらは遺伝的アルゴリズム(genetic Algorithm)と呼ばれるアプローチで、データの個体ををいくつも用意し、環境に合わせて取捨選択していくというアプローチです。
このMelomics 109は2014年に0Musicというアルバムを発売しています。
ここで全楽曲がMidi,audioの形態でダウンロードでき、Creative Commonsで発表されています。
というわけで、1981年と2014年のアプローチを見てみました。
コンピューターで人間の創造プロセスをモデル化したい、という野望への挑戦は技術者からも音楽家からも、止むことなく続けられるでしょう。
0 件のコメント:
コメントを投稿