結局のところ、コンピューターは音楽を「理解する」のでしょうか?
これはYESでもあり、NOでもあります。要するに’ていど’の問題。
前回みたように、、AmazonやiTunesは「協調フィルタリング」によって、ユーザー動向をチェックしているだけで、コンピューターが音楽を「理解している」訳ではないのです。
海外の有名なレコメンドサービスPandora.comは、各曲ごとに人間がチェックして手動でタグ付けしていました。
(彼らの資料によると各楽曲400もの項目があって(テンポが早いとか、ギターが入ってるとか)、タグ付けしているとのことでした、嘘かマコトか。。。)
内容を見てフィルタリングする、「コンテントフィルタリング」であっても、これでは、コンピューターが音楽を理解しているとはいえません。
それ以外にPanasonicのミュージックソムリエなど、実用化された物もいくつか有りますが、まだ、精度はあまり高くありません。
コンピューターが音楽を「理解する」には
音楽の音の特長的な部分をとりだして比較したり、
テンポを抜き出し、各楽器の位置を抜き出したり、
と波形を分析する技術を使います。
テンポを抜き出し、各楽器の位置を抜き出したり、
と波形を分析する技術を使います。
一つ一つの技術はどんどん進歩していますが、まだまだ総合的に「理解する」所までは行かないようです。
とはいえ、いずれ、コンピューターが音楽を「理解する」時はくると思います。
その時、レコメンドシステムだけじゃなく
きっと新しい音楽の楽しみ方が生まれるのでしょうね。
でも、曲がイマイチだとボーカロイドがやる気を無くしたり、、みたいな面倒なことが増えたりして。
0 件のコメント:
コメントを投稿