AIで新しい曲を生み出すということ

昨年の事例ですが、グラミー賞もとっているlex Da KidとIBM Watsonがタッグを組んで新しい曲を生み出しています。

詳しくはこちらの中で説明されているんですが、その裏側にはWatson Beatと呼ばれる、AIによるサポートがありました。

Watson Beat is a cognitive cloud-based app being developed by machine learning and artificial intelligence expert Janani Mukundan, a Dire Straits fan with no musical training but a PhD in computer engineering, and Richard Daskas, a composer and professional musician.
Together, they have taught Watson about the specifics of rhythm, pitch, and instrumentation, as well as the differences in genres. All of it combines in algorithms running through Watson’s neural network to help artists create a original compositions.

「AIの専門家がプロフェッショナルな音楽家とコラボしてWatson Beatというアプリケーションを作った。

彼らはWatsonにリズム、ピッチ、および楽器の特質、ジャンルの違いについて教え、 ニューラルネットワークを通したアルゴリズムで結合され、アーティストが作曲するのを助けます。」

面白いのは音楽の専門家ではなくても、機械学習からプロフェッショナルな音楽アプリケーションを作ることができたということで、他のさまざまな分野でのコラボレーションも原理的には可能ということですね。

Richard determined the upbeat style of the song, as well as the variation of the additional instruments, by introducing perturbations into Watson Beat’s neural network. These adjustments, done via an app, tell the system how similar or different the collaborative composition should be, compared to the original.

「Watson Beatのニューラルネットワークによって、どういう曲調にするか、どういった楽器を追加するかをアプリケーションで行うことができて、元のものと比較して、AIとの協働バージョンとどれくらい似ているか・異なっているかを指示することができる。」

この時のサンプルが聞けないのが残念なのですが、イメージとしてはベースの楽曲やフレーズがあって、それをベースにいろいろと展開を作り出すことができる感じなのでしょうか。

これまでに自動で何万曲も作曲するAIは出てきていますが、まだ心を動かさせる作品に出会えてないのは、そこに人間を感じられていないからなのでは。そういう状況の中では、こういったAIと人間との協働によるクリエイティブは今後大きな可能性を感じます。

「アーティストが興味があるのは、テクノロジーの誤用。自分はArtificial IntelligenceとともにArtificial Stupidityに興味がある。」
(マルコフ連鎖を使った作品について聞かれて) 「機械知能はブライアン・イーノという人間が思いつかない組み合わせに思いつく。生成するアウトプットの95%がゴミだったとしても、残りの興味深い5%を自分で選ぶことができればよい。機械知能は人の介入があってはじめて、クリエイティブに使える。」

Qosmoの徳井さんがブログの中でブライアンイーノの言葉を紹介されていますが、まさにこういった「ゴミの中から何かを見つけ出す行為」そのものが新しいクリエイティビティと定義される日も近いと思います。

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.