音楽は人工知能(DeepLearning)によって新い聴覚情報における価値観が出てくることに 価値観が移行するか?を考える

まず作曲家と聞き手にそれぞれザックリと分けて考える

○聞き手

1.流行っている曲を聴く層

2.新しい価値観を求める層

…etc

○作曲家

3.作曲家 + 演奏者

4.作曲家(下請け)

5.作曲家 + プロデューサー

…etc

・人口知能が特徴量抽出で人々が良いと感じる音楽を作れるようになった未来においての聞き手

1の層は流行りものの中で良いと思ったものを聞く 新しい聴覚的価値観が曲を聞く基準ではなく人が作っているか人口知能が作っているかも問題ではない

2の新しい価値観を求める層に関しては常に存在はするが少数派で人口知能が作曲しているからといって比率が増えるわけではなさそう

ただイノベーター理論的に2をアーリーアダプター層までの人達で1をアーリーマジョリティー層より後ろの人たちと考えると 新しい価値観の音楽がより早い速度で沢山生まれると2がより沢山音楽を消費し1へ伝わっていくので 新しい価値観の音楽は必要だと思う それは人口知能があってもなくても同じ

・人口知能が特徴量抽出で人々が良いと感じる音楽を作れるようになった未来においての作曲家

大手レコード会社がやっているような4は真っ先に人口知能へ変わりニーズは人工知能のアルゴリズムを作る人と できた曲をチョイスする仕事に移行

3と5は新しい価値観をどこで作るかによる 聴覚領域で新しい価値観を生み出そうとする人と聴覚領域以外の演奏やビジュアル、握手などで価値を作る側面がある

考えた結果どれくらいかはわからないけど3と5からは一定数新しい聴覚領域の価値観を生み出そうとする人は増えるんかなーと思うけど やっぱりそれを生み出す新しい楽器の登場の方が大事かなと思った

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.