技術は音楽を(本当の意味で)変えられるのか?:松浦知也

x Music
x-Music Lab
Published in
Jul 12, 2021

松浦知也さん(まつうら・ともや)

SoundMaker/Artist/Engineer/Designer/Researcher/Programmer

音・音楽を作るためにその生成・記述のシステム自体を作ることから始めるアプローチを取る音楽家・サウンドアーティスト。メディア考古学的視点から有りうるオルタナティブな音表現の可能性を追求し、サウンドインスタレーション、電子楽器の制作やそれを用いた演奏活動、作曲などを行う。
またインスタレーションやサウンドアートのサウンドシステム・プログラム開発、ハードウェア設計などのテクニカルなサポートを務める。
近年は音楽のためのプログラミング言語mimiumの開発に取り組む。
2017年東京藝術大学 音楽学部音楽環境創造科卒業、2019年九州大学 大学院芸術工学府 修士課程修了、現在同大学院博士後期課程在籍。
2018年School for Poetic Computationへ留学。2019年、情報処理推進機構未踏IT人材発掘・育成事業に採択、翌年同事業スーパークリエータに認定される。2020年より福岡女学院大学で非常勤講師を務める。https://matsuuratomoya.com
https://mimium.org

メディア考古学の援用:深く理解したうえで、間違える

メディア考古学は、主に使用されなくなった過去のメディアやテクノロジーの価値を再考し、その使用方法に改めて向き合ってみる研究アプローチです。メディア考古学では、「なぜそのメディアが廃れたのか、もしくは失われていったのか」をはじめに考えます。メディアやテクノロジーが廃れる背景には必ず理由がありますし、その理由の裏側にはまだ気付かれていない「新しさ」が隠れています。その「新しさ」とはなにかを考える手法として、僕はメディア考古学を採用しています。

メディア考古学の一例として、サーキット・ベンディング(ⅰ)(Circuit Bending)があります。サーキット・ベンディングは、音の鳴るおもちゃなどを改造して、変な音が鳴る楽器をつくることを意味します。その現象は、メディア論的にどう捉えることができるのでしょうか?

大量消費社会において、商品は基本的に廃れていくように製造されています。つまり、技術的な発展とは関係のない部分で、経済資本的な観点から計画されて、その商品やメディアが古いものになっていくようにつくられているのです。それは計画的陳腐化と呼ばれています。そうした背景のなかで、サーキット・ベンディングでは、本来想定されていた用途とは全く異なる意図で素人が適当に回路を組み替えて、新しい楽器にしてしまいます。それらは、計画的に陳腐化されるはずの商品を蘇らせる蘇生メディア(Zombie Media)とも捉えることができますよね。

とはいえ、サーキット・ベンディングのようなアマチュアリズム的アプローチのみでは限界があるので、技術自体を深掘りし、あえて全く異なる使用方法を編み出すアプローチも存在します。その代表的な事例が、ポール・デマリニス(ⅱ)(Paul DeMarinis)の「FireBirds」(2004)です。この作品では、数千ボルトの高電圧に増幅したオーディオ信号を炎に流しプラズマを発生させることで、全方向性のスピーカーのように機能させているという、ありえない技術の使い方をしています(笑)。この作品は、録音技術のごく初期につくられていたプラズマを利用したツイーターに着想を得ている点が、メディア考古学的アプローチと言えます。

メディアの進化は必ずしも一本道ではなく枝分かれしていて、偶然が連なって生き残っているメディアもたくさんあります。現在音楽のストリーミングサービスは主流となっていますが、そうではない現在も考えられるかもしれませんよね。こうしたことを考慮すると、あるメディアをつくりなおして、別の形としてリデザインし、今の歴史上に再配置すると、全く異なる価値や意味が発生します。それをコンピュータ音楽においてどのように適用可能なのかを、ここ数年くらいずっと考えています。

コンピュータ音楽的なるもの:アナログとデジタルのあいだ

コンピュータを使用して新しい音楽を生み出すには、「コンピュータにしかできない音楽」と「コンピュータではできない音楽」の二種類を意識的に考える必要があります。そのどちらも境界線がはっきりしていないのですが、そのどちらとも言えないような「コンピュータ音楽とギリギリ呼べる音楽」が存在します。

そうした奇妙なコンピュータ音楽を制作していく試みの中で、私は物理モデリング合成という技術に注目しました。物理モデリング合成(ⅲ)とは、数学モデルを使用して既存の楽器構造をシミュレーションし、リアルな音を作成することを意味するのですが、1990年代の計算能力だと失敗するメディアも多く、結局普及はしませんでした。物理モデリング合成系の楽器の説明として僕が普段話すのは、シミュレーションによってリアルな楽器を目指していたはずが、楽器の組み合わせ次第では現実的にあり得ない楽器が作れてしまうことです。リアルな音を目指して合成していたら、全く別の新しい音楽が立ち現れるのが、二枚舌のようなとても興味深い矛盾でした。

Aphysical Unmodeling Instrument

そしてここで、ようやく私の作品の説明に入ります(笑)。3年前に制作した「Aphysical Unmodeling Instrument」は、楽器の音色を計算で模倣する物理モデリング合成の研究の中で1992年に作られた「Whirlwind(ⅳ)を再実装することで生まれました。キメラのような楽器を制作し、シミュレーションの要素をコンピューターではない物理的な共鳴器にしたり、電気回路の歪みの組み合わせで再物理化したら面白いのではないかと当時考えていました。言い換えるなら、「デジタルな技術でシミュレーションされたアナログなモノ」「デジタルなコンピューターには存在しないモノ」この2つははたして電子楽器と呼べるか?という疑問が主題になっている作品です。

「楽器」だけれど空間に展開されている楽器であり、環境と一体化し、楽器の中に人が入っている。この作品は、掛け算にあたる演算を光で増幅率を制御することで再現し、ディレイ(遅延エフェクト)は直接スピーカとマイクの距離で発生するため、部屋の条件に合わせて具体的な実装も異なったりします。

Electronic Delay Time Automatic Calculator/Photo:Filip Wolak

同じ時期に「コンピューターは本当に万能な装置なのか?」と思うようになりました。先ほどの作品は、コンピューターはアナログなものをシミュレーションする目的で作られてたわけですが、現在のコンピューターでは不可能な音の作り方がまだある気がしていました。そして、「そもそも音の計算って何ですか?」ということに立ち返り制作した作品が「Electronic Delay Time Automatic Calculator(EDTAC)」です。この作品は、時間を分割する機能だけを持ったコンピューターの回路を手で組んだものです。光ファイバーでLEDと、光によってスイッチされる抵抗を組み合わせてプログラムすることで、1周期を不均等に、しかし毎周同じパターンで分割し鳴らし続ける仕組みになっています。。

コンピュータはそもそも時間については考えられずに作られていて、コンピューターの世界では、可能な限りはやく計算が終わることがよいとされています。現実では、「際限なく早く」はできないので、最速のマスタークロックを用意し計算をする手法を取っています。基本的に時間の表現の方法もマスタークロックに伴って時間の最小単位をカチカチ積み重ねるような形で時間の長さを表現しています。すると、時間の最小単位というものが絶対に存在してきます。今回の作品では、時間が切り替わる「待ち時間」というのはアナログの抵抗値で決まるので、毎回違う時間の単位が表出するようになっており、理論上は最小単位が存在しません。これは時間を離散的に分割しているわけですが、均等には分割していません。これは果たしてデジタルな音作りと言えるのでしょうか?という想いから制作していました。このような、コンピューター音楽の境界線を考えた作品をここ数年は制作してます。

mimium:音楽の最小単位を構成する

最近では、コンピュータでは創造できない音楽も、コンピュータでしか創造できない音楽の違いもだんだんわかるようになってきました。そして、コンピュータ音楽にはまだ未開拓の領域があり、そこに新しい音楽の可能性を感じています。私が今感じているような新しい音楽の可能性を提示するときに、サウンドインスタレーションを展示することもありますが、この提示のあり方では既存の音楽を変えていけるか疑問だと感じています。展示形式で新しい音楽のプロトタイプを提示し続けたところで、それは美術の制度に結局回収されてしまうので、Apple MusicやSpotifyなどの巨大な音楽プラットフォームの方が、明らかに音楽に強い影響を与えています。それに気がついたときには個人の無力さや、虚無感すらも感じました。

ですが、音楽ストリーミングサービスを通じて、音楽は本当の意味で民主化されたのでしょうか? そして音楽はそれらの技術的進歩によって、どのように進化したのでしょうか? 今でも結局、音楽制作をはじめるには、高価な楽器やソフトウェア、プラグインなどを揃えないとそもそも制作をはじめづらい状況は、そこまで変わっていないように感じています。音楽の作曲だけではなく、リスナーとして享受するときに、音楽の産業の裏に隠れている権力構造が気になっていて、そこにメタに切り込んでいくために、博士過程に進学し音楽プログラミング言語自体をつくりはじめました。

僕が開発している言語「MInimal-Musical-medIUM(mimium)」の強みは、配布媒体となると演奏と聴取の境界線が曖昧になる部分にあります。テキストで配布されたコードはそのコードを改変して二次創作N自創作がいとも簡単にできます。セマンティックなデータとして音楽のソースコードが存在していれば、最終的にどうレンダリングするか柔軟に決めれるようになるし、トップダウンな規格に合わせなくてもよくなる。つまり、もっとボトムアップな音楽のカルチャーが作れるようになるのではと考えています。

こうした活動をしていると自分の専門がわからなくなってきますが、最近では「音楽土木工学(Civil Engineering Music)」なのかなと思っています。勝手に命名してしまっていますが、つまりは、音楽が技術によって発展してきた直線的な歴史を注意深く観察し、その流れのなかで、政治的・経済的・社会規範的な理由によって制限され組み上げられてしまっている事象にメタに介入することが専門かなと考えています。そうした文脈をしっかり考えたうえで、自分たちが本気で実現したい音楽の在り方を社会実装していきたいですね。

注)
(ⅰ)メディア考古学の一例もしくは延長として、サーキット・ベンディングやDIY文化を取り上げ、「蘇生メディア(Zombie Media)」と語ったのは、Garnet HerzとJussi Parikkaである。彼らの論文「Zombie Media: Circuit Bending Media Archaeology into an Art Method」を参照のこと。
(ⅱ)ポール・デマリニス
アメリカのサウンド・アーティスト。荒廃したメディアとインタラクティブ・システムを組み合わせることによって作品制作を行なっており、北米や欧州、オーストラリア、アジアなど、世界中で作品が展示されている。メディア考古学の手法を積極的に活用したサウンドアートのパイオニア的存在である。
(ⅲ)物理モデリング合成
デジタル信号処理の技術を利用して、生楽器の発音構造や共鳴構造をコンピュータ上でいかに振動・共振するかをリアルタイムに演算し、音色を仮想的に合成(シミュレート)して音を出す方式。
(ⅳ)プリンストン大学の名誉教授ペリー・クック(Perry Cook)によって開発された、トランペット・クラリネット・フルートの3つの楽器モデルを合体させた仮想菅楽器。

Edit by Hazuki Ota, Ayaka Sakakibara, and Kenta Tanaka.

慶應義塾大学 藤井進也研究室 x-Music Lab synthesize展

[開催期間] 2021年8月31日 — 9月1日

[会場] 大さん橋ホール

[時間] 9:00–17:00 (入場料無料)

--

--