[x-Music Lab 21春] 日本語方言における韻律情報の音楽的応用可能性の検討

慶應義塾大学環境情報学部 藤井進也研究会 x-Music Lab. 2021年春学期 最終課題

Kishino Watanabe
x-Music Lab
12 min readJul 21, 2021

--

私は今学期、本研究会において、卒業プロジェクト1として表題で研究を行ってきた。本投稿では、その記録を中心に述べる。

1. 序論

1-1. 研究背景

言葉は元々、音高や強勢等の音韻を持っている。古来より、詩歌や民謡等、言葉の音韻を生かした創作行為が盛んであり、言葉の音韻は芸術文化に影響を与えてきた。
日本各地で同一言語が別々に発達し、言葉の音素に差異が生まれ、方言が確立されていった。その結果、方言は各都市の固有性を示し得る要素となった。インターネット上には方言で歌う作品や、方言比較コンテンツが存在し、方言の音声を聞き、音高や強勢の差異を感じられる機会が増えた。

1-2. 先行研究と本研究の意義

日本の芸術文化と地域性に関する先行研究として、日本民謡の旋律の構造抽出の事例があり、各地域の民謡の音楽的特徴と方言アクセントの関連性が示唆されている。また、これまでに「対話音声」の韻律情報を旋律に変換した研究事例が存在し、言葉の音韻を音楽に応用する研究も進められてきた。しかし、「方言音声の韻律の音楽への応用」に関しては未だ事例がなく、先駆的な研究テーマであると考えられる。

1-3. 研究目的

前項までの背景を踏まえ、本研究では、方言の持つ音韻を音楽情報として抽出し、それを基に生成された音からの音楽の構築を試みた。これにより、従来の音楽で用いられてきた一定のテンポ・拍子・スケール・音高の時間的変化に囚われない、未知なる音楽の在り方を提案する。

2. 研究手法

今回の卒業プロジェクト1においては、「方言を音楽に応用するために重要な要素」を特定するため、多様な方言音声を用いた作曲を行うことにした。

具体的には、「語彙による方言区画」(橘正一, 1936) に基づいて方言を分類し、オンライン上で収集した音源を用いて、DAW(Apple Logic Pro)上で作曲と比較を行った。

図1 出典: 安部 清哉, 「方言区画論と方言境界線と方言圏の比較研究」, 2015

方言区画には他にも「アクセントによる方言区画」等が挙げられるが、同じ「東京式アクセント」にあたる標準語と広島弁を用いたプロトタイプを前学期に制作したところ、標準語と広島弁で同じ印象を受けなかった。また、同プロトタイプの制作を通して、方言のアクセントが音高や強勢に対応するとすれば、リズムに対応する方言の要素は語彙に当たり、各方言の語彙の相違が方言特有のリズムに繋がるのではないかという仮説が生まれた。そのため今回のプロトタイピングでは、「アクセントによる方言区画」を使用しないことにした。

今回使用した方言および方言音声のサンプルを、以下に示す。なお、音声のサンプルは、1) 話者が単独であること、2) 言葉を明瞭に聴き取れること、3) 方言の個性が強いこと、の3点を基準に選んだ。

東北方言: 秋田弁

関東方言: 茨城弁

近畿方言: 京都弁

山陰道方言: 島根弁

山陽道方言: 広島弁

四国方言: 愛媛弁

九州方言: 鹿児島弁

以上の動画内の音声の長さを、以下の通りにトリミングした上で、音楽への変換に使用した。トリミングの際、速度やピッチ等の変更は全く行なっていない。

注.) 動画音声の著作権は、各動画の著作者に帰属する。

使用した各方言音声一覧

3. 研究実践

3-1. Prototype 1: ハーモナイゼーションによる方言音楽の作曲

3-2-1. 作品概要

本作品は、方言音声から抽出された旋律に対して和音付けを行うことで作られた楽曲である。このプロトタイピングでは、各方言から抽出される旋律と伴奏のみのミニマルな楽曲形式をとることにより、方言の韻律的な特徴が明確に残った音楽を作ることを目的とした。また、各方言の音声に対して1曲制作することで、各方言から作られた音楽の比較を可能にした。

3-2-2. 制作手順

ピッチ編集プラグイン Celemony社 Melodyne Assistant を用い、各方言音声からMIDIデータを抽出し、変換した。変換した結果、 MIDIノートの音域があまりにも低い場合に限り、全てのノートを1オクターブ上げる処理を行った。

その後、MIDIデータより得られた旋律に対して、以下のルールに基づいて和音付けを行った。

1.) フレーズを各文節に区切った上で、区切られた範囲のMIDIノートの高さを把握する。

2.) その範囲の各MIDIノートの高さから、使用可能な和音を絞り込む。

e.g. 各MIDIノートの高さが C, F, A であった場合、使えそうな和音は F, Dm7, B♭M7(9)など

3.) 使用可能な和音を絞り込めなかった場合、各文節に区切ったフレーズの範囲をさらに拡大あるいは縮小する。この際、言葉の持つリズムや強弱に注意を払う。

4.) 和音を絞り込めるまで、1.) ~ 3.) の手順を繰り返す。

5.) 各フレーズごとに絞り込んだ和音の候補の中から、和音を選んで打ち込む。

3–2–3. 作品成果

以下に作品成果を示す。

ハーモナイゼーションの成果 (ピアノ音源のみ)
ハーモナイゼーションの成果 (ピアノ音源 + 方言音声)

3-1-4. 考察

Prototype 1 では、各方言から抽出された旋律の音価の上下具合から、方言の個性を知覚することができた。このように音声からのMIDIデータの抽出では、旋律の確かさは得られるが、音高の連続的変化の情報が失われる(MIDIデータにおいてピッチベンドとして扱われるデータが得られない)点で、既存のMIDIデータ変換ツールの限界を推察できた。今回の愛媛弁の方言音声のようにイントネーションが激しい方言では、1オクターブの範囲を超える極端な音高差が連続する旋律が得られ、聴取の際に複雑な印象を受けたとともに、実際に和音付けにも難儀した。また今回の島根弁の方言音声のようにイントネーションが平坦な方言では、音高差の少ないほぼ一定の旋律が得られ、聴取の際に旋律としての個性が弱い印象を受けた。

方言音声から抽出された旋律は、人間が指で即興的に弾いた旋律とは似て非なる、規則性を持たない間と従来のスケールに因らない音高の配列を持っている。不規則な間と音高の配列を持った旋律単体を聴くと、人間の楽器演奏や歌唱などで奏でられる旋律のイメージとの乖離が生じるため、それを音楽として知覚することが難しい。しかし、聴き馴染みのある和音を付けることで、旋律に対して抱いていた違和感が希薄し、不規則な旋律であっても音楽として捉えられるようになったと考えられる。

また不規則な旋律に対して和音を付ける際、極力三和音のようにシンプルな和音を使おうと心がけていても、複雑な和音を付けざるを得ない場面があった。このように複雑な和音を所々用いた点と、方言から抽出された旋律の不規則な間と音高の配列が、人間の即興的演奏を想起させた点が、Jazzのピアノ・アドリブを聴いているときのような感覚を生じさせ、本作品の印象が音楽的に良好なものになったと考えられる。

3-2. Prototype 2: ビート・コンバージョンによる方言音楽の作曲

3–2–1. 作品概要

本作品は、方言音声の音節を特徴ごとに分類し、各ドラムパートに割り当て、ドラムを奏でることで作られた楽曲である。このプロトタイピングでは、旋律を用いないことで、旋律以外の方言固有の音楽的要素を探った。また、Prototype 1と同様に、各方言の音声に対して1曲制作した。

3–2–2. 制作手順

本作品の制作にあたり、まず方言音声の音節を特徴ごとに分類し、各ドラムパートに割り当てた。方言音声の音節の特徴とドラムパートの対応関係は、下記の通りである。

  • 方言音声の音節の特徴:ドラムパート
  • 歯擦音(z, ch, sh, s, ts):Closed HiHat
  • た行:Short Snare
  • か行:Rim Snare
  • 長音:Long Snare
  • (標準語では聞かれない特徴的な)語尾:Crash Cymbal
  • 同じ音数で連続する複数の音節:Tom
  • その他:Kick

方言音声中の音節と各ドラムパートの関係性を定義する上で、ドラムの各パートを人間が擬音語で真似る際の発音や、ビートボックス・ボイスパーカッションでの発音方法を参考にした。これにより、人間が持つドラムパートに対する音のイメージを保持した上での、方言の音節発音タイミングによるドラム演奏を実現した。

以上の対応関係に基づき、ドラムの各パートのサンプルを、方言音声の各音節の発音開始タイミングに沿って配置した。なお、ドラムのサンプル配置の際、DAW上のグリッドに合わせたり、ドラムの発音タイミングをクオンタイズさせたりせず、方言音声の各音節の波形を基準にして配置するように心がけた。また、方言音声の波形に対しても、クオンタイズ・速度変更等の処理は行わず、方言音声をそのまま活用した。

3–2–3. 作品成果

本作品の成果を以下に示す。

ビート・コンバージョンの成果 (ドラム音源のみ)
ビート・コンバージョンの成果 (ドラム音源 + 方言音声)

3–2–4. 考察

Prototype 2では、その方言独特のダイナミックさが再現された印象を受けた。これは特に方言音声の各音節の子音に着目してHiHatやSnareを割り当てたことで、一般的に裏拍で発音することの多いSnareや、8分・16分等の一定のリズムで刻まれることの多いHiHatの規則性を破り、独自のグルーヴが生まれたことによる効果だと考えられる。

加えて、Prototype 2では方言音声が押韻しているか否かも、方言から音楽を生成する上で重要な要素だと推察される。韻を踏んでいる各複数音節において、音節数やイントネーションが類似しやすい傾向にあった。実際に今回の作品において、同じ音数で連続する複数の音節でTomを鳴らしてみたところ、その音がドラムのフィル・インのパターンのように感じられた。このように、押韻された方言音声が音楽に変換されたことで、方言特有の音楽的パターンとして知覚しやすくなったと考えられる。

4. 結論

4-1. 卒業プロジェクト1のまとめ

卒業プロジェクト1でのプロトタイピングを通して、日本語方言の韻律情報を未知なる音楽の制作に応用するためには、方言音声の音高の連続的変化の情報も今後活用すべきであることが分かった。また、各方言のフレーズの中で類似する音数・音高の連続的変化のパターンは、方言固有の音楽性につながることも示唆された。

4-2. 卒業プロジェクト2の展望

来学期の卒業プロジェクト2では、卒業プロジェクト1のプロトタイピングで得られたログをもとに、音響処理的アプローチで研究を進めたい。具体的には、DAW上で使えるユニバーサルなインストゥルメント/エフェクト等のツールの制作を想定している。例えば、方言のフレーズにおける音高の連続的変化を楽器の音高の変化に適用できる方言ピッチシフターエフェクトや、平均律や純正律によらないXX方言律による音律を実現するツール、各方言音声の韻を踏んでいるときのリズムパターンを解析し、XX方言クオンタイズを実現するツール等のアイデアが挙げられる。これらのツールを制作し、実際にトラックメイカーの音楽制作に取り入れることで、今までの音楽の常識を超越する、あり得なかった音楽の誕生に寄与できるのではないかと考える。

参考文献

--

--