Matsuura Tomoya

2018-08-21(Tue)

8月の演奏についてのメモ

7月後半から8月怒涛の演奏週間が終了したので、少し整理がてらまとめ(作っている楽器とかは修士研究の一環なので、どちらにせよ一応文章化するだけしておきたい)。

少し前から振り返って7/27に緑青で歌を作って演奏する回があり、 8/6に急遽蓮沼フルフィルDOMMUNE遠隔ライブ、8月は13日に水道橋ftarriでソロ、18日は蓮沼執太フルフィルのすみだトリフォニーでのコンサート。19日はAlgorave Tokyoでの演奏とそれぞれジャンルがぜんぜん違う演奏でした。7月後半と12~16にはフルフィルのリハもこなしつつだったので実質ずっと演奏しっぱなしだったと言ってもよいくらい。

727 緑青 歌の回

こういう曲を作った。それの少し前に

こういうギターを適当にガタガタグリッチさせつつやるのが結構楽しかったのでこれを手始めにいじりつつ、ただ曲は歌詞を先に書いてやることにした。このころZAZEN BOYSとかをやたら熱心に聞いていたので言葉を言葉らしいリズムで収めながらポップミュージックのフォーマットに収めたいなあみたいなことを考えながら書いていた。しかし思い直すと後ろで今回も使ったフィードバックによるリズム感のあるノイズは決め打ちのテンポも作れないのでこういう作り方との相性は良いのかもしれない。

久しぶりの久しぶりに歌詞が完成まできちんと持っていけたのでまずは歌ものもう少したくさん作りたい。

先があるとすれば、もうちょっと「つゆ」とかのときのフリーな作り方と今回の歌もののときのポップスっぽい作り方(特に中間部は普通にグリッドある感じでやってたし)の中間は取れそうだし、面白そう。

86 蓮沼フルフィルDOMMUNE

7月のリハが終わり、福岡に一瞬帰ってる間に急遽DOMMUNEが決まりしかもライブしていいよ、とのことだったので無理やり福岡から遠隔でライブをやることに。

セットとしては自作楽器Exidiophone*2、Cracklebox、前日に思いつきで作った紙コップとバネによる簡易アナラポス、Faust&Maxによるフィードバックミキサープログラム(コンデンサマイク*2も入力)。

Exidiophoneは直接別のスピーカーにつないでいて、そこからでた音をコンデンサマイクが拾う形で、そのマイクでCrackleboxやアナラポスの音もみんな拾いつつ、Maxのプログラムを通過してメインのスピーカーから出てきた音もさらにコンデンサマイクがもう一度拾いフィードバックしつつ、、みたいなかなりマシマシな後世だった。最終的にどう聞こえてるかヘッドフォンでモニターしながらもその場でなってる音を聞かないわけにもいかないのでえらい苦労した。

ExidiophoneやCrackleboxでの普段のライブと決定的に違うな〜と思わされたのは最終出力がステレオ2chになること。Exidiophoneはスピーカー自体が楽器の一つの要素となっているので、それを録音して更にヘッドフォンで聞かれる、という想定はあんまりしてなかったので、どう聞こえるんかな、、、というのはちょっと不思議な感じでもあり、かつ2chにまとまることをあらかじめ想定したらExidiophone単品で演奏するとしてもだいぶ変わりそうだ。録音まだ聞いていないので聞きたい。

余談ながら映像はSkypeで現場まで送り音は圧縮したくないのでVST Connectを初めて使ったのだが演奏直前でクラッシュし再起動とかでてんやわんやになってしまい反省。アレは本来遠隔録音ツールなので低ビットレートでリアルタイムセッションして、ローカルに保存された非圧縮の録音データをあとから送りつけるのが想定される使い方なのだろうなと終わってから気がついた。遅延はともかく音声だけでも非圧縮でインターネット越しに(NAT超えして)ストリーミングする方法ってなんか無いんでしょうかね。

813 Ftarri 6周年記念コンサートvol.3

この日は店長の鈴木さんのリクエストもあってCrackleboxでのソロを予定していた。

のだがその日の蓮沼フルフィルの練習で突然Crackleboxのオペアンプが壊れたらしく音が全く鳴らない状況に。幸いその練習のためにExidiophoneやアナラポスなどは持っていたのでそれで演奏するか、、、と言う形で急遽変更。結果的にフルフィルのコンサートのためにCrackleboxはDJ Sniffさんにお借りして、この日のライブが始まる直前に直接手渡ししていただけたもののライブのセッティングはしちゃったあとだったのでこの日は使わないことにした。

この日はセッティングとしてはExidiophone1台は自分の持っていたモニタースピーカーに、もう一台は会場のPAミキサーに突っ込み使用。

これまで一応ハウリングの延長線上なのでうっかりスピーカーをすっ飛ばしても怖いということで学校にあったチョロいスピーカーを使っていたのだけど、そもそも5V電源駆動で完全クリップしても±2.5Vしか出ないのでボリュームあんまり上げ過ぎなければよっぽどでなければ大丈夫そうだ、ということがわかってきたので会場スピーカーで使うというのを初めて試したのだった。

813 suidoubashi Ftarri 6th aniv. concert vol.3

Tomoya Matsuuraさん(@tomoya_nonymous)がシェアした投稿 -

結果的にこれは結構面白くて、まず自分の持っているスピーカーはリボンツイーターなのでかなり高域まできれいに鳴らせる。小型コンデンサマイクを直接人差し指で覆ったりすると8kHzぐらいでのフィードバックが起きて、歪もしてないしこれは結構良かった。

会場のスピーカーで鳴らした方は、おそらくスピーカー側でリミッターが効いていて、その反応速度とExidiophoneの反応速度のズレがいつものスピーカーで使うのと違う奇妙な挙動をしていたように思えた。この辺、自前でリミッター挿してみていろいろ試すのはありかもしれない。

あとフルフィルのリハで使う中でもわかってきたのは、始めはベル状の共鳴器をつけて使っていたのだけど、そうもこれをつけているとフィードバックゲインが上がりすぎるのかすぐ歪んでしまう。結果的にパイプはつけるけどベルは無いほうが音がいいことがわかってきた。あとアクリルパイプは軽すぎるのかも&もっと低い音が出したいなとおもい太めのアルミパイプを買ってみたところ結構効果てきめんだった。

肝心の演奏全体の話をいうと、Exidiophone中心のソロは3月末、4月半ば、7月に3回、と結構数を重ねてきたので、だんだん自分の中でも決められた時間の中でやることが固まり始めてきたようにも思える。もっと分かりやすくいうと飽きてきたと言ってもいい。無論、今の所大体聞いてくれるお客さんはほとんど毎回初めてだとは思うのだが、自分が客だったとしてこの演奏を2回とか3回聞き続けたときに満足行くだけの違いが出せるのだろうか?みたいな疑問である。それはつまり楽器自体の持つ表現力の幅が狭いのではないでしょうかという話で、楽器の設計としてはけっこうクリティカルなポイントのようにも思える。まあ例えば口琴とかカズーとかにどのくらい表現の幅があるんだよという話に似ているのかもしれないな、これ、、、

ちなみにCrackleboxソロだけだったら何をやるつもりだったか?というとCrackleboxに普通にマイキングして2Chで出すだけで、パフォーマンスの途中で電池の電圧を9V→6V→3Vと切り替えて静かにしていくというのをやろうとしていた。6Vとかに切り替えると当然音量も下がるのだが操作性も大きく変わっていって、それはそれでいい音になる。そして音が小さくなると楽器を触っている指とかの音が目立ってくるので、そういう音がマイクに拾われていったら面白いんじゃないか、みたいなことを考えていた。リハの間電池切り替えをいくつか試していたのだけど、多分そのときに9V電池の向きを間違えて当てたことでオペアンプが壊れたのではないかという疑惑がある。


818 蓮沼執太フルフィル 「フルフォニー」atすみだトリフォニーホール

フルフィルに関してはCrackleboxやExidiophoneをきちんとしたピッチ感のある、12音をある程度前提としたアンサンブルの中で使うということをほぼやってこなかったので本当に探り探りだった。

818 Shuta Hasunuma Full Philharmonic Orchestra "Fullphony" at Sumida Triphony Hall Photos by @takehirogoto

Tomoya Matsuuraさん(@tomoya_nonymous)がシェアした投稿 -

5/27に行った公開リハのときにはExidiophone第2.5バージョンを持ってきた結果回路が壊れており全く使えてなかったので、本格テストは7月のリハからになった。やってすぐわかったのは26人のアンサンブルとなると全員が音を出していればそれだけでマイクがクリップしてしまいフィードバックが起こらなくなってしまうことだった。これには結構困り、最初は一度福岡に戻っている間になにかガンマイクのような挟指向性を持たせて解決できないかな〜とかも考えていたのだが、流石にハードルが高すぎるのと、まあそれが楽器の特性だというのならそういうものとして扱うのが良いのでは?となり、基本的に静かなパート中心に使うことで解決した。結果的に音色的にもそういう場面のほうが合うことが多かったように思う。

一番綺麗にハマった曲は間違いなくcenters#3。今回のコンサートではトリフォニーのパイプオルガンも使ったりしたのだが、常に曲のキーであるGがなりっぱなしになっているような曲。リハ中突然「それGの音出せない?」と言われてかなり難儀しながらも最終的には結構鳴らせるようになって、本番もきちんと合わせられた。ピッチが曲にあっていると音としては同じでも機能性が全然違うというか、なんだか別の楽器のようだった。

狙ったピッチを正確に出す、というのはこの楽器を作った当初全く想定していなかった使い方だった。いや実のところ構想段階ではある程度想定はしていて、オーディオフィードバックは金管楽器に近いような構造があるのでスピーカーとマイクの距離、その間のフィルタの工夫次第では狙ったピッチを出せるものではあるのだけれど、実際やってみるとまあ現実的にはかなり厳しい。あるピッチが出ているとその倍音列を上下したりはできるのだけれど、それを上から下まで順序よく綺麗に鳴らすのはまず難しい。今回のときも、予めGやその倍音になりそうなところを予め探っておけば、同じポジションを再現すれば大体同じような音が出る、ピッタリGでなくても近い倍音なので曲には基本的に合った感じになる、という方法で解決している。

でも、この延長でどこでどうピッチを合わせるかをきちんと理論立てて予測することはわりとできるんじゃないかな、、、と改めて思ったのでもうちょっとぐらい工夫してみていいかもしれない。多分、両手でパイプをコントロールする配置法とかで解決はできるのだが、実際に演奏するときの操作性の問題、というのを両立してクリアするのが難しいのだと思われる・・・。


さて楽器の話はそのくらいにして、今回の演奏はどうだったのだろう?という話も。そもそも楽器ははじめの段階では何でもやるっちゃやるけど、という感じでPCなども使うかどうか迷っていた状態だった。なぜなら新曲2曲を除いてほかは既にある曲に乗っかるのだし、ならばそれに合った楽器や音色のものを選んでいくほうが当たり前かな、と考えていたのでどうしたものか、、、と結構広い草原に投げ出された気分で困ってしまった。

結果的にExidiophoneとCracklebox(と、ちょっとだけアナラポスも)に楽器を絞り、「ある曲にある楽器であるべきところに乗せた結果それがその曲の新しいバージョンとして成立する」ようなバランスのとり方が良いのかもしれないと振り切れたので割と良かったと思う。

そしてExidiophoneは上記の事情で、「どこに入れるか?」は楽器の仕様から必然的に静かなところのみ、に収まってしまったのだった。

Crackleboxは、パーカッションを除いて基本みんなピッチ感のある音なので、果たしてこの中にどれだけうまく入っていけるのか、、、というのは結構悩んでいて、もちろんパーカッション的に扱ってしまえば楽なのだけどそれをわざわざCrackleでやる意味あるのかよ、と言われると微妙だし、ということで、わりと緩やかに伸ばしでの上昇下降とか、そういうのを多めにした。大谷さんのサックスソロとぶつかったりするところは遠慮なく入れた。でもこれをお客さんが聞いてどう思うんだろう?やっぱり不自然に聞こえないのかな??というのは終演後も結構思っていたりした。しかし、録音音源を聞いてみるともっとフリーな入り方でも悪目立ちしない箇所はまだまだあったし、逆に入らなくても良かったなと思える箇所もいくつかあった。これは2mix聞かないとやっぱりわからないね。

終わったあとの飲み会で話しているときに「松浦くんはそういうノイズっぽいのやってるのに普通に歌口ずさんでノれてたりするのが不思議だよね」という話を振られたのだけどそれはとても考えてたことで、演奏中とか聞いているときはフィルの曲は全然ノれるし歌える。流石に楽器鳴らしながらはちょっと難しいのだけど、終盤はちょっとやりながらノることもできていた気がする。

さっきのパーカッシブな使い方では意味ない話とも通じるのだけど、「ノッてるけどノらない」みたいな二重の態度が今回のキーポイントだったのだと思う。

そもそも本当はどちらの楽器も自分では管理不可能な音が出るという点でノりたくてもそもそもノれない、と言うはずだったのだけれど、練習を積んだ結果Crackleboxに関しては完全に演奏が身体化されてしまったように感じる。電源電圧変更の実験や、Sniffさんから別の機体を借りたことによる個体の差と共通性を掴んだというのもあり、ほぼどう触るとどう音が出るかが体得できてしまった。もちろん狙ったピッチ出すまでは厳しいのだけれど、演奏としてノる事ができる、という状態にまでなってしまったのだと思う。その上で演奏の選択肢としてはもう一度ノらないことのほうが正しいと思ったのでそのへんの間を頑張って取ろうとしていた、、のだと思う。

このあたりの話は多分自分のポップス作る上での指針として大事なことなんだろうなと思う。

819 Algorave Tokyo at ANAGRA Tokyo

話は変わってライブコーディングの祭典Algorave。この日は前日の打ち上げで朝5時まで飲んだあと家に帰ってから再び上京という最悪のスケジュールをこなしつつ頑張って準備したりしなかったりしていた。

やったことはというとFaucK=Faust&ChucKによるライブコーディング。

もともとFaustでのライブコーディングをやりたいなと思っていたものの、リアルタイムでガシガシコードを変更してやれる環境はChucKしか実はなかった(そんな想定してないから当然なのだけど)。

 https://ccrma.stanford.edu/~rmichon/fauck/

サンプル再生とか、12音のノート制御みたいなものは一切ない、フルスクラッチDSPライブコーディング。ChucKでFaust呼び出すためのテンプレとか、Faustの標準DSPライブラリとかは流石に使ったけど。

実際にやっていたことは、Exidiophoneのプロトタイプ的にFaustで組んでいたプログラム(音量が一定を超えたらカットする逆ノイズゲートのようなもの)を実際に書き、メインスピーカーからMacbookの内蔵マイクでオーディオフィードバックを起こして制御するというもの。会場のスピーカーにリミッターが効いていたのを差し置いても時々そこそこ危険な音が出ていたので申し訳ない感じになった。

その他リズムを作る要素として、サイン波やノコギリ波を演算(>、<とか)にぶち込み、出てきたバイナリパターンを適当に10HzぐらいにDCカットを掛け、適当にローを持ち上げたりしてから100倍ぐらいに掛け算してatanに突っ込み歪ませて即席キックパターンを作成、、、みたいなことをやったりしていた。持ち上げるのをハイにすればハットっぽくもなる。これにフィードバックディレイを掛けつつ更に逆ノイズゲートを噛ましたりすると結構複雑なことができるのだけど、実際本番ではあんまりできなかったかも。

あとはなんかネストしまくったオシレーターを作っていい感じに、、などと思っていたらいろいろ間違えて音量が爆発して死ぬかと思ったりした。

しかし感触としてはFaustライブコーディングは結構いけるかもしれん、とは思った。Maxの中でFaustgen~などを書くときはやはり長期使用を前提に書くのでパラメーターをきちんと外に出して宣言したりモジュール化を丁寧にやるのだけど、そういうのをガン無視してガシガシ書くことでうっかり出来上がるものはやはりある。コード書くのを楽器作りとして扱うか演奏行為として扱うか、という差と表現もできる。キックのやつとか、普通に自分の曲のバックトラック作るのに全然使えると思った。

Faust+ChucKで難しいのはFaustで書いている中身をChucKで制御しようと思うとFaustのコードの中に変数を宣言してあげて、ChucKでもそれに対応する変数を宣言した上で代入したりしないとうまくいかないので、二度手間であるという点。あとChucKはテキストとして書く量が多すぎて全然ライブコーディングに追いつかない。

ChucKの手続き側っぽい制御法だからできるものとFaustのストリームライン・モジュラーっぽい関数制御だからやりやすいものとどちらもを組み合わせられるのは結構面白いので、きちんと整備してあげればかなり強いと思うんだけれど(現状FaucKも1in1outのFaustコードしか受け付けてくれないのもある)。

残念ながら今回のライブでは(せっかくChucKのIDEに便利な自動録音機能があるというのに)完全に記録を忘れた。同じコードを同じように書けば同じ音が出るのがライブコーディングではあるけどこの演奏に関しては会場のスピーカーがなければ同じ音には全くならないので再現はもう不可能である。ちょっと面白い話ではあるけどね。

おまけに書いていたコードは残っていたのにPCをスリープさせていたらIDEが固まって未保存のコードもろともご臨終されたのでいよいよ持って記録されるべきものが全くなくなってしまった。もう一度やりたいですねこれ。

Tidalcycles使ったサンプル中心、グリッド的、「パターン作りとしての」ライブコーディングとはぜんぜん違うけれどこれはこれでのAlgoraveを追求できるんじゃなかろうか。