2019/12/31

2019を振り返る -後編-

2019年の後編です。


6月

いきなり珍しい仕事。
A-formatマイクのRODE NT-SF1とZOOM F4を手に、映画のロケ隊に参加。
環境音をすべてNT-SF1で収録し、サラウンド映画制作をするという試みです。


ウィンドスクリーンを使用すると立体感が薄まるので注意


出来るだけ環境音だけを長回しで録りたいので、撮影とは離れたところでひたすら録音。よい経験になりました。


 


Ambisonicsのサラウンドの特徴は包まれ感。
それを最大限に発揮するにはスピーカーの均等配置が理想。
しかしサラウンドのスタジオにはもちろんその様な環境はあるはずも無く、L/C/R/Ls/Rsの5chが主流。スピーカー配置も正しくない場合があります。

Ambisonicsのスピーカーデコードの結果をそのまま使いLsRsに音を送っても、L/C/Rの音圧に負けてしまい包まれ感は生まれません。
LsRsは大きめにする必要がある。大き過ぎるとそれはそれでバランスが悪く、それが5chサラウンドの難しいところ。
MA作業時にAmbisonicsのスピーカーデコード調整を行う時間はありません。
予め計算して5chにしておくことになるので経験が必要です。

さらにスタジオで調整した音を広い試写室に持って行くと、サイドとリアの壁面スピーカーがすべてLsRsの2chになるため、それはそれでまた印象は変わってしまうのです。
そこは経験していないと、その修正だけで時間を費やしてしまうので注意が必要です。



6月後半は山口情報芸術センター[YCAM]へ。
「Lenna」の22.2ch再生バージョンのインストールです。
https://www.ycam.jp/events/2019/scopic-measure-16/


midレイヤーのスピーカー高はアーティストの耳位置にあわせた

 


ICCのLennaが2ch再生と言うことで、YCAMは本来の22.2ch再生に。
真っ暗な無響室とは対照に、窓から景色を眺めホワイエの残響もあるオープンなYCAMの展示。
基本的な音響調整を行った後は大体をエンジニアの葛西氏にお任せし、filmachine以来のYCAM滞在を楽しんだ2日間でした。



7月

サイレント映画+立体音響コンサート「サタンジャワ」ガリン・ヌグロホ&森永泰弘
https://jfac.jp/culture/events/e-asia2019-setan-jawa/




ガリン・ヌグロホ監督の生演奏付きで上映するために制作された映画「サタンジャワ」にはセリフが無く、その映像に森永泰弘氏が音楽を付け、日本・インドネシア特別編成音楽アンサンブルとコムアイさん(水曜日のカンパネラ)のボイス、さらに舞踊も加わるというもの。

音楽とSEは、ホールの客席を囲うように設置された上下6chずつのスピーカーと、舞台奥のこれも上下2chずつのスピーカーの計16chにミックスされていました。
(スピーカーはすべてMeyer)
森永氏が作編曲した音をエンジニアの峯岸氏がProToolsでミックスし、それをホールに最適化させる部分を担当。


中央のMBPから再生し、左のPCで会場に最適化、右の卓へと送る。
すべてDante接続。左から2番目のPCはHPLプロセッシング用。


リハーサルスタジオでサウンドの調整は行っていたものの、本会場はまったく異なる音場。
しかも本番までにわずか2回の通しでサウンドを完成させないといけません。
1回目の通しリハでダメなところを把握し修正、翌日の本番当日午前の2回目のリハで修正を確認。
何が問題かが分かれば対策すればよい。

また、峯岸氏にHPLプロセッサーを預けたことで、会場で音を出せない間もヘッドフォンモニタリングでミックスを修正し続けられたのが、時間の無い中で作品の完成度を高める事が出来た大きな要因でした。



VRアトラクション「BIOHAZARD VALIANT RAID(バイオハザード バリアントレイド)」オープン。
http://dynapix.jp/amusement/vr-contents/biohazard-valiant-raid/




池袋にオープンしたプラザカプコン池袋店に常設された4人同時プレーのVRアトラクションで、とにかくゾンビに取り囲まれるので撃ちまくる内容。
VR映像のクオリティや演出が良く、バイオハザードの世界観へと没入できます。

VRアトラクションは一般的にとにかく音が悪い。
360度とかバイノーラルとかツールによって作れてはいるものの、調整の仕方が分かっていないので安いヘッドフォンやスピーカーの音そのままに音質自体も劣化、立体音場感も劣化。
このシーンではどの位の音量にすれば臨場感が出るのか、と言った調整をしなければ没入できるわけがありません。
VRの映像が頑張って没入感を出していても、音がその邪魔をしてしまっているケースが殆どです。

映像が100点としたら、20点の音では平均点は60点。
音を頑張って60点にすれば平均点は80点になります。
VRで没入させたいなら平均点を上げることです。

「BIOHAZARD VALIANT RAID」では、そうしたサウンド調整面のアドバイスだけをさせていただきました。
このアトラクションはオープニング以降はほぼ撃ちっぱなしになるので、オープニングで臨場感を高められれば後は自然と没入してしまいます。
環境音、SE、セリフ、これらのバランスと音色をどう調整するか、です。



お茶の水にオープンしたリットーミュージックさんの多目的スペース「RITTOR BASE」。
こちらで8chスピーカーアレイを用いたイベントを始めて行うと言うことで、「Ableton and Max Community Japan #002」に立ち会いました。




RITTOR BASEのスピーカーシステムは、メインのL/Rスピーカーの他に、下層4ch+上層4chの8chスピーカーアレイが設置されています。
その音響デザインをさせていただきました。
このスピーカーアレイは、自分のスタジオ、サウンドアーティストevala氏のSee by Your Earsスタジオなどにも導入しています。
立体音場を生成しやすいレイアウトであることと、あらゆるサラウンドフォーマットをレンダリングし再生することが出来る利点があります。

それにより、RITTOR BASEでは5.1chや22.2ch、ドルビーアトモスの13.1chなどを、スピーカーレイアウトを変更せずに再生することができます。

もちろん、そのフォーマットに応じてスピーカー配置を変えた方が音は良いかもしれません。しかし、RITTOR BASEのような多目的スペースでは、それがベストな選択ではありません。
今のところ音質面でも評判がとても良いとのこと。



8月

「Invisible Cinema "Sea, See, She -まだ見ぬ君へ」evala プレ公演ライブパフォーマンス。
http://evala.jp/Invisible-Cinema-Sea-See-She-2


ステージとFOH間はDante接続


2020年1月24日から3日間に渡り上映される目に見えない映画「Sea, See, She -まだ見ぬ君へ」のプレ公演として行われたライブ。
スパイラルホールでシンプルに4chスピーカーのみで行われました。

サタンジャワのように、作曲、ミックス、音響が細分化されたものとは違い、evala氏はそれらをすべて一人でこなす(高いレベルで)ためこちらが用意するのはシステムとその調整がメイン。
そして本番は本人が客席で聴くことが出来ないので、客入り後で変わるサウンドを微調整するくらいとなります。

2020年1月の上映では、このプレ公演で分かったことを踏まえた出来る限りパフォーマンスの上がる環境を用意するので、evala氏がそこにどの様なサウンドを満たすのか、今から楽しみです。もう間もなく。



同じ4chでもまったく異なるシステムを構築して臨んだのが、リキッドルームでの「YAKUSHIMA TREASURE(コムアイ&オオルタイチ)」ワンマンライブ。
https://www.barks.jp/news/?id=1000170996


客席中央に設営されたステージ -ライブ前-


とにかく参加していて楽しいライブ。

YAKUSHIMA TREASUREがサラウンドでのライブが初めてであったため、「Lenna」で一緒のエンジニア葛西氏からのお誘いで、ライブ用のサラウンドプログラムを担当。
サラウンド経験の無いアーティストの場合は、サラウンドのミックスをこちらで行う。
アーティストと相談の上、この4chは直接スピーカーへ、次の4chはスピーカーでなく空間で音がするような、次のchの音はオートパンで空間に漂う音、といった具合にいくつのかのグループ分けをします。
各グループに対しそれぞれ信号処理を行い、最終的に4chへとミックスします。


グループ毎に様々な処理を行いミックス

今回は5つの音をオートパンニングさせた


ライブ後半、花道家の上野雄次氏のパフォーマンスによりステージ上に屋久島が生まれるなど、とても印象に残る素晴らしいライブとなりました。


ステージ -ライブ後-

左のMADIface ProがFOHへの生命線



そのライブ翌日は、日本における2019年「Week of Sound」のイベントの一つ、「高臨場感オーディオセミナー -高臨場感オーディオの普及に向けて-」のシンポジウム「高臨場感オーディオを用いた新しい芸術表現の可能性 -22.2マルチチャンネル音響作品「Lenna」の制作を通じて-」にパネラーとして参加。
https://acoustics.jp/events/wos2019/




会場となったアンスティチュ・フランセ東京にある100席ほどのシアターに、GENELEC Japan協力によりGENELECの8351と8341の9chシステムが特別に設置され、「Lenna」の9chバージョンを試聴していただきました。
22chのLennaを9chにリアルタイムレンダリングしているのですがその方法は簡単で、22chを一旦Ambisonicsエンコードしてしまい、それを新たに9chスピーカーデコーディングすると言うもの。

ここで重要なのが次数の選択。
誰もがすぐに高次Ambisonicsを使いがちですが、この日設置された100席のシアターでの9chシステムでは、1次か2次でエンコードするのがベストでした。



9月

そのままAmbisonicsの流れで、JAPRS(日本音楽スタジオ協会)技術セミナー 「アンビソニックス・3Dオーディオ勉強会」にて、「Ambisonicsの特徴と有効な使い方」と題する講義とデモを行いました。
https://www.japrs.or.jp/report/2175/




当日スタジオ録音した素材やこれまでのA-formatマイク録音素材を使い、5.1chと22.2chの再生環境でAmbisonicsの次数の違いによる音の変化など、とても有意義な勉強会になったと思います。



300年の歴史ある広大な日本庭園、丸亀万象園にて行われたサウンドインスタレーション「聴象発景」。
http://evala.jp/13931544




日本最古の煎茶室を使ったevala氏のサウンドインスタレーションのシステムを設置。
庭園内3か所に設置したマイクから茶室まで、マイクケーブルを400m引いた思い出。
スケジュールの都合で完成を聴けずと言う珍しいことに。


大人には辛いマイクケーブルの引き回しルート


後に訪れた訪問記がありますのでご参照ください。
http://acousticfield.blogspot.com/2019/11/19-01.html





10月

東京モーターショーの某企業展示をサポート後、2つ目のVRアトラクションとなる「BIOHAZARD WALKTHROUGH THE FEAR(バイオハザード ウォークスルーザフィアー)」が、プラザカプコン池袋店で先にオープンした「BIOHAZARD VALIANT RAID」の隣にオープン。
http://dynapix.jp/am/biohazard7_vr/


7m x 10.5m のスペースを歩き回る


このアトラクションでは、音響システム、プログラム、ミックス、音響調整等を担当。
「BIOHAZARD VALIANT RAID」とは違い、プレーヤーは広範囲を歩き回るアトラクションであるため、こちらから没入させる音作りではなく、歩き回るうちに気付いたら没入している音作り。
ヘッドフォンだけでなく下層4ch+上層4chのスピーカーを設置し、環境音やSEを再生することで臨場感を高めています。
ヘッドフォン内の音とスピーカーの音が上手く混ざるように調整するのもポイントです。
完成までにはかなりの時間を要しました。



WOWOW、MQA、NTTスマートコネクト、アコースティックフィールドの4社による、3Dオーディオ+映像コンテンツ配信のデモを発表。
https://www.phileweb.com/news/audio/201910/25/21239.html




WOWOWが制作する映像と192kHz/24bitの13.1ch音声を、HPLバイノーラルプロセッシングによって192kHzの2chへ変換。
その後、MQAにて48kHz化し、NTTスマートコネクトによってMPEG4 ALSエンコードし、映像と共にオンデマンド配信するもの。
リスナーはヘッドフォンで13.1chサラウンド番組を視聴できるのはもちろん、MQAデコード対応機器があれば192kHzにデコードされたより高音質な番組視聴が可能。
これらをリアルタイムに行おうという計画です。

このプロジェクトには、少しでも視聴者に良い音を。映像だけではなく音も良い番組を届けたいという思いがあります。



11月

InterBEEにて3Dオーディオ+映像コンテンツ配信のデモと、コンファレンスにてその発表が行われました。


スピーカーはダミーで音はヘッドフォン内のみ


自社ブースではHPLを中心にデモを展示。
ミキシングエンジニアの人達に、ヘッドフォンで5.1chがどの様に鳴るのかを体験してもらおうと、5.1chをHPL化した番組素材を使用し、ヘッドフォンでモニタリングしながら任意のチャンネルをソロで聴けたり、フェーダーでバランス調整が行えるデモを行いました。



12月

火影忍者世界(NARUTO WORLD)テーマパークオープン。
https://www.nelke.co.jp/stage/narutoworld/


3分でも200trkを超えてしまう


「バーチャル・イリュージョン」と言うVRアトラクションの3Dサラウンドミックスと音響システムを担当。
3分の短いコンテンツ内で目まぐるしく変わる各シーンの疾走感や臨場感を、下層6ch+上層6ch+サブウーファーの12.1chスピーカーアレイで再現。
MX4DモーションとVR映像の没入感をより高めています。




ミックス段階では、スタジオの下層4ch+上層4chに12chをレンダリングしてモニタリングするのですが、夜中はHPLでバイノーラル化したものでモニタリング。
たまにHMDを付け定位を確認。
2Dの画面とHMDのVR映像とでは定位は全く異なる。



そして告知こそしませんでしたが、中京テレビ放送による10時間におよぶイベント「ナゴヤVTuberまつり」を全編HPLにてニコニコ生放送で配信されました。
https://www.ctv.co.jp/nagoya-vtuber/

視聴しましたが、5.1chミックスされたトークやライブはヘッドフォンでとても聴きやすく、今後も期待できそうです。



2019年最後はWOWOWでの「第17回 ヴァチカン国際音楽祭 ~3Dオーディオ HPL版~」放送。
https://www.wowow.co.jp/detail/116561


InterBEEでは事前に番組の一部を視聴していただきました


192kHz 13.1chで制作された番組をHPL化し、主音声で放送していただきました。

主音声で放送することで、視聴者は特に意識することなくサラウンドの番組に触れることとなります。
それはとても理想的。
視聴者からも今後のHPL放送への期待を寄せるコメントをいただきました。



2019年は、Ambisonicsをよく使った年と言えます。
ずっと以前から使い続けてはいるものの、今年はより多く実践し導入した1年となりました。
それによって、今まで分かっていたものの、実際に使ってみてさらに深く見えてくる部分もあり、その経験はまた次に活かせます。
また、スタジオ協会でも講師を勤め、Ambisonicsを ”正しく広める” ことにも多少は貢献できたかと思います。

ここでは研究開発案件には触れていませんが、多くの企業からご発注いただけこと、本当に感謝しております。
今後もご期待に応えていけるよう努めます。

2020年はまず、音響を担当します音の映画 "Sea, See, She -まだ見ぬ君へ"(evala / See by Your Ears)があります。
最高の音体験になることは間違いなので皆さま是非足をお運びください。
https://invisiblecinema.peatix.com/





2019/12/29

2019を振り返る -前編-

2018年は充電期間的な位置づけで、
確かめたり、経験を積んだり、土台を作ったりしていました。
もちろん「2018を振り返る」ブログにもある通り休んでいた分けではなく、とても充実した年を過ごせたと思っています。

果たしてそれらは2019年への布石となったのか?


2019年
1月

年始をインフルエンザからスタートし、まず始めのイベントは「B.LIVE in TOKYO」。
https://basketballking.jp/news/japan/20190301/138133.html?cx_tag=page1

これは富山市総合体育館で行われたプロバスケットボールのオールスター戦「B.LEAGUE ALL-STAR GAME 2019」を、品川のステラボールで生中継するライブビューイングイベントです。

音響の裏テーマが、いかに小規模な収音システムで臨場感を最大限に出すか。

もうお分かりの方も多いと思いますが、試合会場にAmbisonics対応のA-formatマイクを設置し、ステラボールにてスピーカー配置に応じたスピーカーデコードを行うと言うものです。


富山の試合会場に設置したSOUNDFIELD SPS200マイク

本番1か月前に数種類のA-formatマイクを
富山会場に持ち込み録音テストが行われた


このイベントに始めて参加し、システム的には良いものが作れましたが、音響的には十分な時間とコミュニケーションが取れず、フラストレーションが貯まる結果に。

しかし、そこで得たものは多くあります。
裏テーマの実現は以前から提唱していたものであり、たった1本のマイクで臨場感あるサラウンド表現が可能なAmbisonicsをスポーツ中継に活かすことは、システムをシンプルに構築しながらも臨場感を出せるという大きな利点があります。
そのために大切なのが、シンプルであればこそマイクの設置位置とスピーカーの選定と配置が重要になると言うこと。
Ambisonicsの基本はそこにあります。


品川のLV会場のシステム
Ambisonicsとガンマイクの音をHPLのヘッドフォンモニタリングでミックス


また、とにかく現場で音出し調整を行う時間もほぼ無い状況であったため、リハーサルからずっとHPLバイノーラルプロセッシングによるヘッドフォンモニタリングを行い、ミックスを作り上げて行きました。それが無ければ無理でした。
このあたりから、PA現場でHPLによるヘッドフォンモニタリングを積極的に使用することになって行きます。



2月

メディアアンビショントウキョウでのインスタレーション「Synesthesia X1-2.44 / Synesthesia Lab feat. evala」
http://evala.jp/Synesthesia-Lab-feat-evala-Synesthesia-X1-2-44-Media-Ambition-Tokyo

Synesthesia X1-2.44


これは2個のスピーカーと44個の振動子からなる、シナスタジアラボ開発の2.44ch共感覚体験装置。
その装置を使い、体験者の身体そのものが媒介となる新たな音楽体験を、サウンドアーティストevala氏が作り上げています。

2019年に関わった作品で、スピーカー2台で行う音体験ものが2つあります。
一つがこの「Synesthesia X1-2.44」。
もう一つが後で記す「Lenna」ICCバージョン。
いずれも2スピーカーでありながら、それとは思えない音空間を生み出している作品ですが、その手法はまったく異なります。

この「Synesthesia X1-2.44」は、2個のスピーカーと44個の振動子が連動連鎖しており、それをアーティストの手腕で体験者に対し様々な音感覚として提示していくもの。
アーティストが装置を拡張していくかの様な面白さを感じました。
よって、この作品では音響システムとしての安定性確保やスピーカーの設置と言った普通のサポート以外の事はしていません。



3月

Synesthesia X1-2.44とはまた違った感覚体験を作るのが、SXSW2019(AUSTIN)に出展したInvisible VR「Caico」。
https://invisiblevr.net/

資生堂の香料開発チームとevala氏とのコラボレーションにより生まれた音と香りのインスタレーション作品です。

この作品のサウンドはヘッドフォン再生で、HPLのバイノーラルプロセッシング技術による自然な立体感とその音により移り行く香りの変化が、やわらかな白昼夢のような体験へと誘うものです。


HPLとしては、同時期に収録されていた中京テレビ放送「ササシマMUSIC BASE」があります。
https://www.ctv.co.jp/sasamu/




テレビ局の収録スタジオにて行われるライブをサラウンド放送するこの番組で(現在は放送終了)、5.1chミックスがHPL化され副音声chで放送されました。
残念ながら全国放送ではなく、オンデマンドも無かったためアーカイブがありません。
11月のInterBEEを含め何度か番組素材を使用させていただいたので、目にした人は多いはず。

この番組で、始めてHPLプロセッシングを調整無しで行い、任意のchを入力すればバイノーラル化された2chが出力され、そのまま使用出来ることを確認できました。
それまでは、最適化するに辺りマスタリングの如くちょっとしたEQ処理を行っていましたが、ハードウェア版HPLプロセッサー(RA-6020-HPL)用に開発したHPLフィルターではそれが必要なく、ハードウェアが発売されればコンバーターとしてノーオペレーションでHPL音源化できることを証明したわけです。

昔はスタジオライブを放送する深夜番組があったのですが、今はそうしたものが無く淋しいですね。スタジオライブは音も映像もよく楽しいので。



4月

「Lenna」Miyu Hosoi の制作に多くの時間を割いた月。
https://miyuhosoi.com/lenna/

この作品は、自分が提唱して来たサラウンドの制作環境とリスニング環境に対する考え方を、実に分かりやすく説明してくれます。

HPLを始めたのも、サラウンドサウンドの普及のための活動も、すべては新しい音楽の誕生への弊害を無くし、さらにそれを聴く環境も構築すべきと言う願いであり、それを実現していくためには多くの人の手で変えていく必要があるのですが、「Lenna」はそれを担う作品として、様々なメッセージを投げかけてくれる素晴らしい作品となりました。

アーティストとエンジニア、お互いが出来ることを出しあい制作すれば、色々な意味で今最も難易度の高い22.2chの音楽制作であっても作ることができ、聴くこともできる。
しかも、エンジニアリングに対し送られる日本プロ音楽録音賞で優秀賞を受賞出来るレベルの作品としてそれが可能だと、若い世代のクリエイター達が証明してくれたのが本当に嬉しい。
そのことが制作側のやる気に火をつけてくれないかと心底期待しています。

「Lenna」の持つ意味については、本ブログの「30年後に向けてやること」にも記していますのでご参照ください。



5月

その「Lenna」が、NTTインターコミュニケーション・センター[ICC]の「オープン・スペース2019 別の見方で」展の無響室に展示されます。
https://www.ntticc.or.jp/ja/archive/works/lenna/

「Synesthesia X1-2.44」がアーティストにより生み出された音空間生成なのに対し、こちらは音響技術で音空間生成したインスタレーション。
同じ2スピーカーですが、「Lenna」は22.2chの完成された音楽データなので、その作品を ”どう聴かすか” アーティストが直接的にアプローチしている「Synesthesia X1-2.44」とは異なり、完成品を音響技術で ”どう鳴らし、どう聴かすか” を考え仕上げるものになります。

その設置調整はエンジニアにとって大変楽しい時間となりました。
最後は、出力を-0.1dB下げるかどうか悩み、結果-0.05dBだけ下げたことを憶えています。
それに意味があるのかと思いますよね?
座る人が違えば耳の位置も聴力も変わりますし、0.1dBでも無意味な数値だと思います。
しかしそうした調整に至るまでの段階で、すでに身長の違いなどを加味した調整は作品として成立するレベルで完了した後の話で、さらにもうワンステップ踏み込んだ調整段階での話となります。
それをするかしないかが、とても大きな差となり体験者には伝わります。
そうした最終的な調整では、他の人の耳位置などは意識せず、自分が最も気持ちよいと思う音に仕上げます。
結果的に自分が気持ちよいと思える音で無ければ、他の人が聴いて気持ちよい音には成り得ないと思っています。
自分はそうでもないけど、人が聴いたら気持ちよい音を狙って作るなど不可能です。

0.0dBか-0.1dBかで悩んだ結果答えが出なかったので、間を取って-0.05dBにした、と言う話です。


Lenna ICC 制作風景 - 無響室に2日間


2スピーカーによる立体音場生成に真剣に向き合ったのはものすごく久しぶりでしたが、これをきっかけに、その後のいくつかの案件で2スピーカーによる立体音響システムを提案する流れになって行ったので不思議なものです。


そして6月へと入っていくのですが、
全体的に長くなってきたので前後半に分けてアップしようと思います。
と言うわけで、2019年の前半はここまで。


2019/11/19

聴象発景

聴象発景


庭園へ向かうため受付の建物を出た途端、ポーーンと遠くから電子音が微かに耳に届き足が止まった。

そこがいつもの万象園では無いと気付かされワクワクしてくる。

庭園へ入るに連れ音は明瞭になり、はっきりと聞こえるようになった辺りでまず鈴木昭男氏の《観測点星》に迎えられる。
考えてみれば初めて本物の点音(おとだて)プレートに立つ。
点音プレートカッコいい。欲しい。



普段生活している環境で音はサラウンドである。
そのことを分かりやすく優しく教えてくれるのが点音。
耳を澄ますわけだが目を閉じてはいけない。
目を閉じたらその場所の音とは言えなくなる。それが点音に対する自分流の解釈。


ここから先はどう周ってもいいのだが、受付で渡させる作品の場所を紹介するMapに記載された順番、1→A→B→C→2→D→3→Eの順で巡ってほしい。
映画のように考えられたストーリーがあり、より作品を楽しめる。
広い庭園内に作品は点在するが音は途切れることがなく、全体が一つの作品であることが分かると思う。
それは音ならでは。


現地で人それぞれに感じればよい事なので、一つ一つの作品については特に感想を述べない。

《Atomos Crossing》のスピーカーの近くには鯉。
《Artificial Storm》には蝶が作品に寄り添っていた。



庭園を歩きながら自分の思う点音ポイントを探すのもお薦め。
鈴木昭男さんとコラボしている気持ちになれる。
そんな機会はそうは無い。

庭園のような綺麗な場所では綺麗な音を求めがちだがそれは違う。
点音ポイントでは、場所によっては庭園の外をトラックが行きかう音がすぐ後ろで聞こえたりもするが、それも作品の一部。
あらゆる音が今ここにある環境音でありサラウンドなのです。
そしてどの点音でもevala氏の音がその一部となっている。


クライマックスは日本最古の煎茶室での《Anechoic Sphere - Reflection/Inflection》
茶室は無響室では無いが、ICC無響室の《大きな耳をもったキツネ》を体験した人ならそのシリーズであることがうなづけるはず。
聴象発景すべての作品に共通でありこの作品にも言える事。
いつまででも聴いて居られるし、いつ終えてもいい。



個人的には、事前に音響調整した際まだ作品は出来ていなかったので、この部屋で必要となるだろうサウンドを想像しながら調整したのだが、それが見事に活かされた作品に仕上がっていたことがうれしい。


散歩の最後は松帆亭の点音でエンドロールを。
ここでもう一度茶室に戻りたくなるかも知れないが止めておくべき。
もう二度と体験出来ない作品は、一度の体験で留めておくのが作法かも知れない。
今しか体験出来ないなんて本当にもったいない話だが、また次に別の作品でさらに楽しませてくれるはず。
こちらの想像を超えてその期待に応えてくれるサウンドアーティストは他に居ない。


最後に
庭園内で作品展示を知らずに美しい庭園だけを見に来ている人に会うと、耳を会話からインフォメーションを得るためにしか使っていないことが良く分かる。
景色を目でしか見ていない。
目からの情報だけだから、池があり、橋があり、木があり、空があり、キレイ、みたいに。
実際の景色をあまり見ず写真に収めることに忙しくなるのも頷ける。

その場所で耳も澄まし、見えていない音を聴く。
さっき目にしたものを思い出し、この先にあるものを想像することで、景色は立体化する。
それを今回再認識できた「聴象発景」だった。


聴象発景 - evala (See by Your Ears)、鈴木昭男
中津万象園・丸亀美術館



2019/09/15

モヤモヤ



ここ2週間ほどモヤモヤしています。
スタジオ音楽制作において、3Dサラウンドのミックスを高いレベルで行えるミキシングエンジニアが少ないこと。

3Dサラウンドの作品と言えば、コンサートのサラウンド収録をミックスする音場再現の作品ばかり。
多重録音やプログラミングからの3Dサラウンド作品は少ない。

2ミックス作品の様に、エンジニア主導でミックスが進むようなスタジオ作業が行えるまでになるには、いくつも作品を作る中で経験を積んでいく必要があると思う。
それも2ミックスとは違い教えられる人が居ないので、本当に各々が経験を積むしかない。
2ミックスは音楽の主流としてこれまでいくらでも経験を積むことが出来ましたが、サラウンドはそうはいかない。


今現在、立体音響で聴衆を感動させる作品を作るアーティストのミックススキルにミキシングエンジニアが追い付くには、あと20年くらい掛かるのではないだろうか。

急いでほしい。

そうでなければ新しい音楽体験が巷にあふれる世界は訪れない。


アーティストが頭に描いた3Dサウンドを、そのまま自らの手で鳴らすことができるなら、それが最もクオリティの高い作品を生むことになりますが、そんな優れたミックススキルを持ったアーティストは極一部。
多くの場合必ずミキシングエンジニアの助けが必要になります。


DAWが普及して以降、スタジオワークは格段にスピードアップし、ProToolsが身体の一部となっているエンジニアの皆さんの作業の速さは芸術的ですらある。
しかし、それは3Dサウンドの新しい音には適応できないし、適応させると新しさに気づかないで通り過ぎてしまう恐れがある。
その結果、可能性のあった作品が”いつもの音”に仕上がってしまうかも知れない。

その昔、このスピードアップの現状に耐えられずスタジオ機材を扱わなくなっていったことを思い出しました。


そうした現状を俯瞰で見る事ができ、それまでの考えをリセットし、新しい音創りとして3Dサラウンドのミックススキルを手にしようとするエンジニアが何人居るだろうか。


自分はアーティストでもなくミキシングエンジニアでもない。
つまり自分で作品を生むことが出来ない立場で、しかし最高の3Dサラウンドを思い描けてしまい、その実現への道のりの遠さも見えてしまうがゆえの悩み。

それがモヤモヤの正体です。



2019/07/14

30年後に向けてやること

30年前、卒業制作で「なんちゃってサラウンドプロセッサー」を作りました。
完成しませんでした。
そのころは特にサラウンドに興味があったわけでなく、「映画を見るなら5.1chだよね」くらいのもの。

それから30年経った現在、音表現の環境が何も進化していないことが残念でなりません。
憤りを感じています。

音楽再生? → 2スピーカー、ヘッドフォン&イヤホンでしょ?
サラウンド? → 5.1chでしょ?

そうした固定観念をまず制作側が無くし、リスナーに対し音の可能性を示していかない限りは、リスナーはこの先また30年何も変わらない音環境で過ごすこととなります。
それは単に「つまらない未来」と言うだけでなく、「音のオマケ的存在」感を益々強めることになると思っています。

今や音楽は聴くものでなく、MVとして見るものに。

録音業界で今更取り組み始めているバイノーラルやAmbisonics。
いずれも何十年も前から存在する、何一つ新しくない技術です。
しかしそれでも構いません。
これまでより少しでも新しい音楽や番組が作れるのであれば、積極的に取り入れていきましょう。

それらはやろうと思えば簡単に出来ることです。
他にも比較的簡単に取り入れられ、音を豊かにする工夫は沢山あると思います。
それらは、ハイレゾでもMQAでもアトモスでもない、サウンドクリエーションの話としてです。
決まった作業をこなすだけでなく、考えましょう。
これまでやろうとしなかったことを罪ととらえ、少しでも良い作品をリスナーに届ける努力をし、音の可能性を示していきましょう。



今年関わった作品に「Lenna」(細井美裕)と言う作品がありますが、これはそうしたサウンドクリエーションの考え方を具体的に示す一つの事例です。

この作品はスーパーハイビジョンの音声企画である22.2chフォーマット用として作曲されています。
このフォーマットは「聴けない」(スピーカーが置けないから)どころか「作れない」(スタジオが無いから)と言われているフォーマットです。
しかしそんなフォーマットですら、ちょっとした工夫とやる気で制作することは出来るのです。

Lennaのミックスは、
22.2ch用で長時間使用出来るスタジオが無いため、HPLを使いバーチャルな22.2ch環境のヘッドフォンモニタリングで行われました。

再生環境としては、
まずヘッドフォンリスニング用音源として《Lenna - HPL22 ver》が、アルバム《Orb》に収められ、CDとハイレゾ音源としてリリースされています。
https://ototoy.jp/_/default/p/392431

同時に、NTTインターコミュニケーション・センター[ICC]の「オープン・スペース2019 別の見方で」展で、無響室を使ったインスタレーション作品として、2スピーカーのみで22.2ch作品であるLennaを再生するという展示を行っています。
https://www.ntticc.or.jp/ja/archive/works/lenna/



また、山口情報芸術センター[YCAM]の「scopic measure #16 」展では、22.2chスピーカーシステムで再生する展示も行っています。
https://www.ycam.jp/events/2019/scopic-measure-16/



さらに、
音楽再生の手段検討に役立てようと、22.2chのch別音源ファイルを無料配布しています。
https://salvagedtapes.com/collections/st2019/svtp-007/


この様にして、ちょっとした工夫で制作し、様々な方法で再生出来ることをLennaは示しています。

22.2chでも出来るのですから5.1chならもっと楽に出来るはずです。
5.1chや7.1chなら、サラウンド対応のDAWにはサラウンドパンナーやリバーブが当たり前のように備えてあるわけですから。
お金など掛かりません。

環境に応じて再生方法を変えることも大変なことではありません。
特にHPL化したバイノーラル音声は通常の2ch音声です。
そのままCDを作ることも出来れば放送やネット配信することも今からすぐ出来ます。
(すでに事例も多くあります)


30年後、今より悪い音環境にならぬよう、まず出来ることをやりませんか?


2019/06/03

ヘッドフォンサラウンドライブをする前に



立体音響のヘッドホンライブのシステムは何気に大変だと思います。
ヘッドホンは各自持ち込んでもらうにしても、一番のネックはヘッドホンディストリビューションアンプにちょうど良い製品が無いこと。

ヘッドフォンアンプの質は、バイノーラルの立体音場生成にとても影響します。
立体感は空間を表現出来るか否かであるため、S/Nが悪くきめの粗い安価なアンプはその表現が不得手です。
包まれ感も音像移動も立体感の無い音へと変わってしまいます。

そもそもヘッドホンをしてサーッと鳴っていたら使えません。
そしてバイノーラル効果のためには、なるべくチャンネルセパレーションの良い製品を選ぶ必要もあります。
これらはすべてアナログ回路の質による事が多く、つまり安物は使えないという事です。

音質についてはどうしようも無いです。
ヘッドホンディストリビューションアンプはサブモニター用途として設計されているので、リスニングの音質まで十分に考慮された製品は無いと思った方がいいです。

いくつか試した結果、ここ最近はPreSonus HP4を使っています。
元音から比較すると音質は落ちてしまうものの、扱いやすい音の変化であることと、聴いてもらいたい部分の表現力の劣化が比較的少ないことが理由です。


分配数も多ければ良いと言うものではありません。
分配数が多いアンプの方がやはり性能は落ちてしまっている製品が多く、またヘッドホンケーブルの距離も限りがあるため、4人で1台を共有するくらいが限界です。
ヘッドホンケーブルを延長するような事はしません。

使用する台数分のヘッドフォンディストリビューションアンプへ2ch音声を送るには、ラインディストリビューターで2chを分配することをアナログのシステムでは考えますが、アナログで分配を重ねるのは音質面での心配が増えることになります。
出来る限りアナログでの分配は避けるべきです。
よって2chの分配はデジタル上で行ってしまいます。
PCやミキシングコンソールから、MADIやDanteと言ったマルチチャンネルのデジタルフォーマットを使用し、2chをパラレル出力します。
いずれも64ch扱えるフォーマットですので、2chの素材を劣化なく32分配出来るわけです。
後はDAコンバーターのch数で分配数を決めます。
16chのDAコンバーター1台であれば8分配、32chのDAなら16分配と言うことです。
その接続先がHP4の場合は4人に分配されるので計64人分です。

本当は、リスナーの手元までDante等で送ってしまい、DAコンバーターを積んだヘッドフォンアンプで聴いてもらうのが一番良い結果になると思いますが、Dante入力のヘッドフォンアンプはそれなりの価格なので現実的ではないのが現状です。


これで元音と比較して8割~9割程度の音を共有出来ると思います。

もし、安価なアナログ製品ばかりでシステムを構成したならば、5割程度の立体表現しか共有出来ていないと思ってください。


2019/01/03

2018を振り返る

2017年末にリリースしたHPL2 Processorプラグイン(無料)のダウンロード数が伸びはじめた、そんな2018年の始まり。
その頃のスケジュールを見ると、同時に4つの開発案件を抱え、かなりのハードワークだったことが伺えます。

そんな中向かえたのが3月の “evala - Our Muse & Womb of the Ants @ Asia Culture Center, Korea” への参加。
http://evala.jp/Our-Muse-Womb-of-the-Ants-Asia-Culture-Center-Korea

2017年6月スペイン・バルセロナでのSonar+Dに続き、”See by Your Ears” 2回目の海外発表。


evala - Our Muse @ACC



ミラーで覆われた簡易無響室を広い部屋に置き、外では空間に漂う音を多人数で、中では一人全方位から密度の高い音で包み込み知覚を拡張するサウンドインスタレーション。

この展示から静科製高性能吸音パネルの上にピラミッド型の吸音材を貼り、出来るだけ特性の良い簡易無響室を作るようになりました。

例え同じ作品であっても、設置環境が変われば音は違って聞こえます。
それは簡易無響室の中と言うよりは、その外側の環境が影響しています。
普通に音楽を聴くだけであれば問題にならないことも、See by Your Earsの様なインスタレーションでは、設置環境で音を追い込む調整作業に時間をかける必要があるのです。
それを言葉で説明するのは難しく、調整していく過程で没入し始める境目があり、そこを目指すわけですが、その指示はevala氏より非常に細かい音のニュアンスの説明と言う形で行われ、それをもとにEQ調整などを行っていくため、このころからその作業を「インスタレーションのマスタリング」と呼ぶようになりました。



いくつかのマル秘R&D案件を片付けつつ、次に臨んだのがプロ野球開幕3連戦のニッポン放送ショウアップナイター3Dサラウンド放送。
詳細はこちら
https://av.watch.impress.co.jp/docs/series/dal/1120234.html

しばらくぶりのプロ野球HPL放送でしたが、開幕戦、しかも3連戦の生中継はかなりのハードワークとなりました。


3D Mix & HPLプロセッシングプログラム


野球の試合時間は3時間以上、その間絶えず3Dミックスバランスに気を使わないとなりません。
生放送の緊張感は半端ない。放送ブースは狭いので座ることもない。
しかし、スポーツの3Dサラウンド放送やライブビューイングは、臨場感を視聴者に伝え楽しんでもらうために今後必須の放送フォーマットだと思うので、そうした放送を標準化するためにもミックスに立ち会うことなく3Dサラウンド化+バイノーラル化するHPLプロセッサーのハードウェアが望まれているわけで、RA-6010-HPLへの期待は高まるばかりです。


HPLプロセッサー Airfolc RA-6010-HPL




4月25日には、ヘッドフォン&イヤホンで聴くことを想定して制作した音楽アルバム「トキノマキナ - MECHANOPHILIA」が発売されました。
https://tower.jp/item/4685899/MECHANOPHILIA

スピーカー受聴用に制作される従来の音楽音源を、ヘッドフォンやイヤホンでも正しく再生するために、ヘッドフォン受聴用音源へと変換する技術がHPL。
だったら始めからヘッドフォン受聴用の音源として音楽制作した方が、ヘッドフォン受聴ならではの新しい音楽表現が作れるだろうと言う発想が生まれるのは必然です。
その一つが立体感。
ヘッドフォン&イヤホンの特徴と言えば頭内定位。
それを嫌うのではなく、頭内定位と頭外定位を組み合わせることで距離感のレイヤーを増やし、より立体的な表現を作り出す。
これはスピーカー再生でやろうとすると無響室を用意しないとできませんが、ヘッドフォン&イヤホンなら簡単に出来るわけです。
その様に様々な可能性があるということを示す音楽アルバムと言えます。





そのあたりも述べられたトキノマキナのインタビュー記事
https://www.jungle.ne.jp/sp_post/245-tokinomakina/

11月には、既発曲を3Dリミックスした2作目「時野機械工業 3D&HPLカタログ Vol.1」も発売。(限定販売ですでに完売)



そして6月
渋谷のEdgeOf内に、See by Your Earsスタジオが完成する。
http://evala.jp/evala-See-by-Your-Ears-Hearing-EDGE-vol-0

evala氏の制作環境をサポートする先端的スタジオ。
2Mix用のモニターは、CM、ライブ、舞台、など異なる再生環境のための制作を幅広くカバーするために、サブウーファーを2台使い2.2ch(3way 2ch)のシステムで調整しています。
そして立体音響作品をモニターする上層下層4chずつの8chキューブスピーカー配置は、既存フォーマット(5.1chや22.2chなど)もバーチャルに再生可能なマルチchレンダリングが行えます。
立体音場生成のためにはまず、前後左右のない均一な特性を持つ部屋をつくり、そこに最小限のシステムを組むこと。立体音場にミキサー卓は邪魔者です。





スタジオの外には、これまでのSee by Your Ears作品を体験できる静科製簡易無響室も設置されました。





立体音響のためのスタジオを作るならこう、と言う理想のシステム設計を実現できたのは、2018年一番のニュースだったかも知れません。




その同時期に、実はもう一つの立体音響のスタジオのシステムを設計しています。
企業の研究開発用のスタジオとして。
詳細は書けませんが、無響室に上層下層8chスピーカーシステムが2セット、コントロールルームに同モニターシステムが1セットあり、Ambisonicsでの立体音場生成を最大限に活かした研究プログラムが走る最先端スタジオ。
写真が無いのが残念ですが、プロの音楽制作スタジオでもそうは無いとてもカッコいいデザインのスタジオです。
黒い無響室の一部が下記に公開されています。
https://www.nikkei.com/article/DGXMZO36934040V21C18A0L91000/



8月にはAES国際コンファレンスが久しぶりに東京で開かれ、テーマがSpatial Reproductionであったことから可能な限りの最大規模で出展しました。
https://aes-japan.org/wordpress/?page_id=2796

1Fでは、22.2chを超高性能のヘッドトラッキング+HPLで試聴、2Fではスピーカーによる立体音響作品を試聴と2か所に展示し、最先端のイマーシブサウンドとは何かを全力で示すことに。





同じ内容の展示を11月のInterBEEでも行うことで、立体音場生成に必要なシステム設計とは、Ambisonicsとは、実際に作品を体験してもらうことで強く印象付けることが出来たのは、今後のサラウンドの発展に必要な意識改革に繋げられたのではないかと思います。



そして10月は、「ストラディヴァリウス 300年目のキセキ展」でのインスタレーション。
300年前に製作されたストラディバリウス”サンロレンツォ”を無響室で録音し、その音を4つの年代の異なる演奏場所の空間シミュレーションで再現する ”Stradivarius: Timeless Journey” です。
http://qosmo.jp/works/2019/01/22/stradivarius-timeless-journey/
企画制作:Qosmo

他の仕事と違い、この作品にはサウンドアーティストがいません。
エンジニアがテクノロジーで当時のデータを用い可聴化する。
それだけで終えた研究発表とならぬよう、あくまでも作品に仕上げるためのサウンドエンジニアリングを行いました。





トークセッションにも参加させてもらい楽しかったのですが、期間中インタビュー映像が展示会場に終始流れていたのは恥ずかしかった。

この仕事も2018年のハイライトとなりました。
詳細は追って発表される模様。




インスタレーションではマスタリングとも呼べる音の追い込み作業をしている一方で、大勢の人が同時に楽しめるイベントに対し、どこまで自由な空間表現が出来るかは大きな課題と言えます。
アリーナやドーム規模のコンサートではいきなり無理としても、ラブハウスから中規模のホール、シアター程度の空間では積極的にサラウンドを取り入れて行きたいと言う思いがあり、2年前からライブハウスでのサラウンドや、シアターでの舞台音響演出などに積極的に加わってきました。
これらはリハまで実際の現場でテストすることが出来ないので、やはり経験を多く積む他はありません。

そんな中、10月4日MUTEK.JP。11月2日SPACE ECHO DELUXE。
この2つでevala氏のライブをサポート。





ライブでどの様なサポートをするのか?
ライブにもよりますが、基本的にはアーティストとPA卓の間に入り、技術的にもコミュニケーション的にも中継役を担います。

6ch程度のサラウンドであれば、サラウンド対応のDAWを使い音作りはアーティスト側で出来ます。
8chを超えるとフォーマットとして個人では扱いにくくなるので誰でも出来るものでは無くなってしまう。そこで門を狭めてはいけません。

そしてアーティストからのマルチチャンネルを受けて、4ch~6chのスピーカーで再生するために必要な処理やプリミックスなどを行い整理したのちPA卓へ送ります。
今のところライブでは4chから6chで鳴らすのが好ましい。
PA側もサラウンドのライブ経験を持つエンジニアは少ないので、すべてを預けてしまうのは混乱を招き迷惑をかけてしまい、サラウンドライブは大変と言う印象だけが残ってしまう。それもまた良くありません。

アーティストからは柔軟に受け取り、PA側には整理して出す、と言う役割が必要なのです。

スピーカーの種類や配置についても事前にPA側に何がしたいのかを説明して、出来るだけそれに合ったシステムを組んでもらうお願いをします。
一緒にいいライブを作りたいという姿勢は大切。
(ライブに関してはまた別途書きたいと思っています)



10月には松本昭彦氏の東京大学柏の葉キャンパスIPMUでのインスタレーションを手伝い、
http://akihikomatsumoto.com/blog/?p=2276

そして最後に11月のInterBEE。
当初、業界関係者に分かりやすく9ch(5.1.4)などのフォーマットで再生することも考えましたが、AES同様作品の力を信じ、その作品を出来る限り100%伝えるために上層下層8chキューブ配置のスピーカーで再生することにしました。





インスタレーション、ライブ、パブリックビューイング、プラネタ、シアター、アトラクション、ネット配信など、その多くはサラウンドフォーマットに縛られる必要のない環境で作品を聴いてもらうことができます。
そうした作品には作りやすいシステム環境を用意することがより良い作品を生むと言うことを、実際にトップアーティストの立体音響作品を体験してもらう事で示そうと。
結果、多くの人にそのことを知ってもらえたのはとても大きな収穫と言えます。

ゼンハイザーさんのブースでトークセッションに参加させていただいたのも大きい。


ゼンハイザージャパン様ブース【interBEE 2018 スペシャルセッション】
「立体音響の考え方とアンビソニックスについて / VR X MUSIC 音楽制作における VR 音響の可能性


Ambisonicsをどう有効活用するかは、プロの制作においても注目され始めましたし、InterBEE以降立体音場生成への興味は確実に上がりました。
オープンソースとしてリリースされている高次アンビソニックス制作プラグイン”IEM Plug-in Suite”のFacebookグループ「IEM Plug-in Suite日本語情報共有」が立ち上がったのもその一つ。
https://www.facebook.com/groups/360162238120669/


完璧なツールや技術など無いです。
オールインワンのソフトウェアで質の高い作品は作れません。
様々なものを併用して立体音響作品を作るためには、過去のもではなく新しい情報を持ち寄り正しい知識を積み上げていく必要があると思っています。

2019年1月のライブビューイングをはじめ、配信やアトラクションの予定が今後あるので、そこでの経験を新たな情報として共有していきたいと考えています。