2022/12/10

360 Reality Audio に8chキューブMixを配置する際の注意点

BP3600
スーパーカーディオイド4本で空間を録るというよりは8方向を録るマイク

先日の国際放送機器展InterBEEにて、オーディオテクニカさんが8chキューブのマイクロフォンを展示されていました。

これをAtmosの7.1.4等のフォーマットに対しどう扱うかは一旦置いておき、ブースのデモでは360 Reality Audioを使い、マイクと同じ8chキューブにWalkMix Creatorで各chを配置してバイノーラル化した音を試聴できました。



そこで疑問に思ったことがあったので確認。



以前ブログにも書いた通り、360 Reality Audioのバイノーラルは指定した音源の角度とバイノーラル化された音像とに開きがあります。

「空間オーディオ制作のためのバイノーラル比較」参照


90度(真横)に指定した音像が110度くらいに聴こえる、135度に指定した音像が155度くらいに聴こえる


ということは、8chキューブもフロントL/Rを45度、リアL/Rを135度で配置してしまうと音場は歪んでいるはずです。



結果としてはやはりそうで、

聴感で斜め後ろの135度が135度として聴こえるようにするには、おおよそ122度に指定する必要がありました。


テストの方法としては、実際に組んだ8chキューブに対してどの程度ズレているかを比較試聴。

WalkMix Creatorで122度にすると、実際の135度のスピーカーとおよそ同じ位置に音像が定位します。

ちなみにNovoNotes 3DXで135度に設定すると、3DXのバイノーラルの音像は実スピーカーの位置とほぼ一致します。



フロントL/Rを45度 リアL/Rを135度とした8chキューブ配置(紫)
聴感では見た目よりフロントはワイドにリアはナローに聴こえる


フロントL/Rを40度 リアL/Rを122度とした8chキューブ配置(緑)
聴感ではこれで正しい8chキューブの音場となる



この様に、立体音響の標準フォーマットと言える8chキューブを扱う際、BP3600の様なマイクアレイや、Ambisonicsを8chキューブに変換したり、8chキューブのMixをしたりといったプロジェクトを360 Reality Audioで扱う場合は注意が必要です。


もちろん、他のスピーカー配置のフォーマットに対しても同じことが言えますが、8chキューブはより没入感のあるフォーマットであるため、それを無駄にしたくはありません。



これはバイノーラル、つまりヘッドフォンで聴く場合の話になります。


そもそも360 Reality Audio のスタジオのスピーカー配置13chに、丁度よくこの8chマイクアレイを割り当てることは出来ないので、WalkMix Creator内でどの様な8chキューブに配置したとしても、スピーカーモニタリングでは正確に再現されません。

その上ヘッドフォン内でも正確には再現されないとなると困りますね。

どこにも整合性が無いというのが現状です。


と、ここで思ったのが

本当にヘッドフォン内の定位と13chスピーカーでの定位とが聴感で違うのか?

ということ。


スピーカーモニタリングとヘッドフォンモニタリングとの整合性を高めるために、あえてバイノーラルの定位を崩していて、それによって実は同じ様に聴こえる、ということは無いでしょうか?


そうであれば、辛うじて13chのスピーカーアレイでオブジェクトベースのMixをしていると言えなくもない...



無いでしょうね


どなたか試しているなら教えてください。



360 Reality Audioの空間オーディオ作品は、特別な機会を除き、一般リスナーが13chスピーカーで聴くことはありません。

市販のヘッドフォン、あるいは市販の特殊なスピーカーによる再生だけです。


であるなら、360 Reality Audioは始めからヘッドフォンモニタリングでMixすることが、リスナーに同じサウンドを届ける明確な手段となります。


13chのスピーカーを配備するスタジオでMixしても、ヘッドフォンでのように空間的なMixも出来なければ、そのサウンドはバイノーラル化したときに別のバランスとなってリスナーに届いてしまいます。


つまりスタジオは要らないと思います。



この8chキューブMixを360 Reality Audioに変換する際の問題を、もっと早く検証すべきでした。

分かっていたのに。


ただ、これは聴感上正しいかどうかの話であって、サウンドとして有りか無しかという話ではありません。

正しくないことで、生まれる良いサウンドもあるということです。





2022/11/06

3Dパンナーのオートメーションはバウンスに反映されない?



これは立体音響の制作をされている人であれば周知の事実かと思いますが、かなり大事なことなので一応記事にしておきます。


DAWでNovoNotes 3DXの様なパンニングツールを使う際、その音の軌道をオートメーションに書き込みますが、それがバウンス時に正しく再現されません。
※3DXだけでなく他のプラグインでも起きる現象です

2次元であればX,Y、3次元であればX,Y,Zのパラメータが連続的に記録されたデータを音に紐づけてプロセッシングしファイルとして出力するのは難しそうですよね。

バウンスやレンダリングといったファイル書き出し作業では、オンラインとオフライン、あるいは実時間と高速オフラインなどの方法がありますが、時間を短縮するオフラインでファイルに書き出すと、(音像移動のスピードにもよると思いますが)音像移動が正しく再現されません。

一つの音であれば気づきますが、様々な音が混在する作品の中での微妙な誤りであれば見逃してしまうことでしょう。
しかしこの微妙な音の誤りがいくつも重なれば、立体音場の没入表現には大きく影響してしまいます。


こちらのサンプル音源は、
ProToolsで3DXを使いピンクノイズを適当に動かしオートメーションにX,Y,Zを記録し再生した音です。
それを「Online」つまり実時間でバウンスしています。
この音が正しい音になります。
ヘッドフォンで聴いてみてください。





それに対し次の音は時間を短縮して書き出す「Offline」でバウンスしたものです。
明らかにX,Y,Zいずれかが時折抜け落ちているような音なのですが分かりますか?





Mixが完成しバウンスした音をチェックする時でも、この変化でしたら比較的気づきやすいと思います。
もっとはっきり動きが止まってしまうケースもあります。


この様な現象は他のDAWでも起きます。

次はREAPERで3DXを使いピンクノイズを適当に動かしオートメーションにX,Y,Zを記録し再生した音です。
それを「実時間オフライン」でレンダリングしています。
REAPERでは実時間で書き出せるのは「オンライン」と「実時間オフライン」があり、どちらも正しく書き出せるので(だぶん)、恐らく実時間かどうかがポイントなのだと思います。
やはり紐づけるデータが多すぎるのが原因ではないでしょうか?





次の音は時間を短縮して書き出す「オフライン」でのレンダリングです。





いかがですか?
一度聴いただけでは分からないかも知れません。(Mixした本人はすぐに分かると思いますが)
こうなるとレンダリングしたファイルを試聴しても気づかない可能性があります。

よく聴くと動きが滑らかではない箇所があるので微妙に抜け落ちているのでしょう。
完成した作品の音を聴いてはっきりと「違う」と思わないかも知れませんが、「なんか変だなぁ」と首を傾げるかも知れません。
分からないんだった気にしなくてもいいのでは?と思うかも知れませんが、「気のせい」として処理してしまうのはもったいないです。

滑らかに動く事で生まれる立体感もあります。
僅かであっても、立体音響作品なのですから、立体的な音の定位、立体音場感、そうした部分へのこだわりを捨てるのはどうかと思います。


だからと言って、今まで以上にチェックに気を使う、時間を使う、のは大変すぎます。

「(時間短縮系の)オフラインではバウンスしない」のが今のところ一番よい対処法のようです。


※DAW、プラグイン、によって現象は異なると思いますので、自身の環境で問題がないか確認してみてください。






2022/11/03

Ambience Enhancerをどう使う?



2022年10月
NovoNotesよりAmbience Enhancer Standardが発売されました。

2chのみ対応のAmbience Enhancer liteはすでに先行発売されており、多ch対応(24chまで)版がStandardになります。

このAmbience Enhancerがちょっと変わった仕組みであるため、立体音場の表現力について理解が無いとすぐにこのプラグインの味を引き出せないかも知れません。
アンビエント成分を調整することで、響きを減らしたり増やしたりし空間を変える。
2chステレオ音源に対するAmbience Enhancer liteの効き具合はそのようなイメージでしたが、Ambience Enhancer Standardを使用する立体音場では、同じ技術であってもその効き具合は変わります。


NovoNotesのAmbience Enhancerとは?

エンハンスとしてイメージするものは、周囲、環境、空気感、残響、といった音の空間性の部分かと思います。

NovoNotesの説明では
「Ambience Enhancer は入力された音声を分析して、アンビエンス成分と直接音に分解します。」
となっており、そのアンビエンスにだけ何かしらの処理を施すことで空間が調整可能としているプラグインです。

”残響をコントロール”と簡単に説明されているのを見かけますが、それは違うと思います。


まず、ホールで観客がざわついているAmbisonicsの音源をAmbience Enhancer Standardを通して聴いて見ましょう。

音源はA-formatマイク録音された素材で、それをB-format変換(1次Ambisonics) → 8chキューブデコード(3DX)した立体音場の音源を使用します。
その8chキューブの立体音場に対し、Ambience Enhancer Standardのパラメーターを調整してみます。


このような処理で検証



まずはAmbience Gainを-3dBに設定してみます。
アンビエンスを-3dB減らすということです。
アンビエンスを減らした分、Output Gainを3dB上げてみました。
これは何となくそっちの方がいいかなと思っただけで、正しいかどうかは分かりません。

試聴音源は、Ambience Enhancer Standardを通した8chキューブの立体音場を3DXでHPLバイノーラル化していますので、ヘッドフォンで試聴してください。







次は逆にアンビエンスを3dB増やしてみます。
Ambience Gain = +3dB (応じてOutput Gainを-3dB)







いかがでしょうか?
かなり変わりますよね?

もう一つ別の音源で試します。
こちらもデモでよく使う美術館で大きな音や足音をAmbisonics収録したものです。
同様にしてHPLバイノーラル化しています。
Ambience Enhancer Standardの設定は同じです。

まずはAmbience Gain = -3dB




続いてAmbience Gain = +3dB





いかがでしょうか?

Ambience Enhancerでアンビエンスを増減させることは、単に残響を盛ったり抑えたりしているのではなく、空間の広さそのものに変化を与えていることが分かると思います。

絵にするとこのような感じです。
UIの表示とは逆のようなイメージがあります。


点線が元の空間の広さ




このように元の空間よりも広く表現する、あるいは逆に狭く表現する、と言った使い方が出来ると思います。
ちなみにAmbisonicsの録音源に対しては、Ambience Gain +-3dBが元の空間を崩さずに調整できる範囲だと思います。


録音したAmbisonicsの音源では全体にAmbience Enhancerを使うことになりますが、3DのMixを行う上では、より遠くに感じさせたい音、より近くに感じさせたい音、それぞれに異なる設定のAmbience Enhancerを使うことで奥行きにさらなる立体感を与えることが出来そうです。


そして、空間が伸縮すると言うことは、そこにある音の距離感も変わります。

こちらはパルス音を使ってAmbience Gainを調整している動画です。
このパルス音のサンプルもただのステレオ音源では無く、3DXを使って8chキューブの立体音場の右に定位させている状態です。
Ambience Gainを小さくすると音が中心に寄って来て、大きくすると離れていくのが分かります。
パンニングしているのでは無く、空間の伸縮によるものです。





これは逆に言うと、Ambience Enhancerでは距離を変えずにアンビエンスのみを調整することが出来ないということになります。
DryとWetのバランス(直接音とアンビエンス成分)を調整することが出来ませんので、元の音像の距離感は変えたくないのであれば、Dryのトラックを用意してMixすると言った工夫も必要なケースが出てくるかもしれません。


3D Mixの例として、立体音響ラボのジングル(Miyu Hosoi, evala)を聴いてみましょう。

まずはオリジナル。





続いてAmbience Gainを-6dB。





Ambience Gainを+6dB。







Ambience Gainを+にする音、-にする音、をMixの段階で使い分けたり、Ambience Gainの値をオートメーション化していくことで、遠近の表現をかなり増せると思います。

ここまでで、Ambience Enhancer Standardは空間伸縮ツールであることが分かったと思います。


最後に、その他の機能、Ambience Low Pass、Ambience Delayについて。

Ambience Low Passは、Ambience Gainを上げた時に空間を自然な感じにしたいなら4000Hzあたりまで下げるとか、細かな味付けに有効です。

Ambience Delayはちょっと難しいです。

アンビエンスだけにディレイを掛けることで初期反射を調整するようなもののようですが、最大50msまでのショートディレイが直接音との音量バランスを調整出来ないまま掛かってしまうため、ほとんどの設定で定位が無くなってしまいます。
例えば左に定位させた音にAmbience Delayを掛けると、アンビエンスなので対面からもディレイ成分が再生され、その結果左にあったはずの音がセンターに定位してしまいます。
最大の50msにすれば、何とかステレオ感あるショートディレイの音になりますが、それ以外に使い道がわかりません。
アンビエントにディレイを掛けるなら、直接音とアンビエンス成分の音量バランスを調整できたり、各スピーカーごとにディレイ値を設定できる、あるいは空間的にランダムな反射となるようアンビエントが計算されるなど、Ambience Delayに関しては早い段階で改善が必要と思いました。

先ほどのジングルに50msのAmbience Delayを掛けた音を最後に聴いてください。
定位は崩れますが、音数が増える効果はあるので面白いです。








いかがでしたでしょうか?

立体的なスピーカー配置において空間を扱うプラグインはまだまだ少ないですし、立体音響作品を作っていて、特にヘッドフォンでバイノーラル作品を作る場合は距離感の出し方に手を焼いている人も多いと思います。
そんな時、Ambience Enhancer Standardを試してみてはいかがでしょうか?


NovoNotes
Ambience Enhancer Standard










2022/08/18

3DXで7.1.4chをバイノーラルモニタリングするには




2022年9月号のサウンド&レコーディング・マガジンに載っている、ミキシングエンジニアの奥田泰次さんとグレゴリ・ジェルメンさんによるNovoNotes 3DXのレポート「プロ・エンジニアが語る!立体的な音場を創出するプラグインNovoNotes 3DX」を読んで、両氏ともに3DXを使ってサラウンドをバイノーラルモニタリングしていることを知り、ちょっと予想外でした。
もしかして、そうした使い方を皆さんするのかな? と。

HPLを作った身としては、3DXの5.1chや7.1.4chなどからのバイノーラル化は、本来のHPLの音ではないので、そう思われたくないなという想いが半分、それでも使えるんだ?という想いが半分です。

各チャンネルフォーマットをきちんとバイノーラルモニタリングするには、専用機であるHPLバイノーラルプロセッサー「RA-6010-HPL」が必要です。
※現在はNovoNotesよりHPL Processorプラグインが発売され、HPL本来のバイノーラルサウンドでモニタリングが行えるようになりました。

3DX内で本来のHPLの音質を持つのは8ch Cube → HPLの場合だけです。
(詳しくは「HPLのグレード」を参照)


とは言え、
100万円するRA-6010-HPLはそう簡単に買えるものではないので、3DXでバイノーラルモニタリングしてMixできるなら、それも一つの方法かと。
少なくともスタジオに入る前のプリMixとしては、十分に使えるのでは?と思いました。

で、実際に3DXの7.1.4chのHPLバイノーラルと、専用機であるHPLバイノーラルプロセッサー RA-6010-HPLのHPLバイノーラルとを比較してみました。


まず、RA-6010-HPLによる7.1.4ch入力→HPLの音です。
声とピンクノイズをch順に再生していますので、ヘッドフォンで試聴してみてください。





続いて、3DXによる7.1.4ch入力→HPL出力の音です。

※3DXではサブウーファーchが全周波数帯域をパスしてしまうので、事前にハイパスしておく必要がありますが、今回はしていません。





まぁ確かに他のバイノーラルアプリに比べたら、いいかもしれませんね。



3DXのパラメータを調整して、少しでもRA-6010-HPLの音に近づけないか、トライしてみました。

色々試したのですが、
最終的に行きついた設定がこちら




Scaleを
width = 1.5
depth = 1.3
height = 1.2
にしました。





L/C/Rの音像がRA-6010-HPLに比べ3DXの方が上がってしまうので、本当はPositionのZを-0.4とかにしたいのですが、音が少し変わるので今回はやめました。
そこはお好みで。

これで定位のバランスは近い状態です。
左右の距離感がどう調整してもRA-6010-HPLのそれに近づけず、3DXの方が全体的にナローです。

RA-6010-HPLのフルHPLバイノーラルプロセッシングによる7.1.4chの音と、3DXの音との大きな違いは、まず明確な音像です。
RA-6010-HPLの音像が点音源でシャープであるのに対し、3DXは少し面で鳴っています。

そしてもう一つは音質。
今回のテストでは分かりづらいと思いますが、音楽をMixした時の音質が、RA-6010-HPLと3DXとでは差があります。

3DXは音質が良いと評判ですが、RA-6010-HPLのバイノーラルはさらに良いです。
完パケのマスターをバイノーラル化するための機材なので当たり前です。


今回は7.1.4chで試しましたが、5.1chなどの他のフォーマットでも3DXのパラメータを同じ設定にすれば同様の効果が得られると思います。

3DXでバイノーラルモニタリングをする際の参考にしてみてください。



2022/07/15

Ambisonics対応のリヴァーブを試す




取り急ぎ4つのAmbisonics対応Reverbプラグインを試しました。
詳細までは追っていません。リヴァーブの傾向のみです。

普段は没入感ある残響が必要とされる際は、自分でシミュレーションしたものを使うので、こうしたプラグインを試す機会はあまりありません。
最近プラグインも増えてきたと思うので、ちょっと調べることにしました。


着目点として考えたのは、

Ambisonicsなので、フォーマットの特徴である自然な立体音場を生成できるか?という点です。


そうでなければ3Dのリヴァーブである必要がなく、使い慣れたサラウンドリヴァーブを7.1.4chの中層と上層にそれぞれ1つずつ使用したり、あるいはあえて異なるリヴァーブを使い自由にサウンドメイクすればよいわけで、3Dで上下のあるリヴァーブ、特にAmbisonicsのように一体感ある音場が特徴のフォーマットを使う意味は上下の繋がりにあります。

そうした事でしか成し得ない立体音場を実現し、没入感ある残響空間が作れるかを知る必要があります。


そもそも上下の繋がりが考慮されたスピーカーシステムやサラウンドフォーマットを導入しているスタジオはほぼ無いのですが、そうした話は一旦おいておきます。




試したのは以下の4つ


IEM Plug-in Suite - FdnReverb (無料)

https://plugins.iem.at/


Audio Brewers - ab Reverb (59ユーロ)

https://www.audiobrewers.com/plugins/p/ab-reverb


Noise Makers - Ambi Verb HD (189ユーロ)

https://www.noisemakers.fr/ambi-verb-hd/


AUDIO EASE - 360reverb(360pan suite 3) (36,300円)

https://formula-audio.co.jp/audioease/360pan.html

※2022年7月現在



この4つを選んだ理由は特にありません。

たまたまです。


基本的に、自然な立体音場となれば実際の空間のIR(インパルス応答)を使ったリヴァーヴが有効です。

今回だとAmbi VerbHDと360reverbがそれです。




360reverb


IRをベースにしたリヴァーブとしてお馴染みのAltiverbを作っているAUDIO EASEなので、やはり自然な残響でした。

上手く使えば没入感も出せるかもしれません。


IRの選択もしやすく必要最小限なパラメータで使いやすいですが、プリディレイが無いのがマイナスポイントです。

プリディレイがあると、Wet=100%で残響成分だけにして、別系統のドライソースとMixする時に初期反射のタイミングを調整することで空間の広さを微調できます。


基本的に自然なリヴァーブ作りに徹しているプラグインという印象です。

難点は360pan suiteバンドルのプラグインなので、360reverbだけを買うことが出来ないことです。

360pan suite自体は音楽制作というよりは映像作品のシーン制作に用いるようなツールなので使いづらい面もあります。


しかし、他の3つのプラグインと比較して、処理負荷は圧倒的に少ないです。

一番自然なのに負荷は少ない。これもAUDIO EASEならではの技術でしょうか。




Ambi Verb HD


同じIRベースでもちょっと自然な音では無く、このメーカーの他のプラグインもそうなのですが誇張されていてやり過ぎなところがあります。


派手な割に周波数特性を調整するパラメータが無いので、選択したIRに音源の音色が合わなければ、後段に必ずEQを入れることになります。

自然な方向でもエフェクター的な方向でもない中途半端なところが使いづらいのではないかと思います。


あと、IRの選択が謎。




ab Reverb


これは不自然なリヴァーブなので、立体音場の空間を作る目的には合いません。

ただAmbisonicsの球体に対し面白い残響を生み出すエフェクターとしては使えそうです。

UIを見て分かるように、初期反射と後期反射をそれぞれ設定でき、異常な部屋を作れます。




FDNReverb


これもリアルな空間表現では無いですが、綺麗な、というか余計なことをしていない澄んだ音がするので、リアルでは無いが空間らしさは出せます。

FDNはFeedback-Delay-Network。

ab Reverbが残響自体をいじって変わった音になるのに対し、こちらはAmbisonicsの空間はそのままでフィードバックなどで変わった空間を作り出せる感じがあります。

面白いです。




4つのプラグインを試してみて思ったのは、当たり前ですがリヴァーブというエフェクターであるということ。

音楽制作で自然な立体音場を求めることはほぼ無いと思うので、派手な方が使い道があるのでは無いでしょうか?

ab Reverbを大胆に使うと面白いですし。


自然な立体音場 → 自然な残響 → 変化に乏しい


自然なリヴァーブは使っても気付かれません。

面白くありませんが、それが没入状態にあると考えられます。



それから注意点として

これらの4つのプラグインは全て3次までのAmbisnicsに対応していますが、残響も3次AmbisonicsなのはFDNReverbだけです。


その他の3つは、ドライソースとしては3次ですが残響に関しては1次です。

まぁそれでも良いと思います。







この画像のように、今回のテストは自然な立体音場をジャッジするために、音源を斜め上のちょっと遠め、というイメージの場所に置きました。

これをAmbisonicsで出力し、その先で各プラグインの残響を付加し、8chCubeに変換してスピーカーで試聴しています。

こうして8chキューブ再生で試聴すれば自然な空間かどうかが分かります。


空間という感覚が分かりにくいかも知れませんが、繋がりが無いとスピーカーから残響が出ているように聴こえ、空間の繋がりが良く一つになっていると、スピーカーからではなく残響が空間を作っているように聴こえます。

8chキューブだとそうなり得ます。

7.1.4とかではそうなりません。


残響空間の繋がりが自然であれば、反射成分はスピーカー面よりもずっと奥から聴こえます。

(スピーカーアレイの広さよりシミュレートしている部屋が大きければ)


8chキューブ配置を組めない人は、3DXで8chキューブからHPLバイノーラル化しても、ある程度判断できると思います。

 


2022/06/21

立体音響ラボ Vol.7 ウォークスルーVRデモの解説

立体音響ラボ Vol.7
立体音響ワークショップ #7
「バーチャル・オーディオ・リアリティの世界」

6月11日に約2時間、ワークショップを配信。VRの立体音響とはどの様なもので、何を目指せばよいのか、どう作ればよいのか。
実際の作業ではなく、没入=VRに向けての音響心理といった内容の話をしました。

そして翌12日に、その考えを元に制作したウォークスルーのVR音響デモをRITTOR BASEに設置し、参加希望者にご体験いただきました。


このブログでは、2日に渡る立体音響ラボのまとめとして、そのデモがどの様に作られたのかを解説しようと思います。

まず、ヘッドホンをして、こちらの動画をご視聴ください。
これは12日に公開したデモを体験者目線で録画(iPhone)したものです。
音はPC内で実際に体験者が聴いていた音を同時にRECし、後から映像と合わせています。
iPhoneを手で持って撮影していますので、頭部の動きと多少異なり音と映像がズレる箇所がありますがご了承ください。




いかがでしたか?
この様なデモ体験でした。

これは視聴体験なので、”見せられている”し、”聴かされて”いますが、実際のデモは、”見にいく””聴きに行く”体験なので、より音の定位感や空間の広がりや空間自体の存在を感じることが出来ます。
音質自体も実際のデモ体験では圧縮されていない32bit floatの音源を使用しているので空気感が削られずに有ることも大きいです。
この動画では水音や雨音が圧縮されて綺麗な音ではなくなってしまい残念です。
その点もご了承ください。


さて、まずはシステムです。

何より体験者の位置と向きをセンシングするハードウェアの進化が素晴らしいですね。
今回は、VIVEのトラッカーとベースステーションを使用しました。
https://www.vive.com/jp/

オーディオインターフェースにRME MADIface Proを使っていますが、こちらは生産終了しています。
信号処理の部分で3次Ambisonicsの16chをループバックする必要があり、チャンネル数が豊富なMADIは必須でした。
その要となっているのがヘッドホンアンプとしても優秀なMADIface Proです。

替わりのシステムを考えるとなると、MADIかDanteのオーディオインターフェースを使ったうえで、音の良いDACを用意しないといけません。
機器点数が多くなり、リュックが重くなりますね。
あとは、ソフトウェアでのループバックを行い信号処理、出力には小型のUSB DACを使うという方法。
それからループバックせずにCycling'74 MAX8でバイノーラル化まですべての信号処理を行うか。
ループバックでも遅延が増えますから、その必要が無ければしない方が良いです。

なぜループバックするかと言えば、MAX8の音がマルチチャンネルの音を得意としていない点にあります。
特にAmbisonicsは苦手で、A-formatの録音素材をMAX8上でAmbisonicsエンコードしスピーカーデコードした立体音場は、他のプラットフォームで処理した立体音場に比べ、空間の再現性が弱いです。
定位はしますが、きちっと空間を再現出来ていないので没入感がありません。
そうした事がなければすべてMAX8で完結してしまいたいところ、わざわざBiduleを使ってA-formatの録音源の再生からAmbisonicsへのエンコードとデコード、そしてHPLバイノーラル化と、空間生成の処理に関わる部分はなるべくBidule側で行うようにしています。

BiduleはBiduleでOSCの受信を大量に行うとフリーズしてしまうという欠点があります。
なので今回は、体験者との相対的な音像定位を行うために大量のOSCを受け取ることとなる水滴とカエルの音を扱う3DXはMAX8側に置き、質の高い立体音場生成が必要となる環境音再生やAmbisonicsのデコードを行う3DXはBidule側へ置く、と言った工夫をしています。

すべてに完璧なソフトウェアはなかなか見つからないものです。
なるべくシンプルにしたい、しかし音は妥協したくない。そのバランスを上手く取った音響システムプランニングを心掛けることは大切です。


一つのアプリですべての信号処理が行えるのが理想



音を考慮すると2つのアプリを跨ぐことに



水滴とカエルの音像定位に3次Ambisonicsを使い、A-formatからの環境音生成には8chCubeを使っていますが、これは聴いた感じで良かった方のフォーマットを採用しています。
Ambisonicsが3次なのは、音像定位を重視しているためです。定位は高次が有利です。

A-formatの環境音をB-fromat変換したあとは、一つの3DXでHPLバイノーラル化まで出来ますが、一旦8ch Cubeにすることで、後段の3DXでScale機能を使い空間の広さを微調整しています。



さて、ようやくデモについての解説を始めます。

まず、デモを制作する前の決まりごとを整理しますと

・場所はRITTOR BASEである
・2001年に展示会で公開したデモのリメイクである(ウォークスルー型のVRデモ)
・技術展示である

以上3点です。

それを踏まえ、
まず、RITTOR BASEで生成する疑似環境選びから考えました。

2001年は、環境が展示会のブースであったため、かなりガヤガヤした環境がベースにあり、それを変えることは難しいですし、逆にその環境を利用することにして、その環境音を下地としてヘッドホンを装着した時だけ聴こえるオブジェクト、”電話””時計””ラジオ”、の3つの音をAR,MR的に加え、ウォークスルーしてもらいました。
ガヤガヤした環境下に、”電話””時計””ラジオ”の3つの音は溶け込みやすい音です。

今回のRITTOR BASEは静かで、残響も少なく"無"に近いことから、環境も加えて空間を変えることができます。
その"無"を高めるため、予め全方位を吸音カーテンで囲い、視覚的にも"ある場所"をイメージさせない様にもしています。

視覚で言えばもう一つはスピーカーです。

2001年には、実際にダミーの電話、時計、ラジオ、を置いていました。
その方がガヤガヤした環境下では、体験者がオブジェクトと音とを紐づけやすいからです。
あの環境下で今回の様にスピーカーを置いたとしたら、体験者は3つの音を見つけることが出来ないかも知れません。
ガヤガヤの中で時計の音がウソであることに気付かない、あるいは気付くまでに時間が掛かる、スピーカーが何故置いてあるかが分からない、などの状況が生まれます。

今回は視覚的にも聴覚的にも"無"の環境なので、あえてオブジェクトをスピーカーにしています。
仮にカエルの鳴き声のする位置にカエルのオブジェを置いたとしたら、ちょっと断定し過ぎてしまうかな?とも思いました。
他の音も鳴るのかもしれない、もしかしたら本当にスピーカーから音が出ているかもしれない、というあやふやな感覚も少し残そうと考えたからです。
そうした感覚を持たせるのも没入への良いアプローチです。
そしてライトでスピーカーだけを強調し、逆に分かりやすさも演出しています。


環境音選びに話を戻します。

RITTOR BASEが静かな環境であるため、空間を何にでも変えることが出来るのですが、それが街の雑踏だと、RITTOR BASEに来る皆さんが道中体験してしまっているので、街中→無音→街中という環境の変化となり、最後の人工的な街中の印象が薄くなることで没入度が低いと判断。
また、静かなRITTOR BASEを徐々に変えたいと思ったので、静寂もイメージできる環境音が馴染むかなと思いました。

そうした中、フィールド録音した音源をHPLバイノーラル化して公開されているmidunoさんが、YouTubeチャンネル「Nature Sound Effect : miduno」で今回のベースとなる音源を丁度のタイミングでアップされ、それを聴いてRITTOR BASEに合いそうだなと。

その音源がこちら。
《 水音とシュレーゲルアオガエル(四季の森公園 - カエル)06:53PM【HPL】》



森の公園という広い空間で、様々な距離感のカエルの鳴き声。
遠くのカエルには奥行きを感じる残響感が強く広さも有りますし、水音は近い。
距離のレイヤーが多く含まれています。それでありながら静寂さもある。
そして、この音源はRODE NT-SF1によるA-format録音をNovoNotes 3DXでHPLバイノーラル化されていますので、今回のウォークスルーVRシステムでも同じ信号処理を行うことから同じ音が出せるだろうと想像出来ました。

早速midunoさんに連絡を取り、HPL化する前のA-formatの4chファイルをお借り出来ないかを相談。ご快諾いただきました。ご協力ありがとうございました。

ちなみに今回は技術展示と位置づけていることもあり、音源を新たに収録することをしていません。
既存の音源を組み立てることで、どの様に作られたが分かりやすくなると思いますし、どなたでも同じ様なデモを作れると感じていただきたいと思っています。


ベースの環境音が決まれば、あとは個別の音を決めやすくなります。
”電話””時計””ラジオ”に代わるものです。

今回の音源レシピです。

・カエルと水音の公園環境音 → miduno氏のA-format(4ch)
・水滴 → evala氏のモノラル音源
・カエル → miduno氏の環境音からの切り出し
・女声 → evala氏のモノラル音源
・雷雨 → 自分で録音したバイノーラル音源
・雨音(強) → evala氏のステレオ音源

evala氏の音は、立体音響ラボの配信で本編が開始される前の待機画面の時に流れるサウンドで使われている音源からのセレクトです。

これらの組み合わせで作った疑似空間をウォークスルーします。


では実際に組み立てましょう。 

まずデモの入りです。
デモの始めは、技術展示らしく説明深い聴かせ方をしています。
最初に視聴していただいたデモ動画の時間経過と共に見ていきましょう。


00:00~00:40
体験者がヘッドホンを装着すると、まず視界に入っているスピーカー定位の音が1つだけ再生されます。
水滴です。
ここで体験者は”デモシステムの仕組み”と”体験すること”を理解します。

使われている音源はこちら
(バイノーラル化する前のモノラル音源です)



00:40~02:10
その後カエルの声が別の場所から、そしてさらに別の場所から2匹目のカエルの声が聴こえだします。

使われている音源はこちら
(バイノーラル化する前のモノラル音源です)



体験者はこの時間で

・各音源の定位感
・近づくと大きく、離れると小さくなる音
・3つの音の聴こえ具合の変化

などを確認します。

人によっては上下感を確かめるためにしゃがんでみたりして、システムや表現の精度を細かく探る人もいます。
こちらもそうした時間として2分儲けています。
時間をかけて探ってもらうことで体験者は空間を認識し始めます。
この時間を定位探りだけに使ってもらうため、前日の配信でカエルと水滴の音源を使うことを告知し、”何の音なのか?”という余計な探りの時間を排除しています。

ワークショップで話した通りVRは没入してこそなので、この段階では体験者は探っているだけで没入の可能性が見えているに過ぎません。


この3つの音源の定位作りにはNovoNotes 3DXを使用しています。
センシングにより常に体験者の位置と角度のデータが更新されており、部屋の中心をx,y,z=0,0,0とした3つの音源位置のx,y,z値を予め計測しておくことで、そこから体験者とのx,y,z相対値が求められます。
(この辺りのセンシング値を3DXのコントロール値へ変換していくプログラムはMAX8を使用しています)

その値を各音源の3DXへOSC(OpenSoundControl)で送り、実際は体験者が動いているのですが、ソフトウェア上では音源を動かし、”自分が音源へ近づく”=”音源が近づいてくる”表現に置き換えています。

ここで重要な音表現のための調整は、音源へ近づくにつれてどの様に音を変化させるかです。
こちらの動画をヘッドホンをしてご視聴ください。




左耳を音源に向けて、横歩きで音源に近づいたり離れたりしていると考えてください。
センシングのデータは実際に移動が3mであれば3mという数値を取得しますが、それをそのまま3DXに渡すわけではありません。
3DXのロケーターのマス目の距離が決まっていたら、常にその距離の表現しか出来なくなってしまうので当たり前ですね。
よってスケール調整が必要です。

設定で一番重要なのは音源に近づいた時です。
動画では一度、音が中心に来るまで近づいていますが、これでは音が頭内にまで入ってしまい、左右の判断がつきません。
ですので、どんなに音源に近づいても左側に音が定位していないといけません。
動画で最終的に止まった位置が左に定位するギリギリの位置かと思います。

音像の位置を上から見ている左側のロケーターで見ると、3DXには3つのサークルがあると思いますが、最終的にその一番内側のサークルの半分くらいのところで止まっていると思います。
仮に受信するOSCの位置データに対し3DXのサークルが1m間隔のスケールだったとしたら(外側3つ目のサークルが3mということ)、音源と体験者の位置は約50cmです。
つまり50cm以内に近づくと音が左にあると認識しづらくなります。
しかしデモではもう少し近づきます。
仮に25㎝としたら3DXでは2倍スケールです。
サークルの間隔が50cmになるので大外が1.5mに。
その距離に対し、音量と周波数特性の減衰をDistance Attenuationで調整していきます。
聴感というか体験として丁度よい調整を、現実を無視して行うことになります。
多少過度な表現に調整しないと、体験としてはつまらないものになってしまいます。

今回は、3つのスピーカーで囲われた中心にいた時に3つの音がバランスよく聴こえ、どれか一つの音源に近づいた時、それ以外の音源が丁度よく小さく聴こえる移動感。
そして近づいた時に音が頭の中に入ってこない様3DXに与えるデータのスケールと、3DXのDistance Attenuationで調整しました。
それにしても3DXの近い距離の表現は精密ですね。


02:10~03:30
ここからゆっくりとカエルと水音の公園環境音がフェードインしてきます。

3つの音源が”聴かせる音”だったのに対し、この環境音は”聴こえる音”です。
midunoさんのYouTubeの元音源を聴くのであれば、適正な音量で聴きたいですが、このデモでの役目は環境音として”聴こえている”状態を作ることです。
RITTOR BASEを徐々に忘れさせる大役になります。
カエルが一斉に鳴いているところ、鳴き止んで静かなところの2シーンを元音源から切り出しループ再生しました。
聴いて見ましょう。
(A-formatの元音源をバイノーラル化した音源です)




この音源の調整は、
距離のレイヤーとして、最初の3つの音源の方が近くないとおかしいので、カエルが一斉に鳴いた際にも最初の3つの音源は聴こえる、あるいは探せば聴こえる音量に調整しました。
そうすると、鳴き止んだときに3つの音源が自然と聴こえてくるように感じます。

A-formatの音源ですので、Ambisonics化し体験者のYaw,Pitch,Roll情報をOSCで3DXに与えることで、この環境音がRITTOR BASEの空間に固定されます。
この時点で、”スピーカーから出るカエルの鳴き声”という不自然なものが、カエルが沢山いる公園の一部へと多少仲間入りし、つまり意識なく少し没入状態へ入っていきます。


03:50~05:05
デモは時間が限られています。
体験者が没入していくのをのんびり待っているわけにはいきません。
ここで豪雨→雷の音でちょっと強引に展開させます。

ここまで、配信で解説した没入に必要な”聴きに行く音”を聴いていた体験者に、”聴かせる音”を投入します。

バイノーラル録音素材です。

A-formatの素材でも構わないのですが、聴かせる効果の高い、しかもよい音のバイノーラル素材があったので使いました。
配信では「バイノーラル録音は没入しにくい」などと言っていたくせにです。

ここで重要なのは聴かせることです。
ちょっと圧倒するくらいの音が効果的です。
実際に体験した人の感想では、ここで一気に音場が広がったと言う人が多かったです。
RITTOR BASEという地下空間。
ヘッドホンという密閉空間。
それを感じさせない音がベターです。

この音はこちらのsoundcloudにアップしていた音なので、聴いたことあると思った人もいたかも知れませんね。





05:05~06:10
ちょっと強引なフェードアウトで豪雨が終わり、現実世界へと戻ります。

いえいえ、現実世界ではありませんね。カエルと水音のする公園と言う人工的な音空間です。
豪雨と雷が圧倒してきたことで、ちょっとホッとする感覚がこの人工音空間を受け入れてしまいます。没入状態を完成させる1分間です。


06:10~END
仕上げです。

ここまでどちらかというと下への音像定位が多かった空間に、メロディを持った女声の音源を上から聴かせることにしました。

最終的に3方向から、時間をずらして同じ音源を再生しています。
ここのずらしはあえて適当にずらし、音楽っぽくならないようにしています。
同じ意味で音像は空間に固定していて動かしていません。
自分が動くことで空間にある歌声が揺らぎ、それが心地よく、そうして空間を楽しむだけの時間にしています。

体験者はこの辺りではもう音を探ろうとはせず、部屋の中央付近で周りを見渡すような動作になります。
空間を受け入れているので没入状態と言えます。
実際殆どの体験者が、このデモの前半は大きく動き回り、後半に行くに連れて部屋の中央で辺りを見渡す様な動きとなっていました。
外から見ていると、全く音がしない中での体験者の動きは面白いです。

最後はちょっと不自然に、近くて強い雨音をフェードインさせ終了への導線を作っています。
ここの音には意味はありません。意味の無い展開で没入を解くようなイメージ?と言ったら良いでしょうか。
そしてデモのスタート同様に水滴だけの音にして終了です。


今回はこの様なデモの構成でVRを演出してみました。

普段インスタレーションの技術担当をしていることもあり、ただ聴かせるだけでなく演出を加え、VRとして体験してもらうことを心掛けています。
そうすることで、体験者は「この製品やシステムを使うとこの様な音空間が作れる」と理解し、製品システムや技術の導入を検討しやすくなります。
音は聴かないとわからない。

また、アーティストが体験した場合は、この技術を活かしたり、全く違う使い方のイメージを膨らませたりして、1つも2つも上のステップで”作品”にします。

このデモは、新たに音源を作ることなく既存の音源を利用し、システムのエンジニアが組み立てただけなので技術展示ですね。


今回の立体音響ラボはいかがでしたでしょうか?
配信、体験、ネタばらし、全部見て読んでいただけたら嬉しいです。

体験するのと動画を見るのとでは感覚が異なるので、また体験会の機会を作れたらいいですね。



2022/03/26

HPLのグレード





HPLにはグレードがあります。

正確に言うとHPL自体にグレードは存在しませんが、HPL製品の中でグレードが生まれている、ということです。

HPLならどの5.1chのバイノーラル化も同じ音!
では無いので、より上の制作を行うために知っておいてください。


では早速

special Aグレード
HPLの本来の音質と定位
リスニングはもちろんMix作業のモニターとして存分に使用できる

NovoNotes HPL2 Processor
NovoNotes HPL Processor : 2ch mode
Airfolc RA-6010-HPL:2ch mode


Aグレード
HPLの本来の音質と定位
リスニングはもちろんMix作業のモニターとして十分に使用できる

NovoNotes HPL Processor:2ch modeを除く全てのch mode
Airfolc RA-6010-HPL:2ch modeを除く全てのch mode
NovoNotes 3DX:8chCube入力→HPL出力


Bグレード
本来のHPLプロセッシングの前段に3Dパンナーとしてのプロセスが加わっているため
定位はAグレードほど正確ではない

NovoNotes 3DX:8chCubeを除く全ての入力→HPL出力


この様なランク分けになります。

5.1chで言うなら、NovoNotes 3DXの5.1ch入力→HPL出力の音は、HPLの素の音では無く、5.1ch入力を一旦3Dパンニングのアルゴリズムを経由してからHPLでバイノーラルプロセッシングしている音になります。

一方で、5.1chをチャンネル毎に直でHPLプロセッシングしバイノーラル化しているのがNovoNotes HPL ProcessorとRA-6010-HPLの5.1ch modeです。
この2つの製品では、あらゆる入力フォーマットに対しそれに応じたHPLプロセッシングが行われますので、22.2chであれば22.2ch用のHPLプロセッシングが成されます。
3DXはHPLの前段に3Dパンニングアルゴリズムがあるので、それを受けるHPLは1種類です。
よって定位感はHPL自体のそれとは変わってきます。




しかし、Bグレードであったとしても3DXのHPLにはRA-6010-HPLには無い役割があります。

目的が違うのです。

NovoNotes HPL ProcessorとRA-6010-HPLは、2chから22.2chまでのチャンネルフォーマットでMixされた音声をバイノーラル化するプロセッサー。
NovoNotes 3DXは、3Dパンナー、Ambisonicsエンコード&デコード、HPLバイノーラルで構成されたDAWのMixで使用するプラグイン。
マスターのプロセッサーとしてのHPLは、マスター音源の正確で高品位なバイノーラル化が重要視され、
MixでのHPLは正確な定位や音質よりも、バイノーラルとしての空間表現力や自由度が重視されます。

例えばまた5.1chで話をしますが、
5.1chとしてMixされたマスターをNovoNotes HPL ProcessorとRA-6010-HPLは世界最高水準でありのままにバイノーラル化することが出来ますが、
3DXは、5chのバランスを保ったまま空間ごと上下動させたり、狭い広いと言った空間の伸縮が行えたりします。
HPL ProcessorとRA-6010-HPLでは出せない表現力を持っています。

3DXとHPL ProcessorとRA-6010-HPLで唯一同じグレードなのは8chCube(下層4chスクエア+上層4chスクエアの立方体スピーカー配置)です。
これは立体音響制作の要となるフォーマットなので、DAWのMix上でもマスターでも最も良い状態でバイノーラルプロセッシングが行えるデザインとなっています。
立体音響制作で、3DXを使用の8chCubeを積極的に使用した方が良い利点はここにもあります。



グレードごとに補足します。


special Aグレード

他ブランドのバイノーラルプロセッシングよりHPLが優れている秘密はここにあります。
HPLは2chステレオのバイノーラル音質に、とにかく力をいれて開発されました。
基準のサウンドが確かである。
まずそこを抑えてからのサラウンド化が成されています。

それをプラグインにそのままパッケージしたのがHPL Processorプラグインであり、同じHPLがRA-6010-HPLの2ch modeにプリセットされているわけです。
ですのでspecial Aとしました。

このバイノーラルサウンドに関しては、下手なスピーカーモニター環境より信頼できると思います。  …ホント?w
HPL Processorの話は別の機会に解説したいです。




使い方としては、
リスナーであればお手持ちのステレオ音源をHPLバイノーラル化し、ヘッドフォンでありながら本来のスピーカーMixと同じバランスで音楽を楽しむ。
エンジニアリングとしてならば、Mix時にスピーカーの代用としてモニタリングに使用する。
自宅だろうが移動中だろうが、常に安定したリスニング環境でMixが行えます。
スピーカーモニタリングと違い、ヘッドフォンモニタリングでは絶対的なリスニングポイントでモニタリング出来ますので、バランスが正確でセンターが整っているHPLであればそれがリファレンスになります。


Aグレード

special Aと何が異なるのか?
HPL2を特別枠に入れたかった、それだけですw

HPL ProcessorおよびRA-6010-HPLの2ch modeのL/Rの音と、その他のmodeのL/Rの音は違います。
2chのためだけの処理なのか? 5chや7chで音場が構成されているのか?
必ずしも優れた2chが他のchの音とのつながりが良いとは限りません。
実空間でも2Mix用のモニタースピーカーと、5.1chのモニタースピーカーのシステムとでは、スピーカーのモデルを変えたりすることがあると思いますが、それと同じです。
そうした意味でspecial Aと差別化してみました。




Aグレードも、リスニングだけでなくMixのモニターとして使用できます。
現に、この22.2ch HPLモニタリングで制作された作品「Lenna」は、日本プロ音楽録音賞のハイレゾリューション部門優秀賞を受賞する結果を生んでいます。

3DXも、8chCube入力をHPL化する設定の場合のみ、HPL ProcessorやRA-6010-HPLの3ch+8chCube modeの8chCubeと同じ音質を備えています。


Bグレード

先程話した通り3DXの8chCubeはAグレード。
前後左右上下の空間が均一な8chキューブスピーカー配置では、パンニングは大変スムースに行われます。その整った音場のバイノーラル化なので質の高い立体音場を維持できている訳ですが、5.1ch, 7.1.4chと言った不均一な配置のフォーマットはその分パンニングのアルゴリズムが難しく、HPL処理までの過程が複雑になります。
なのでB

しかし、チャンネルフォーマットのまま回転や移動が行えるメリットはMix時大きなアドバンテージとなります。
特に、一度7.1.4などにまとめた先のマスタートラックで、全体的に重心を下げる、トップだけ高さを上げる、前後だけ広げるなどのコントロールで空間の印象を変えることは、Mixの中でかなり多用します。

初めからバイノーラル作品を作るのであれば、スピーカー配置のフォーマットを意識することは無いので、ヘッドフォンで今聴いている立体音場がすべて。
その際のHPLのグレードにAもBもありません。





この様に目的に応じたHPLをお楽しみください。

あと、RA-6010-HPLではハードウェアの仕様により、96kHz, 192kHzとサンプリングレートが上がるにつれ扱えるチャンネル数が少なくなります。



ちなみに
裏グレードとして
自分がマスタリングするHPL音源はこれらの製品を使用せずに、作品に応じて最適なHPLバイノーラルプロセッシングを行いますので、7.1.4chや22.2chなど多チャンネルのハイレゾ音源であってもspecial Aグレードを維持しています。