その頃のスケジュールを見ると、同時に4つの開発案件を抱え、かなりのハードワークだったことが伺えます。
そんな中向かえたのが3月の “evala - Our Muse & Womb of the Ants @ Asia Culture Center, Korea” への参加。
http://evala.jp/Our-Muse-Womb-of-the-Ants-Asia-Culture-Center-Korea
2017年6月スペイン・バルセロナでのSonar+Dに続き、”See by Your Ears” 2回目の海外発表。
evala - Our Muse @ACC |
ミラーで覆われた簡易無響室を広い部屋に置き、外では空間に漂う音を多人数で、中では一人全方位から密度の高い音で包み込み知覚を拡張するサウンドインスタレーション。
この展示から静科製高性能吸音パネルの上にピラミッド型の吸音材を貼り、出来るだけ特性の良い簡易無響室を作るようになりました。
例え同じ作品であっても、設置環境が変われば音は違って聞こえます。
それは簡易無響室の中と言うよりは、その外側の環境が影響しています。
普通に音楽を聴くだけであれば問題にならないことも、See by Your Earsの様なインスタレーションでは、設置環境で音を追い込む調整作業に時間をかける必要があるのです。
それを言葉で説明するのは難しく、調整していく過程で没入し始める境目があり、そこを目指すわけですが、その指示はevala氏より非常に細かい音のニュアンスの説明と言う形で行われ、それをもとにEQ調整などを行っていくため、このころからその作業を「インスタレーションのマスタリング」と呼ぶようになりました。
いくつかのマル秘R&D案件を片付けつつ、次に臨んだのがプロ野球開幕3連戦のニッポン放送ショウアップナイター3Dサラウンド放送。
詳細はこちら
https://av.watch.impress.co.jp/docs/series/dal/1120234.html
しばらくぶりのプロ野球HPL放送でしたが、開幕戦、しかも3連戦の生中継はかなりのハードワークとなりました。
3D Mix & HPLプロセッシングプログラム |
野球の試合時間は3時間以上、その間絶えず3Dミックスバランスに気を使わないとなりません。
生放送の緊張感は半端ない。放送ブースは狭いので座ることもない。
しかし、スポーツの3Dサラウンド放送やライブビューイングは、臨場感を視聴者に伝え楽しんでもらうために今後必須の放送フォーマットだと思うので、そうした放送を標準化するためにもミックスに立ち会うことなく3Dサラウンド化+バイノーラル化するHPLプロセッサーのハードウェアが望まれているわけで、RA-6010-HPLへの期待は高まるばかりです。
HPLプロセッサー Airfolc RA-6010-HPL |
4月25日には、ヘッドフォン&イヤホンで聴くことを想定して制作した音楽アルバム「トキノマキナ - MECHANOPHILIA」が発売されました。
https://tower.jp/item/4685899/MECHANOPHILIA
スピーカー受聴用に制作される従来の音楽音源を、ヘッドフォンやイヤホンでも正しく再生するために、ヘッドフォン受聴用音源へと変換する技術がHPL。
だったら始めからヘッドフォン受聴用の音源として音楽制作した方が、ヘッドフォン受聴ならではの新しい音楽表現が作れるだろうと言う発想が生まれるのは必然です。
その一つが立体感。
ヘッドフォン&イヤホンの特徴と言えば頭内定位。
それを嫌うのではなく、頭内定位と頭外定位を組み合わせることで距離感のレイヤーを増やし、より立体的な表現を作り出す。
これはスピーカー再生でやろうとすると無響室を用意しないとできませんが、ヘッドフォン&イヤホンなら簡単に出来るわけです。
その様に様々な可能性があるということを示す音楽アルバムと言えます。
そのあたりも述べられたトキノマキナのインタビュー記事
https://www.jungle.ne.jp/sp_post/245-tokinomakina/
11月には、既発曲を3Dリミックスした2作目「時野機械工業 3D&HPLカタログ Vol.1」も発売。(限定販売ですでに完売)
そして6月
渋谷のEdgeOf内に、See by Your Earsスタジオが完成する。
http://evala.jp/evala-See-by-Your-Ears-Hearing-EDGE-vol-0
evala氏の制作環境をサポートする先端的スタジオ。
2Mix用のモニターは、CM、ライブ、舞台、など異なる再生環境のための制作を幅広くカバーするために、サブウーファーを2台使い2.2ch(3way 2ch)のシステムで調整しています。
そして立体音響作品をモニターする上層下層4chずつの8chキューブスピーカー配置は、既存フォーマット(5.1chや22.2chなど)もバーチャルに再生可能なマルチchレンダリングが行えます。
立体音場生成のためにはまず、前後左右のない均一な特性を持つ部屋をつくり、そこに最小限のシステムを組むこと。立体音場にミキサー卓は邪魔者です。
スタジオの外には、これまでのSee by Your Ears作品を体験できる静科製簡易無響室も設置されました。
立体音響のためのスタジオを作るならこう、と言う理想のシステム設計を実現できたのは、2018年一番のニュースだったかも知れません。
その同時期に、実はもう一つの立体音響のスタジオのシステムを設計しています。
企業の研究開発用のスタジオとして。
詳細は書けませんが、無響室に上層下層8chスピーカーシステムが2セット、コントロールルームに同モニターシステムが1セットあり、Ambisonicsでの立体音場生成を最大限に活かした研究プログラムが走る最先端スタジオ。
写真が無いのが残念ですが、プロの音楽制作スタジオでもそうは無いとてもカッコいいデザインのスタジオです。
黒い無響室の一部が下記に公開されています。
https://www.nikkei.com/article/DGXMZO36934040V21C18A0L91000/
8月にはAES国際コンファレンスが久しぶりに東京で開かれ、テーマがSpatial Reproductionであったことから可能な限りの最大規模で出展しました。
https://aes-japan.org/wordpress/?page_id=2796
1Fでは、22.2chを超高性能のヘッドトラッキング+HPLで試聴、2Fではスピーカーによる立体音響作品を試聴と2か所に展示し、最先端のイマーシブサウンドとは何かを全力で示すことに。
同じ内容の展示を11月のInterBEEでも行うことで、立体音場生成に必要なシステム設計とは、Ambisonicsとは、実際に作品を体験してもらうことで強く印象付けることが出来たのは、今後のサラウンドの発展に必要な意識改革に繋げられたのではないかと思います。
そして10月は、「ストラディヴァリウス 300年目のキセキ展」でのインスタレーション。
300年前に製作されたストラディバリウス”サンロレンツォ”を無響室で録音し、その音を4つの年代の異なる演奏場所の空間シミュレーションで再現する ”Stradivarius: Timeless Journey” です。
http://qosmo.jp/works/2019/01/22/stradivarius-timeless-journey/
企画制作:Qosmo
他の仕事と違い、この作品にはサウンドアーティストがいません。
エンジニアがテクノロジーで当時のデータを用い可聴化する。
それだけで終えた研究発表とならぬよう、あくまでも作品に仕上げるためのサウンドエンジニアリングを行いました。
トークセッションにも参加させてもらい楽しかったのですが、期間中インタビュー映像が展示会場に終始流れていたのは恥ずかしかった。
この仕事も2018年のハイライトとなりました。
詳細は追って発表される模様。
インスタレーションではマスタリングとも呼べる音の追い込み作業をしている一方で、大勢の人が同時に楽しめるイベントに対し、どこまで自由な空間表現が出来るかは大きな課題と言えます。
アリーナやドーム規模のコンサートではいきなり無理としても、ラブハウスから中規模のホール、シアター程度の空間では積極的にサラウンドを取り入れて行きたいと言う思いがあり、2年前からライブハウスでのサラウンドや、シアターでの舞台音響演出などに積極的に加わってきました。
これらはリハまで実際の現場でテストすることが出来ないので、やはり経験を多く積む他はありません。
そんな中、10月4日MUTEK.JP。11月2日SPACE ECHO DELUXE。
この2つでevala氏のライブをサポート。
ライブでどの様なサポートをするのか?
ライブにもよりますが、基本的にはアーティストとPA卓の間に入り、技術的にもコミュニケーション的にも中継役を担います。
6ch程度のサラウンドであれば、サラウンド対応のDAWを使い音作りはアーティスト側で出来ます。
8chを超えるとフォーマットとして個人では扱いにくくなるので誰でも出来るものでは無くなってしまう。そこで門を狭めてはいけません。
そしてアーティストからのマルチチャンネルを受けて、4ch~6chのスピーカーで再生するために必要な処理やプリミックスなどを行い整理したのちPA卓へ送ります。
今のところライブでは4chから6chで鳴らすのが好ましい。
PA側もサラウンドのライブ経験を持つエンジニアは少ないので、すべてを預けてしまうのは混乱を招き迷惑をかけてしまい、サラウンドライブは大変と言う印象だけが残ってしまう。それもまた良くありません。
アーティストからは柔軟に受け取り、PA側には整理して出す、と言う役割が必要なのです。
スピーカーの種類や配置についても事前にPA側に何がしたいのかを説明して、出来るだけそれに合ったシステムを組んでもらうお願いをします。
一緒にいいライブを作りたいという姿勢は大切。
(ライブに関してはまた別途書きたいと思っています)
10月には松本昭彦氏の東京大学柏の葉キャンパスIPMUでのインスタレーションを手伝い、
http://akihikomatsumoto.com/blog/?p=2276
そして最後に11月のInterBEE。
当初、業界関係者に分かりやすく9ch(5.1.4)などのフォーマットで再生することも考えましたが、AES同様作品の力を信じ、その作品を出来る限り100%伝えるために上層下層8chキューブ配置のスピーカーで再生することにしました。
インスタレーション、ライブ、パブリックビューイング、プラネタ、シアター、アトラクション、ネット配信など、その多くはサラウンドフォーマットに縛られる必要のない環境で作品を聴いてもらうことができます。
そうした作品には作りやすいシステム環境を用意することがより良い作品を生むと言うことを、実際にトップアーティストの立体音響作品を体験してもらう事で示そうと。
結果、多くの人にそのことを知ってもらえたのはとても大きな収穫と言えます。
ゼンハイザーさんのブースでトークセッションに参加させていただいたのも大きい。
ゼンハイザージャパン様ブース【interBEE 2018 スペシャルセッション】
「立体音響の考え方とアンビソニックスについて / VR X MUSIC 音楽制作における VR 音響の可能性
Ambisonicsをどう有効活用するかは、プロの制作においても注目され始めましたし、InterBEE以降立体音場生成への興味は確実に上がりました。
オープンソースとしてリリースされている高次アンビソニックス制作プラグイン”IEM Plug-in Suite”のFacebookグループ「IEM Plug-in Suite日本語情報共有」が立ち上がったのもその一つ。
https://www.facebook.com/groups/360162238120669/
完璧なツールや技術など無いです。
オールインワンのソフトウェアで質の高い作品は作れません。
様々なものを併用して立体音響作品を作るためには、過去のもではなく新しい情報を持ち寄り正しい知識を積み上げていく必要があると思っています。
2019年1月のライブビューイングをはじめ、配信やアトラクションの予定が今後あるので、そこでの経験を新たな情報として共有していきたいと考えています。
0 件のコメント:
コメントを投稿