https://speakerdeck.com/hattori_yoshiaki/hdrodeiowoshi-zhuang-sitemitesi-tutakoto
HDRオーディオって、グラフィックでいうとろころのHDRレンダリング
http://www.4gamer.net/specials/3de/051116_hl2lc/051116_hl2lc.shtml
から来ている発想なのかな?
コンピュータで扱える情報として、(波形振幅 × HDRゲイン)
DAの制限、圧縮効率(音質)の面から、波形振幅は
オーディオ素材のレベルのレンジは、デジタル、-1~1の範囲を24bitとか16bitとかの分解能ぎりぎりにしたい気持ちがある。
HDRのゲイン的要素で、音量のダイナミックな差分を別保持、別処理する事で、既存のオーディオーインターフェース内でよりダイナミックな音を扱う事ができるようになる。
出力限界時に、オーバーフローするような表現を加える事で、よりリアルな音の再現に繋がると考えられる。
リスナーに対して、突然の入力で耳鳴りがしたり、(キーン)しばらく、小さい音が聞こえなかったり。
耳が慣れると、大きな音が鳴り続けていても平気になったり。(脳内伝達物質制御)
耳が慣れるまでの時間変化と、リアルな音圧を組み合わせる事で、機械的な部分を自動化できるのでは?
「耳」をシミュレーションするのは面白い。
音圧レベルでは、ジェット機や大砲の音 >>>> 虫の音。
音のサンプリング時に、レベルの変化もサンプリングする事で、リアルなキャプチャー情報が得られ、
それを元に、突然大きな音が鳴っても音が割れず、他の音が下がり、相対的に聴感上の自然さを表現する。
人間の耳が強い刺激から耳を保護する(実際、耳の構造的には物理的に音が遮断したり、伝達物質の抑制がおこる)
強い光を見て「まぶしい」時目を閉じて保護するけど、耳の場合は瞬時に塞げないので、詳しくはhttp://ja.wikipedia.org/wiki/%E8%80%B3 物理的な回避と脳内補完が発生している。
カクテルパーティ効果の時、
人の声 >>> 背景音
重要な無線の音 >>> 背景音
神の声 >>> 背景音
つりの時 水面の音 >>> 背景音
人は注目している音に対してフォーカスできる。オーケストラの演奏を聞いて、自分の楽器のパートが聞こえてくるように脳内で処理していたり。脳内で聞こえない音を補完できてしまうらしい。(鳴っていない音を聞いている)
口の形を読んだりもする。
物理的には位相差(耳の位置の差と音速の関係の微妙な誤差)で方向をある程度認知できるけど、
音の定位とかも、脳内で補完されてしまう傾向がある。(前後の区別はつかないけど、画面内にあるか、無いかで補完される)
大きな音が近くでなって、目みた情報で前に危険が無い場合、とっさに前に避けようとしたり、
ヘッドフォンで3Dサウンドを聞いて、空間トリップしたりできてしまう。(耳の中のスピーカの位置を聞いているのではなく左右の差を聞いている。)