HDRオーディオ

※上記の広告は60日以上更新のないWIKIに表示されています。更新することで広告が下部へ移動します。

https://speakerdeck.com/hattori_yoshiaki/hdrodeiowoshi-zhuang-sitemitesi-tutakoto

HDRオーディオって、グラフィックでいうとろころのHDRレンダリング

http://www.4gamer.net/specials/3de/051116_hl2lc/051116_hl2lc.shtml

から来ている発想なのかな?

コンピュータで扱える情報として、(波形振幅 × HDRゲイン)
DAの制限、圧縮効率(音質)の面から、波形振幅は
オーディオ素材のレベルのレンジは、デジタル、-1~1の範囲を24bitとか16bitとかの分解能ぎりぎりにしたい気持ちがある。


HDRのゲイン的要素で、音量のダイナミックな差分を別保持、別処理する事で、既存のオーディオーインターフェース内でよりダイナミックな音を扱う事ができるようになる。

出力限界時に、オーバーフローするような表現を加える事で、よりリアルな音の再現に繋がると考えられる。

リスナーに対して、突然の入力で耳鳴りがしたり、(キーン)しばらく、小さい音が聞こえなかったり。
耳が慣れると、大きな音が鳴り続けていても平気になったり。(脳内伝達物質制御)

耳が慣れるまでの時間変化と、リアルな音圧を組み合わせる事で、機械的な部分を自動化できるのでは?
 

「耳」をシミュレーションするのは面白い。

 

■物理的な音量をキャプチャーしてシミュレーションする

音圧レベルでは、ジェット機や大砲の音 >>>> 虫の音。

音のサンプリング時に、レベルの変化もサンプリングする事で、リアルなキャプチャー情報が得られ、

それを元に、突然大きな音が鳴っても音が割れず、他の音が下がり、相対的に聴感上の自然さを表現する。
人間の耳が強い刺激から耳を保護する(実際、耳の構造的には物理的に音が遮断したり、伝達物質の抑制がおこる)

強い光を見て「まぶしい」時目を閉じて保護するけど、耳の場合は瞬時に塞げないので、詳しくはhttp://ja.wikipedia.org/wiki/%E8%80%B3 物理的な回避と脳内補完が発生している。

■脳内での音のフォーカスをシミュレーションする

カクテルパーティ効果の時、
人の声 >>> 背景音

重要な無線の音 >>> 背景音

神の声 >>> 背景音

つりの時 水面の音 >>> 背景音

人は注目している音に対してフォーカスできる。オーケストラの演奏を聞いて、自分の楽器のパートが聞こえてくるように脳内で処理していたり。脳内で聞こえない音を補完できてしまうらしい。(鳴っていない音を聞いている)
口の形を読んだりもする。

物理的には位相差(耳の位置の差と音速の関係の微妙な誤差)で方向をある程度認知できるけど、
音の定位とかも、脳内で補完されてしまう傾向がある。(前後の区別はつかないけど、画面内にあるか、無いかで補完される)

大きな音が近くでなって、目みた情報で前に危険が無い場合、とっさに前に避けようとしたり、
ヘッドフォンで3Dサウンドを聞いて、空間トリップしたりできてしまう。(耳の中のスピーカの位置を聞いているのではなく左右の差を聞いている。)