HDRオーディオ

「HDRオーディオ」の編集履歴(バックアップ)一覧はこちら

HDRオーディオ」(2013/03/08 (金) 08:12:38) の最新版変更点

追加された行は緑色になります。

削除された行は赤色になります。

<p> https://speakerdeck.com/hattori_yoshiaki/hdrodeiowoshi-zhuang-sitemitesi-tutakoto</p> <p>HDRオーディオって、グラフィックでいうとろころのHDRレンダリング</p> <p>http://www.4gamer.net/specials/3de/051116_hl2lc/051116_hl2lc.shtml</p> <p>から来ている発想なのかな?</p> <p>コンピュータで扱える情報として、(波形振幅 × HDRゲイン)<br /> DAの制限、圧縮効率(音質)の面から、波形振幅は<br /> オーディオ素材のレベルのレンジは、デジタル、-1~1の範囲を24bitとか16bitとかの分解能ぎりぎりにしたい気持ちがある。<br /> HDRのゲイン的要素で、音量のダイナミックな差分を別保持、別処理する事で、既存のオーディオーインターフェース内でよりダイナミックな音を扱う事ができるようになる。</p> <p>出力限界時に、オーバーフローするような表現を加える事で、よりリアルな音の再現に繋がると考えられる。</p> <p>リスナーに対して、突然の入力で耳鳴りがしたり、(キーン)しばらく、小さい音が聞こえなかったり。<br /> 耳が慣れると、大きな音が鳴り続けていても平気になったり。(脳内伝達物質制御)<br />  </p> <p>「耳」をシミュレーションするのは面白い。</p> <p> </p> <p>■物理的な音量をキャプチャーしてシミュレーションする</p> <p>音圧レベルでは、ジェット機や大砲の音 >>>> 虫の音。</p> <p>音のサンプリング時に、レベルの変化もサンプリングする事で、リアルなキャプチャー情報が得られ、</p> <p>それを元に、突然大きな音が鳴っても音が割れず、他の音が下がり、相対的に聴感上の自然さを表現する。<br /> 人間の耳が強い刺激から耳を保護する(実際、耳の構造的には物理的に音が遮断したり、伝達物質の抑制がおこる)</p> <p> 強い光を見て「まぶしい」時目を閉じて保護するけど、耳の場合は瞬時に塞げないので、詳しくはhttp://ja.wikipedia.org/wiki/%E8%80%B3 物理的な回避と脳内補完が発生している。</p> <p>■脳内での音のフォーカスをシミュレーションする</p> <p>カクテルパーティ効果の時、<br /> 人の声 >>> 背景音</p> <p>重要な無線の音 >>> 背景音</p> <p>神の声 >>> 背景音</p> <p>つりの時 水面の音 >>> 背景音</p> <p> 人は注目している音に対してフォーカスできる。オーケストラの演奏を聞いて、自分の楽器のパートが聞こえてくるように脳内で処理していたり。脳内で聞こえない音を補完できてしまうらしい。(鳴っていない音を聞いている)<br /> 口の形を読んだりもする。</p> <p>音の定位とかも、脳内で補完されてしまう傾向がある。(前後の区別はつかないけど、画面内にあるか、無いかで補完される)</p> <p> </p>
<p><a href="https://speakerdeck.com/hattori_yoshiaki/hdrodeiowoshi-zhuang-sitemitesi-tutakoto"> https://speakerdeck.com/hattori_yoshiaki/hdrodeiowoshi-zhuang-sitemitesi-tutakoto</a></p> <p>HDRオーディオって、グラフィックでいうとろころのHDRレンダリング</p> <p><a href="http://www.4gamer.net/specials/3de/051116_hl2lc/051116_hl2lc.shtml">http://www.4gamer.net/specials/3de/051116_hl2lc/051116_hl2lc.shtml</a></p> <p>から来ている発想なのかな?</p> <p>コンピュータで扱える情報として、(波形振幅 × HDRゲイン)<br /> DAの制限、圧縮効率(音質)の面から、波形振幅は<br /> オーディオ素材のレベルのレンジは、デジタル、-1~1の範囲を24bitとか16bitとかの分解能ぎりぎりにしたい気持ちがある。</p> <p><br /> HDRのゲイン的要素で、音量のダイナミックな差分を別保持、別処理する事で、既存のオーディオーインターフェース内でよりダイナミックな音を扱う事ができるようになる。</p> <p>出力限界時に、オーバーフローするような表現を加える事で、よりリアルな音の再現に繋がると考えられる。</p> <p>リスナーに対して、突然の入力で耳鳴りがしたり、(キーン)しばらく、小さい音が聞こえなかったり。<br /> 耳が慣れると、大きな音が鳴り続けていても平気になったり。(脳内伝達物質制御)</p> <p>耳が慣れるまでの時間変化と、リアルな音圧を組み合わせる事で、機械的な部分を自動化できるのでは?<br />  </p> <p>「耳」をシミュレーションするのは面白い。</p> <p> </p> <h2><strong>■物理的な音量をキャプチャーしてシミュレーションする</strong></h2> <p>音圧レベルでは、ジェット機や大砲の音 >>>> 虫の音。</p> <p>音のサンプリング時に、レベルの変化もサンプリングする事で、リアルなキャプチャー情報が得られ、</p> <p>それを元に、突然大きな音が鳴っても音が割れず、他の音が下がり、相対的に聴感上の自然さを表現する。<br /> 人間の耳が強い刺激から耳を保護する(実際、耳の構造的には物理的に音が遮断したり、伝達物質の抑制がおこる)</p> <p>強い光を見て「まぶしい」時目を閉じて保護するけど、耳の場合は瞬時に塞げないので、詳しくは<a href="http://ja.wikipedia.org/wiki/%E8%80%B3">http://ja.wikipedia.org/wiki/%E8%80%B3</a> 物理的な回避と脳内補完が発生している。</p> <h2><strong>■脳内での音のフォーカスをシミュレーションする</strong></h2> <p>カクテルパーティ効果の時、<br /> 人の声 >>> 背景音</p> <p>重要な無線の音 >>> 背景音</p> <p>神の声 >>> 背景音</p> <p>つりの時 水面の音 >>> 背景音</p> <p> 人は注目している音に対してフォーカスできる。オーケストラの演奏を聞いて、自分の楽器のパートが聞こえてくるように脳内で処理していたり。脳内で聞こえない音を補完できてしまうらしい。(鳴っていない音を聞いている)<br /> 口の形を読んだりもする。</p> <p>物理的には位相差(耳の位置の差と音速の関係の微妙な誤差)で方向をある程度認知できるけど、<br /> 音の定位とかも、脳内で補完されてしまう傾向がある。(前後の区別はつかないけど、画面内にあるか、無いかで補完される)<br /><br /> 大きな音が近くでなって、目みた情報で前に危険が無い場合、とっさに前に避けようとしたり、<br /> ヘッドフォンで3Dサウンドを聞いて、空間トリップしたりできてしまう。(耳の中のスピーカの位置を聞いているのではなく左右の差を聞いている。)<br />  </p>

表示オプション

横に並べて表示:
変化行の前後のみ表示: