エイベックス、小室哲哉氏をゲストに迎えて「高音質の未来」を討論

音楽録音に32ビット/384kHzの時代が来るという話だ。基本的にはいい話だ。このレベルになると、何回ダビングしても、量子化ノイズなどは、気にならないだろう。とはいうものの、192,000Hzの音を拾えるマイクなど存在していないぞ。どうやって音を録るのかな。

確かに、小室さんがナイトレンジャーのギタリストの音を100KHzでサンプルした話のように、ギターとかのライン取りをそのままサンプルするなら分かるけど。ただ、それって、電気信号から直接、離散化データとしてデジタイズするという話でしょ。

うーん。それだと、本来アナログの基本である、楽器で一度空気を振るわせてその空気の振動を録るという基本を完璧に無視することにならないかな。384kHzとかにサンプルレートを上げて、どんどん、サンプル棒グラフをできるだけアナログ曲線に近づけようとする、そのアナログ感重視の基本的姿勢が、逆に、空気を振動させるという、アナログ音源の本質を無視することになるという自己矛盾を抱えているように感じるぞ。楽器というのは、(人間の声帯も含めて)、自分自身が振動するだけでなく、周囲の空気をそれぞれ独特な形に振動させるからこそ、まさに、芸術的な楽器それぞれの人格を感じさせるような面白みがあるのだけど。それが、アナログの良さなんだけど。 エリッククラプトンなど、アンプシミュレータ使ったライン録りなどせずに、わざわざ、一度、ギターアンプから音を出したのを、マイクで拾ってレコーディングしてるぞ。これがアナログの基本中の基本。

その意味では、32ビット/384kHzというのは、ミキシングやマスタリング用のフォーマットで、録音のフォーマットではないと感じるけど。その段階での処理なら、サブリミナル音源の計算機処理では、64ビット/768kHz相当のデータ処理は、いやでも計算機ブン回してやらざるを得ないのだけど。だから、別に珍しくはないけど。

勿論、384kHzまでサンプルレート上げれば、データ量は極大になるから、こうなると、私の経験では、オブジェクトデータベースを使わざるを得ないよ。米国のゲノム研究などでは、既にその方向に動き始めてるし。勿論、オブジェクトデータベースはうちの製品だけど。エイベックスさん、まいど。。

勿論、ネットポータルからのコンテンツ配信で、ブロードバンドを利用して、こういう超ハイサンプリングをやってみるというのは、良い方向性だと思うし。Appleもそういう動きしているようだし。。。



384kHzクラスのサンプリングだと、レーザー光線で空気分子を直接計測しないと、と思う人もクリック!→
因みに、そういう特許はだしてるけど。