~ワオン・レコード代表 小伏和宏さんに聞く ~

【目次】
0.はじめに
1.機器などの構成~ハードウエア編
2.ソフトウエア編~DAWって何?、編集、マスタリング
3.マイクセッティングのノウハウ、マイクの限界
4.デジタル録音の難しさ
5.オーディオファンへのアドバイスや希望
6.ワオン・レコードCDの特長

0.はじめに

(御田)お忙しいところをありがとうございます。小伏さんについては、こちら(ワオン・レコードHP)やこちら(52school.comのサイト)など見ていただくとして、まずは今回いろいろとお話を伺いたいと思った背景について、整理させていきたいと思います。

 僕はここ2年ほどPCオーディオといわれるPCを中心にデジタル機器やソフトウエアを駆使してCDを再生するスタイルを追求しているのですが、その過程で我々「聞き専」にとってこそ新しいスタイルでも、録音製作業界ではPCを駆使してハードディスクに録音し、それをソフトウエア的に編集加工して最終のCDにまとめていくのがもう20年近く前から当たり前になっていることに気がつきました。

 また、昔はオーディオマニアといえばテレコ(テープレコーダーの略。いまや死語。)の1台も持ってFMや借りたLPを録音したもので、当然録音サイドにも関心を持っていたのですが、今や「コピー」の時代でCDなど音源をブラックボックスのように消費するのが当たり前になっていて、録音側と再生側の交流がほとんど無いという状況になってます

 これは一つには「デジタルだから、データは同じだから、音も同じで変わらない。」という思いこみと、それに乗っかり続けてきた業界の問題でもあるのですが、とにかくアナログプレーヤーやテレコのように見てさわれるものでは無いだけに分かりにくい、というのが実情であろうかと思います。分からないことが多いので、確定的な話は出来ないにしても、状況証拠というか、推測・仮説を交えても整理してみたいと常々思っています。そこで推測・仮説ありありで制作側の本音を聞かせていただきたいというのが第一です。

もう一つは録音について、特にワンポイントやペアマイクでの優秀録音がクラシックなどを中心にたくさん出てきていますし、中ではジャズでも散見されます。
 一方で、ワンポイントで鮮明な音など録れるはずがない、マルチの方がオーディオ的に鮮度の高い音が録れる、という意見もあるわけで、その辺りの考え方を実際のご体験に基づいて聞かせていただきたい、というのが第2の趣旨です。

 まあ、「しゃべり」のこの2人が集まると談論風発、どこへそれるか分かりませんが、よろしくお願いします。


■デジタルだから音は変わらない、って本当ですか?

(御田)のっけから大きな問題で申し訳ありません。「デジタルだから音は変わらない」という説に対して、どのように考えておられるか、概括的にお話を伺いたいのです。勿論、あとでいろいろ補足いただけると思いますので、できれば簡単に総論的にお願いできればありがたいのですが。

(小伏)まずは御田さん、こんな面白い企画の立ち上げおめでとうございます。お手伝いさせていただける事、嬉しく思っています。ありがとうございます。私もわからないことばかりですが一緒に考えて行きましょう。
まずデジタルの音が変わるかどうかですが、ここではS/PDIFやAES/EBUでの伝送時に音が変わると言う様な話ではなくて、PCのバイナリデータとしてコピーしても転送しても内容が同一であるデジタル音声データの音が変わるかどうかについてのことをお尋ねな訳ですね?
結論から言うと、いろいろな場合にやっぱり音が変わって聴こえますね。それはもう歴然と。音が変わらないと言っている方は聞き取れていないか、たまたま幸運だか努力の結果だか音が変わらない機器を使っているかです。同一のデジタルデータをハードディスク、Flashメモリー、DVD-Rなどにコピーして、同じPC+Audio I/Oで再生した場合を考えて下さい。バイナリのデータが同一であることはコピーの時にOSが保証してくれているわけですが、Audio I/Oの出口以降は全く同じ機器で再生しているにも関わらず、異なるストレージから読み出した場合に音が違って聴こえると言うことをしばしば経験します。ストレージが外付けの場合にデジタルのケーブル(FireWire, USBなど)を変えても音が変わりますし、外付けストレージの置き場所を変えても音が変わります。御田さんは外付けストレージのケースにコーリアンを取り付けて音が変わることも経験されていますね。
なぜ音が変わるかなのですが、本当の原因ははっきり言って分かりません。ただ仕事をする上でわからないで放っておいてはコントロールができないので困ってしまいますが、音が変わらないように常時対策しているのかと問われれば、答えはNOです。ただし、音の変り具合をいつもほとんど同じ状態にすると言うことだけは気を使っています。出来上がりの音で勝負していますので、あちこちで音が変わってしまうにしても最終的な出来上がりの音が予想できるようにしておく必要がありますからね。つまりデジタルだからと言っても途中で音が変わるのは当たり前としているわけで、それも含めて音作りしています。アナログの頃とその点ではなんら変らないと言うことですね。だからCD製作時の音源もDDP納品したから安心なんてことは全然ないのですよ! それから、また後でお話ししますけど、デジタルまわりに関しては、アナログ以上にアースがキモになります。きっちりしたアース対策はデジタルの音質にはかなり大きく影響してきます。例えば電源にアイソレーショントランスを使っている人は、2次側の系全体のアースを見直すと目が覚めると思いますよ。油断してるでしょ、ふふふふふ・・・。

(御田)CD-DAの読み取り段階では精度などにはいろいろと問題があり、またクロックの上で展開された音楽PCMデータについてはジッターなどこれまたいろいろとあるので、とりあえずこれらの問題は置いておいて後で取り上げる方が良いかと思います。

 で、読み込んだ後の、それもクロック上で展開されていない静的なコンピュータデータの処理でも音が変わる、と言うことですね。
これについてはパソコン本体やケーブル、果ては電源までもうあらゆる所で変わることは僕も経験済みです。
「本当の原因は分からない」ということですが、「コンピュータだからそんなはずは無いだろう。」と言う声も強いのではないかと思いますので、少しは原因も整理する努力をしないと行けないのかな、と。(笑)

 そこでまずは
1.CDに収録されているバイナリデータはいわば『音をこう再構築しなさいと言う設計図』であって、『仮想的なもの』である。
2.実際に我々が認識できる音にするアナログ変換以前には、ハード・ソフト両面での変換や演算などのデジタル「処理」が必要であり、当然その精度やスピードはハード機器やソフトウエアの性能や機能に依存する。
3.上記の変換や演算などの「処理」ではバイナリそのものが新しい形になる。
4.そして、たとえばデジタルフィルターで一括処理した場合と逐次処理した場合とでは音が違うそうですが、その背景として変換も含む演算処理では「演算誤差」が発生するからでは無いでしょうか?
ということを「ひとつの説明案」として検討してみたいのですが、いかがでしょうか?


(小伏)PCの中をバイナリとして移動している間は中身は変化していないと思っていいはずです。このバイナリのデータを音として聴くにはある手続きを踏んで操作することになりますね。この手続きについては規格が決められていてどんな機械でも同じ手続きを踏むわけですが、その手続きを踏むための個別の操作は機器(またはソフト)毎に必ずしも同じことをしているとは限らないですね。音声本体部分のバイナリはいじっていないとしても、中間生成的なデータの形や持ち方によって、その後の処理において何らかの差を生じさせる可能性が無いとは言えません。それはソフト的にもハード的にもいえます。
例えばこんなことも起こりますよ。同じバイナリを同じHDDにコピーする場合ですが、普段使っているままで他にもデータが入っている状態にコピーした時と、ユーティリティーを使ってHDD内のデータの並びをオプティマイズ(セクタの並びを整理)した状態にコピーした時とでは読み出した時に音が違うと言うことを感じます。これは同じバイナリが記録されているにも関わらず、HDD内での実書き込み場所の散らばり具合が異なるために、読み出し時のヘッドシークの量が変ったり、読み出しバッファの充填率が異なったりすることが原因なのかもしれません。あるいはヘッドシークが頻繁だと、ヘッドを動かすモーターに多くの電流が流れてそれが何か影響しているのかもしれません。まあ、原因ははっきりしませんが、現象としてはやはり音が変わると言うことが現れてきますね。たぶんデジタルフィルタで一括処理と逐次処理で音が異なるのもこれと似たような話かもしれません。演算誤差と言うよりは、何か作業の仕方の違いによる差があるのだろうと思います。

(御田)う~む、難しいものですね。演算誤差の方がわかりやすいなあ、と期待していたんですが、途中の作業の違いですか。(笑)

 それともう一つ、完全に真四角な波形の「パルス信号」は現実にはあり得ないわけで、デジタル回路といっても現実には電子が①有限のスピードで②いろいろ有限の抵抗がある実装回路内をあちこちぶつかりながら通っていく、③「超高周波アナログ回路」である、と言うことも挙げられるかと思います。



 アメリカのWadiaがDACからトラポにクロックを供給する「クロックリンク回路」を採用していますが、その中でクロックそのものの時間的揺らぎである「クロック・ジッター」以外に、いろんな経路を「音声信号+クロック信号」が通ることによる「ジッター汚染(Jitter Contamination)」ということを指摘しています。これはクロックが重畳されている場合ですが、要はクロック信号でなくても現実の回路のいろいろな箇所を経過することでパルス=デジタル信号も損なわれる「伝送誤差」もようなものがあると言えるのでは無いでしょうか?

(小伏)ジッターコンタミのことは私はよくわからないですね。実際普通の機器の中では音声信号とクロック信号が同じ電線路内を重畳して流れると言う状況は無いはずです。PCM信号は一組の音声信号毎にクロックのビットを持っていて、そのビット1つを1クロックと見なして運んでいますから、クロックがくっついて流れているように見えますが、実際流れているのは音声データだけです。読み出しの時に外部クロックとこのビットを比べて見ているだけですね。ノイズとして音声データの電線路にクロックが飛び込んでくると言うのなら別の話ですね。

 ところで御田さんが言う「デジタル回路=超高周波アナログ回路」だと言うのは全く的を射ています。厳密には「超広帯域アナログ回路」です。真四角な矩形波を電送するには、帯域が無限大で、局所的にインピーダンスが揺らぐことなく、無限遠に延びているかもしくは固有インピーダンスに等しい抵抗で終端されている電線路がなければなりません。実際にはそんなものは無いですね。帯域幅は有限です。電線をほんのちょっと曲げただけで線間容量もインダクタンスも変化しますからすぐに局所的なインピーダンスの揺らぎが生じます。だから実際の矩形波は、頭が丸かったりトサカ(リンギング)がついていたり尻尾が付いていたりするわけです。このトサカや尻尾がクロックのタイミングを狂わせるジッターの正体です。もちろん電線路が無限電線路でない(局所的なインピーダンスの揺らぎがある、あるいは終端抵抗が付いていない)ために発生する反射波もジッターの原因です。

 まだ電子1個流れて信号がひとつ送れると言う量子回路からはほど遠く、たくさんの電子の流れによって信号が送られていますので、デジタル信号を送っているとはいえ、電線路は全くアナログな訳です。クロックの精度を上げようとすると、帯域を広げ、局所的なインピーダンスの揺らぎを減らしてやる必要があります。ワードクロックの電線はできるだけ曲げない(無理!)、曲げるとしたらできるだけ均一な半径で滑らかに曲げる(難しい!)と言うところまでいっちゃうでしょうね。もちろんクロックのラインだけでなくディスクドライブの出力のラインも同じ扱いが必要でしょう。また機器の中でも集積化が進んでサイズが小さくなると抵抗は大きくなる(長さは短くなるけど断面積の方が効きますから)、隣の電線との間隔が狭くなって線間容量は増える、周波数が高いので、プリントパターンの曲がり角がインダクタンスとして働く、そのためにほんのちょっとした事が揺らぎの原因になると言うことが起こります。究極的には音のよいプリントパターンや集積回路と言うのがあると言う話になりますね。まあ「伝送誤差」は山のようにあるでしょう。

(御田)おお、だんだんとイメージもわいてきました。以前ジェフ・ロウランドが基板のパターンを直角に曲げると信号スピードに影響して音が悪くなる、という説を唱えていて一部にオカルト扱いされましたが、いまやコンピュータ業界のアートワークでは常識ですからね。
たしかにPCM伝送の場合はデータ信号と各種信号をひとまとめにして、いわば交互に送るという手法ですね。そこから「クロックの再生」をするので、単独にクロック信号が伝送されていることではないと思います。ただ音楽信号を含めて、各経路で汚れがあってそれが最終的にクロックの揺らぎになる、というのはありうるような気がするのですが?


(小伏)このあたりについてはもう少し考察して行く必要があるかもしれませんね。

(御田)さらに、CD読み込みの際に「サーボ電流の変化」が音質に影響を及ぼす、という定番の指摘が前々からあるのですが、実際にどういう経路で影響するのか?という説明がなされていないように思います。
ソニーの「かないまる」さんが、電源を揺らすことによりクロックも揺られる、あるいはジッターがあるとそれが電源に突き刺さる、という「電源経由説」を言っておられたと記憶しています。

 デジタルでは電源の揺れが大きな影響を及ぼすことは前から言われており、その割にコンピュータ周辺機器は安価なスイッチングアダプタに依存したりしています。
電源の影響についてはどのように考えておられますか?


(小伏)電源ゆすれば大地震ですからみんな揺れちゃいますね。それは当然です。できるだけ揺れない電源を作ることが大切です。ただ、スイッチングだからダメでリニア電源だから良いとは私は思ってはいません。どちらでもちゃんとした電源を作れば大丈夫です。リニアの方が音がいいと主張する方もあると思いますが、今の世の中でリニア電源を作るとなるとそれなりに物量突っ込んでいるはずですから良くて当たり前でしょう。それと同じ情熱でもって物量を突っ込んでいただいたらスイッチングでもよい電源は作れると思います。
 ただしここでもキモは超広帯域と言うことです。電源にはパワーを供給すると言うだけでなく、「負荷における反作用を吸収する」と言う重要な役割があります。デジタル信号を扱う以上、反作用の周波数も高いことになります。電源には高い周波数に至るまで内部抵抗が低いことが求められますね。たぶん電源が揺れる時に内部抵抗が揺れるようなら反作用の処理能力が変化しますから音の変化が発生するでしょう。ディスクドライブのサーボ電流の変化が音の変化を伴う件はよくわかりませんが、たぶん電源の応答性の問題でしょうね。サーボ回路は動作が早いので、電源が追いつかずに揺すられると言うことがあるのかもしれません。

(御田)なるほど、電源は「負荷における反作用を吸収する」ために「超広帯域」にわたり「低内部抵抗」でなければならない、というのは深い話ですね。

 他に音質が変化する理由として考えられるものは何かありますでしょうか?

(小伏)これは全く経験値としてのお話しで確証があるわけではないことを先にお断りしておきますが、デジタルでの音質変化を少なくする場合に、電磁波ノイズ対策が効き目があるということです。ドライブのコネクタ部やリボンケーブル、電源まわり、あるいはPC全体を適切にシールドしてアースに落とす(いろいろノウハウがある上にショート事故も起こす可能性があるので生兵法はお勧めしません)と、音質変化が減ると言うか落ち着いてきます。音質的には良い方へ動きます。リボンケーブルにはフェライトコアがつけてあったりはしますが、更にコネクタまわりに金属メッシュや金属フィルムを貼ってシールドすると効果があります。どう作用しているのかはよくわかりませんが、私はおそらく何らかの形で高い周波数の電磁波ノイズが悪さをしているだろうと思います。外部ストレージの置き場所変えるだけで音が変わるのはたぶん飛び込むノイズが変るせいです。それとコーリアンのケースで音が良くなるのも、コーリアンは比較的比誘電率の高い材料なので、電磁波ノイズをコーリアン表面に逃がせられているのかもしれません。重さだけが効いているのなら読み終えたオーディオ雑誌なんかを乗っけとくだけでいいはずですからね。

(御田)おお、これはテープやらシートやら経験あるのでよく分かります。!

 で、具体的に「ふふふふふ・・・」の「アース対策」なんですが。(笑)
主にどういう点に気をつければいいのでしょう?
僕はご存じの通り15個のアイソレーショントランスを映像機器を含めて使っているのですが、その場合も含めて教えてください。


(小伏)複数のアイソレーショントランスを使っている時に注意しないといけないのは、アース対策が不十分な場合、2次側の機器間のアース電位差の問題はトランスの2次側でバランスがとられて回避されているのですが、実は系全体がとんでもないところへ行っているかもしれないと言うことです。これは想像ですが、その場合、建物の壁や床などに対してある電位を持つために、本来アースである壁や床との間でノイズや信号のやり取りが発生する可能性があります。ノイズが入るだけでなくゆすられもすると言うことです。2次側に飛び込んだノイズは電源の2次側である程度吸収されますし、揺らぎも系全体が揺らげば相対的にはじっとしているので、2次側にちゃんとしたアースが無くてもノイズが無くなってうまく行っているように見えるかもしれません。でも実は見えなくなっているだけで現象として必ずしも良くなっているとは限らないと言うことなんです。極端な場合、1次側から見てると「2次側の系全部がハムって60Hzで震えてるよ」なんてことが無いとも言えない。

 実際に録音現場で、2次側をアースに落とすと音質が改善されました。ワオンレコードのCDで言うと「オランダバロックの愉悦(WAONCD-040)~写真左」「バルサンティ/リコーダーソナタ(WAONCD-080)~写真右」とが、同じ会場で同じ演奏者で同じ系で、アースをとる前と後になっています。「オランダバロックの愉悦」の方が一聴するとクリアな感じがするのですが良く聞くとガサガサしています。アースをつないだ「バルサンティ」の方が落ち着いたリアルな音です。このセッションでは舞台上のマイクアンプからコントロールルームの機器まですべてを電源ラインのシールドを使ってアースを共通化すると言うことをしています。距離にして30mくらいあるので、この方法が一番合理的です。アイソレーショントランスの1次側と2次側はホールの同じアース点からアースをとってあります。WAONCD-070以降の録音では全部このやり方に変えました。実はWAONCD-060でも同じことをしたのですが、ホールスタッフが敷いてくれた電源の延長ラインのアースにアースをとったら、そのラインがアースに配線されていないことにセッション終了後気がついて、アチャー!でした。
 ところでそんなことしてアースループにならないか心配されるかもしれませんが、アースが共通化されることで、機器間のアース電位差が無くなるので、アースループになってもノイズは出ません。

 実際に皆さんがされるなら、とにかく2次側の機器のアースをみんなつないで共通にする(電源の極性を揃えるなどの基本は先に押えておいて下さい)。それをしっかりしたアースに落とす。スター配線が良いかバス配線が良いかは系全体の配置などにもよるので試してみて下さい。バス配線の場合、デジタルのノイズの周波数が高いことを考えるとア-スバスには電線よりは銅のリボンを使った方が良いと思います(ワカメみたいにビロビロにしちゃダメですよインダクタンスが増えるので)が、これも試してみて下さい。さっきも言ったようにちゃんとアースが共通化できればアースループの心配はいりません。
 そうそう、集合住宅にお住まいの方は、勝手に鉄骨にアースとったりすると問題になりますから、ちゃんと大人の判断でやって下さいね。もし壁コンセントがアース付なのでしたら、アースピンだけ配線した3pプラグをコンセントにさしてアースラインを引き出してもいいですよ。庭付き一戸建てにお住まいの方は、電気工事会社に頼んで、長さ1m位のアース棒を2,3本庭に打ち込んでもらえばよいアースが取れます(打ち方にノウハウがあるのでプロに頼んで下さい)。

 とまあ、こんなところですねぇ。御田さんありがとうございました。あれ? やっと「はじめに」が終わっただけ??

(御田)すみません、やっぱり中身が濃くなって長くなりましたね。(笑)

 う~む、アイソレートしてやればアースは不要、と安心していたのですがジッターのように揺らいできました。でもちゃんとしたアースが我が家のマンションでは....というのは切りがないので置いておくことにして、次にまいりましょうね。



1.機器などの構成~ハードウエア編

(御田)ちょっと抽象的な話が続きましたので、頭をクールダウンするためにも具体的な方に戻りたいと思います。(笑)
先ほど話に出たワオンレコードのCD制作用などの録音機器について、お話しいただけますでしょうか?
ハード機器の方からお願いしたいと思います。
まずはマイクでしょうか?マイクの使い分けも含めてお願いいたします。


(小伏)頭がクールダウンするとはとっても思えませんが...(笑)次に行きましょう。
 マイクに関しては、業界の標準的なものがいくつかあります。B&K(現DPA)の4006や4003、ノイマンのU87(現行品としてはU87Ai)やM50(同M150tube)、ショップスのモジュラータイプなどですね。貧乏制作会社のワオンレコードとしては、これらはひとつも所有していません(爆)。だってこれらはどこの機材レンタル会社でも、あるいは同業他社でも持っていて、必要な時にはいつでも借りることができますからね。これらのマイクは業界標準になるだけのちゃんとした音質を持っていることは間違いありません。ただ、私としては、これらのマイクのどれも(ショップスのCMC6xtプリ部を除いて)帯域の上限が20kHzどまりか20kHzすら怪しいと言うことが気になっています。ハイサンプリングPCMやDSD等の新しい録音フォーマットによって、器の方の帯域は伸びて行っているのに、入口のマイクの帯域幅が旧態依然としていて良いのだろうかということですね。相変わらずこれらのマイクは良く使われているのですが、最近ヨーロッパの方ではノイマンのKM130やKM143といったもの、ショップスのCMC6xtプリ部をベースにしたセットなどの帯域の広いマイクが流行り出しています。最近ゼンハイザーが出した、上が60kHzまで伸びているMKH8000シリーズも注目すべきマイクでしょう。

 ちょっとマイクの基本に注目してみると、マイクには無指向性(周囲の音を方向の選択性なく集音)と指向性(集音に方向の選択性有り)のものがあります。これらの使い分けに関しては、アマチュア録音家向けの書物には、周囲の音をまんべんなく拾う時は無指向性、狙った音源の音だけを拾う時は指向性を使うと言うふうに書かれているものが多いように思います。でもこれってほんの一面を見ているだけで、ワンポイントでは無指向性、マルチマイクでは指向性を使うと言う誤解を生んでいるかもしれませんね。実は、無指向性マイクの持つ特性と、指向性マイクの持つ特性をもっと積極的に使い分けています。無指向性のマイクは、周囲の<音圧(気圧)>を単純に電圧に変換しています。しかもどの向きから来た音も同相でです(圧力なんで向きを区別しようがない)。基準の気圧より高ければプラス、低ければマイナスの信号を出すと言うことです。構造的には密閉箱のスピーカーと同じです。一方、指向性のマイクは双指向と単一指向(カーディオイド)があります。双指向は無指向性マイクの背面を完全に開放したもので「8の字」の特性を持ちます。単一指向は、無指向と双指向の振動板2つを向かい合わせに置いて逆相で接続したり、無指向のバックチャンバーに小さな穴をあけて振動板の背面に少しだけ音を漏らすようにします(逆相成分でブレーキを掛けるとも言えるし、8の字の片方を聞こえにくくしているとも言えます)。前後の振動板の合成比もしくはバックチャンバーの音の漏らす量を変えることで、単一指向(カーディオイド)、広単一指向(ワイドカーディオイド)、狭単一指向(ハイパーカーディオイド)などのバリエーションがあります。無指向性に対してこちらは合成波形の変化すなわち<音圧の変化>を電圧に変換しています。無指向性は周囲の圧力を感じているだけですので、その特性は基本的に周波数に依存しません(機械的な限界はあります)。つまり周囲の状況にあまり影響されることなく低い音から高い音までフラットに集音できます。これに対し指向性のあるマイクは、長い波長の音(低い音)は前から来た音が振動板の後へ回り込んでしまうので、結果的に逆位相で打ち消されて感度を失います。一方短い波長(高い音)は相対的に振動板径が大きく見えるので選択性が有効に働いて、高い音ほど指向性が鋭くなります。この結果、指向性のマイクは低い音には感度が低く、高い音では感度が高いと言うことになります。更に厄介なことがあって、音源がマイクに近づくと、マイクの振動板より音源の方が大きい場合に(たいていはそのはず)、低音の回り込みがマイクの後よりも音源側に行ってしまい、低音の指向性が良くなるために低音の感度が上がると言う現象があります。「近接効果」と言うのですが、指向性のマイクを音源に近づけると低音がどんどん膨らんでしまいます(指向性マイクに近づいて歌うとどんどん低い声が強調されます)。この現象は無指向性のマイクでは起こりません。こういったことをふまえて、低い音を含む広い音域の音を録る時や、音源にごく近づきながらもフラットな音を録る必要がある場合は無指向性マイクを使います。スポットマイクとして無指向性マイクを使うことがあると言うことですね。一方で指向性のマイクはマイクの向きに対して感度が連続的に変化しますので、ワンポイントセッティングで収録した時に、到達時間差(位相差)だけでなく、音量差でも音源の方向を察知できるので、コンパクトなセッティングでクリアな立体音像を得ることができます。低音が減ることを除けば、指向性マイクでワンポイント録音すると、わりと良い結果を得やすいと言えます。細かい使いこなしはマイクセッティングのところででもご説明することにしましょう。
 もののついでなので更に詳しく説明しますが、無指向性マイクには特性がフラットなものの他に、高域補償タイプと言って、高域で少しだけ指向性を持たせることで、数kHz以上の感度を数dB持ち上げてあるものがあります(位相合成でなく機械的構造で実現していることが多いです)。ホールなどの響く場所(拡散音場)では、音源から離れると数kHzから上の音が周波数が上がるにつれ一様に減衰します。ですのでフラットな特性のマイクで音源から離れて収録するとハイ落ちになります(生のコンサートがハイ落ちに聞こえると言うのはそれで正しいのです)。そこで高域補償タイプを使うと、比較的フラットに録れると言うわけです。B&K(DPA)4006や4003は振動板前のグリッドを取り換えることでこのどちらにも切り替えられるようになっています。ショップスのモジュラータイプのマイクカプセルではではMK2がフラット、MK2H, MK2S, MK3が高域補償タイプです。CMC6プリ部との組み合わせではCMC62, CMC62H...等と書いてあるものです。こういったことで、音源の近くで使う時はフラットなもの、離れて録る時は高域補償タイプを使うことになります。指向性のマイクは先にご説明したようにもともと高域補償に近い特性を持っていることが多いです。

 無指向性でも指向性でも、振動板の大きさには直径6mm位から30mm位まで様々なものがあります。直径の小さなものほど高域が伸び、均質な無指向性と高耐音圧が得られますが、自己雑音は多めです。直径の大きなものは高域に限界があり、高域では完全な無指向性でなくなりますが、繊細で高感度で低雑音です。MBHOのモジュラータイプは振動板径の異なるマイクカプセルが用意されています。このことも使いこなしの一つのポイントとなってきます。

 これはちょっとおまけのお話しです。レコード会社毎にお好みのマイクと言うのがあるのですが、ちょっと違っているのがPhilipsの録音チームの使っていたマイクです。彼らは録音機材のほとんどを手作りしていました。マイクもいわゆるメーカー製そのままではありません。私が現物を見たのはノイマンのKM130とショップスのCMC52Sをベースに、駆動電圧を160~180Vという高電圧動作に改造したもので、マイクの中の回路も大部分変更されていました。よい音するはずですよね。当時の録音チームはなくなってしまいましたが、これらの機材は所属していたエンジニア達と共に各地へ散って今も活躍しているはずです。

 それから、このところ、ノイマン、ショップス、ゼンハイザーから次々とデジタルマイクがリリースされました。マイクから直にデジタル信号が出てくると言うものです。マイクカプセルの直後にADCのチップがあって、アナログの回路がほとんどありません。ダイナミックレンジも充分に確保されていて実用可能ですが、クラシックの録音で使われるのはまだこれからと言う感じです。

 ワオンレコードで所有しているマイクは、帯域が広く、低雑音で近代的なマイクを中心に、上記のような様々な特性の利用に対応できるもの、なおかつ他所で借りにくいものを揃えています。いくつかをご紹介するとこんなところです。
Earthworks QTC-1(現行のQTC40と同一):小径振動板、広帯域フラット特性の無指向性、パルス応答が早い
MBHOモジュラータイプMBP604プリ部ベース:標準径~大口径、広帯域フラット~高域補償~強高域補償、無指向性~広指向性(持ってませんが単一指向や狭指向性も有り)
Microtech Gefell M300:標準径、標準帯域の単一指向性
Neumann M147tube:大口径、標準帯域の単一指向性(高域では狭指向性に近い)
などです。ワオンレーベルのCDではブクレットの最後のページにどのマイクをどんなセッティングで使ったかは必ず書いていますので見てみてください。ホームページの録音データにも書いてあります。


(御田)これだけ系統だったマイクの話は始めて聞きました。B&K絶対というわけでも、無指向性ベスト!というわけでも無いのですね。勉強になります。
 じゃあ、次はマイクプリアンプですね。


(小伏)世の中にマイクプリは山ほどありますが、大部分は意図的なカラーレーションを伴ったもので、マルチマイクで収録した時にも目立ちやすいことを主眼においてあります。しかしワンポイントやそれに近いセッティングでクラシックやジャズ、民族音楽などを収録する場合は、できるだけカラーレーションの少ないもの、なおかつ音楽的であるものが求められます。そう言った選択肢の中で最右翼はMillennia Media社のHV-3ファミリーでしょうね。実際クラシックやジャズの録音では最も多く用いられているのではないでしょうか。これ以外ではPrism Sound社のもの、Avalon Design社のもの、Grace Design社のもの、Studer社のもの、Lavry Engineering(旧dB-Technology)社のもの、Tube-Tech社のものなどをよく見かけますね。さらにいくつかのメーカーのものがありますが、そこそこの音質のものであればあとはエンジニアの腕次第なところもあるので、この機種が絶対いい、これはダメと言うようなことはないです。それぞれのマイクプリの音の特徴をうまく生かしてやることですね。ワオンレコードではMillennia Media社のものとGrace Design社のものを複数台所有しています。

 マルチマイクの場合にはマイクプリの他にミキサーと言うのも必要ですね。この分野の、特に日本の業界ではまるで何かにとり憑かれたようにStuderの169、269や961を使っています。でも海外、特にヨーロッパではもはやあまり使われなくなってきていて、Philipsは自前のアナログミキサーでしたし、スウェーデンのBIS のクルー達と何度かご一緒した時は見るからに手作り!のアナログミキサーを使っていたこともあるし、StuderのADC付プリの出力をYAMAHA のデジタルミキサーに入れていたこともありました。またDAWの内部ミキサーで済ませているところもあると思いますよ。最近性能がすごく上がりましたからね。ワオンレコードは貧乏なのでミキサー持ってないからいつもマイク2本なんだと思われているかもしれませんが(爆)、アナログミキサーとしてCurrent社のCSP162というのを使っています。ミキサーと言うよりはサミングアンプに近いものですが、Studerよりも音の鮮度の点ではずっと勝っていると思います。デジタルのミキサーとしてはMetric Halo社のmobile I/Oのミキサー部を使っています。なんだそんな安物かと思われるかもしれませんが、ミキシングバス幅が80bit もあるデジタルミキサーは他にありませんし、実際、音はなかなかなものです。今のところワオンレーベルのCDでこれらの出番はありませんが、自費出版CDや演奏会の出張録音ではいつも活躍していますし、ワオンレーベルのCDでもそのうち使う機会があるだろうと思います。これもジャケットの最後のページに書くことになりますから見て下さいね。

 あと、マイクケーブルと言うかラインケーブルがありますね。結構音が変わってきます。ただ、これはエンジニア毎に千差万別で、どの線がどうのこうのと言うお話しをしていると日が暮れちゃう(もうとっくに暮れてる....笑)。単線のより線使う人もいれば、水道のホースかと思うような太いのを使う人もいるし、全然無頓着な人もいるし。ただ、どの人もたいてい、マイクのすぐ後のラインは数mどまりで、そこにマイクプリを入れてからレコーダーやミキサーまで長く引っ張ります。BISがStuderのADC付プリを使っていた時はそれを舞台近くにおいて、mogamiのデジタルマルチケーブル(AES/EBU)でコントロール室のミキサーまで引っ張ってました。デジタル録音の場合はそういうこともありですね。まだ録音の現場では見たことないですが、ADCしてからさらにLANで引っ張ると言う機械もありますね。何を隠そうウチは安い線で済ませてます。マイクケーブルって結構消耗品なんで、30m×2本でウン十万円とか言われたんじゃ会社つぶれちゃう。ウチがこだわってるのは、長く引っ張っても高域が落ちにくいように線間容量の小さなものを選ぶということですね。ノイズ対策で4芯シールドを使う人がいるけど、あれは線間容量もインダクタンスも多い。PAじゃないからそんなのは使いません。最近良く使っているのはmogami 2549。これも4芯の2534が人気ですが、長く引っ張る時は2549の方が音がきれい。その他ではBelden 8412。古い設計の線ですが、きちんとドライブしてやると結構ニュートラル。ややコントラスト高目な感じです。要は狙った音が録れるかどうかと言うことなんで、マイクセッティングなどを含めてエンジニアの腕次第ですね。


(御田)う~む使いこなしの腕の方が機材より重要というのは深い話ですね。では次は、ADコンバーターとPC、いや小伏さんの場合はMacですか?

(小伏)ADC ですが、ウチは基本がDSDレコーディングなのでDSDに対応したADCですね。正直なところ今はレコーダーに付いているもので済ませていますね。TASCAMのDV-RA1000に付いているDSDのADCそのままです。ヨーロッパのチームもしばしばそのようにしてレコーダーについているADCで済ませていました。実はここがデジタル録音の特徴のひとつと言えるかも知れません。アナログ録音の時代は、本当に物量と資金を突っ込まないと商業レベルの音質を得にくかったのですが、デジタルの世界では、結構安いものでそこそこのレベルに到達できます。もちろん高級なものの方が良いのですが、落差はうんと少ないですね。これだからこそウチをはじめヨーロッパの小さなプロジェクトも成立し得るのです。実際にDV-RA1000の内蔵ADCと、たとえばdcs905との音質差はマイクセッティングの工夫でなんとかカバーできる程度の差と言っても過言ではありません。emmLabsのでも同様。Pyramixでご指定のDigital Audio Denmark AX24等もありますが、今まで使ったADCでこれは価値有りと思ったのはオランダのGrimm AudioのAD-1くらいですね。それでもなくて済ませられる(笑)。
 むしろキモはADCでなくDDCの方なんです。機種と言うよりは使いこなしが重要です。DSDやハイサンプリングPCMを最終的にCDに落とすにしてもDVDに落とすにしてもDDCが必須です。フォーマットを変換する際に「何次のどんなノイズシェープをかける」のか、「ディザはかける」か「かけない」か、LPFは「なだらか」にするか「急峻」にするかその「中間」にするか等々、設定すべき項目が結構あります。これらがある程度自由に設定でき、しかも音のよいエンジンでもって処理されるようなDDCがないと、それまでの努力が水の泡です。DDCの処理における音質変化は本当に大きいです。ワオンレコードではdcs974を使っていますが、なくてはならないものです。ただ、dcsがプロ機の製造を中止してしまったので何か代わりも探さなくてはなりませんが、DAW内蔵のものでも優れたものが徐々に出始めています。独立したアプリとしてもWeiss社のSARACONなどがあります。これらの使いこなしが大切です。もしCDをRIPしてサンプリングコンバートして再生しようと言う場合は、このプロセスでずいぶん音が変わると言うことを覚えておかれると良いと思いますよ。

 パソコンの方ですが、ウチはMacです。Macintosh Plusからのおつきあいなのでもう四半世紀くらいになりますね。Macintosh SEの時代にはMOTUのinterfaceをつけて、いまのDigital Performerの前身となったソフトを使っていました。20年くらい経つのでしょうか? 本格的にDAWとして使い始めたのはPowerMacintosh 8500でした。最初はベアフットのこれにdigidesign社のカードを突っ込んで、48kHz, 24bitで仕事を始めました。
その後、CPUをG3に換装しましたが、「月の光に魅せられて」(WAONCD-050)~写真左の原盤(LUCE-1010)はこれで作っています。さらにIDEのHDDを内蔵して作業効率をアップ、RMEのカードに入れ替え、96kHzサンプリングで作業できるようにしました。

 ちょうどこれがワオンレコード設立の頃ですね。「クルムフォルツ」(WAONCD-010)~ハープとフルート・写真右のジャケットにWaon DAW mk IIと書いてあるものの正体です。さらにこれにFireWireを実装して外部に大容量HDDをつなぎ、RME社の新しいカードに入れ替えてワードクロックの同期ができるようにしました。これが「J.S.バッハ フルートソナタ全集」(WAONCD-020/021)~写真下から出てくるWaon DAW mkII bです。しばらくして、マザーボードが死んでゴミ同然で捨てられていたPowerMacintosh FW800/1GHzシングルCPUをもらってきて、神戸のジャンク屋で見つけたCPU無しの同機のマザーボードを突っ込み、Gigadesign社のG4/1.4GHz Dual CPUを積み、パイオニアのマルチDVDドライブDVR-112DとPlextorの名機Premium II CD-Rドライブを載せ、Lynx社のAES16カードを実装して192kHz, 32bit, 16chのハイパワー編集機を作りました。これが「オランダバロックの愉悦」(WAONCD-040)以降で出てくるWaon DAW mk IIIです。これ以外にはMacBook(黒)+Metric Halo mobile I/O 2882+DSPと言うのがあります。Waon DAWなんたらと言う名前はついていませんが「nigra sum(ニグラ・スム=私は黒い)」というニックネームがついています。CDの最終マスタリング工程は、Waon DAW mk IIIで96kHz, 24bitマスターを再生してdcs974経由でこのnigra sumにCDフォーマットで入れてしています。書き出しはPlextorの名を確固たるものとした原器、PX-W1210をUSB2でつないで等速書き込みです。蛇足ですがジャケットのデザインなどにはPowerMacintosh G5 late 2005 2GHzシングルCPUを使っています。




「月の光に魅せられて」摩寿意英子(グランドハープ)                     

 「クルムフォルツ/ハープの為の6つのソナタ 木管フルートのオブリガート付き」摩寿意英子(ナデルマン・ハープ)、太田里子(フルート)
【ナデルマン・ハープ 1770頃 オリジナル】


  (フルート:福永吉宏、チェンバロ:小林道夫)

(御田)おお、ようやくWAON DAWの正体が、というか舞台裏が見えてきました。「ニグラ・スム」<nigra sum>なんて「私は黒い、しかし美しい」という有名なミサ曲があるくらいですから、黒Macと引っかけた古楽的しゃれですね。
 でも書き出しはきっとSCSIでやってるのかな、などと思っていたらUSBなのは等倍で焼くというのがミソなんですね。ところでCDをプレス工場に出す時はCDドライブを使ってCD-Rですか?それともDDPなどのファイルで?


(小伏)本当はSCSIを使いたいんですが、MacOS XがSCSIをサポートしなくなったので仕方なくUSBなんです。でも幸いなことにPX-W1210にはSCSI-I/FのものとIDE-I/Fのものがあって、IDEの方がUSB接続のペリフェラルボックスに入れられるのでなんとかなっているわけです。

 工場への納品ですが、DDPファイルでの納品の準備は整えてあります。でも現在は相変わらずCD-R納品です。はじめにお話ししたように同一バイナリでも音が変わると言うことがあるので、DDPファイルだから大丈夫と言うことは無いのです。音が変わる可能性が大いにあるんです。永い目で互換性を考えると早くDDPに移行した方が良いとは思いますが、現状においては今までに永く積み重ねのあるCD-R納品の方が出来上がりが確実に予測できると言うメリットがあって、結局移行できずにいます。業界としてもDDPを使っているのは中堅レーベル以上ですね。今どきのドライブで、CD-Rの読み取りエラーはほとんど皆無といえますので、DDPと音質面で優劣は着け難いと思います。もしCD-Rに問題があると言うことを考えるならばそれは書き込みのときの問題ですね。DDPなら高速書き込みでも内容が同一であることは保証されますが、CD-DAとして書き込む場合は等速で書き込みたいです。しかし等速で書けるドライブはどんどん無くなるし、メディアも手に入らなくなってくるし、そう遠くないうちにCD-R納品はしたくてもできなくなるでしょうね。ライターのPlextor PX-W1210は2台予備をストックしていますが、指定メディアである三井GOLD masterはとうの昔に生産が完了していて、私のところの在庫もあと100枚ちょっとです。これを使い切ってもPlextor Premium II +太陽誘電のmaster用の2倍速書き込みでしばらくは行けますが、もう先は見えていますね。DDPファイルで納品するとなればファイルサイズからしてファイル一式をDVD-Rに書き出して納品することになるでしょう。AIT等を使うよりずっとお安いですからね。


(御田)え~とAITって何でしょう?

(小伏)AITと言うのはコンピュータのバックアップテープの規格で、DDPファアイルの納品ではよく使われるんです。DDPファイルを収めるメディアは特に指定はないので何でもいいのですが、SACDのデータの納品にはAITがご指定なので、結局みなさんこれを使っているのかな。容量はAIT-1と言う規格で35GB、最新規格のAIT-4で200GBだったと思います。テープドライブは50万円位しますね。DVD用のDDPファイルやSACDだとこのくらいの容量が必要ですが、CDだと2GBもあればいいです。DVD-Rで充分ですね。

(御田)DAC、アンプ、スピーカーなどについてはどのような性能や機能が要求されるのでしょう?それとヘッドフォンとの使い分けについてもお願いします。

(小伏)DAC はねぇ。きっと私より再生する皆さんの方が良いのを持っているでしょう(泣き笑)。ワオンレコードでは録音セッションの現場で音をディスクに書き込んで以降CDとして出版されるまでの全工程一貫してすべてデジタルドメイン処理ですので、DACはモニターにしか使わないのですよ。微妙な音質変化や細かいノイズや歪みを正確に表現できれば、とりあえず何でも良いと言う感じです。今はGrace design社のm902Bというのを使っています。DAC+プリアンプ+ヘッドフォンアンプになっているものです。仕事としてはこれで充分ですね。CD制作にアナログドメインが介在するところ、つまりミキシングをアナログミキサーやアナログサミングアンプを使ったり、マスタリングでアナログアウトボード(イコライザーやリミッターなど)を使ったりする制作現場ではやはりemmLabsやdcs、Apogee、Prism Soundと言ったところのものが使われます。これの音質が最終出来上がりに関わってきますからね。でも、DAWの性能と音質が向上する中、デジタルドメインでの作業比率は高くなる傾向です。アナログサミングアンプを流行らせた張本人のProToolsを使っている人たちですら、最近では内部バウンス(ProToolsの中のミキサーでミキシングしてデジタルファイルとして出力すること)をする人が増えてきています。録音制作現場におけるDACの役割と言うのは少し変ってきているかもしれませんね。

 録音制作現場におけるモニター用アンプとスピーカーについては究極的なところアナログの頃となんら変らないと思います。だってこれらを通る時にはアナログ信号になっていますからね。やはり付帯音がなく、高分解能で音場再現力の高いものが要求されます。値段的にはどんどん安くなった録音機材に比べるとずいぶんお金がかかる部分です。貧乏制作会社としては市販品には手が出ないのでなんとかしなきゃなんない(涙)。アンプは古いのを拾ってきてメンテして生返らせて使っています。今は、三洋が輸入していた時代のBryston 4BとTEACが入れていたHaflerのP3000を使っています。どちらも十数年以上前のですね。特にBryston 4Bは、細かいニュアンスも出してくるしスピードも速いし、力もあってモニター用としてとても重宝です。ただ、セッションに持って行くのには重くて電気喰いなので、以前は代わりにFlying Moleのデジタルアンプを持って行ってました。これも悪くは無かったのですが、今は運搬用の車がちょっと大きくなったのでHaflerのP3000を持って行ってます。Brystonより音はやや軽量級でカサカサしてもいますが、Flying Moleより細かいところがよく見えて生真面目な表現をするのでこれでいいかなと言う感じです。
 さてモニタースピーカーの方ですが、これは10年落ちを買ってきてと言うわけにも行かないので、もう自分で作っちゃいました。これについてはワオンレコードのホームページに載せてある「Waon Recording Monitor」(写真左)ですが、結構人気のページで毎週何人もの方が見て下さっているようです。海外から売ってくれってメールが来たこともある(笑)。レコーディングに持って行っているのはこのWaon Recording Monitorで、、Dynaudio 15W7504 / ESS Great Heil Driverの2wayで、ネットワークも自作の3次のButterworthです。モニター用のスピーカーは「奇数次のネットワーク回路でユニットを正相でつなぐこと」と言うのが持論です。そうすることで全域に渡って位相がフラットになるからなんです。音場再生能力は非常に高くなります。偶数次のネットワークではどうつないでもクロス点で位相が回転するし、奇数次も逆相にすると位相がひっくり返ります。ただし奇数次で正相と言うのはひとつ難点があって、低音用と高音用の2つのスピーカーの前後配置がミリ単位で限定されること。少しずれるだけでクロス点周辺にピークやディップができてしまいます。当然上下方向のサービスエリアも狭くなります。だから市販のものにはこのタイプが少ないんです。モニター用のスピーカーと言うときつい音がするように思われるかもしれませんが、これはそんなことはなくて、確かに解像度が高くて音場の見通しがすこぶるいいですが、普通に楽しく聴けますよ。
編集用につかっている「Waon Reference Monitor」(写真右)というのも同じ考え方で、こちらは1次のネットワークの正相接続で構成しています。空間での音の混じり具合を上手に表現できるスピーカーです。詳しくはホームページの方を見て下さいね。各CDのレコーディングデータのところにリンクがあります。

 さて、ヘッドフォンとの使い分けですね。録音セッションでも編集でもヘッドフォンは併用しています。でも、以前に比べてその役割が微妙に変化してきています。スピーカーでは聞き取りにくい細かなノイズや歪み、マスクされがちなアンサンブル中の小さな音の楽器のモニター等にヘッドフォンは欠かせないものです。それは今でも変りはありません。でも、ヘッドフォンでは音場再現の確認は厳密には無理です。左右のスピーカーから出た音があちこちで反射と拡散を繰り返して、よく混ざった状態で耳に届くことで、耳は方向性のある立体感を感じることができます。でもヘッドフォンでは左右のスピーカーから出た音がそのまま左右の耳に入ってしまうために、頭の中で左右に並んだ音が聞こえるだけで音場再現は難しかったんです。ですのでヘッドフォンモニターで全部済ませることができず、必ずスピーカーでの再生が必要でした。ところがデジタルの世界ですと、シグナルプロセッサを使って、空間での反射と拡散をシミュレートした信号をヘッドフォンに送ることで、スピーカーと同様な方向性のある音場再現ができるようになります。私の使っているGrace design m902Bでもそのような機能があって、ヘッドフォンだけで結構いろんなことがこなせるようになってきています。このことはいつでもどこでも編集作業が出来てしまうことを物語っていて、PCとAudio interfaceとヘッドフォンがあれば、アーティストのお家へ行って聞いてもらいながら仕上げることができたり、移動の途中やホテルの部屋でもどんどん仕事が進められるわけで、制作のスタイルはずいぶん変ってきますね。実はこの夏にリリース予定の「バロックな対話」(WAONCD-110)では、実際にアーティストの自宅や公民館の会議室で聞いてもらいながら使用テイクを決めたり編集の方針を決めたりと言うことをして作業を進めました。<nigra sum>+m902Bが大活躍でした。


(御田)あと、さきほど話題になりました電源周りの機器やケーブルなどについてお聞きしたいと思います。

(小伏)ホール以外の建物での収録の場合はアースが取れなかったり、1ヶ所の電源からでは容量が足りなかったりいろんなことが重なってあまり理想的なことはできていないので、ここではホール録音の時のお話しをしましょう。ホールでのまず電源は、必ずと言ってよいほど用意されている音響用電原盤から取ります。たいていは30AのCコンセントです。アースはかなりしっかり取られています。アースもここからとります。この次に来るのが中村製作所のアイソレーショントランスかSINANOのGPC-1500(これはアイソレーションではありません)です。ホールによってどちらが良い音になるかは異なります。聴いて決めるしかありません。どちらもシャーシにアース端子があるのでそこを使ってアースをまとめます。この2次側からステージ用とコントロールルーム用に電源ケーブルを引きます(各約15m)。これにはBELDENの19364を使っています。シールドのドレン線は電源入口、出口両側でアースラインとつないでいます。出口側にはCSEやSINANOの安定化電源をつなぎます。さらにオヤイデのコンセントボックスにHubbellのコンセントを組み込んだテーブルタップを接続して各機器に電源を供給しています。各機器は電源線のアースラインでシャーシアースを共通化しています。シャーシアースが電源のアースと繋がっていないものは別途配線します。実際にはもうちょっといろいろ工夫がありますが、現場での臨機応変な対応もあるので、おおまかにこんな感じと思って下さい。このようにしてアースは全部共通化して1ヶ所のアースにまとめて落としているわけです。

(御田)各機器のシャーシアースは電源のアース線(電源ケーブルのシールドドレイン線)を利用して共通化していくわけですね。それによって、アースループも最小限に抑えることが出来るわけですか。

(小伏)信号線もあるので盛大にアースループしちゃってますよ。でも、さっきもお話ししたようにアースの共通化ができればアースループしててもノイズは出ないんです。アイソレートした2次側の閉じた領域の中だけのことだからそんなに難しいことではないですよ。電源のアースピンとシャーシがちゃんと配線してある機材は何の問題もなく電源ケーブルをさすだけでいいですし、配線されていないものは内部で配線できれば配線して、難しいものはシャーシのどこかのネジに止めてテーブルタップのケースなどまで引っ張って配線してやればいいです。ただし、Rosendahlみたいに、アースは独立させといて下さいと言う機材もあるので、そこは様子見ながらですね。

(御田)それとエフェクター類などについて教えていただきたいのですが、最近「ラウドネス・ウオー」というような言い方で、「コンプリのかけ過ぎでかえって情報が失われている。」という話を聞いたりするので、その辺りに沿ってお話しいただければ、と思います。

(小伏)デジタル録音の場合、一番大きな音はフルビットで規定されているので、決まった天井があります(DSD はフルスケール+6dBが天井)。アナログと違ってこれを越えることはできません。かといって例えば太鼓の音のピークをここにして録音したのでは他の楽器の平均レベルがうんと低くなってしまいます。そこでリミッターでピークを押えて平均レベルを上げて録音すると言うことが始められました。まあここまでは私たちでも使う範囲のテクニックと言うことでした。しかしやがて、販売店の店頭や、ラジオで流れた時に、少しでも目立って売り上げを伸ばしたいと言う欲求からこのリミッターを深く掛ける動きが始まりました。誰かが少し深くすると他の誰かが更に深くして、またまた誰かが深くしてと言う連鎖から、ふと気がついたらダイナミックレンジなんて数dB しか無いような、天井に張り付いたような録音ができ上がったわけです。もっともここまでひどくなったのはロックやポップスの方ですが、その影響は当然クラシックやジャズの方にも波及しました。CDはもともと92dBのダイナミックレンジしかないので、フルオーケストラの場合はコンプレッサーやリミッターで押えざるを得ない場合もあるのですが、それをさらにリミッターで持ち上げ出してしまいました。もともとのダイナミックレンジを押し縮めているので、度を越すと直接音と残響の強さの関係はでたらめになってきますし、コンプレッサーの動作によっては位相にも乱れが生じてきます。結果として音は大きいものの、距離感や残響感がおかしな録音を聞かされる結果となるわけです。売れなきゃ困るので背に腹は替えられないと言うことなのですが、聴かれる方がこんなものは聴かないと態度を示して下さればまた元に戻って行くかもしれません。ワオンレコードとしてはもともと売る気が無い(笑)と言うか売るために細工をする気が無いので、音圧を上げるためにリミッターやコンプレッサーを使うと言うことはいっさいしていません。バウロンや金物などどうしてもピークの立ってしまうものの場合は、ちょっと乱暴ですが、録りの段階のアナログ部分で適当にクリップさせることで収めています。このあたりはアナログ録音の時代のテクニックの応用ですね。念のため誤解の無いように言っておきますが、リミッターやコンプレッサーを持ってないわけではないですからね(大笑)。


2.ソフトウエア編~DAWって何?、編集、マスタリング
[写真左:相模湖交流センターでのリコーダーソロ(WAONCD-140)収録時のコントロールルーム風景]

(御田)
ハード機器については僕らにもわかりやすいので、ついつい聞きすぎるかと思います。
まだ後でも登場する可能性ありということで、次にソフトウエアに移りたいと思います。

 まず、どのようなソフトを使われているのか、簡単に列挙して欲しいのですが。


(小伏)DAWと言う概念がいつごろから出てきたかはっきり覚えていませんが、Digital PerformerやCubaseが出てきたころにはそう呼ばれていたように思います。いまDAWと言うとProToolsと言う感じですが、でもクラシックの方ではこれはメジャーではありません。ヨーロッパの録音屋達はDAWというとMerging TechnologiesのPyramixの事だと思っている人が多いです。PCMからDSDまで扱え、ノートパソコンでも使えないことはないので優秀です。SACDやDVD-Audio以前の時代にはSonic Solutions(現Sonic Studio)が標準だったのですが、今や取って代わられていますね。最近このSonic Studioも新たにsoundBladeというDAWソフトをリリースしてきています。SteinbergもCubaseのポストプロダクション用にはNuendoを出してきていて、一番最近のバージョンアップで、CubaseとNuendoの切り分けをはっきりさせてきています。SACD用としては本家筋のSONOMAや、最近経営権がPrism Soundに移ったSADiEがありますが、やはりPyramixを使う人の方が多いようです。いずれのDAWソフトも、様々なエフェクターを載せています。イコライザーやコンプレッサー、リミッターは当然のことながら、ピッチ補正やテンポの伸縮、高度なノイズ除去あたりは一つの売りになっていますね。Waon DAWではmkIIの頃からCubaseとBias Peakを使っていますが、そろそろNuendoかsoundBladeにした方がいいかなと思っています。一方ではwindowsマシンを用意してPyramixも入れようかなぁと...。

(御田)ちょっと整理させてくださいね。まずDAWというのは録音・編集加工などに用いるソフトとハードの環境という理解で、そのうちでDAWソフトが大きな役割を果たしている、と。

(小伏)話がすっ飛んじゃいましたね。ちょっと説明します。DAWというのはDigital Audio Workstationの頭文字です。コンピューターとなにがしかのAudio Interfaceと音(最近は映像も絡む)をいろいろと操作するためのソフトウエアが組み込まれたものですね。ハードかソフトかどっちが中心かと言えば、コンピューターもソフトなければただのファンヒーター(笑)だし、ソフトもコンピューターなければ絵に描いた餅だし、どっちもあってのものですね。PyramixやSONOMAのように、ソフト屋さんの方でそれが安定して動くようにチューニングしたハードを付けて売る場合もあるし、soundBladeやNuendoのようにソフトだけのもあるし、Audio CUBEのように、dellのパソコンにMykerinosボードを積んでNuendoやSequoiaやPyramixをお好きなのどうぞで積むみたいな組み合わせ屋さんもありますね。ProToolsはパソコン以外のハードとソフトの組み合わせで売ってます。最近はノートパソコンベースで動くのも多いので、録りにDAWを持って行って直接取り込んじゃうことも頻繁に行われています。ウチも演奏会の記録録音なんかは<nigra sum>を持って行ってUSBメモリーにピュって書いて帰ってくる。その後編集して、必要なデータを書き込んで、マスターを作って、書き出して、データのバックアップとって、と言うのを全部この上でするわけです。マスタリングを外注している場合も以前のようにテープに書き出してではなく、DAWごと持ってっちゃったりします。と、今の録音屋さんにはなくてはならない仕事道具と言うことになりますね。

(御田)Nuendoが「ポストプロダクション」というのは、どういう意味でしょうか?ついでに「プリプロダクション」との違いも教えてください。Cubaseはこちらでしょうか?

「うつろな瞳<Eyes Look No More>」(WAONCD-090)収録風景 (於:アートコートギャラリー)

(小伏)「ポストプロダクション」と言うのは、音でも動画でも、「録った(撮った)あと」の作業、編集やマスタリングやなんかの作業の総称です。つまり録音セッションから帰ってきてから以降の作業ですね。「プリプロダクション」は逆に「録る前」です。企画であったり、スタッフ選びであったり、会場の手配や、新曲なら作曲・編曲の方針を決めたりという部分です。Cubaseが主に使われるのはこの中間のまさにクリエイティヴな部分「プロダクション」そのものですね。この上で曲を作って、打ち込みして、演奏を録音して、というところです。Nuendoの最新versionでは楽譜作成機能やなんかがオプション扱いになりましたね。だからアーティスト向けがCubaseで、エンジニアやプロデューサ向けがNuendoみたいなふうにはっきりさせてきたと思います。

(御田)え~と実は個人でもPyramixを使い始めている人がいるようなのですが、あれはいわゆるDXDというPCM・DSD両方を扱える規格なんですね。これはOSがWindoiwsかLinuxになるんでしょうか?その場合、Mykerinosというサウンドボードか何かが必要だったと思うんですが、こういうMerging Technologiesは高価だと聞きましたが一式いかほどするものなんでしょう?

(小伏)Merging TechnologiesのPyramixは実は2つあるんですよ。御田さんが言われているMykerinosというDSP(Digital Siganl Processor)ボードを積んで、DSD, DXD, PCM編集ができるのは、Pyramix MassCoreというトップレンジです。お値段は最小セットで¥350万くらいだと思いますが、これにはADC、DACが含まれないので、実用的なセットだと¥500万前後ですね。多チャンネルだともっと。もうひとつのPyramixはPyramix Nativeと言うもので、これはソフトのみで、パソコンとASIOで動くAudio InterfaceがあればOKです。以前のversionは48kHz, 24bitまでだったので、まあ値段なりなものでしたが、まもなくリリースされるversion 6は192kHz,32bit, 96chと言うスペックなので、PCMだけですむならばこれで充分と言うものです。安く出てくれると嬉しいですね。WindowsのノートパソコンにPrism SoundのOrpheusつないでこれ載せれば結構まともな仕事ができます。そうそう、PyramixはWindows XPかVista上で動作します。

 それからDXDですけど、PhilipsとSONYがDSDの標準編集手段として提唱したもので、Digital eXtreme Definitionの略です。352.8kHz, 24bitのPCMのようなものです。DSDの1bitストリームでは編集が困難なので、DXDに変換して編集してからDSDに戻します。この変換などが厄介なので、専用のDSPボードが必要なわけです。

(御田)もう録音現場ではDSDとPCMはクロスオーバーしちゃってるわけですね。ちょっと複雑と言えば複雑な….。
オーディオマニアはソフトにお金を出すイメージがないんですね。なんとなく皆フリーソフトが多くて、もちろんそれで良いと思うのですが、こういう有料のソフトの凄さは一度経験していただきたいですね。


(小伏)そうですね。やはり高いソフトはエンジンもしっかりしているので音が良いですよ。でもまあ、フリーソフトで音が良いのがあるんだったらそれにしておいてもらって、浮いたお金でCDいっぱい買う方がいいですね。ワオンレコードのも買ってね(^_-)-☆

(御田)はい!(笑)
ところでOSについてですが、僕はWindowsをいろいろそぎ落として軽量化してCubaseで鳴らしています。一方Macはユーザーがいろいろ触りにくくなっていますが、小伏さんは何かチューニングをなさっていますか?


(小伏)確かに今のMacOS Xでいじるところは少ないですね。できるだけ割り込み処理を減らすと音が良くなるはずですので、AirMacは切る、時計をメニューバーに表示させない、不要なアプリは起動しない、常駐ソフトは極力使わないといったようなところですね。

(御田)先ほどお話しに出たWEISSのサンプリング周波数コンバーターソフトのSARACONですが、こういうソフトウエア・コンバーターもあるのですね。DD変換の部分が一番重要だというお話が感銘深かったんですが、ハードウエアコンバーターと比べたメリット・デメリットはいかがでしょう?

(小伏)お安いものとしては、KORGの1bitレコーダーMR-1とかMR-1000にバンドルされているAudio Gateも機能的には同じですね。私は聴いたことがないのですが、かなり音が良いと言う噂です。ソフトウエア・コンバーターは、本当にものによって出来不出来の差が大きいので、良く吟味する必要があります。dcsが無くなっちゃうので本気で探さないといけないですね。例えばサンプリングコンバーターとしては、Peak version 5の最高変換品質設定のはdcs974の代わりとして使えますが、version 4のはダメ。Cubaseのもあまり良くない。最近のはだんだん良くなってきていると言うことでしょうね。ハードウエア・コンバーターは今までの長い積み重ねがあるので今のところ音が良いですが、リアルタイム処理しないといけないところに足かせがあります。ソフトウエア・コンバーターは時間の制約を無視すれば、かなり手の込んだ変換プロセスを実施できるので、やり方によってはハードウエア・コンバーターを越えるものが出てくるでしょうね。

(御田)CubaseのDD変換機能はよくないんですかあ。ショボ。
 ええい、気をとりなおして、ProToolsについてはスタジオのシェアがほぼ100%だという現状で、ひとつのスタンダードになっているわけですが、実際のCDを効くと、結構キンキンというかピーキーな感じのものも多いと思っています。その辺りはどう考えておられますでしょう?


(小伏)そう、2kHzあたりにちょっとピークがあるような音ですよね。インターフェースボックスの192 I/Oの特徴だろうと思います。ProToolsはロック、ポップ系で多く使われているので、多少音が前へ出るようなつくりなんでしょう。今はApogeeのいくつかのコンバーターや、Prism SoundのADA-8XRなどが192 I/Oの代わりに直接ProToolsにつながるようになっているので、これらを使えば音質の点は変わります。それとコンプが強めにかかった仕上げも多いのでよけい特徴が強調されていると言うこともあるでしょうね。やはりこのあたりもエンジニアのセンスと腕にかかっている面があります。

(御田)エンジニアの皆さんがいろんなソフトを使っておられるということは関係先とのデータのやりとりもあると思いますが、まずはハードとも合わせて好みというか音作りを追求なさっていると思うのですが、おしなべて何か共通したあるいは目立った傾向は見られますでしょうか?

(小伏)どうなんでしょうね...。あまりはっきりした傾向はないように思いますが...。あえて言えば、日本は細かいことを気にし過ぎる傾向があるかな(笑)。サンプリング周波数は海外に比べて日本は高いですよね。海外はせいぜい96kHzどまりで、いまだに48kHzや44.1kHzで仕事しているところも少なくないです。一方では、マイクやミキサーなんかは、日本が昔からの業界標準にこだわっているのに対し、海外の方では新しいものを模索していると言うことはありますね。

(御田)良いテイクも今ひとつのテイクもありますし、ミスタッチもありますので、編集が現代では常識だと思うのですが、差し支えない範囲で普段どのような編集をなさっているのか教えてください。

(小伏)ミンチ!(爆) まあ、それは冗談としても、テープにはさみを入れていた時代と比べれば、はるかに継ぎはぎの数は多くなっていますね。つまりアーティストのミスは許されるようになってきた。最近はフォルマントを維持したままピッチを動かしたりテンポを変えたりする技術もあるので、そう言うのをいっぱい使って編集しちゃってるのもある。CD聞いてとっても音程が良くてきっちり歌える歌い手さんだと思ってライブに行って見たら目が点になるって言うことがありますね。どこまでやるのが良識に反しないかの判断基準はばらばらになってきている感じです。ウチの感覚でみてると「それって産地偽造だろ!」みたいなのがいっぱいあります。あまりネガな話しをしてもつまらないので、ウチの場合のお話しをしましょう。

 ワオンレコードでの編集は基本的に切りつなぎのみです。ピッチを触ったり、演奏の実時間を直接変更(伸ばしたり縮めたり)するような作業はいっさいやりません。じゃあ簡単じゃないかと思われるかもしれませんが、そうでもないんです。録音セッションの時にスコアにテイク毎のミスの箇所、ノイズのある箇所、とっても良くできましたの箇所などを書き込んであるので、その中から適当な部分を抜き出してつないで行きます。1曲分全部つないで再生すれば曲になっているはずですが、ところがこのままでは演奏が全然つまらないんです。アーティストは曲全体を一のつながりとしてフレージングして行きます。どのテイクでも全く同じフレージングができるかと言えばそんなことはありません。わずかなフレーズのたわみの違いがそれに続くフレーズの動きに影響しますし、フレーズとフレーズの「間(ま)」にも影響します。またそのフレーズとフレーズの「間」のとり方をミスして「間」があき過ぎたり突っ込んだりしているところもあります。これらを単に良いところ取りでつないだだけでは、まさしく継ぎはぎの音楽になってしまっているわけです。で、こっからがプロデューサーの腕の見せ所。フレーズの接続箇所の接続タイミングや、「間」の長さなどを微妙に調整しながら全体として音楽的なフレージングになるように作り込んで行きます。さっきも言ったようにタイムストレッチを掛けるんではなくて単につなぐ素材をスライドさせるだけでね。だいたいこのタイミングの調整幅はミリ秒!単位です。だいたい3ミリ秒前後、長くてもせいぜい20ミリ秒までくらい。30ミリ秒も動かすと間違っているように聞こえます。フレーズの頭で走ってしまっていたり伸びてしまっていたりする場所も、その前の「間」を少し調整するだけで全然気にならなくなります。当然アーティストの意図する音楽を充分理解した上でそれを活かすように作業しなければなりませんから、かなり神経と時間を使う作業です。時には1ヶ所の「間」のタイミングを決めるのに何時間も費やすこともあります。出来上がりをアーティストに聞いてもらって「そう! このタイミング!」と言ってもらえればほっとしますが、「ダメ」って言われればやり直しです。全曲できたところで曲順に並べて、今度は曲間の調整です。曲間の長さ次第でその前後の曲の印象がまた変って聞こえてきますので、これまた50ミリ秒単位くらいで調整します。こうして1枚のCDができ上がって行きます。


(御田)テオ・マセロがテープの切り貼りでマイルス・デイヴィスの曲をまとめたのはジャズでは有名な話ですが、この編集ではまさにプロデューサー・エンジニアが音楽的創造の部分も担うのですね。音楽的知識・経験必須ですね。
で、編集後の最終の音作りというか製品としてのまとめの段階が「マスタリング」だと思いますが、簡単に言うとどういう作業をなさるのでしょう?


(小伏)一般的には何をするかと言うと、まずはトラック毎の音量調整。CD1枚通して聞いた時に統一感のある音量にします。次に音質調整。くっきりはっきり聞こえるようにイコライザーで調整します。それからノイズ除去。空調ノイズやヒスノイズ、あるいはちょっとしたクリックなどを取り除きます。最近はほとんどオートで作業してくれるソフトもあります。ここまで来たら例のリミッターやコンプレッサーで適当な音量になるところまで全体を持ち上げます。これで検聴してOKならば、マスターに書き出すわけです。この工程で音が劇的に良くなる(良くなったように聞こえる)事もあって、マスタリングエンジニアの腕の見せ所です。

 ところがワオンレコードではこの段階ではノイズとりしかしていません。ずぼら(ネイティブ・オーサカン語で「手を抜く」)してるのではないですよ。トラック毎の音量調整はよほどアンバランスでなければしません。と、言うのは録りの段階でレベルはずっと一定で録っているからここでの音量差は本当の演奏での音量差なのです。それを尊重します。イコライザーも使いません。くっきりはっきり良いバランスで聞こえるようにマイクセッティングの時に充分時間をかけているからです。それから音量を持ち上げる作業も、よほど録音レベルが低かった時しかやりません。それもリミッターでピークをつぶすことはしません。ピークがフルビットのちょっと手前に来るまで音量を上げるだけです。ほとんどの場合は録った時のレベルのままです。それでもマージン(信号のピークからフルビットまでの余裕)はだいたい1dB内外です。これは長年デジタル録音をしてきて培われたカンで、セッションの現場でほぼ間違いなくフルビットぎりぎりの録音レベル設定ができているからです(エヘン! えらいえらい! ←自分で言う...)。


(御田)イコライザーも使わずに素の音で勝負!いや、ほんまに偉い思いますわ。やっぱりその人のセンスと経験値なんですね。

(小伏)イコライザーやコンプレッサーを使うことが悪いと言うのではありませんが、これらを使うことでどうしても元の音の鮮度を落とすことにはなりますから、本当に必要な時に必要なだけ使うのがいいでしょうね。だから使わなくてすむ範囲では使わないようにしています。


3.マイクセッティングのノウハウ、マイクの限界

(御田)では、大分お疲れと思いますが、最後の高峰、チョモランマに挑みたいと思います。
ワオン・レコードといえばワンポイント録音という定評がありますが、そもそもワンポイントとペアマイクはどこが違うのでしょうか?


「うつろな瞳<Eyes Look No More>」(WAONCD-090)収録風景 (於:アートコートギャラリー)

(小伏)いよいよここへ来てしまいましたね(笑)
 ワオンレコードとしては決してワンポイントにこだわっているわけではないんです。自費出版のものや他レーベルからの依頼で録ったものにはマルチマイクのものもありますからね。これもイコライザーやコンプレッサーと同じで、本当に必要な時にしかスポットマイクは使いたくないと言うだけのことなんです。ではなぜそうなのかと言うことも含めてご質問にお答えしましょう。

 まず、ワンポイントとペアマイクの違いですが、ペアマイクはワンポイントに含まれます。別のものではないんです。それにモノラルにもワンポイントはあるし、サラウンドにもワンポイントはあります。ワンポイント録音とそれに使うマイクの数と言うのは実は直接的には関係ないんです。ステレオ収録において多数のマイクを使うワンポイントもあります。みなさんが良くご存じのところで言えば、昔から使われているDecca Treeはマイク3本ですし、Philips方式は4本です。でも、これらはワンポイントなんですよ。サラウンドのワンポイントとしては、Double-MS(完全にサラウンドでマイクたった3本)、Optimized Cardioid Triangle(OCT)+ワンポイントのSL-SR、Spaced Cardioid+ワンポイントのSL-SR、Fukuda Tree、Hamasaki Squareなどがそうです。さらにこれらを2ミックスしてステレオ収録した場合でもワンポイントステレオ録音と言って構わないと思います(収録する対象によっては適切であったりなかったりはありますが)。じゃあ、ワンポイントってなんなのさと言うことですが、実は、ワンポイントと言うのは技術用語ではないので明確な定義があるわけではありません。分かりやすく言えば、一連の集音系が一つの音空間をできるだけ歪めずにそのまま取り込む録音方法とでも言えば良いでしょうか。もう少し厳密に言うならば、いくつかのマイクからなる集音系が、ある限られた空間領域にセットされていて、各音源から発せられた音の時間的同時性がある程度確保された収録方法です。ここで言う時間的同時性とは、遠くの音は遅れてくるし、近くの音は早く来るのだけれど、発せられた音が、どの方向からも均一にその距離に応じた遅れを持って到着すると言う意味です。この時間的同時性が完全に満たされるのは、1本のマイクでモノラル録音する時だけで、2本以上のマイクになった途端マイクの大きさ以下には近づけないので、マイク間隔に伴ったズレが生じます。もっともステレオやサラウンドの場合はこのズレのおかげで立体感が得られるわけですが、このズレがいくらまでだったらワンポイントと呼べるかです。最大で10ミリ秒から15ミリ秒程度までと言うのがおおよその共通認識です。音速から考えるとマイク間隔がざっと3~5mくらいまでが許される範囲と言うことです。すべてのマイクが直径このくらいの空間に入っていて、それが互いに連携して一つの空間を収録していればまあワンポイントと言ってもいいと言うことになります。結構大ざっぱな気がしますよね。だからと言って一杯一杯にマイク間隔を広くとると、いわゆる中抜けが起こったり、干渉が起こったりすることもあります。一般的なマイク間隔は、無指向性のマイクの場合(A-B, Decca Treeなど)で30cm~120cm、指向性マイクの場合(ORTF, NOS, DINとその変形など)で17cm~60cmくらいが良く使われます。サラウンドのセッティングでは2mあける場合もあります(収録する対象の空間が大きいからこれで良いのです)。Coincident Recordingと呼ばれる左右のレベル差だけで立体感を出すものの場合(MS, XY, Blumleinなど)はマイク間隔はほぼゼロです。

 ちなみにこのマイク間隔と言うのは以前は結構感覚的に決めていたものですが、ヨーロッパからちゃんと音響工学が入ってきてみると、そんなにいい加減なものではなくて、ある程度一意的に決まるものなんです。ペアマイクで録音する時、マイクから見て音源が○度の幅で広がっていたとして、それをスピーカーの間に△度の幅で再現するとすれば、ペアマイクの開き角度が□度の時はマイクの間隔は何cmというのがちゃんと決められるんです。そういう理論とか数式があるわけです。マイクが無指向性か単一指向性か広単一指向性かでは異なるものの、ちゃんとした値が出てきます。ウチもこの理論は一応ベースにしてセッティングをするようにしています。当然理論をどう解釈するかはセンスだし、最後の追い込みは耳優先ですけどね。そうそう、ここでスピーカーの間に何度でと言う再現角ですが、これはリスナーがちゃんとステレオの規格通りにセッティングしている場合に正しく再現されます。スピーカーとリスナーが互いに正三角形の頂点に居ると言うのが2チャンネルステレオのもともとの規格です。ご存知でしたよね? 録音セッションでのモニタースピーカーのセッティングは一応これに従ってセットしていますよ。サラウンドの場合でも、規格通りのスピーカーの配置の場合にエンジニアの意図通りの音場が形成されるはずです。まあ相対的なものでもあるので絶対このセッティングになっていないといけないと言うことはありませんが、録っている人うんぬんの話をする時は一度そのセッティングで確かめて欲しいですね。
 では、なぜスポットマイクを使ったマルチマイクは必要最低限にしたいかと言う話ですが、これってある種、麻薬的な部分があるからなんですね。ワンポイント録音ではその時間的同時性の恩恵によって、まさにその場で聞いているような自然な音場感で音楽を聴くことができるわけです。しかし人としてはせっかくのオーディオセットで聞いているならばよりクリアに、あるいはより迫力ある音でも楽しみたいと思いますよね。それは当然です。そのためにスパイスとして楽器のそばに置いたスポットマイクの音を混ぜるのです。スポットマイクを置いた楽器の音はよりディティールが明確になって浮き立ってきます。これでさらに楽しめるようになりますね。しかし一方で、スポットマイクは時間的同時性を崩していますから、再生される音場は一連の空間でなくパッチワークやコラージュのように継ぎはぎになって行きます。スポットマイクがわずかに混ぜられているだけであればその弊害は少ないですが、よりクリアに、より迫力をと言うことでどんどんたくさん混ぜて行くと、だんだん人工的な音場に変って行ってしまいます。まあそれでもいいじゃないかと言えばそれでもいいんですが、私は音楽を聴く時だけ特別な音空間に入ってしまいたくない、普段自分を取り巻く世界と同じ空間で音楽を聴きたいので、やっぱりナチュラルな方がいいなと思っていると言うことです。


(御田)なるほど、「ペア」というのはマイクの数であって、時間的な同時収録という点でデッカツリーなどもワンポイントの中にはいる、というのは分かりやすく、新鮮な認識ですね。「聞き専」というのは結構分かってるようで分かってないので、助かります。(笑)

 一般に、ワンポイントはふわっとして綺麗だけれど力のない音、というイメージも強いようですが、そのエネルギー感みたいな所はどう確保するんでしょう?

(小伏)「ワオンレコードの音はふわっとして綺麗だけれど...(てんてんてん)」って、キングインターの担当営業さん、あちこちで言われるそうです。かわいそうに(笑)。つまりエネルギー感は確保してないんです(爆)。と、言ってしまうと身も蓋もない、ついでに底まで抜けてるって感じですね(笑)。そのエネルギー感と言われているのが、やはりスポットマイクで補強された音をベースに話されているように思うんです。生音と比べていただけば分かると思うんですが、ワオンレコードの録音の音は生よりはかなり強烈なものが入っていると思いますよ。空間の音の情報を収録するのが目的の2本のマイクに、更に収録しようとしている楽器の個性やエネルギー感を盛り込むと言うことは相当微妙なマイクの位置や向きの調整が要求されるんです。いつもセッティングを追い込んだ最終段階での調整と言えば、マイクの先端をほんの1mm動かすかどうかと言うところまで行きます。そのくらい微妙な調整を行った結果ではあるんです。残響のせいでエネルギーのピークはなだらかになっているかもしれませんが、積分してもらえば(笑)、ちゃんとエネルギーは入っているはずです


(御田)つまり「スポットマイク」で得られるマルチマイク的なエネルギー感は空間情報を損なうので、マイクの位置や角度などセッティングで楽器の持つエネルギーを取り込むという訳ですね。

 僕も「聞き専」やオーディオマニアは「オンマイク」的なマルチ録音に随分慣らされていて、ミキシングコンソールで合成した「定位感」がそれこそワンポイントで感じられなかったり近接した音でなかったら「生々しくない」と言って耳を傾けないのは、人によってポリシーがありますので一概には言えませんが、情報不足とコンサートやライブへ脚を運ばないからではないかと思います。

 ところで、具体的なマイクセッティングで特に難しい楽器や楽器の組み合わせというものはありますか?

「光りのしずく the Drops of Lumiere」(WAONCD-100)収録風景


(小伏)いっぱいありますよ。むしろ簡単なものなんて無い。演奏会の出張録音では簡単に済まさざるを得ないこともあるけど、さっきのエネルギー感のこともあるし、録音セッションでは常に戦いですね。CD1枚分はだいたい3日間のセッションで録るんですが、マイクセッティングが済めば仕事の半分は済んだようなものです。

 まず会場の中のどこに演奏者に立ってもらうのか、楽器をどの向きに置くのかを決めて行きます。もちろんホールの中で音が一番きれいに回るところを探すわけ。ホールの舞台の上がいいとは限らない。楽器を客席の堅い床の上に下ろすこともあれば、反響板を最大限に利用するために舞台上で客席を背にしてもらうこともある。意外? でもウィーンのムジーク・フェライン・ザールでDeccaがオーケストラ録ってたのは客席を取っ払ってフロア中央でやってたみたいですよ。Philipsは舞台で録ってましたけどね。でも舞台中央が音の良いホールって意外と少ないんです。またまた意外? たいがい左右に少しずれたところやとんでもないところ(舞台の花道とか!)に音の良いところがある。ほんの数センチの立ち位置の違いで音はずいぶん違うんです。それと日本のホールで多いんだけど音の拡散が不足してて、少し離れて目を閉じて聞くとどこから音が出てるのか分かりにくい。録音してみても音像はボケボケ。そこで大きな衝立やなんかを舞台や客席にいくつか立てて音を回す工夫をすることもあります。いくらか音が拡散できれば音像はちゃんとシャープになります。リスニングルームで音像が出ないでお悩みの方は、スピーカーとリスニングポジションの間の左右の壁に(壁すらないようなら空間に)音を拡散するようなもの(すのこなどで充分)を立ててやると出てきますよ。
 あとはアンサブルの場合には楽器毎の音量と発音方向を揃えてやらないとワンポイントでは録りにくいですから、音の小さな楽器はマイク寄りに、音の大きな楽器は遠くの方に行ってもらう。発音方向は楽器毎に高さの違う台に載せたり、マイクの仰角なんかで調整します。これでなおかつ演奏家どうしがコンタクトとれないといけないし、音場の構成として妥当性が無いといけないので、この配置には結構気を使います。

「夢見る翼~Dream of NIKE」(WAONCD-030)楽器のセッティングと調律風景
チェンバロ Anthony Sidey, Paris 1996 after Andreas Rukers, Antwerp 1636, Henri Hemsch, Paris 1763

 こうして場所が決まったら今度は楽器の設置の詰め。チェンバロなんかだと足がいっぱいあって、どの足にも均等に荷重がかかっているわけではない。ホールの床も真っ平らではないですからね。荷重のかかり方で音が変わってくる。調律師さんと協力しながらいくつかの足の下に5円玉かませて調整します。さすがにスパイク付けたことは無いけど(笑)、でも5円玉って何だか音が良くなるんですよ。優秀な調律師さんはよく心得てて、5円玉やそれに似た金属片や薄い木のくさびなんかを材質違いのものでいくつかちゃんと持ち歩いてる。え? 調律師さんて調律してるだけだと思ってた? ちゃうちゃう! 楽器の音を最大限引き出すのが彼らの仕事ですからね。それからギターの場合だと、高い音圧が水平に近く出てくるので、すぐに直接音が床の反射音との間で干渉を起こしちゃう。指揮台を持ってきてギタリストにはその上で弾いてもらって床との距離をとる。それでもダメなら指揮台とマイクの間の床にすのこを敷いて音を乱反射させたりする。木管楽器やオルガンだと、正弦波に近い波形の連続波なのでどうしてもホールの中のあちこちに音がたまるところができてくる。特に反響板の折れ目の部分。放っておいてマイクを通して聞くといかにもそこに音圧の塊があるように聞こえてくるので何とかしないとまずい。楽屋のカーテンをこっそりはずしてきて、音のたまるところにマイクスタンドなどでそのカーテンをつるして吸音したり反射させたりします。
 ここまで来てからはじめてマイクを立てるわけ。ホールで回った音がうまくまとまるポイント、それで、直接音と残響音とがおよそ半々になるような場所。しかも直接音はエネルギー感のあるヤツね(笑)、そういうポイントを探す。最初は脚立を持ってきて(たいていは背丈より高い位置にありますから)その上に上がって音を聞きながら決めると言うようなこともありましたけど、今ではカンが養われて、ホールに回る音を聞いていると、音がまとまっている場所に音が見えてくる。そこにマイクを立ててだいたい間違っていない(エヘン えらいえらい。←また自分で言ってる)。あとは演奏者が練習している間にマイクを通した音を聞きながらマイクの間隔や向きや角度なんかを調整して追い込んで行くんです。最初は数cm単位で動かすこともありますが、だんだん幅は小さくなって、最終的にはさっき言ったようにmm単位以下。
 で、ここでまだ終わらないんですよ。マイクを立てる前にも一部やってたけど、よけいな音を消すと言う作業をやって行きます。今度はマイクを通してヘッドフォンで聴きながら進めて行きます。舞台の床が共鳴したりビビったりすることがあるので(音として聞こえてくるほど大きくはなくて、楽音との干渉として感じられる程度、ちゃんとしたマイクセッティングができていれば音を聞いてだいたい場所は特定できるので、そこへ)コントラバスの丸椅子を上下逆にして置いたり、何か重りを置いたりして抑える。それとか音場空間にぽっかり穴が空いてるもんで、見に行くと演奏者がすぐ横に脱いだ上着を置いていて音が吸収されてるのね。それで上着をよそへ持って行ったり、ヴァイオリンとかの楽器ケースが共鳴箱になってある周波数でディップがでることもあるのでやっぱり移動したり物を詰めたりする。客席床と舞台の立ち上がりの角に音がたまることがあって、低音がぐずぐずする。チェンバロのカバーなんか借りてその角へ巻いて置いて吸音する。マイクスタンドのバッグで用が足りることもあります(変なところにバッグが置いてあると言って片付けちゃダメ! アシスタント君!)。楽器自身も雑音を出すことがあって、リュートの弦が糸巻きのところで余っててそれが共鳴していたり(どっかで風鈴が鳴ってるって感じ...季節によってはやや不気味)、チェンバロの弦がブリッジのところでちょっとビビってたり、蓋がビビってたり(これも聞こえるほど大きな音でなく楽音の歪みとして感じられる程度。これをビビリと見抜けるのは経験)、そう言うのを弦を切ったりフェルトを噛ませたりしながら消して行く。チェンバロのジャック(弦をはじく爪の付いた板)が鍵盤から指を放した時に落ちてくる(落ちてきた時にカチッて音がする)タイミングが鍵盤毎にばらばらだと演奏のリズムが崩れて聞こえるので、落ちるタイミングが揃うように調律師さんに調整してもらうこともある。そりゃもういろんなことがあります。そうそう、マイクスタンドの共鳴なんかあると困っちゃう。何もかもが濁っちゃう。よそのレーベルに頼まれて録りに行った時に、くそ重いだけのたたくとキンキン言うようなヤツ持ってこられると、ソルボセイン捲いたり、バスタオル捲いたり(笑)大騒動。マイクスタンドで良いのは、ヨーロッパのチームはほとんどみんな使ってるし、ウチでも全面採用してますが、イタリアのマンフロット社製。ここのスタンドは高さ4m以上まで延ばした上に重さ数kgのマイクセットを乗せても平気と言うタフさなのに、かよわいアシスタント女史でも3本はまとめて運べると言う重量。鳴らないし、ネジをぎゅうぎゅう締めなくてもちょっとひねるだけで各部が締まるし、めったに倒れないし、お値段も国産より安い。優秀。とかなんとかこう言うようなことで、皆さんが聴かれているきれいな音は、こんな地味なお掃除をした後なんですよ。だいたいこんなことで長いと4時間くらい使っちゃう。マイクセッティングって音の良いところにマイクを置くだけだと思ってたでしょ。それだけだったら一瞬。ふふふふふ・・・。


(御田)う~む~、こりゃ大変だ。(笑)でも再生オーディオのセッティングと相通ずるところがいろいろあって説得力に充ちみちてますなあ。

 意地悪な質問ですが、仮にオーケストラを録ってくれ、と言われたらどうなさいます?


(小伏)断ります。ウソウソ、大丈夫ですよ、ちゃんとオケも録ってますから(笑)。オケを録る場合は相手がかなり大きい上にダイナミックレンジも音域も広いので、やはり無指向性マイクの出番です。指向性マイクと比べると低音楽器の再生時の音量がずいぶん違いますね。ステレオ録音だとすると基本はA-B式と言われる無指向性のペアマイクを少し離して平行に置くセッティングです。マイクから見るとだいたい120°~140°(±60°~70°)くらいにオケは広がって配置されています。この場合スピーカーの内側全部(±30°)に再現しようとすると、理論上、マイク間隔は40cm~45cmが適切です(広角ほどマイク間隔は狭い)。オケの音が大きいのでマイクを置く位置は音源からだいぶ離れていますから、高域補償の大きめのマイクを選びます。これでワンポイントで録れないこともない。ただ、オケは扇型に配置されているので、中央部がだいぶ奥ですよね。A-Bだとどうしても中央の楽器群が遠い感じにはなる。そこでそれを補うのに、センターに1mくらい前につき出したもう1本のマイクを追加する(A-B部分は120cmくらいに離す)、これがDecca Tree。マイクはノイマンM50がDeccaのご指定。マイク代だけで200万円! DPA4006+Acoustic Pressure Equaliser Ballで代用してもほとんど100万円仕事。ウチの場合はそれだけでこの方法は却下(笑い泣き)。メインはA-Bにしてあとは補助やスポットを置くことになりますね。まず中央部の楽器群の補助として、単一指向性のペアマイクを置きます。メインマイクからは3~4mくらい前。編成が大きい場合は広角で録れるORTF式(マイクの挟み角110°、間隔17cm)かDIN式(挟み角90°、間隔20cm)、やや小編成であればNOS式(挟み角90°、間隔30cm)などを基本にセットします。この合計4本でだいたいは何とかなります。ただし、音の小さな楽器(チェンバロとか)が入っている場合や、ソロが来るパートがある場合とかは、それぞれの楽器にスポットマイクを立てます。これは相手によって無指向性マイクだったり指向性マイクだったりします。ただしレベル的には本当にちょっと足すだけ。これで本当に何とかなるんです。オケだからと何十本もマイク立てなきゃならないことはない。あるところをスポットで強調し過ぎるからあっちもこっちもスポットを立てなくてはならないと言う良くない状況に陥ってしまいやすいんです。

 ペアマイクでワンポイント録音する場合、A-B式は空間表現はいいのだけれど到着時間差だけで立体感を出しているので、オケと言うよりはもう少し小さな室内楽くらいの編成の時に時間差が小さくて空間の分解能がやや不足気味になることがあります。その時は低音があまり無い編成ならば単一指向性のペアマイクに換えることで解決できます。ところが低音があって、無指向性マイクで分解能を上げないといけない状況も発生します。この時に有効なのがBaffled stereoとかOSS(Optimal Stereo Signal)法とか呼ばれる収録方法です。無指向性のペアマイクの間に音響的な隔壁を立てることで左右の分離を上げる方法です。この隔壁には真っ平らな円盤のJecklin disc(この方法を考案した人の名前です)や、中央を丸くして高域の位相特性を改善したSchneider discがあります。マイク間隔は人間の両耳の間隔くらいです(Jecklinさんの指定では17cm)。あまりポピュラーな方法ではありませんが有効な手段です。ワオンレコードでは、リュートのソロを収録する時に、音が小さいので接近してセッティングしても音像が広がり過ぎないようにするために利用した例があります(「やすらぎのガット 7つの響き」(WAONCD-060))。テオルボやアーチリュートはかなり低い音が出るので、単一指向マイクのペアでと言うわけにもいかなかったからなんです。


(御田)オーディオマニアの一部には変に録音に対する盲信のようなものがあって、ひたすら再生に励んだりするわけですが、大体がソースには全ての音が入っているんでしょうか?

(小伏)私は知りません(キッパリ!)。入ってるかどうか確かめられないですからね。編集室やマスタリングスタジオならまだしも、録音セッションの現場に持って行けるモニター機器の性能は限られています。録音セッションのたびに御田さんのところのカタツムリの親玉みたいなの連れて行ってたら大変。さらにはウチの場合、編集室でも使っているモニターはそんなに最高性能のものではありませんね。ただし確認できないとは言っても、経験と実績に基づいて極力録りこぼさないように、つまりはできる限りの最大限を収録して、その鮮度を落とさないように最後まで仕上げる努力をしていますので、結構入っていると思ってもらっていいんじゃないかな。録音に使っているコンデンサーマイクの振動板はとても軽くてインピーダンスもきわめて高いので、本当に微妙な振動もきっちり拾っているはずです。少なくとも収録時のわずかなノイズや音像の乱れをヘッドフォンでモニターできていますから、そんなにいい加減なはずはないです。おそらくCDに入っている音を全部出そうと思えば相当な努力をしてもらわなくてはいけないだろうと思いますよ。だからやっぱり私は知ーらない!(爆)

(御田)はい、努力しますです!

 その努力を前提として(笑)、仮にマイクの限界もあって、全ての音がソースに入っていないとしたら、再生側で補うしかないのですが、脳内補正は別として部屋の音響や、振動、ノイズなど補正要因は多いと思うのですが、録音されてる立場としてはどういうふうに補って聴いてほしいとお思いでしょうか?


(小伏)入っていないものは補正しても出せないんですけど、確かに弱く入ってしまっているものや、ちゃんと再生するのが難しい状態で入っているものなんかはありますね。なにがしか対策すれば良くなるかもしれませんが、正直なところ、例えば冷ややっこにオカカを乗せるか乗せないか、添えるのはワサビかショウガかと言う議論のように、本来は何か正統派のやり方があるのかもしれないけれど結局お好きなものをお好きなようにどうぞ、と言う感じです。ただし肝心なのは豆腐自体だと言うことをお忘れなく(笑)。冗談はともかく、付帯音(カラーレーション)をどうのこうのと言う前に、やはりもともと入っているものをどこまで引き出せるかチャレンジした上で、自分好みの音色を加えていただけると良いですね。マイクセッティングのところでお話ししたように録る方としてはできるだけ良いものをお届けできるようにいろいろ工夫したり努力したりしているわけですから。とはいえ、オーディオも音楽も楽しむものですので、決して生食しかダメと言うことはありません。お好きに料理してお楽しみ下さい。

(御田)オーディオマニアは馬鹿みたいにリアリティを求めているところがありまして、例えばベースにピックアップを付けるとか、ぎりぎりまでオンマイクで録った音のCDも多いのですが、オンマイク・オフマイクそれぞれのメリット・デメリットはどういう所にあるのでしょう?

(小伏)オンマイクで録るからリアリティが出ると言うものではないですね。近いから確かにディティールは拾えるんですけど、楽器から出た音はそのまわりの空間との相互作用でその音が完成するものなんで、オンマイクの音と言うのはまだ完成していない音とも言えると思うんです。オンマイクで録った音にリバーブ(またはアンビエント成分)かかってなかったら聞けないでしょ? 更に接近したスポットマイクから見える音像はまさに近視眼的ですよね。例えばコントラバスのコマから上を見上げてるような絵(音)でコントラバスだと感じられるでしょうか。ピアノの弦をなめるような絵(音)からグランドピアノの音が聞こえてくるでしょうか。コンバスやピアノは普段見慣れ聞き慣れているので、頭の中で補完できますからそれで不自然じゃない。これが中近東あたりの名も聞いたことのないような楽器をオンマイクで収録したものがあったとして、本来の形も音も知らない状態で聞いた時、それがいったいどんな楽器なんだ?って、きっとストレスを感じるのではないでしょうか。オンマイクは音源のディティールを明らかにしてくれる効果がありまが、やはり近過ぎるがために伝えられない部分もあると言うことなんです。一方オフマイクはディティールは拾えないのかと言うと、マイクってそんなに難聴ではないんですよね。全体の様子を見せながらディティールもちゃんと含まれてはいる。きちんと録ったワンポイント録音をきちんとした再生装置で再生してもらえば、知らない楽器でもその形や大きさ、どんなふうに発音しているのかなどがちゃんと見えてきます。確かに再生装置によってはそれが伝わりにくかったりエネルギー感がなかったりしてしまいますけどね。だからオフマイクとオンマイクは互いに補完しあう良いバランスを見つけることが必要なんでしょう。私の場合はオフマイクとオンマイクの境界とも言える直接音と残響音が半々になるところを基本的には使って、それで足りないものがあった時にはじめてオンマイクを追加すると言う方針です。あるがままの音場空間を大切にしたいと思っているからです。でも、良いバランスと言うのはそれだけではないんです。私は神成芳彦さんの録音が昔から大好きで、良く聞いていましたし、この道に進むのに大きく影響も受けて、今でも自分の録音の参考にしている部分があります。ヤマハエピキュラスやThree Blind Miceで名盤を残し、今でもWoody Creekレーベルでの仕事をはじめ、フリーとして素敵な録音をされているエンジニアです。実はお会いしたことはなくて勝手にあこがれてるだけなんですけどね(ワオンレコードからも2枚出している上畑正和さんが以前作ったソロ1枚目のアルバムは神成さんが録音している!)。神成さんの録音はいわば緩やかなワンポイントと濃いめのスポットマイクの組み合わせでできているようです。私の場合のワンポイントとスポットマイクの役割が逆転しているような感じ。スポットだけでは欠落する空間をワンポイントで少し補完するような録音なんですね。スポットマイク+アンビエントと言うような単純なものよりはもう少し積極的なワンポイントの使い方をしている。そこからでき上がってくる音空間はとても親しみの持てるものなんです。私の主張するナチュラルさとはまた別の世界ではあるのですけど、不自然さが無い。だからオンマイクとオフマイクのバランスと言うのはずいぶん幅があると言うことなんでしょうね。やはりこれもエンジニアのセンスと腕次第。

(御田)オーディオというのはやはり「塩梅」つまりはバランス感覚なのですね。ラウドネスウオーのように目立たんがための強調型というのは、バランスが崩れていることが多いのでしょうね。我々も「きちんとした再生装置」をまとめるよう努力しなければいけませんね。

 ところで、最近のCDなどを聴かれてマイクセッティングに対して感じられることはありますか?


(小伏)そうですねぇ...、マイスターミュージックの平井さんのように徹底してマイク2本にこだわっていらっしゃるところもある一方で、たくさんのマイク使ってミキシングするのが半ば当たり前みたいな風潮もあるし、まあいろいろではありますね。ただ、どっちの方法であるにせよ、ちょっと安易にセッティングしているなと言うのが気になるものが時々ありますね。デジタルの方でいろいろ処理できてしまうので、そこそこ録れてれば後は何とかなるのですけど、何とかなるから適当でいいかと言えばそうではないですよね。特にテレビやラジオの音楽番組でそれを感じることが多くなってきたような気がします。それと、最近エンジニアの顔が見えないんですよ。パッと音を聞いてあの人の録音だなって言うのが分かりにくい。何だか特徴が無くなってきているのかな。一方では海外のマイナーレベルは優秀なところが多いですね。それも飛び抜けて良くてとても太刀打ちできない。これに関しては御田さんの方がお詳しいでしょう。とにかく良いものをもっともっと聞いて勉強しないといけないですね。


4.デジタル録音の難しさ

[写真:相模湖交流センターでのリコーダーソロ(WAONCD-140)収録時のマイクアレンジ(Spaced Cardioid + NOS)]

(御田)昔テープデッキでアナログ録音していたときは「録音レベル」に一番気を使っていた記憶があるのですが、デジタルでのレベル設定の難しさについては2.ソフトウエア編(エヘン! えらいえらい! ←自分で言う...)のところでお伺いしました。
 アナログ録音に比べてデジタルならではの難しさ、と言うものはありますでしょうか?


(小伏)PCM録音が始まった初めのころは、アナログ録音との相違点がずいぶん議論されたことがあったし、実際、マイクセッティングも少し差があった時期もありました。でも、今はアナログで録っていた時のテクニックがほとんどそのままデジタルで録る時に使えています。つまり差はほとんどない。デジタルの方の技術がだいぶ上がってきたからでしょうね。
 確かに録音レベルのセットの仕方に気を使うのは事実です。先にお話しした時にひょっとすると誤解されているかもしれないですが、できるだけマージンぎりぎりに録りたいと言っているのは、オーバーレベルするとエラーしちゃうと言うことからではなく、全体の録音レベルが下がっちゃうと実質的なビット幅(Bit Depth)が減っちゃうと言うことを心配してるんです。アナログの場合は、録音レベルの設定が低いとノイズに埋もれてしまいますね。でもノイズに埋もれながらもちゃんと音楽は聞こえてくる。ところが、デジタルの場合は、録音レベルがうんと低いところでは音量に対する解像度が落ちてくるので、何が鳴っているのか分からなくなってくる。16bitや24bitもあるんだからちょっとやそっと大丈夫でしょうと思われるかもしれませんが、センターでなく、左端や右端に定位している音の場合、左右での音量差がかなりあるので、例えば左端に定位している音の右チャンネルの音はだいぶ解像度が低いと言うことがあります。一度低いレベルで録っちゃったものの解像度は後で音量を上げてみても解像度としては改善できません。録った時の解像度を最後まで引きずります。だから録音レベルには気を使っているんですね。デジタルミキサーのミックスバスのビット幅を気にしているのもこれと同じことなんです。
 あと、アナログには無い難しさがやっぱりDDCなんですよ。サンプリング周波数を下げるのは、アナログの76cmpsマスターを38cmpsにコピーする時と似たようなことと思われるかもしれませんが、情報量が減ることで演算誤差が発生して量子化雑音になりますから、その処理をどうするかの問題があります。それから、24bitを16bitにすると言うのは、アナログでは無い経験ですね。ビットが減ると言うことは、演算誤差がたくさん出るので量子化雑音がたくさん出ます。この量子化雑音をどの高さまでどんなパターンで追いやって、どんなフィルターでどこから切るか、ジャギーをぼかすのにディザを使うかノイズシェープで済ますのかとか、サンプリング周波数との絡みを考えながらすると本当に頭の痛い問題。しかも選択肢が結構ある上に、音源が変るとベストの処理の組み合わせも変ってくることがあるので、やり方によってずいぶん仕上りが変ってきてしまいます。だから良いアナログ機器を持っているところはここをアナログに戻すと言う方法でやっちゃうんですね。DACでアナログに戻して、必要なフォーマットにADCし直す。機材の音質さえ良ければ簡単。でも音質の良いアナログ機器は恐ろしく高価ですから、貧乏制作会社のワオンレコードとしてはデジタルドメインで頭を使ってやるしかない。今はずいぶんノウハウがたまってきて結構うまくできるようになってきました。dcs974の本国版のマニュアルには、このあたりの細かい分析や特性図、アドバイスが事細かに載っていてすごく参考になるのに、日本の正規代理店の作った日本語訳にはこの部分が完全に欠落しているんです。ひど過ぎますよね。もしdcs97xをお使いで使いこなせていない方は、英語版マニュアルにチャレンジしてみて下さい。ここに書いてあることは他のDDCを使う時にも結構参考になりますよ。
 逆にアナログにあってデジタルに無いのが、バイアスとイコライザーの調整。これも音質と歪みのせめぎ合いで、使いこなしの上で重要なファクターでしたが、最近の方には何のこっちゃらでしょうね(笑)。


(御田)う~む、24ビットから16ビットへの変換でビットが減って再量子化ノイズがでるというのはよく分かります。DD変換だから大丈夫、というような事はないのですね。そして演算誤差の話も出てきましたね。何となくつながって来るような気がします。
 わざわざアナログに戻してミックス・マスタリングして、最終またデジタルに戻すというのも時々聞きますが、確かにアナログのコンソールなどは千万円単位だそうですから、どこでも出来る事ではないのでしょうね。

 ところで、ある方のアルバムで3千回(だったかな?)修正したことをうたっていたものがありました。まあアナログ時代だって編集はしていて、テープヒスの音が変わると「あっ、編集しやがったな!」とか言っていたわけですが、デジタルはその点格段に編集しやすくなっています。まあ厳格な「演奏の一回性」議論はさておいて、「デジタルは編集しすぎで音が悪い!」という批判も一部には見られました。
 録音側としてはどのように考えられますか?


(小伏)3千回はすごいですね。1~2秒に1ヶ所。いくらデジタルだから編集しやすいと言ってもそんなにするのは珍しいでしょう。できちゃいますけどね。やはり腕の良いアーティストほどつなぐ数は少ないと言う傾向はあります。編集箇所での音質劣化と言う点では、実際にテープを切ったり貼ったりしていたアナログの方が大きかったと思います。編集しすぎで音が悪くなると言うのは、編集のところでもお話ししたように、ただ切りつないだだけでは音楽がつまらなくなると言うことでしょうね。できるだけ切り貼りしないのが一番ですけど、今は1曲に1ヶ所もつなぎ箇所が無い方が珍しいですね。たとえば最新の「うつろな瞳」(WAONCD-090)で言うと、9トラック目「Scotch Tune」は、全くつなぎ無しの1発物です。逆に他の曲はなにがしかつながれています。これらを聴き比べてみて違和感が無ければ編集はうまくいっていると言えますね。良いところを見せたいがためと言えなくもないですが、ウチの場合は聴きやすい音楽にするために編集していると言える程度にとどめています。

(御田)先ほどの「DD変換がキモ」だというお話が強く印象に残ったのですが、やはり収録段階で必要な措置をして必要な音は全て録り、その後は必要な物以外は手を加えない、と言うことが一番重要だということでしょうか?

(小伏)そうですね。できるだけ変換を加えない方が良いと言う考え方で、ヨーロッパではまだ44.1kHz, 16bitでオリジナルを収録しているところがあります。そうでなくても、編集の段階でこのフォーマットに落として作業しているところはまだかなりな数ありますね。日本では変人扱いされそうですけどね。ここはADCとDDCの相性の問題も実はあって、やや複雑な問題を含んではいます。だからどうするのが一番いいとはなかなか言えないところがありますね。ただ、録ったあとでイコライザーやコンプレッサーなどを使うつもりであれば、最終のフォーマットよりは上位のフォーマットで処理しておいた方が劣化が少ないでしょう。たぶんヨーロッパの方がいじらないと言うことなんでしょうね。録る時にちゃんと録ってる。

(御田)いまCDの売り上げが落ちてきて、一方ダウンロードも高音質の物はほとんど売れずにマーケットの縮小が危惧されているのですが、小伏さんとしては今後のメディアやフォーマットの動向に付いてはどう考えられておられますか?

(小伏)全然心配してませんよ。わくわくしてる。2011年にはアナログテレビ放送が終わるとテレビ局もお役所も宣伝に躍起ですが、ひょっとするとその時にデジタルを含めてテレビ放送そのものが終わってしまうかもしれない。全部オンデマンドのストリーミングに替わってしまってテレビ放送と言うメディアは無くなる。それが3年後ではないにせよ時間の問題でしょうね。ホリエモンは先走ったけど、方向は間違ってない。一斉にISP(プロバイダー企業)がテレビ局(と、たぶん電話会社と新聞社も)を買収する時が来る。そうなってくると、ハイビジョンをストリーミングできるだけの高速回線のインフラが整備されるようになって、1分間で10MBのCDフォーマットなんてお茶の子さいさい。今は、回線速度のことや、ストレージ容量の問題で音楽配信は圧縮フォーマットだけど、もうほんとちょっと先の未来ではCDフォーマットなんて圧縮してる方が手間と言われるようになるかもしれません。メモリープレーヤーだって、携帯電話回線が早くなればメモリーに蓄積するのではなく高速回線から直ストリーミングで聴くようになるかもしれないし、ようやく配信でも高音質が期待できる時代が来るんじゃないかな。その頃にはパッケージメディアにはどんな付加価値が求められるのか、楽しみですね。CDからSACDそしてその次とフォーマットも変って行くでしょう。ウチではジャケットにもこだわりを持っていますから、できるだけ永くパッケージメディアの形で出して行きたいです。いつも才村昌子さんに表紙を書いてもらっています。ずらっと並べてもらうと絵も楽しめますよ。

(御田)そうそう、才村さんの原画を見た事がありますが素敵ですよね。仏アルファなども美しいですが、WAONジャケットも良いと思います。
 ジャケットをダウンロードするのも実際にやってみると味気ないですからね。


5.オーディオファンへのアドバイスや希望

(御田)いろいろと貴重なお話を伺って大変参考になります。オーディオファンがもっと音楽を楽しめるようにするにはどうしたらいいか?という点で、小伏さんから見られたアドバイスやご希望があればお聞きしたいと思います。

(小伏)どんなにお金をかけたシステムを組み上げても、生の音を知らなければ、最終的にそのシステムを追い込んで行くことはできませんよね。生の音を知ると言うことは何もコンサートに通うと言うことではないんです。音に対する注意力の問題なんです。例えば、ある日の夕方の街の喧騒を生録したものがあるとしましょう。車の音や救急車のサイレン、どこかで鳴っているテレビの音や、夕飯を作る包丁やお鍋の音、自転車が通り過ぎたり、人が行き交ったり、鳥が鳴いていたり、そんなものが入っているでしょう。さて、それを聴いてそれがどの季節に録られたものか言い当てることができますか? 普段から音に対して注意力のある方ならきっと春夏秋冬いつ録られた物か言い当てられると思います。そういう方なら「夏の夕方の街の音」、「冬の夕方の街の音」...などといえばその音がイメージできるはずです。地表面近くと上空との温度差が季節によって変ります。夕方は特にそれが顕著になります。蜃気楼と同じ原理や空気の対流で音も屈折して進むので、遠くのものがとてもクリアに聞こえたり、逆に遠くの音があまり聞こえず近くの音ばかりが聞こえたり、高い音がボケて中音域ばかりだったり、遠くの高い音までが残響を伴って聞こえてきたり、そういうことが起こります。
 身の回りにあるいろんな音に注意を向ける習慣を持つことによって、ナチュラルな音、不自然な音の区別が自然と出来るようになるはずです。そう言った感覚を養うことががシステムを完成させるベースになるし、音楽をより深く楽しむための手がかりであったりする訳です。最近はあまりに作られた音が氾濫し、街を歩く時もヘッドフォンをしていたり携帯かけていたりしてるので、こんな感覚がどんどん鈍ってしまっていて、結果的にHiFiもLoFiもみんな一緒こたになってきています。とても悲しいことですね。ほんのちょっとの注意力を持つことで、身の回りの音が激変することになると思いますよ。オーディオどうのこうのはそれから後のことでしょうね。


(御田)うむ、「音に対する注意力」ですね。ある人が「生音って何ですか?そんなの本当にあるんですか?」と言葉の遊びをしておられて、「分かっとらん人やなあ!」と思ったことがあります。もちろん全てPC上でつくったような全く生音のない音楽ソースもありますが、だからといって生音と再生音は別物だ!と鬼の首を取ったように言うことでもないと思うんですよねえ。最終的には個人のお好みで味付けされれば良いことですけど。
 ところでヨーロッパにも滞在された事がありますが、日本でのオーディオやコンサートの楽しみ方についてご意見があれば。


(小伏)お金掛けすぎ(爆)。そのことが音楽を楽しむことを遠ざけていますね。ヨーロッパやイギリスでは音楽もHiFiももっと身近なものですよ。毎日の食事を楽しむように、静かな散歩を楽しむように、音楽はもっと普通に身の回りにあっていい。ただ、お金かけなければいいのかと言えばそうでも無い。お金かかってない日本のコンサートやオーディオ機器って、そりゃ世界一ひどい。ヨーロッパやイギリスの小さなコンサートは本当に珠玉の時間であることが少なくないし、一般家庭のHiFiセットだって本当に簡単なものだけど、その音の良さにはいつも驚かされる。やはり音楽と言うものがもっと生活に浸透してあたりまえなものにならないと、質を保ったまま安くはならないんでしょうね。みんなで努力しないとそうはならないだろうなぁ。

(御田)うう、ちょっと耳が痛いような(笑)。確かにオーディオもコンサートも高くなり過ぎですね。そこそこの価格で十分良いものが少ない。


6.ワオン・レコードCDの特長

(御田)さて、最後に小伏さんの「言いたい砲台」コーナーです。(笑)

(小伏)ぶっ放すよー! 1812年じゃないけどズッドーーン!!(笑) もうさっきからだいぶぶっ放してますけどね(大笑)

(御田)カタログを拝見するとワオン・レコードCDはもう12点となりました。バッハなどを除きよくもまあマイナーな分野を、という感もするのですが、「ウチの売りはこれです!」というのがありましたら、張り切ってどうぞ!

(小伏)バッハや、ベートーベンやワーグナーだってマイナーなんですよ。バロック、古典派、ロマン派の巨匠をつまえてなんてこと言うんだと思われるかもしれませんが、彼らはほんのここ150~300年に活躍した人たちの中のしかもほんの一部でしかありません。楽譜が残っている音楽だけでもバッハの前に400年もの歴史がある。その前には延々たる時代の音楽がある。バッハ一族だけでも大バッハのおじさんや遠い親類やなんかも素晴らしい音楽を残している。たまたま我々は彼らのことをいくらか良く知っていると言うだけで、何もそれがすべてではないんです。演奏にしても有名オケを天才指揮者が振ったものがすべてではないし、有名古楽演奏団体の演奏スタイルが唯一の演奏方法なのでもありません。素晴らしい音楽はまだまだ膨大な量が埋もれて聴いてもらうのを待っています。メジャーなものしか聴いていないなんて人生を無駄遣いしてますよ!
 幸か不幸か、ワオンレコードの方針は、売れるものを作ると言うことは全然考慮の外なので(キングインターにとっては不幸でしかないか...笑...笑ってる場合じゃない?)、とにかく片っ端から掘り起こして行きたいと思ってます。何が出てくるかは私にも分かりませんけど、長い時間が経ってみれば、決してつまらないものなんて無いはずだと思ってますよ。それをできるだけナチュラルな録音でお届けしたいです。聴く人それぞれに感じるものがあるはずですから、音楽を押し付けず、聴く耳を邪魔せず、録音のことを忘れて聴いていただける録音、それがウチの売りでしょうかね。


(御田)「メジャーなものしか聴いていないなんて人生の無駄遣い」こりゃ受けそうで良いなあ。
 マイナーレーベルって買いにくいんじゃ?というイメージもあるようですが、ワオン・レコードはキングインターナショナル扱いでアマゾンでも取り扱われるようになったんですね。あ、ちなみにHMVでは輸入品扱いなので、「3点で25%引き」セール時などはかなりお得になるようです。
 直接注文も出来るんですよね?


(小伏)キングインターさんには本当にお世話になっています。もちろん直接のご注文もお受けしています。ただHMVさんみたいな思い切ったお値段は出せないけど(笑)。まあ気分によっては特別お値引きとかあるかもしれないですよ。今は(各販売店さんの邪魔になりかねないので)本格的なネットショップは立ち上げていません。基本的にお代金を銀行へお振込いただいて入金確認後のメール便等でのお届けです。
 確かに店頭へ行ってすぐに見つけて買うことができると言うほどの数が市場には出回っていません。見つけられたら「ラッキー」くらい。そう言った点ではお求めにくいかもしれませんが、幸いキングインターさんのおかげで、ご注文いただければ日本全国どこでもお求めいただけますので、ぜひ指名買いで! ご注文が増えれば店頭に置いて下さるお店も増えますので、是非ご協力ください。なぜだか関西弱いんです。よろしく!
 HMVさんのようにお店によっては輸入品の棚に入っていることもあります。流通に輸入盤の販路を使っているためです。ちょっとややこしいですが、世界中どこ行っても輸入品扱いと言うのはかえって単純? 国籍不明、住所不定、お尋ね者(笑)
 お尋ね者で思い出しました。株式会社キングインターナショナルへお電話でお問い合せいただいたら、在庫のあるお店を教えてもらえます。03-3945-2333です。


(御田)リーフレットは日英併記ですし、海外からの注文状況はいかがですか?

[写真:相模湖交流センターでのリコーダーソロ(WAONCD-140)収録時のセッティング風景]

(小伏)おっしゃる通り、リーフレットには日本語の他に必ず英語、場合によってはフランス語などの他の言語も載せています。これはもちろん海外へ出た時のことも考えていますが、日本国内にお住まいの外国人の方にも楽しんでいただくためでもあります。ただし、日本語は日本人のための解説、外国語は外国人のための解説になっていて、各言語で内容が異なるものもあります。それぞれバックに持っている文化的背景や持っている知識が異なりますから、同じ文章では冗長だったり、説明不足だったりしてしまいますからね。外国語が堪能な方はぜひ日本語以外の解説も読んでみて下さい。面白いかもしれません。
 海外からの注文については今のところアーティストが手で持って行って売っている分だけです。海外のディストリビューターやキングインターとも相談してはいるのですが、ウチくらいの規模の取引だと売上金の精算が送金手数料で飛んでしまうのです。海外へ出したいタイトルもいっぱいあるのでいろんな方法を模索中です。


(御田)う~ん日本からの送金でも1回4,000円くらいかかりますからね、確かに数が出ないと厳しいですね。それでは、今後のリリース予定を簡単に教えてください。

(小伏)先日無伴奏リコーダー曲集を収録してきました。中世から現代の曲までリコーダーの「どソロ」で演奏したなかなか面白い内容です。日本のホールはヨーロッパの会場に比べて残響が薄いですから、普通にペアマイクで録ったのでは無伴奏リコーダーとしては残響が足りません。そこで、今回はSpaced Cardioid + NOSという5本マイクのサラウンドマイキングを2mixしてステレオワオンポイント収録しました。ホールの残響にスポットマイクを立てたようなものですね(笑)。センターマイクには真空管式のマイクを使っています。いろいろの都合で少し先の2009年3月のリリース予定ですが、お楽しみに。
 2008年3Qには、ヨーロッパや日本の古楽コンクールで賞をとってきた素敵な歌と通奏低音のアンサンブルでイギリスバロック物などを、4Qにはフォルテピアノとヴァイオリンでベートーヴェンの5オクターブ以内で演奏できる曲集、バウロンも入ってちょっと楽しいターロック・オキャロラン全集の第3巻、年をまたいでビウエラ(小さなギターのような楽器)と少し古い時代のリュートのソロを出すことになっています。2009年もすでに4月から11月にかけていくつかの収録予定が入っていますが、それはまたのお楽しみと言うことにしましょう。
 それから、この対談を読んで下さっている方に特別にちょっとお知らせしておきましょう。まだ在庫整理のセールが終了していないので、おおっぴらにはお話しできないのですが、ある同業他社さんの持っているほぼ全タイトルの原盤権と出版権を獲得しました。タイトル数が一気に倍増します。私が録ったものもありますが、他のエンジニアが録った物が大半なので録音の傾向は異なるものの、なかなか良い録音で、内容的にもとても面白いですよ。海外録音もあります。こちらも徐々にジャケットを作り直してリリースして行きます。お楽しみに。
 わぁ! お楽しみがいっぱいだぁ! 私はお仕事いっぱいだぁ! きつい!!(笑)
この仕事も3Kですよね。「きつい」「金にならない」「身体に悪い」(爆)


(御田)と言いながらとても愉しそうですが(笑)。最後にリスナーの皆さんにこういう風に聞いて欲しい、という点などをお話ください。

(小伏)世の中の評に左右されず、いろんなものをどんどん聴いて、どんどん楽しんで下さい。いろんな音楽、いろんな演奏、出来不出来もいろいろあるかもしれませんが、聴いた分だけきっと幸せになれますよ。そんな中から一生のお気に入りなんかが見つかることだろうと思います。とにかく楽しんで下さいね。

(御田)小伏さん、酷暑の2008年夏、録音で全国転戦の最中にもかかわらず、長い間本当にありがとうございました。
 この記事を読んで、何か頭の中が整理できた、とか、よっしゃ一度聞いてみよう!と思われる読者の方々がおられれば何よりです。
 では皆様、どうか良い音楽生活を。

(おしまい)

トップページに戻る