第6回よい音チャット

 

出席:穴澤健明(日本オーディオ協会諮問委員)、中島平太郎(NHラボ代表)、茶谷郁夫(NHラボ取締役)

 

日時:2017年2月15日 13:30~16:00

場所:NHラボ㈱本社 

内容:アナログディスクレコード技術のレビューやデジタル録音についての様々な思い出から始まり、穴澤氏が最近注力されている残響分離装置の説明と簡単なデモ、サラウンド再生の考察、聴覚を守るためのオーディオリスニング、そして国立科学博物館が運営する重要科学技術史資料など多岐にわたる話題の座談となりました。


 

 

 

6回「良い音チャット」

 

(注)A.穴澤氏、N.中島代表、C.茶谷取締役、 記録 高田

 

アナログディスクレコード技術の系統化報告と現存資料の状況の紹介

 穴澤健明氏著 国立科学博物館発行 20143

20世紀初頭日本でも円盤レコードが録音製造された。売れたのは長唄(邦楽)。名人が多く印税が高かったので、欧米勢も日本の長唄市場を狙った。録音部隊を日本に送り、録音後イギリスでレコードを作って日本に輸出した。国産の長唄のレコードも発売されるようになったが高価。数年後には海賊版が出回った。大正末期に著作権法が確立し、海賊版を違法とした。このあたりのいきさつも資料に書かれている。

 

WINWearable Environmental Information Networks.ウエアラブル環境情報ネット推進機構:特定非営利活動法人)の紹介

同法人の情報誌「ネイチャーインターフェース 201512月号」の紹介。 

「音情報のデジタル化の半世紀、残された4つの課題」というテーマで次の4つを紹介している。

1.      大音圧からの聴覚系の保護――世界的な音圧規制の動き

2.      更なる音質の改善――ハイレゾは本当に良い音なのか

3.      自然な音像定位の実現――忘れられた音場再生に朗報

4.      著作権保護の過去と将来――新しい著作権保護の世界

 

 (許可をいただきコピーこのホームページに掲載しています。)

今回の対談ではこれらについて、さらに詳しい、あるいは記事には書けなかったようなお話を伺うことができた。

A:WHOではセーフリスニングを提唱している。ヘッドホンイヤホンを大音量で聞く子供・若者が増え、このままでは将来7億人の聴覚障害者が出ると予想している。 インドなどではスマホで音量の大きさを競う遊びも流行っている

 

残響音分離

 以前B&K社と共同で録音用マイクを開発した。  音圧特性、 音場特性の両方を満足できるマイクとは何かを考えて開発した。

 まともなマイクで録って残響分離をすると直接音も間接音も両方ともいい音がする。普通のマイクで録ると間接音成分は特性が平坦ではなくボケボケの音になる。このあたりに留意するとモノラルマイクでも全体をうまく録音できるのではと考えている。

N:それはおもしろそう

 

難聴

 A:ウエアラブル環境情報ネット推進機構の活動から,難聴の起こり方が(自分として)最近やっとわかってきた。

 鼓膜から蝸牛に伝わった音の振動は、入口の有毛細胞の短いほうから中に伝わり処理が行われる。大音量の高音が入ると短いほうから脳への情報伝達手段が失われ中音が、結果として聞き取れなくなった状態を難聴、聴覚障害と言っている。高い周波数の音が入ることによって肝心の中音での明瞭度を稼ぐところがちゃんと働かなくなり、脳の判断が出来なくなるというのである。

 (有毛細胞の位置関係から)脳は最初に高い音から分析し、分析できないと、(ハイレゾ談義ではここからいろいろ飛躍した議論が散見されるが)、たとえば、信号が伝わっても脳が動かないとなると、脳内に不純物がたまって周辺の脳で(例えば耳鳴りのような)障害が起きる。難聴になる仕組みはそこにあるという人が出始めているが、今後の研究が必要と思う。

 健常者が音圧の高い、高い周波数の音を聴くと難聴になる。これは前から分かっている。

 面白いことは、その上の全く聞こえない領域の音を高いレベルで聴いても顕著な難聴症状は現れない。

 それでも難聴になりかけた人に高いレベルの高い音を聴かせると、聴覚障害が悪化するという説もある。

 N:脳がサボるのか?

 A:サボるというより判断不能になって、おりがたまる。それをタオという。脳の中で感性を検出できなくなる物質がたまる。だから脳が判定できず、サボるということになる。

 N:自分の経験から、脳がサボっているような気がする。

 A:このことは耳鼻咽喉科の先生が研究を始めているが、研究結果の公表は薬を開発するまで待ってくれとのこと。

 さぼった脳の周辺には痛みを感じる部分とか感覚に関係した部分がある。聴覚障害はそこにも害を与え、聞こえないだけでなく、頭痛、自殺などいろいろな弊害につながる。

 N:認知症は?

 A:その確率は高い。

 N:自分も耳が少しおかしくなった。少しぐらいなのでかまわないと思うけれど、補聴器などで補助しないと脳がさぼる。いい加減に聞いているといいかげんにしか返事をしなくなる。難聴になりかけたら手立てをした方が良い。単に聞こえる聞こえないの問題ではなく、脳自身の問題につながると思う。

 

科学博物館の重要科学技術史

 A:最近突如興味を持ち始め、いろいろなところを駆けずり回っている。オーディオで数十点を重要技術遺産(通称「未来技術遺産」)に登録した。登録しておくと会社も捨てない。(捨てられない)

 

 デジタル録音関連

 N:AA懇話会 穴澤さんと一緒にまとめた。DVDがでてきところ今後どうするかをまとめた。あれをアドバンスした方が良い。

 

PCM

 A:実習でNHKに伺ったことはなく、NHKに伺ったのは卒業の年。コロムビアで録音現場への入社を希望したら断られ、1年間バイトするならその後現場に入っても良いと言われバイトの道を選んだ。ちょうどその時にコロムビアは日立グループに入り、日立中央研究所と一緒に武蔵野音大の大ホールで4チャネルや録音機の録音実験を行いその進行役の機会を得た。NHKからPCM録音機を借りて録音した。録音機の評価テストでNHKの機械が一番良かったので、それを使って現場でどんどん録音した。その中に録音の良いものがあり、制作サイドがコンテンツを販売したいと言い出した。NHKに相談すると、NHKと共同研究という条件ならOKとの答えで、親会社の日立から来た経営陣に相談し3000万円の研究費を用意してもらった。それでLPを販売したところ好評で、次は録音機を作れ、と日立の経営者は意欲的だった。しかも「国内はだめ。海外でやってこい!」と。

  当時NHKのPCM録音機1号機を毎週借りていたが、コロムビアの資産ではなかった。この機械は編集ができなかった。しかし恵まれていた。 なぜなら、テレビ放送のカラー化の流れで、白黒の安定したVTRがたくさん余っていた。シバデンの1500万円の白黒VTRを50万円で購入することができた。しかもシバデンは日立の傘下に入ったので、改造する際などにいろいろやりやすかった.

C:その頃のPCMは14ビットですか?

 A:13ビットでした。NHKは12ビット折れ線でした。

 N:最初は12ビットだった。

 C:16ビットやハイレゾ以前の12ビットでも、録音の現場や演奏している人たちはそのクオリティは良いと考えたが、それがユーザの手元にとどいたコンテンツでクオリティが落ちてしまうのだろうか?もととは違う「デジタル的な音」という感想になってしまうのか?そのつなぎのところに何か秘密があるのか?

 A:確かにそう思う。

 C:録音と再生で機械が違ってしまうと音質を保つのが難しいのか?

 A:CDが発売される前からCDは16ビットになるだろうと予想して、録音側としては79年にはCDクオリティの録音系ができていた。

 N:途中フィリップスがカーステレオ以外に興味がないので14ビットでいいといった。

 A:ソニー(土井さん)やフィリップスともいろいろ話をしたが、16ビットはきりが良い。

 N:8の倍数できりが良い

 

 ドボルザーク「新世界」の録音

 A70年代の終わりころから、CD発売の時期(1982年)に中島さんのお好きな「新世界」のデジタル録音版が無いのはさびしいね、とみんなで話をしていた。

  そのころ新世界といえばチェコフィルのバーツラフ・ノイマンの指揮したものの評判がダントツで、彼の指揮ならば文句はなかった。しかし、ノイマンに「新世界」の新たな録音を依頼しても、すでに多くの録音をしたのでもう飽きた、と断られる状況だった。チェコのレコード会社の総裁が頼んでも彼は首を縦に振らなかった。

  ノイマンは、かつてスメタナ弦楽四重奏団のメンバーで、のちに指揮者に転向した。1981年にベートーヴェンのセリオーソ11番のカルテットをプラハのホールでPCM録音中の話である。録音作業中にロビーで、たまたまノイマンに出会った。そこで聞こえてきていたのがノイマンの最も好きなセリオーソだった。演奏者はだれかと聞き、スメタナ弦楽四重奏団と答えると録音現場をのぞき、その音にとても感激した。PCM録音に興味をもち、その音に感激し、「俺は新世界をもう一度振るべきか?」 「その通り」と答え、1982年のCDは新世界から始まった。

 

 スメタナ弦楽四重奏団

A:中学生時代からスメタナ弦楽四重奏団のベートーヴェンベを聴きはじめ録音したくてずっといろいろやってきた。

 この四重奏16曲を録音するのに10年かかった。

C:彼らが録音して良いという仕上がりになった時に駆け付けるのか?

A:途中手メンバーの手術や入院など予期せぬとはあったが、最初に全体のスケジュールを組んで録音した。1曲仕上げるのに3年かけている。

  最初は自分たちの山の中の別荘で弾き始めて、近くの村で弾いて、プラハで弾いて、世界ツアーにかけて、それから録音する。1曲に3年かかる。シリーズに10曲やったら何十年もかかるので、1曲ずつずらして並行してやっていく。信じられないくらいの労力の使い方だった。演奏のため来日した時も、夜コンサートがあっても必ず翌朝7時から10時ころまでは練習している。帝国ホテルなどに泊まった時も、どこででも同じように練習していた。

 

 

 

録音のマイクとセッティング

 A:いまアナログが流行っている。私はアナログの良さはすごくあると思っている。アナログは音源のスペクトル分布を測定し、限られたダイナミックレンジを最も有効に使うためのプリエンファシスを駆使した録音系ですから、それからはみ出すように録音するとうまくいかない。ところがCDという系はそれとは無関係で、はみ出した系と言える。CDではプリエンファシスを高いほうに入れた。しかし、低いほうでは上げたり下げたりするということはまったくなかった。この制約は好まれなかった。

  録音では、何をモデルにするかが非常に重要。アナログのレコードであればオーケストラを客席のいい席で聞いた時のように聞こえるような(スペクトル)分布で制作している。ところがオンマイクにして、オーケストラの中にマイクを入れた途端に全然違う分布になってしまう。そういうアナログの経験もあまりない中でデジタル録音をやるとやはりうまくいかず、いろいろ破たんが来る。

  CD発売3年後の1985年に、B&Kのマイクを2本だけ使ったマーラの交響曲のワンポイント録音を行ったが、録音マイクのベストポジションを探すために、本録音前に1年半かけて定期コンサートで毎回マイクを少しずつ変えながらいい場所さがしを行った。

N:どこにマイクを置くかは大変なので、どのようにして決めるのか聞きたかった。

A:マイクの形状から決め、最後はマイク位置を10cm刻みでどこに置くかという話になってくる。上下にも前後にもマイク位置を動かす必要があるから、マイクを置く座標を決めてどんどん録っていった。

  フランクフルトのアルテオーパという昔のオペラハウスは19世紀末の「でっかいことはいいことだ」の時代に作られて、とても大きく、声が通らないから、歌手が出演したがらず、客が集まらない。それで戦後はオーケストラのコンサート専門の会場になった。

N:どうやってやるのか疑問だった。

A:あまり言えないのだが、ホールのエンジニアに経費とチップを払い、あらかじめ演奏のたびにマイク位置を変えてDATで録音し毎月を送ってくれた。デジタル録音の本番は同じ会場で、演奏者は同じだったので、それまでのデータをもとにベストの位置にマイクを吊ることができ、いい録音となった。

  基本的に一番実力のある指揮者が録音結果にOKを出せばよい。それをアーティストアプルーバルという。指揮者の好みを分かっていなければいけない。いくら(録音側が)いいと思ってもアーティストが良いといわなければ売り出せない。

N:やはりそういうことだよな。

A:ヨーロッパに行って録音することで大変勉強になった。

C:ワンポイント録音した時のB&Kマイクは音圧(プレッシャー)型?音場(フィールド)型?

A:それがまだ駄目だった。やりたかったのだが音圧型の話など誰もわからず、フィールド型しか頭の中にない時代だった。プッシャータイプを使いだしたのは本当に最近のことで、今頃「なぜプレッシャータイプが必要か?」の講習会をやっている。

 

 残響分離器

 A:基本原理は、 一般的な部屋(変な形状の部屋では話が違うが)である音が鳴った時、最初に マイクに到来するのは直接音。その後周りで反射した音が飛び込む。この時間差で直接音と反射音を判別している。最初の音(本当の直接音)と次に来る音を間違えるとまずい。 最初の音と同じ音の反射音が間接音である。

C:音は次から次へ来るので、判別ができるのか?

A:それを間違えないようにすることがポイント。人間の耳は同じことをやっている。演算上間違えないようにすることが重要で、そのため「忘却係数」という概念を縦横無尽に使っている。(人間、忘れることも大切です。)

  ホールによっても音楽によっても条件が変わが、基本的にパラメータセットを変えることで対応する。最初の120msが直接音の主たる領域でそれ以後は間接音が主たる領域というような条件設定をできる。

 

 間接音と直接音の分離

A:入力を直接音成分と間接音成分に内部のDSPで分ける。

N:直接音の定義は、「最初の20msec」か?

A:基本的そうです。音がポンときた時、最初に来た音が直接音でその音の繰り返しが間接音として追いかける。次の音がきたら次の音でまた同じ分析をやる。その時、適度に「忘却係数」を定めて、来たところから忘れる領域までを分析する。実際の演算時間はこういうところで調整できるようにする。要するに最初に来た音は直接音、あとから壁で反射して来る音は反射音。

  両方のミックス値を変化させる出力を用意してある。 直接音間接音をそのまま出すことができる。ミックスの具合でステージ距離感が近くや遠くにさせる変化できる。(その日の気分で変えられる)

N:一次反射音はどこに入るのか?間接音か?

A:(ホールの)形状による。基本的にこの機械は直接音だけを取り込んでいる。それとは別に直接音が来て30msecまでを直接音とする、というように時間設定できるようにしている。(計算は複雑になる)ホールによって直接音間接音の関係が違うのでパラメータで変えられるようになっている。

N:普通の部屋の音響がどうかに関心を持っている。その場合ホールとはスケールが違うが。

A:この機械は、試聴室からホールまでカバーできるようにパラメータを広くとっている。もともとはNTTの京阪奈の研究所が発明した。アルゴリズム開発に最初は「学習効果」を使った。 最初は信号をどっと記録して一番いいようにアルゴリズムを決めて処理する。しかしとても時間がかかる。 いろいろなソースを入れて実験をやったら、音楽の傾向だけ定めておけば、あとは大まかな汎用の処理で行けることが分かった。細かく一生懸命分析してもあまり成果がないことが分かった。

  使いたい曲を予測関数に入れる。それだとみなして色々な処理を行う。用途によって処理は変わるが、その方法で十分。もともとの原理はスピーチツーテキストを目的としたもの。 NTTに声をテキストに変換するソフトがある。これは残響が少しでもあると変換の誤りが増える。そこで聞くに絶えないほど残響を切ると正解率が上がる。学会で変換技術を競う大会をやっているが、この処理を入れると優勝する。その技術を残響分離器で音楽に応用している。

C:この装置はオーディオ好きな人になにか素敵なことはあるのか?

A:現在、何十年来のオーディオマニアのところを訪ね廻っているが、アマチュアは興味をもって、機械を買ってくれる。自分がいつも聞く位置で魅力ある音でききたいと考えている。そういう人たちは昔ダイナベクターの音場再生システムで味を占めた人達で、「その後ダイナベクターのシステムを改良したらいい結果が出た」などの報告をしてくれる。

  残響分離器をやって面白いのは、どんなソースでも直接音間接音が入っているが、直接音や間接音を平坦な特性で録るのは難しい。それで以前B&Kのプレッシャー型を作ったが、やっとマイクの活躍の場が出てきた。30年前のB&Kのプレッシャータイプマイクとこれを組み合わせるときれいにいくことが分かった。

  普通に録音すると、残響特性はかならず(ハイ落ちの)ぼけた音になる。それをフラットにすると直接音レベルが上がってしまう。私のマイクの設置方法は直接音について音源に対して80度方向に向ける。こうすることで直接音がフラットになり、間接音もフラットになる。フィールド型マイクで直接音をフラットにすると間接音ががばっと落ちる。マイクロホンの径で決まる現象で、仮にマイクロホンが点だったら両方ともフラットになる。基本がやっとわかった。

N:非常に重要な話だと思う。これを実際にやったのは大したものだ。

A:これは面白いなと今思っている。周波数軸上の処理はみんなやっているが、ヒトの聞き方(脳の処理)はそっち(周波数軸上)でやっているのかなと思う。

 

 残響分離装置のデモ

C:いくら聞いても、直接音と残響音をどうやって分離するのかがわからない。人間の場合、たとえばいくつかの楽器が鳴っている中でバイオリンの音だけを追いかけていくことができるかと思うが。機械の場合どうなのか?

 (注:原理や応用などはこちらを参照のこと:

http://techon.nikkeibp.co.jp/article/NEWS/20091117/177703/?rt=nocnt 

https://www.maxell.co.jp/news/pdf/maxell_news120322.pdf

C:時間だけで位相は関係ないのか?

A: 残響音の処理にはいろいろな手法がある。ドルビーのプロロジックをはじめいくつかの方法が知られている。これらのほとんどは左右の位相差で判別している。私は録音屋なので位相差を自由にコントロールできることは知っているが、位相を使うとうまく場合と行かない場合が極端だ。

  ここで使っている方式は全然別の理屈で、信号1チャンネルづつやっている。左右の情報は使っていない。左は左、右は右で処理している。処理は同じパラメータ処理なので、そこで位相差が出てくることはない。他にはあまりない手法だと思う。仮に22chあっても、ひとつづつ処理できる。

  空ひばり リサイタルものでも、ボーカルを遠くに置いたり、これをこの辺で出すこともできる。2chでもいいし、またクアドラフォニー(4ch)で出すと、とてもいい感じになる。

  昔のクアドラフォニー(4ch再生)の一番の問題は、チャンネル間のつながりが悪いことだった。チャンネルで全然違う音がする。このシステムでは4chでも6chでも自然な空間をまず作り、それからそこにステージを足すことができる。 再生音場に説得力がある

  ヘッドホンの場合で、頭内定位が問題となる。HRTF処理で頭内定位を解決したとしても、いいという人はいるが全員ではなく、頭内定位はあまり変わらず、もう一つ効果がほしいという人がいる。その時のこれを使った。間接音を分けて仮想間接音の空間のスピーカを仮想設定する。ステージはリアル音場。両方にHTRFをかける。このぐらいならみんな満足するのではないか、というところまで来ている。この機械のヘッドホン再生への利用のしがいはある。

C:AVアンプでは2chの信号を信号処理で5.1chに変えている。その時はこの手法は使っていないのですよね?

A:それに使われているのは元が2chならプロロジックがほとんどです。プロロジックの問題点は先ほどの言った問題点。ところが2chが来るとプロロジックが外れないものが多い。外れるようにしてかわりにこれを入れれば何のことはない。しかし、ドルビーがやったからには必ず標準搭載となっている。すべてロゴに関係したお金に絡む話を全部外すと良くなる。見直しが必要と思っている。今はプロロジックとの優劣比較の話だが、私はプロロジックに問題があるのではと思っている。

C:ハイレゾで耳が悪くなるという話ですが、音楽信号に入っている高周波数分が出てくる場合にはそんなことは起きないのですよね。ノイズや聞こえない成分が耳を壊というような話になるのでしょうか?

:いろいろなケースがある。

 聞こえる範囲での高周波数の音を大音圧で聞かせるのは問題があり、これは事実。一方、周波数が高くてヒトに聞こえない音をガンガン出して平気かどうかについてはMITのメディアラボでだいぶ実験をやった。ハーバードの医学部がしっかりやってくれたが、100KHzの音をガンガン聞かせた時に有害だという話は出てこなかった。超音波スピーカや軍事用のオーディオスポットライトをMITが開発した時の話だがいいという話は一つもなかったが悪いという話もなかった。

  問題は聞こえるか聞こえないかの瀬戸際の高い音がどう振舞うかという話。そこでIM(混変調ひずみInter Modulation)の話が出てくる。そういう音を人間の耳に加えていいかどうかはほとんど検証されていない。高いレベルで加えれば聴覚障害を起こすことははっきりしている。聴覚障害になりかけている人に高い音を加えると良くないという話は良く聞くが、もう少し検証が必要。

  健常者に加えるとどうなるかと考えるが、聴覚障害者に加えるとだめになるようなものを(健常者に)やってはいけないと思う。そういうところを、ひとつづつ、つぶしてゆかなければいけない。

  これとは全然別に、今のスピーカはIMがかなり出ている。ものによっては10何パーセントある。滑稽なのはハイレゾとうたっているシステムほど(IM)が多い。自分は高い音が聞こえないはずなのに、高い音を加えた音は自分で違いが分かる。これは聞こえるところにIMが発生しているから。あれをハイレゾと言わないでほしい。

  一方、若い人はハイレゾは聞こえなかった音が聞こえるので面白いと言う。この原因はIMの場合が多い。そこで、高い音をフィルタで切って再生すると、IMがないのできれいな音はするが新しい音は出てこない。新しい音がするからいいという人が結構多かったのには驚いた。

 私の判断基準は、私が聴いて差が感じなければいい。IMひずみは可聴帯域に出るから差があるように聞こえる。

 差が出るものは特に国産の機器に多い。海外のものの方が少ない。IMは出ない方が良い。 スピーカはIMが多く改善は必要。コンデンサヘッドホンはかなり良い結果が出ている(IMが少ない)

C:フィルタで20KHZ以上をカットしてハイレゾを聞けばよいのでは

A:スピーカによっては判別できない場合がある。スピーカそのものに改善が必要。

 

収音のコンセプト

 マルチチャンネル/サラウンドもいろいろな考えで技術も様々存在しているが、たとえ2chでも、まず「何を表現したいか?」そこから説き起こす必要がある。収音方法を適当に選べばそれなりの結果がでるが、説得力のない結果の積み重ねになる。説得力はどこにあるかをちゃんと考えないといけない。

  例えばオルガンは、横の表現、奥行き、縦の表現が伝統的にきれいにできた楽器。低いパイプは両側にある。ソロのポジティーフは一番手前にある。その後ろにハウプトベルグがある。オーバーベルクが上にある。全部左右均等にできている。低音だと広い。高音だと狭い。広さの表現、奥行きの表現がきれいに出て、その時にスピーカは何個でマイクはどうとればいいかを考えないといけない。私はトーンマイスター関係の講師をやることもあるが、こういうものの考え方が必要と思う。

 ミキサーになる人には、へそ握りが好き、格好いい、と思っている人が多い。ミキサーはコムフィルターという非常に有害なひずみを生み出す機械。ひずみからいえばあっていいことは何もない。ただどうしても調整する必要があるから。ドイツ人にはスコアを見て音をひとつひとついじる人がいる。しかし音楽はスコア―の上でできている場合もある。本来ミキサーを使っていじることは一切必要ない。アーティストに話せばミキサーを使わないでそのパートを上げられる。

 

(事務局)時間となり、このあたりでお開きにしました。

 

今後も、この会、セミナー、別の企画でまた穴澤氏に登場をお願いする予定です。