僕はギターを弾きたいだけの小僧から音楽の現場でキャリアをスタートさせ、その後MAのスタジオに就職しました。ほとんど素人から現場でMAのことを覚えました。一応ProToolsや主要なDAWソフトの操作は知っていたのですが、音楽とMAでは要求される操作、知識が全く違い、毎回現場で冷や汗で凍る思いをしていました。今更ながらあの時の現場のディレクターはじめ先輩方には感謝しかありません。しかも、当時まで僕はWindows派でMacはロッカーの敵だと思っていたから現場での右往左往ぶりは本当に酷かった。当時はMacマシンはWindowsに比べて圧倒的に高価で、貧乏ロッカーには手が届きにくかったのです。Mac G3やG4の美しい筐体とUIを羨望の眼差しで見ながら、「でもMacのOSは不安定なんだよなー」とか言ってた口です。
さて、そんな僕がテレビ放送用、映画、Netflix、Amazon Prime等、CM、VP、YouTube向けCM等、大体の媒体向けのMAを経験し、あらゆる仕様の納品データ(Master Data)を作り、そして今また自分の音楽を作ろうと思い、原点に帰ってきました。バンドもちょこちょこ再開し始めて作業を始めると、音楽至上主義だったあの頃には気づかなかったことにも耳がいくようになりました。そして、今まであまり聴いてこなかった2000年代から最近までの主要な楽曲を参考にしようと思って聴き漁っていたところ、気づくところがありました。
音楽のエンジニアリングは2000年以降20年間進化していない。ある意味退化していると言えるかもしれません。
00年代の頃、音楽のエンジニアリングで何が起こっていたかと言うと音圧闘争です。それはiPodの発売と時を前後して始まり、CDから配信の時代の幕開けと共に激化し、スマートフォンによるサブスクリプションの時代になり終焉を迎えたように思います。まだシーンの中心がバンドにあった90年代のOasisやRed Hot Chili Peppersの頃もそこそこ上がってますが、FoofightersやMaroon5(この二枚がたまたま目の前にあっただけでチョイスに意味はありません)なんかの頃に一段階上がり、クラブミュージックがシーンの中心になって完成といった感じです。音圧闘争というと仰々しく聞こえますが、何をしていたかというと音源のレベルを常に0dBでマスタリングしようと言うことです。MAを始めた当初の僕のように音圧や音量、ラウドネスについて解説しているサイトをぜひ読み漁ってください。読んでもわかるようなわからんような感じだと思いますが、大体のミキサーもそんな感じだと思います。頭の片隅にその知識があればいざという時に思い出して役に立つ、その程度で業務は問題なくこなせると思います。
話を元に戻すと、そもそもなぜ闘争が始まったかというと、時代がアナログからデジタルに移行したことが大きく関係しています。0dBがデジタルで録音できる最大の容量だからです。アナログ時代はVUメーターの0VUが最大値の基準でした。デジタルでは0dBを越えるとクリップし音が歪みます。ProToolsではその辺うまく処理してくれますが、Studio Oneだと0dBを越えると書き出しがエラーになります。
0dBを基準に音を作ると何がいいかと言うと、何よりも行ってはいけない音量の領域がわかりやすいことです。極端な話VU時代はメーターを振り切っていてもスタジオのラージスピーカーで聞いて変じゃなければOK、カッコ良けりゃ歪んでもOK、という大らかなもので、経験がものを言う時代でした。デジタルはクリップして歪みだすとブチブチ、バチバチ、音楽的な味とはいえないただの不快なノイズになります。その為、経験値はあまり必要なく可否の判断がつきます。さらにDAWが現れ、コンピューター上で波形を見ながら作業をするようになると、0dBを越えるとクリップ(赤)がつくので音を聞いてなくても目視で判断できます。本格的にDAW時代に入ってディスプレイ上の波形を限界ギリギリまで大きく、そしてスペクトルメーターで空いてる周波数の音も強調し、可能な限り音をデカくする。この作業をデジタルプラグインで簡単に行えるようにする。これが2000年代から現在にいたるまで、音楽業界のエンジニアが行ってきた音圧闘争の概要です。配信時代になってCDが売れなくなり、横並びにランダムに垂れ流される自分たちの楽曲の中で目立たなければいけないという強迫観念から始まった流れですが、この成否は昨今の音楽業界を見ればわかるのではないでしょうか。今やYouTubeのMVなしではヒットはありえない、MTV時代より極端な世界になっているように思われます。
そんな音楽業界を横目にMA(放送、映画、映像と音を合わせる業界と定義しましょう)の世界はTVがダメになれば配信、YouTubeと変化を受け入れながらなんとかやっています。Cine、8mm、DAT、Fairlight、Nuend、ProToolsと様々な録音媒体が存在し、完全にProToolsが支配的になったのはこの10年くらいではないでしょうか。そして、その間に映画業界ではモノラルからステレオになり、さらに最低5.1chのサラウンドで上映される時代になり、8.1ch、ドルビーアトモスやdtsXは上方からも音が出てさらに音像は拡大しました。さらに、スマホ時代になると通勤中やジムで自転車を漕ぎながらNetflixを観るという時代になり、AirPodsのせいでそれはさらに拡大傾向にあります。そういう環境の中でMAのミキサーたちは日々、お上(お客様)から言い渡される好き勝手なラウドネス基準やレベルに対応しMaster Dataを制作しているのです。テレビならラウドネス値-24.0LKFS、Netflixはその前後+-2、TruePeak-1dB、YouTubeは最大値はあまり気にしなくていいけど、デカ過ぎても控え目過ぎてもダメだからちょい大きめのだいたい-22.0LKFSを狙って作る。映画予告は85Leq(m)という独自の音量規制がある。ゲームボイスは例の0dBのフルビットで欲しいと言われることもあるし、イベントで流す用に調整に欲しいなんてリクエストもある。雨後のタケノコのように新しい基準が現れる。その度にミックスのダイナミックレンジを考え、適切なレベルを考える。
例えば、テレビ放送用に映画のような微かな音からクライマックスの爆発シーンまでの振り幅を詰め込んでも無駄だし、失うものしかありません。ラウドネスに合わせる為にノーマライズしたら微かな音は大きく、大音量は削られるでしょう。でもそれが正解なんです。どんな高級なテレビのスピーカーでも映画館のスピーカーほどの表現力はないし、普通のテレビスピーカー表現力は大中小くらいの違いしかわからない粗いものだと考えた方がいいかもしれない。もちろんいつもテレビの正面に居てくれるとは限らないから定位を振って表現するという方法もあまり使えない。しかし、Netflixなどの配信だと特に最近はイヤホンという存在を意識して表現しなければいけません。このようにMAミキサーたちはその音が使われるデバイス、ラウドネス、音量を考えてMaster Dataを作成しているのです。
そう考えたら音楽のミキサーエンジニアはどうでしょうか?未だに最終的に2chのフルビットのかまぼこみたいな音声データを作って喜んでいるし、かまぼこを誇らしいとさえ思っている節があります。ライブに行ってボーカルがこんなにパワーあったんだと発見して更にファンになったり、逆パターンもしかりだけれど、それはこのかまぼこMasteringのせいでもある。この20年音楽の音は進化していないし、ダイナミックスレンジを捨てた表現は退化しているとも言えます。僕から言わせれば今の音楽のMasteringはコマーシャル用の一つのMasteringにすぎません。音楽のMasteringが一つだけでなければいけない理由はありません。
もし、その楽曲が運良く何かのOP主題歌に選ばれ、実際OPにレコード会社からもらった音源を挿入する時、MAミキサーは音を出す前にProToolsのクリップゲインでとりあえず-20dBほど音を下げるはずです。そうしないとラージスピーカーと自分の耳を破壊することになりかねないからです。それに明らかに他のクリップより波形が太い。僕もアシスタントの時そのまま出してミキサーにブチギレされました。おかげで肌感覚で覚えられたのでありがたいことです。最近では劇伴の音楽でもマキシマイズされたものが大体送られてくるのですが、それもミキサーがゲインを下げ、自分のフェーダーで抑揚をつけて物語を盛り上げる。しかし、音楽によってはカマボコだと、あおりがうまくいかないことが結構あり、マキシマイズ前の音源が欲しいなと思いながらも、そこでMAミキサーは妥協を覚える。
別に音楽ミキサーをディスっているわけではありません。MAミキサーはお仕事意識が強いので、美しい音を作ろうという気概は薄い。しかも忙しいので最低限のプロクオリティーをいかに最小限の時間で達成するかの方が大事なんです。だから映画を観てあいつのミックス最高だったよねー、と言われることはまずない。僕でもそんなわからない。ただ、たまに下手で台無しにしているのはよくわかる。それがMAという仕事です。
要するに、僕の結論は今の時代音楽を適切に表現するには再生するデバイス、それに伴った狙うレンジを意識してMasteringを行わなければいけないと言うことです。確かにフルビットの楽曲は目立つ。しかし、それは前述したようにコマーシャルの為です。全てのリスナーが全てのアーティストの楽曲をコマーシャル用で聴きたい訳ではありません。アーティスト本人の息遣いまでつぶさに聞き取りたいのがファンの心理です。その違いがアナログ時代とデジタル時代の一番の大きな違いなのだけれど、、、
昭和、平成の頃に比べ環境は多様化しています。デバイスによって得意な周波数領域もあるのでそれも考慮にいれなければいけません。わかりやすい例をあげれば、スマホのスピーカーから聴くことが多い楽曲でサブウーファーをガンガン鳴らす100kHzらへんの帯域を入れても、スマホからはシャカシャカした音だけ聞こえる。クラブでボスボス腹に来るクールな重低音ドヤ、と思って音を作ったミキサーは、これじゃない感に苛まれることになります。時代が変わっても生み出す側のアーティストの苦労はあまり変わりません。仕方のない部分は存在するとはいえ、可能な限りエンジニアリングが作品をサポートしなければいけないと思います。
読んでくれてありがとう。
Taiyo Haze