ハードウェアからソフトウェアへ
1990年代になるとパソコンの処理能力が高くなり、アナログ回路のエミュレートが盛んに行われるようになります。1996年にSteinberg社がVSTというプラグイン規格を作り、自社のCubaseに採用します。1999年にはVST2となり楽器も扱えるようになります。VSTのUIは実機を思わせ、見た目にもインパクトがありました。そして多くのメーカーがプラグインとしてVSTを採用するようになっていきます。またVSTプラグインを開発するベンダーも世界中に多く出現しはじめます。プラグイン開発は個人でもできるため、現在は数百というベンダーが存在していると思います。
今でもSteinberg社から無料でダウンロードできる最初期のプラグインを紹介しておきます。メンテされて64bit版もあるので多くのDAWで動くと思います。
Neon: 記念すべき世界初のVSTインストゥルメントです。アナログ風シンセで2オシレータのベーシックな構成ですが、ディチューンができるのみでオシレータを別々に設定することはできません。音質よりも、最初のVSTiということに価値があります。
VB-1: 当時はバーチャル感あふれるスティングレイのようなビジュアルは、冗談かと思いました。ピックアップの位置や弾く位置を変えたりできて、ソフトウェアならではの面白味はあったのですが、出音の残念感が半端なかったです。今改めて触ってみると、楽しい音源のひとつに思えます。
Model-E: 一番力が入っていた初期のバーチャルアナログで Moog Model D Minimoogをモデリングしています。ビジュアルも魅力的で、その後のVSTプラグインのお手本になりました。
下は当時の広告です。マルチティンバー音源というところも時代を感じさせます。当時は25,800円するプラグインでしたが、途中で無償となりました。2000年ぐらいのレビューを見ると酷評が多いですね。本物のMoogを期待したのでしょう。
Karlette: これはエフェクトですが、テープ風ディレイで4個のタップを設定できます。DAWのテンポと同期できるというところが当時としては新しかったと思います。
個人的に当時Cubaseを所有していましたが、パソコンのスペックを考えるとソフトウェアであれこれやるには、まだまだ無理があるという印象でした。しかし、2010年以降は実機の代わりになるようなソフトウェアシンセがパソコン上で扱えるのが当たり前になります。その結果、高価なハードウェアシンセサイザーの需要は少なくなり、現在は音楽制作であればソフトウェア音源で間に合う時代となりました。
CLAP 新たなプラグイン規格
2000年以降DAWで使うためのプラグイン規格がいくつか作られましたが、現在最もメジャーなプラグインは上記のVSTです。ただしSteinberg社の仕様変更などに影響を受けるため、古いものが使えなくなったり、バージョンアップによって開発の敷居が上がったりなど、あまり歓迎されていないようです。個人的にもVST3でプラグインを作ったことがありますが、仕様を把握するのは確かに大変でした。サンプルのソースがあまり整理されていなくて、解析にも時間がかかりました。
そこで2022年にCLAPというオープンなプラグイン規格がBitwig社とu-he社によって作られました。複雑すぎず、柔軟性があるようなので、今後に期待したいところです。現在、CLAPを扱えるDAWはBITWIG、REAPER、MultitrackStudioとなっています。下はClap版u-he Filterscapeです。
Steinberg社は自社の圧倒的シェアを誇るVSTがあるので、CubaseでCLAPをサポートすることはないかもしれません。驚いたのはProToolsのAvid社が支持していることです。業界のドンが動けば状況が一変するかもしれません。ちなみにSteinberg社、Bitwig社、u-he社ともにドイツの会社です。
モデリング技術
ソフトウェア化されたシンセの向かうところは様々です。往年の名機を再現することは当初から行われていましたが、近年になるとそのPCの処理能力を使って、実機との差が埋まりつつあります。特にアナログ素子の振る舞いなどをエミュレートし、その精度が年々上がっています。また計算コストがかかる物理音源も現実的になっています。このように、かつての合成方法をソフトウェア上で緻密に再現したり、組み合わせるなどして、洗練させていく方向に力が入っているように見えます。逆に全く新しい合成方法は出にくくなっているようです。この先、ソフトウェアシンセはどこへ向かうのでしょうか? 以下に思いつくことを書いてみます。
ソフトウェアシンセがますます高度化
シンセが高機能になると、パラメータが増え、専門知識が要求されるため、多くのユーザーにとっては難解でしかありません。もはや音色を作る作業に手軽さはなく、ひとつの楽器を作るぐらいの知識量を必要とするシンセも珍しくありません。そのため現在はプロのサウンドデザイナーが作った大量のプリセットを用意するというのがセオリーになりつつあります。一方のエンドユーザーは、プリセットから気に入った音色を選ぶだけなのですが、膨大すぎて大変という状況になっています。おそらくこの傾向は止まることなく突き進むように思います。無数にある中から選択するという行為は、今の時代至るところにあり、その決断の仕方が、ますます重要になってくるように思います。
将来的にハードウェア化?
楽器がパソコン化してプラグインを入れるための音楽専用ツールになるのも、それほど先ではないかもしれません。Native InstrumentsのNKS規格などは、その現われのように思います。PCとMIDIキーボードをつなげればリアルタイムでソフトウェアシンセは使えますが、PC用汎用インターフェイスでは使いにくいと感じている人は多いと思います。ハードウェアと一体化されることで、よりダイレクトな操作感になるはずです。こうなるとソフトとハードの垣根がより曖昧になり、区別する時代は終わるかもしれません。もちろん従来のスタイルは残りますが、メインストリームは、より便利な方へと流れるものです。
Native Instruments ( ネイティブインストゥルメンツ ) / Kontrol S49 MK3
プログラミングによるシンセサイズ
音響とソフトウェアと数学は仲良しなので、数学的なアプローチの音作りは開発では当然のようにあります。しかし、これをユーザーにまで扱えるようにする試みは見かけません。そんな中、u-he社がuhm言語という波形(ウェーブテーブル)を生成するスクリプト言語を作りました。使えるシンセは今のところu-heのソフトシンセHiveのみですが、将来的には広がっていく可能性があります。uhmを試すと、ちょっとしたチップチューンサウンドを再現するのにも有効でした。音楽だけでなく、様々な音を扱う研究などでも重宝すると思います。下はuhmスクリプトで書いたものですが、通常の減算式シンセでは、なかなか難しいと思います。
グラフィック処理によるシンセサイズ
波形をグラフィック化すると、整然としていたり、聴いたイメージと視覚イメージが一致していたりすることがあります。従来は人工的に作り出せる波形は単純な波形だけでしたが、現在は複雑な波形でも大抵の場合は作ることができます。任意の波形は倍音成分から生成できますが、視覚的に作っても問題ないわけです。そうなると視覚的な作業を行うグラフィックソフトとの連携で可能性が広がるかもしれません。
現在はPCMデータを加工するスタイルが主流ですが、扱うデータが増えると容量が肥大化し柔軟性に欠けてしまいます。画像でいうピクセルを扱うラスターデータに近い感覚です。画像の世界ではベクターデータという解像度に依存しない点と線で構成されたデータ形式があります。ベクターはデータを小さくすることが可能で、柔軟性もあり、用途によってラスターと使い分けします。ラスターとベクターはお互い補完できる関係となっています。音楽の世界でも同じようなことが起きそうです。
これもu-he社の取り組みのひとつですが、波形をベクター(SVG)データとして入出力できるようにするそうです。まだ使える製品はリリースされていませんが、2023年内に登場するかもしれないzebralette3に採用予定です。このSVGによって新たな可能性が開かれるのは間違いありません。SVGは、すでに多くのブラウザでサポートされている標準的なベクターグラフィック形式です。
上図が現在主流の波形の扱い方です。サンプル数と振幅であるビット数を固定し、その中で処理をします。常に決められた解像度の中で、階段状にポイントが設定されるイメージです。サンプル数やビット数を上げていくと、それだけデータ量が増えていきます。またサンプリング周波数や振幅を変更すると劣化します。画像のラスターデータと同じような問題を抱えていると言えます。
一方、u-he社の考えるベクター(SVG)は下図のようになっていて、解像度は無段階で、制御ポイント数が激減することでデータ量を減らすことができます。また自由に曲線を扱えるために、モーフィングなど波形の変形などに強くなります。最終的に音にするときには通常のサンプルに置き換えられますが、直前まではこのようなベクターで処理します。
シンセサイザーの未来
ハードウェアがソフトウェア化されたことで、安価で扱いやすくなったのは明らかで、広く使われるようになった要因のひとつです。もはやシンセサイザーは特別なものではなくなりました。さらにこの10年で音質は向上し、ハードウェアの代わりも務まるレベルに達しています。
開発に身を置いていた立場としては、新しい音声合成方法というものが一番興味深いのですが、一般的には出音がすべてなので合成方法はあまり関係ありません。実際にはいくつもの合成方法を組み合わせて作られたプリセットも多いと思います。
今後、新しい合成方法が出てきても、従来の合成方法に置換わるようなことは起きないと思います。それぞれの合成方法も成熟して、お互いを組み合わせる時代に入ったようです。新たな合成方法が開発されても、プリセットを作るための手段のひとつとして、その中身は軽視されるのは明らかでしょう。目的に応じて合成方法を組み合わせるのが普通になり、そのプロセスが重要になってくるように思います。
上記のような進化の末、開発側、もしくはサウンドデザイナーと使い手の距離は離れていきます。それぞれが高度になった結果、専門化されることは致し方ないことです。ただし、この両者をまたげる人は、その立場を積極的に活用することで確実に新しいものを生み出せるということは言っておきたいと思います。
コラム「sound&person」は、皆様からの投稿によって成り立っています。
投稿についての詳細はこちら