表紙へ     前の記事     次の記事


ターミノロジー

音楽情報処理

平賀 譲

現在コンピュータは音楽の様々な方面に利用されており、 楽音合成、作曲、演奏といった生成面はもとより、 音楽分析などいわば聴取側の処理にも及んでいる。 これらを総称して「音楽情報処理」と呼ぶ。 「コンピュータ音楽」という場合にはこのうちの生成面、 特に芸術的創作を指すことが多い。

コンピュータによる音楽の扱いには、 音響信号を直接対象とする場合とコード化された情報を対象とする場合とがある。 前者ではアナログ音響信号(A) とコンピュータが扱うディジタル信号(D) との互換のため、D/A 変換、A/D 変換が必要になる。 その機能を内蔵した機種も最近では多く(NeXT は代表例)、 また外部機器としても CD や DAT の普及に伴い、 市販品レベルで高精度の処理がきわめて廉価で可能になってきている。 信号処理技術にしても高速フーリエ変換(FFT) など様々な手法が開発されている。

一方後者のコード化は、本質的には記号化された楽譜情報を扱ったものと言える。 これで実際の音を鳴らすには直接音響信号に変換するなり、 電子制御可能な音源(ディジタルシンセサイザなど)を駆動することになる。 逆に音響信号も楽譜情報化されて利用されることが多い。 コード化された楽譜情報は高次の音楽分析、 コンピュータや電子楽器間の通信、音楽データベースなどの用途がある。 コード方式で標準的なのは電子楽器用の MIDI 規格だが、 実状に合わなくなってきており、GM などの拡張が提案されている。 他に SGML に準拠した SMDL や、SMPTE などの規格がある。 音楽記述言語にも様々な提案があるが、 最近ではパソコン向けには Csound、 高機能ワークステーション向けには MAX が主流となっている。

電子楽器の機能は音源と演奏インターフェースとに分けられるが、 通常の楽器と違ってそれらが一体化している、いわば自立型である必要はない。 コンピュータだけによる演奏なら、音源は単なるハコでもいいわけである。 音源には電子音響合成を行うもののほか、 Piano Player のように機械駆動系で通常の楽器を鳴らすものもある。 音響合成には FM 合成、加算合成、楽器の物理モデルに基づくものなど 様々な方式があり、 製品には楽器音のサンプリング録音を利用するものもある。 演奏インターフェースはキーボード型が一般的だが、 管楽器やドラムスを模したもの、さらに全く新規の形式のものなど多様である。

最近ではマシンパワーの増大に伴い、 音響合成も含めた処理機能をコンピュータ本体に集約し、 ソフトウェア的に統合するシステムが研究の主流になっており、 人間の演奏者とリアルタイムで合奏することも可能になってきている。 また映像やパフォーマンスなどと結びついた、 マルチメディア指向の研究・作品も増えている。 コンピュータによる音楽分析や、認知科学的研究はこれから本格化していくだろう。 日本ではインタラクティブな合奏の研究が中心であり、 コンピュータ音楽作品にも優れたものが多い。 昨年は初めて日本でコンピュータ音楽国際会議(ICMC)が開催された。

音楽情報処理についての文献は、 以下の記事に紹介したものを参照してほしい。

平賀譲:「コンピュータ音楽(音楽情報処理)」, コンピュータソフトウェア, Vol.11, No.1 (1994), pp.49--56.


本学・講師
Music Information Processing, by Yuzuru Hiraga