Max Mathewsが中心に開発した、初期の音楽プログラミング環境。これ以前にもコンピューターで音を出す試みはいくつもあるが、パルス符号変調(PCM)の論理に則って音圧波形を直接的に計算するという方式を実現したのはこれが初めて。
すべてノンリアルタイムなレンダリングなので、数分の音声波形を数時間かけて計算して磁気テープに書き込み、それをDAコンバーターに通して再生するという方式だった。
MUSIC I
三角波にエンベロープを掛ける程度の処理。
MUSIC II
4ポリぐらいが表現できた。
MUSIC III
論文として正式に記録が残っているのはここから。
(An acoustic compiler for music and psychological stimuli - Max MathewsとThe Digital Computer as a Musical Instrument - Max Mathews)
Unit Generatorが初めて導入され、テキストフォーマットで記述したものを(パンチカードに打ち込んでプログラムに入力し)コンパイルして音を出す、というフローが明確になった。
MUSIC IV
多くの大学でクローンが作成された。archive.orgにマニュアルが残っている。
MUSIC V
IVがマクロアセンブリで書かれていたのに対して、FORTRANで全てのソースコードが書き直された。そのため、IVのように派生ができるのではなく、多くの大学や研究所に同じものが配布された。(日本でも1971年に東京大学の石田晴久らがHITACで実行したらしい。)
The technology of computer music - Max Mathewsで解説されてるのはこれ。
Bill SchottstaedとVictor LazzariniによりGfortran向けに書き直されたソースコードが公開されてる。
GitHub - vlazzarini/MUSICV: Music V sources and documents
派生
MUSIGOL
MUSIC 360
IBM360用に作られた。
MUS10
MUS10を参照。
MUSIC 11
PDP-11用に作られた。arとkrの区別が導入される。
のちのCSoundに繋がる。