複数音認知に関するメモ。
時間軸のこととか、多声音楽の説得力がどうのこうの、そのへんで最近気になっていることが一つ。
少し前に読んだコレ。
http://yoshim.cocolog-nifty.com/office/2010/11/post-5855.html
ただ、意外な盲点もあった。
コンピュータによって、どんな音でも「合成」できるようになったのに、その逆……、音楽をコンピュータで「解析」して「楽譜」にするということが、さて、どういうわけかさっぱり出来ないのである。音響合成やサンプリング(現実音の抽出)の技術によって、弦楽器でも管楽器でも人間の声でも宇宙的音でも「それらしい音」は機械的に作れるようになった。
そして、それらを回路上で「音階」や「リズム」として構築することも出来る。さらに、そういった「音」たちをコンピュータによって構成し並べてさまざまなテンポで「演奏(リアリゼイション)」することも可能になった。
要するに、ピアノ曲だろうがコーラスだろうがオーケストラ曲だろうが、シンセサイザーとコンピュータによって「それらしい音楽」として鳴らすことは出来るようになったわけなのだ。ところが、その逆、ピアノ曲やコーラス曲やオーケストラ曲をコンピュータに聴かせ、それを「音楽」として分析して元の「楽譜」に還元する。これが出来ない。
何でなんだろうな…といろいろ思い巡らしてみたところ、ふと思い当たった。そういえば人間の耳の蝸牛って、位置によって反応する音程が違っていたはず。
http://ja.wikipedia.org/wiki/%E8%9D%B8%E7%89%9B
正弦波と蝸牛中の位置が一対一対応するほど単純なものでは無いのか。しかし一つの可能性として、人間の耳がそもそも「一つの波形」を聞いているのではなく、始めから分析的に音を感受し、それらの合成として、「一つの音色」という無時間的表象に置き換えて認知している、てことがあり得るかも。
そうするとシンセサイザーというのは、ただ「波形」を合成している、というより、脳内のプロセスを近似的に模倣している、というふうにも解釈できる。
また、特定の音程にしか反応しない2万段階ぐらいの振動板を具えた、蝸牛の形状を模倣したマイクを作り、それをソフトウェア的に合成して波形を合成する、というアプローチをとれば、「自動採譜装置」が作れるのかも、とか妄想してみたりして。
取り敢えず、人間の聴覚が、波形のような単純な一次元的な感受の機構ではなく、無数の聴覚細胞が参与する多次元的な機構と考えた方がいいのかも、ということは、心に留めておいてよさそうな気がする。