ハノイの日本人

アイドル、ジャニーズ、サッカーなど。

檜垣智也『アクースモニウム を用いた電子音響音楽の上演に関する研究』を読む。

 

相変わらず「2010年代の音」について考えてます。それは見える音「音像」をともなう音楽体験です。「音像」は現代音楽の用語であると知り、現代音楽の本を探しました。ですが、今ひとつわかりやすいのがありません。そう思ってたところに檜垣智也『アクースモニウム を用いた電子音響音楽の上演に関する研究』という論文を見つけました。それは1970年代に考案された立体音響システムについての研究ですが、ここに電子音響音楽の概要が簡潔にまとめられていたのです。大変ありがたい。何箇所か引用します。

 

アクースモニウム を用いた電子音響音楽の上演に関する研究

https://catalog.lib.kyushu-u.ac.jp/opac_download_md/1543991/design0190.pdf

 

 

P7

電子音響音楽の始まりは、第2次世界大戦後に、フランスで誕生した「録音された自然の音」を用いたミュージック・コンクレートと、ドイツで誕生した「周波数のジェネレーターにより供給された音」を素材とした電子音楽に辿ることができる。

 

P17

作曲者で音楽学者のミシェル・シオンは、電子音響音楽には、「録音メディアに固定されたそのもの」である内部空間と、「作品の毎回特別な聴取状況と関係が深い」外部空間の2つの空間概念が存在すると指摘している。つまり電子音響音楽は、作品毎に変わる内部空間と上演毎に変わる外部空間が融合された状態で聴取されることになる。

 

ごく基本的な文章だと思うんですけど、こういうのを押さえて行かないとダメですよね? 外国語表記とかは端折ってるので原文をみてください。2つ目の文章が興味を引きました。内部空間と外部空間。簡単に言うと、CDに収録された音が内部空間。その音を鳴らしている音響機器や部屋が外部空間です。

 

この概念を使って話すと、「2010年代の音」の場合、内部空間よりも外部空間において、いい音になっているのが理想・・・だと私は思っています。例えば、制作者によって作られた音が YoutubeSpotify のようなプラットホームを通過し、圧縮技術によって補正された音を聴取する。その音が「音像」をともない立体的に聴こえるのが理想だと考えているのです。PCモニター上にある波長を、再生される音から逆算して削ったりしていく。

 

さらに、観客にライブで「音像」を感じさせるには、高度な技術が必要とされるようです。その「音像」は、電子音楽やノイズ、そしてクラシックやジャズのような生音の音楽で発生する「音像」とは別のものです。それらの「音像」は空気の振動によるものですが、現代の「音像」はあくまでもイメージ、波長をともなわない、脳内でイメージされる「音像」なのです。ただし、この論文に登場するフランスの作曲家、フランソワ・ベイルは、意図的に「音像」を作り出すことを目指していました。

 

P18

ベイルはアクースモニウムを構成するスピーカーのことを「音のプロジェクター」、そしてこれらにより構築されるステレオ空間を「音響スクリーン」と比喩している。

ベイルは「技術と視聴覚のこの時代における音は、イメージと共にコンサートホールや空間に『投影される』と語っている。

 

面白いですね。ベイルは1974年にアクースモニウムという立体音響のシステムを考案したわけですが、それは「音像」をまさに絵のように空間に出現させようと考えていたわけです。その発想を知ってか知らずか、クラブミュージックのDJたちがそれを実現させました。「2010年代の音」は個人的な視聴においては、狭い脳内でイメージを作り出し、ライブではそこにいる多数の聴衆に同時に、同じイメージを共有させることが可能です。もちろん、視聴の能力差などもあり、みんなで同じイメージを共有することは難しいのですが。とりあえず今日はここまで。さらに考えます。