Takahiro Izutani

Blog

GameSoundCon 2019 Part 3 (Composing Interactive Music 2 by Tom Salta)


前回の続きでTom Salta: Composing Interactive Music 2のレビューです。

さて、どんなに音楽が素晴らしくても杜撰なやり方でその音楽をゲームに組み込んだら台無しだよね。ゲームをプレイ初めて45分経ってもまだ同じバトル曲が同じ様に流れ続けてたら頭がおかしくならないゲーマーはいないだろ?w

ゲーム音楽のインプリメンテーション(組み込み)には原則的に三種類ある。

・Linear (Horizontal) 通常の音楽再生方法、時間軸上に沿って再生させる方法
・Layered (Vertical)  音楽を時間軸上の縦に重ねて再生させる方法
・Generated             ゲームプレイがノートの一音一音にまで影響して音楽を再生させる方法

LinearやLayeredと違ってGeneratedのコンセプトは想像しにくいと思うけど、例えば最もシンプルなもので例えるとスペースインベイダー(Space Invaders)もGeneratedだよ。プレイしていくうちにエイリアンの残数が減っていき、それによって音楽の再生スピードが早くなっていくだろ?

で、Linearは通常の再生方法だからLayeredの解説からしていくよ。


4 layer music system for Dead Space by Jason Graves

これは僕の同僚のJason GravesというコンポーザーがDead Spaceというゲームで作ったシステムだけど、僕自身も自分なりに工夫して取り入れてる。ゲームをプレイする時にはゲームエンジンがミドルウェア(音楽とゲームエンジンのブリッジになるソフトウェア)にどのレイヤーがどの様に再生されるかを指定するんだが、これはそのオーディオ部分だけシミュレートしたものだよ

これは4つのレイヤーを周波数帯域別にわけて作ったもので、元々ひとつの曲として作られたものをレイヤー化することを前提で制作したものだそうです。この様にゲームシーンが冗長にならないように変化を作る際に4つのレイヤーに4曲作る必要が常にあるわけではなくインプリメンテーションを理解していることによって制作を簡素化し、かつより効果的にゲームプレイに反映させられるということでした。

僕が担当したタイトルの中ではWolfenstein: Cyberpilot (2019年7月リリース)というVRの作品でも同様のアプローチをとっているよ。

Wolfenstein: Cyberpilotでは敵がプレイヤーを探しているモードの時に最もインテンシティが低いレイヤーの組み合わせ、敵が接近してきて戦闘状態に近づくに連れてインテンシティが高まり元の楽曲がフルレイヤーで再生されていくように組み込んだんだ。この時にはクライアントにプロジェクトのプランニングまでを依頼されたので二人のWwise(インプリメンテーション用のミドルウェア)のプログラマーを雇ってシステムを実際に制作して自らプレゼンテーションをしたんだ。

ここで会場にいた初期HaloシリーズのコンポーザーMarty O'Donnell氏からオーディエンスの理解をサポートする様に質問。

「君はフリーランサーなのに多くのプロジェクトに関わってインプリメンテーションの役割やデザイナーの役割を果たしてるよね。この場所には音楽はいらない、ここはいるなどどうやってプロジェクトのゲームプレイに関するコンセプトの部分(Aesthetic Side)に関わることができているの?」

マーティ グッドクエスチョン!w それはディベロッパーのサイズによるところが大きいよ。大きいディベロッパーのプロジェクトならチームは大人数になるため全体像は曖昧になりコンポーザーは自分のやるべき作曲の部分に集中することになる。一方インディーゲームでは自分が関われるインプットの部分は大きいです。ただ唯一の例外はPrince of Persia: The Forgotten Sandsの時で、その時は実際に音楽を書く前にUbisoftの様な大きなディベロッパーにも関わらずチームと会議室に集まってどんなオーディオのメカニズムを作るべきかをディスカッションする場が設けられたんだ。任天堂wiiのシステムでどんなことができるか、何ができないかを話し合いました。大抵は彼らが僕に決定事項を告げるだけで僕から何かを提案することはないんだ。こんなことはめったにないことだよ。なぜならチーム内にゲームエンジン内でオーディオがどんなことができるか精通している人間が(大抵はインハウス)いなければ音楽の優先順位は低いからね。

さて今度はGeneratedについての例をあげていこう。


ここではLayeredとGeneratedの複合的なシステムを作った。ゲームプレイの状況が変わった時にトリガーとしてスウォッシュサウンドを鳴らす様にプログラムしている。その一小節あとに音楽のレイヤーが追加されてアレンジが変わる。そのスウォッシュ音とリヴァーブのテールがマスキングしてループポイントの継ぎ目をきれいに隠してスムースにアレンジが移行していくような仕組みを作ったんだ。そして、どの小節においてもゲームプレイにあわせてこの仕組みが可能なように組み込んだんだ。他にも色んな工夫を凝らしたんだけど、例えばどのコントローラにもプレーヤーが触れていない時間が20秒続いた時には音楽が一番地味で盛り上がらないアレンジ(Boring State)になるように組み込んだりね。コントローラに触れた反応があると再び音楽が盛り上がりだすんだ。

更にはプレイヤーが敵に勝利する最後の一撃を出す際にはビープサウンドによるリズムマップだけをWwiseに組み込んでおいて(Beep Map)それをトリガーにしてゲームの各ステージによって異なるスティンガーが再生するシステムを作った。スティンガーはコードサウンドのヒット音になっていてステージごとに、ビープマップと同じリズムの、異なるコード進行の曲になって再生されるんだ。


もし作曲の際にAbleton Liveを使っている方がいらしたらレイヤーの組み方の考え方はSession Viewのコンセプトに近いです。自分はかつてDugoでのライブ演奏の際にAbleton LiveのSession Viewで作ったセットで、ヘッドフォンでモニタリングしているドラマーとお互いの演奏に反応し合いながら即興的にSession Viewのレイヤーを変化させて曲を展開させていくという試みをしたことがあります。Tomさんは「WwiseはゲームサウンドにおけるDJみたいなもんだ」と端的におっしゃってましたが、まさにWwiseはプレイヤーの行動、反応に対してゲームサウンドが楽曲や様々なサウンドをどう生成、再生していくかのコンセプトを作るという、クラブにおけるDJの様な存在です

Super Mario Odyssey (Electric Wires)

ここでLinear、Layered、Generatedの最高のコンビネーションを紹介するよ。それがSuper Mario Odysseyのワイヤーシーンの演出。まずゲームプレイ中にバックで流れてる音楽はLinearだね。ところがプレイ中イベント的に発生するワイヤーシーンのアルペジオサウンドはLinearのバックグラウンドミュージックと常にハーモナイズしているんだ。ワイヤーを使って別のステージに移動するんだけど、移動の途中からもうアルペジオも切り替わるんだ。ゲームのステージによってBGMのキーとテンポが変わればワイヤーアルペジオのキーとテンポもあわせて変化する。しかも曲単位じゃなくてBGMのコード単位でアルペジオもハーモナイズしていくんだよ。

つまりLinearのBGMに対してLayeredされるワイヤーシーンのアルペジオサウンドは内蔵された音源によるGeneratedという、これぞマルチインタラクティブの究極的な形だね。

そして最後にもうひとつ、究極のインプリメンテーションが使われたゲームの例をあげておくよ。

Peggle Blast (Electronic Arts)

最後に紹介するのはPeggle Blast。これは本当にすごいです。今日話した全てのエレメントがひとつのゲームで確立されているだけでなく、皮肉なことにテクノロジーとメモリーに関する限り最も小規模で、かつその少ない容量のせいで最も複雑にサウンドが構築されたゲーム作品なんだ。

・音楽に使用できる容量は5MB
・30分の音楽を再生しなければならない

これが最初の前提条件。ロービットレートでオーディオファイルを組み込む?それはだめだめ。じゃあ残されたオプションは内部音源で音楽を生成させるということしかない。用意された音色のノートを全てリアルタイムで再生させるやり方だね。

これは画面上の釘を撃って消していくゲームですが、BGMに加えて、プレイヤーが撃ったボールが釘(Peg)がヒットされる度に音階になっている効果音(Musical Stairs)が奏でられる。それぞれの種類のPegに対してはそれぞれ異なるサンプルインストゥルメントが鳴るように設定されている。どのサークルやPegをヒットするかでコードとスケールが変化する。ショットごとに楽曲のキーは移行していくんだけど、成功した時のコードはプレイヤーがどのキーセッティングにいるかで決まり、フリーボールを獲得した時はその時のキーサイクルのsus9のコードが鳴るようになっている。

スティンガーはBGMと調和しつつキーサイクルの範囲内で変調しながら鳴り、スティンガーのタイプはそれぞれのキーセッティングに対して12から15種類のMIDIファイルが用意されている。

また各ショットごとにキーが転調するので飽きが来ない様にできてる。そしてそれぞれのキーで適切なノートが鳴るようにセットごとにタグ付けがされている。
Harmonic Flow.jpg

インテグレーションに関しても驚くほどよく作られています。

僕はこのゲームが作られる前にこのコンセプトのことを聞いて知ったので、他の方法で自分なりに試してみようと思ったんだけど、全くうまくいかなかったよw。しかしこのチームは本当に素晴らしい形でそれをやってのけたんだ。

これはインタラクティブの最も効果的な例です。テーマもメロディもこのゲームにはない。コードを中心にして再生されるただのサウンドだけど、インテグレーションは驚くべき完成度の高さだよ。

Tomさんいわく「WwiseはゲームサウンドにおけるDJのようなもの」自分はWwiseとは資格が必要なほど専門的なノウハウを必要とするもので技術サイドに寄ったソフトウェアだと思っていたのですが、Wwiseを使ったゲームのインプリメンテーション自体はむしろ楽曲制作よりもさらにクリエイティブな分野で、再生方法やプレイヤーとの相互関係を定義づけるための自由な発想を展開できる場だということがわかりました。ちょうどDJとフロアで踊るクラウドがその場のノリを共有してインタラクティブに反応しあい、DJが用意した音楽をオリジナルなプレイでよりクリエイティブなものに昇華していくのと同じことです。

こちらはPeggle BlastのチームとコンポーザーのGuy Whitmore氏による2015年のGDCセッションの動画です。同シリーズ前作にあたるPeggle 2というタイトルのレコーディングセッションで収録したオーケストラサウンドのマテリアルから、Nuendoを使ってストリングスのスタッカート、スピカート奏法等によるカスタムサンプルを作ったあと、制作した楽曲のmidiをエクスポートして、サンプルとmidiそれぞれをWwiseに読み込ませてWwiseをサンプラーの様に扱って音楽をリアルタイムで生成しているとのことです。


GameSoundCon 2019 Part 2 (Composing Interactive Music 1 by Tom Salta)

Photo Oct 30, 2 59 43 AM.jpg
前回に続いてGameSoundCon2019のレポートです。今回はHalo: Spartan AssaultTom Clancy's Ghost Reconシリーズの音楽で知られるコンポーザーTom Salta氏によるセッションComposing Interactive Music 1を取り上げました。

ゲーム音楽では通常のストリーミングなどのメディアで再生される音楽と異なり、ゲームプレイ中の状況にあわせて連動するようにあらかじめ組み込まれた音楽の再生方法や音楽自体の選択を決定するルールを組み込む必要があり、このためにミドルウェアと呼ばれるゲームエンジンとオーディオファイルの中間に位置してコントロールするシステムが存在します。このセッションではミドルウェアを用いたインタラクティブな音楽再生の仕組みを解説するのが主旨ですが、前半の一時間はまずTomさんの楽曲制作に関するマインドセットとモチベーションの管理の仕方に関する話でした。

ゲームプロジェクトは数年にもなることすらある長丁場の作業なので作曲においてもプロジェクトの段階ごとにそれぞれのマインドセットを作り、作業内容の選択と集中を促すための効率化が必要になります。それを5つの段階にわけて解説されました。

1 コンセプトと美学の決定 (Concept and Aesthetic Developement)

この段階は実際の制作作業ではなくアイデアを集めて方向性を決めるための準備段階だね。例えばただ闇雲に「曲をつくらなきゃ!」と無計画に作業してみたところで大抵は図の様に相当非効率な過程をたどることになるだろ?w
Photo R 1-11-18 18 53 31.jpg

そこでまずワークフローを創作段階と作業段階にわける。

自由な発想から生まれる良いアイデアは何の制約もないプロジェクトの初期段階にこそ思いつくもの。なのでまずは作品の大枠のテーマとコンセプトを決め、そういった抽象度の高いものから始めてどんどん具体的なところに落とし込んでいくのが良いよ。

この段階では楽曲自体はまだ作らずシグネイチャーになる様なアイデアやサウンドのレシピを確立したり。そのためにクライアントには参考になる様なリファレンス素材は何でもかんでももらえるように頼んだりする。例えばExcelで作ったゲーム構成のディスクリプションシートやデモとして作った楽曲のモックアップをもらえるか聞いてみたり、過去の同じシリーズのゲームをプレイしたり、発想を膨らませるために右脳の創作性の部分を思いっきり働かせるのがこの段階だね。


2 使用する音素材を初期段階で決定する (Define Your Palette Early)

次に実際に使うサウンドや楽器などを決めていくんだ。前段階で膨らませた発想を元に実際にアイデアを出してみる。(Capture random ideas)この段階ではSand Boxで遊んでいる子供と同じで、まだプレッシャーもなく大人になる必要もない。こういう時に出てきた良いアイデアは締め切りに向かって作業をしている時には決して出てこないので思いっきりとにかく遊ぼう。例えば新しく買ったシンセをいじってみたり、エフェクトで変な音を作ってウォーとか騒いでみたりなどなどw で、アイデアが固まってきたら実際に使用するサウンドと楽器を限定していくんだ。特に大事なのはこのプロジェクトの楽器編成には誰がいるのか(Who is in the band?)を想定しながらテンプレートとサウンドのパレットを作ること。カスタムインストゥルメントを作ることなんかもこの段階で決めるんだ。

パレットを限定しておくことで脳が楽器選びやサウンドのチョイス以外で後に創造性に関して働く余地を残しておくんだ。そしてゲームに置いてはステージごと、キャラクターごとのテーマとパレットをあらかじめ決めておくのも重要。こうやって右脳の創作性と左脳の論理性を制作の段階ごとに上手く使い分けるのが制作のプロセスを崩壊させないためのコツ。この段階は制作全体に費やす時間の15%くらいに相当するよ。


3 作曲 (Compose)

作曲の段階で重要な要素はテーマと変奏 (Variation)だね。強力なテーマを作ることは後々の作業に柔軟性をもたらすし、それによってクライアントもコンポーザーもハッピーになれる。転調 (Modulation)もとても有効だけどクリエイティブな転調のアプローチを考えよう。繰り返し(Repetition)も音楽の手法としてはありだけどゲームではプレイヤーは何回も何回も同じ曲をきくことになるからこれもクリエイティブなアプローチを心がける。あとはリズムのヴァリエーションも大事。リズムのヴァリエーションだってもちろんプレイヤーの感情に大きく影響するからね。

Tom氏はオーケストラのConservatory出身ではないので膨大な種類のアーティキュレーションを扱うようなテンプレート作りには興味がないようでした。それでもオーケストラのリアルを体感しておくことは重要だと。子供の頃からジョン・ウィリアムズを聞きまくり、録音物だけでなくライブオーケストラを聞く機会も積極的に得るようにしていたとのことです。またオーケストラに深い造詣があるのであれば膨大な種類のアーティキュレーションを全てロードしておくようなテンプレートも有効ですが、そうでないならば自分にとって「使える!」と思えた音に選択と集中していくほうがより効果的に自分の価値を高められるというポジションだそうです。前回のブログで触れた陣内一馬さんによればハリウッド映画音楽のトップレベルのコンポーザーになると専属のスタッフを雇って24時間立ち上げっぱなしにした機材とPC、そしてそこに立ち上げられた巨大なテンプレートを管理しており、そのトラック数は一万トラックにも及び、PCのディスプレイは第一第二ヴァイオリンのアーティキュレーションだけで上から下まで埋まっているそうです。自分はTomさんと同様に正式な音楽教育を受けてきたタイプではないので非常に共感できる部分が多く、またどこに集中的に自分のリソースをつぎ込むかという視点での話もとてもうなずける部分が多かったです。

4 テストと反復 (Testing and Iterating)
5 ファイナライズとミックス (Finalizing and Mix)

これらについては時間がなくなったため最後にサッと触れて終わりでしたw

セッションの最後にはQ&Aのセクションがあり、具体的にどんなリズム音源を使っているかなどを細かく質問されている方がいたのですが、こういった機材の話になるとどのセッションでもとたんに場違いに感じられる微妙な空気が流れていました。この時にTomさんは音源のことも親切に説明していましたが、むしろそれらをどういう自分なりの工夫で使っているかという点に時間を割いて説明していました。例えば「いまだにStylusRMXはよく使うけど、ループのカスタマイズ機能で使ってるんだ。オリジナルのループを作るために中東製のチープで無名なシンセや、CASIOの昔のシンセで作ったパーカッションの音を手で演奏して録音したものをRMXに取り込んでエディットしたりエフェクトを使って面白いループのオリジナルなライブラリを作ってるんだ」とのこと。どんな機材を使っているかのような情報はもはやシェアする価値がなく、自分なりにどのように機材を活用しているかのレベルで情報をシェアすることに価値がある。もはやこれはクリエーターとしての尊厳に関わる問題で「自分は消費側でなく供給側である」と言う自負からくる意識なんだろうと感じました。

ちなみに使っているリズム音源にしてもTomさんは全部逐一公開していました。もはやそんなことをシークレットにする必要すらないのでしょう。その質問にすら最後にはもはや使ってないサンプルをどんどん消し始めているとおっしゃっていました。

Tomさんは翌日には制作におけるマインドセットの管理についてのみをディスカッションするセッションにも参加されていました。自己管理がいかに最終的な成果物のクォリティに影響するかという点で、これもとても興味深いセッションでした。

Composing Interactive Music 2に続きます。

GameSoundCon 2019 Part 1 (Keynote by Wilbert Roget, II)

メルボルンに続いて先日はロサンゼルスで近年開催されているGameSoundConというゲーム業界のオーディオセクションに特化したカンファレンスに参加してきました。GDCに比べると分野が特化されているために規模は小さいですが、その代わりにどのセッションも全てサウンド関連のものなので二日間の開催期間中息つく暇もなくセッションに参加しました。今回はその中からCall of Duty WW2Mortal Kombat 11と言ったAAAゲーム作品の音楽も手掛けたWilbert Roget, II氏のレクチャー"Playing the Long Game: My 25-Year Journey to Mortal Kombat 11"をレポートします。

DSC03907.JPG

このレクチャーのメインテーマは音楽のことよりもズバリ「長期的な信頼関係」でした。彼のキャリアの中でいかに友人、知人との長期的な信頼関係が自分のピンチを救い、チャンスを生かし、さらには新しい事へのチャレンジと学習に繋がったかという話でした。そして彼の現在の成功こそがその証明であると。

例えばかつてLucas Artsにインハウスコンポーザーとして在籍していた時代に最もご自身が多くの貢献をしたStar Wars: First Assaultというタイトルでは制作途中でディズニーによるLucas Artsの買収によってプロジェクト自体がキャンセルされてしまい全てのスタッフが解雇されてしまったそうです。プロジェクトはアビーロードスタジオでオーケストラレコーディングを終え、完成まであと一ヶ月のところだったとのこと。しかしこの事がきっかけでフリーランスになった彼はのちにこのプロジェクトの時の同僚を介してCall of Dutyの制作会社であるSledgehammer Gamesに紹介してもらい、COD WW2のコンポーザーとして起用されることになりました。(前回のブログで書いた打楽器を全く使わせてもらえなかったコンポーザーとは彼のことです)さらにCall of Dutyのサウンドデザイナーの1人がMortal Kombat 11の制作に関わってると知り、その彼に自分をディレクターに紹介してもらえるか頼んでみたそうです。そのディレクターは彼の過去の仕事をあまり知りませんでしたが2016年に彼が登壇したGDCでのレクチャーに参加していたことで軽い面識があり、またタイミングがよく彼らは次のコンポーザーをリサーチしていたところでした。そこでオーディションとしてテーマ楽曲のデモをプレゼンする機会を得た彼は楽曲を仕上げたのち、曲のテーマを演奏する楽器のソリスト達を雇い、彼らのレコーディング時の演奏シーンを撮影してデモ楽曲に当てはめたムービーを作成し、それをディレクターにプレゼンしてメインコンポーザーの地位を勝ち取ったとのことです。

また新しい出会いが未来の次の出会いに繋がるのと同様に、目前に立ちふさがった困難やチャレンジの機会が新しい知識を学習するきっかけになり、さらにはその知識が次の機会につながっているという話も大変興味深いものでした。

16歳でFinal Fantasy 7の音楽に感銘を受けてゲームコンポーザーを目指す様になった彼はまず様々な楽曲のmidiへの書き起こしをひたすら続けることで作曲の基礎を学んだそうです。そしてイェール大学を出た後に入ったLucas Artsではインハウスコンポーザーの立場から音楽のインタラクティブシステムを1から作り上げる経験を経たことで、後にフリーランスになってから彼自身がLucas Artsで作ったシステムに影響された他のタイトルに今度はメインコンポーザーとして呼ばれることになったと。この際にはディベロッパーからゲームエンジンとデベロッパーツールが全てインストールされたPCを渡されてまるで新しく雇われたインハウスのスタッフのように扱われることでさらなるインプリメンテーションの知識と経験を得ることになったそうです。

またCall of Duty WW2の制作時にそれまではCODシリーズで必須とされていたシンセサイザーのサウンドメイキングをU-he Zebraを使って徹底的に学んだにも関わらず実際にはシンセサウンドを全く使わない方向性が決まってしまったのですが、その後その際の知識を使ってDensity 2 Forsakenというタイトルではアナログシンセのサウンドを作曲に取り入れ、Mortal Kombatではむしろオーケストラをバックにしてシンセをシグネイチャーサウンドとして使うアプローチを活用し、さらにはCOD WW2で使われていた兵器や乗り物の機械音をシンセサイズ加工してスタンダードなオーケストラパーカッションの代わりに使ってたりもしているそうです。こんな感じで彼のキャリアはチャレンジと学習の連続、そして出会った人との信頼関係が新しい機会に巡り合うきっかけになり、その機会がさらに新たな学習の機会を生み、そこで得た知識が後年の新たな出会いのきっかけになってます。

自分がこのセッションに特に感銘を受けたのは彼が重視する「長期的な信頼関係」と同様に自分が今年参加した日本国外のゲーム業界のカンファレンスでは出会う人達がみな人との出会いに対して長期的視点で投資するマインドを持っていると感じ、Willさんのキャリアはそれを象徴する様なものだったからです。自分がかつて日本国内のイベントや懇談会に時おり参加してた際には肩書きや「誰それと知り合い」などの後ろ盾がなかったからか、なかなか単純に人対人として打ち解けて話をするきっかけが作れず悪戦苦闘していました。それに対してGDCやPAXでもそうでしたが、今回のGSCでは特にWillさん自身から声をかけていただいたり、Finishing Move inc.のお二人から「GDCのときに会ったよね」と声をかけてもらったり、かたや日本のゲームにあこがれてコンポーザーを目指しているという現地の学生の方からも連絡をもらって実際に会ったりと本当に互いの現時点での立場に関係なく話して打ち解けることができました。(日本人の方ではHaloシリーズのメインコンポーザで米在住の陣内一真さん、Platinum Games所属コンポーザーの原田尚文さんや同行されていたサウンドチームの方達と食事する時間を作っていただきました。)このマインドの背景には「長期的視点」つまり今お互いに仕事でつながる関係ではなくても5年後、10年後に実際に協力しあえるタイミングが来るかもしれないという考え方と、肩書きでなく人のファンダメンタルに対して自分の時間を投資するという意識があるんだろうということを感じました。いま実際に自分自身のキャリアを考えるとそれなりにターニングポイントになっているプロジェクトに繋がったきっかけが知り合って10年以上経って初めて実際に一緒に仕事をする方だったなんてこともあります。そしてまた出会う方がみな「いかに自分が持ってるものを他人とシェアできるか」という姿勢でコミュニケーションしてくるんです。「自分はこういう仕事をしてるからこういう情報だったらまかせてくれ」とか自分の住んでる国や街のローカルな事情をシェアしてくれたり、「こういう人だったら紹介できるよ」など。これもシェアすることが回り回って最終的には自分を含む全てのひとの財産になりうるという考え方が根底にあるからなんだろうなと感じました。自分も含めてのことではありますが、もし海外でネットワーキングすることを考えていらっしゃるようでしたら「自分が何をシェアできるか」という準備をしておくと確実にうまくいくと思いますよ。

最後にWillさんがレクチャーの中で紹介していたオリジナルのKontakt用ストリングスサンプルのダウンロードリンクをこのブログに貼る許可を、ご本人からいただいたので下に載せておきますね。

https://www.dropbox.com/s/p3t932rwyubn1si/StringsOverpressurePatch.rar

これはMortal Konbat 11の制作の際にブダペストで行ったオーケストラのレコーディングセッションの最後の残り2分間で急いで録音したものだそうです。non vibratoとover pressure(弓を弦に強く押さえつけてノイズっぽいサウンド混じりにする奏法)の切り替えをモジュレーションホイールでシームレスに切り替えられるパッチです。これをWillさんはご自身でプログラムしたそうです。それとWillさんは自分がほしいサウンドを追求するために立ち上げたImpact Soundworksというサンプルライブラリーのブランド共同設立者でもあります。


Behind the Scenes of Call of Duty

Photo 11-10-19, 1 32 37 pm (1).jpg
Games Weekレポートの最後にPAXで参加したオーディオ系のセッションの中からSledgehammer GamesのサウンドチームによるCall of Duty
シリーズに関するプレゼンテーションの内容を紹介します。

前回のブログで書いたようにPAXではGDCスタイルの様々なゲーム関連のセッション行われていたのですが、その中でもこのセッションは目玉でかなり多くのゲームオーディオに関わっていると思われる人たちが開場前から列をなしていました。

Photo 11-10-19, 1 44 36 pm.jpg

Sledgehammerサウンドチームの哲学はスタートアップ企業の精神で常に前回とは違う新しいことにチャレンジすることで、プロジェクトごとに個別の成果を出すために決まりきったやり方から脱却して積極的に実験してみること。また即興的にアイデアを試してみること。そしてそういうった試みの中からこそ、それまでとは異なる結果がもたらされるということでした。

DSC03841.JPG

まずは適切なリファレンス環境を共有するためにオーディオチームが作業する全てのスタジオをキャリブレートして同一のモニタリングができるようにしたとのことです。これはチームのメンバー間でデータのやり取りを行っている際にそれぞれのモニタリング環境が異なっていると足りないものを補おうとして徐々に音圧をあげていくような音圧競争(Arms Races)が起こってしまうからだそうです。一見音響の技術的な側面での調整に見えることですが実際は属人的な側面から起こり得る問題を避けるための施策になっているのが実にクレバーです。

またゲームのユーザは今の時代は様々なスピーカー、もしくはヘッドフォンでサウンドを再生することが予想されるのでダイナミックレンジの違いが再生環境でどう変わるかを確認することが必須であると。特にCODの様なゲームの場合は環境音と銃声のバランスが臨場感を演出するのに非常に重要なのでレンジ幅の設定は入念に考慮して決めていったそうです。これは上に書いた音圧競争回避とも密接に関わってくるテーマです。

このバランスを維持して臨場感を演出するためにCall of Duty: WWII ではコンポーザーに対して「楽曲内でドラムとパーカッションを一切使わない様に」との指示をしたそうです。

DSC03838.JPG

「事前にサウンドチームがすべての状況を実際に経験するというコンセプトの元に録音を進めていったのですが、例えば誰かが銃を撃つのをそばで聞いているのと自分で実際に撃つのは全く違う経験です。オーディオチームというのはゲームオーディエンスに対して唯一物理的に接触できる存在で、例えばユーザがプレイの際にサブウーファーを使っていれば、ゲームサウンドがそれをキックすることでオーディエンスは単にサウンドを聞くだけでなく、物理的にそれを体感することができるんです。そこでオーディオチームは実際に音が発生する状況に身をおいて、どう聞こえるかではなくどう感じるかを体験することが必要だったんです

自分自身で実際の銃を撃ってみるだけでなく、頭上15フィートでヘリコプターが通り過ぎるのを体験するのはどんなものか、ヘリの飛行時に空いているドアから外に身を乗り出すのはどんな感覚か、これらの危険なことはCall of Dutyの世界の中では頻繁に起こる状況なので全て実際に体験してみたとのことです。

そして「Recording Small, Designing Big」という考え方を心がけ、例えば周囲で常に爆発が起こっている様なゲームプレイのシーンではプレイヤーの頭上からヘルメットに降ってくる砂の音を環境音の最下層にレイヤーしておくことで臨場感の演出にとって絶大な効果を生み出すことができたんだそうです。

また森の中の戦闘では爆弾の破片よりも爆発によって飛び散る木片のほうが実際は遥かに危険なので、オーディエンスにそれをリアルに認識してもらうためにあえて爆音に対して実際よりも大きめの音量で樹木が破裂して木片が飛び散る音をレイヤーしたそうです。そのために近くの森にハンマーを持っていって枝を揺らして折ったり、家族とハイキングに行くときにもレコーダーを持っていったりと常に素材集めの機会をうかがっていたと言っていました。

Call of Duty Avanced Warfare 3ではフォーリーの録音についてもそれまでの慣習を捨ててスタジオからでて、より実際の状況に近いロケーションで録音したそうです。例えば川を歩く音を録りに浅瀬のプールに行って、その音をスタジオで聞いてみたらやっぱりプールで歩いている音になっていたとw プールの壁の反響音があるうえに、川では川底の深さは一歩一歩すべて違い、それゆえ水の音も一歩一歩全てランダムに異なるものになるからです。

そんな風に日々「いかにリアルな音を探すか」に熱中していたら、ある日、自宅の外で戦車の音がするので驚いて外に飛び出したらゴミ収集車がマシンアームでゴミバケツを掴んで持ち上げてる音だったとw 結局その音はWater Tankのサウンドとして使うことになったとww
DSC03845.JPG
最後に実際に撮ってきた動画をアップしてみました。Call of Duty WW2のクライマックスシーンのひとつに実際の録音状況を重ねて参照したプレゼン動画です。

Melbourne International Games Week その2

DSC03827.JPG

前回に引き続きGames Weekのレポートです。Games Weekでは期間中に様々な団体によるイベントがメルボルン市内で開催されますが、その中でもPAX AUS (Penny Arcade Expo)というシアトル発のゲーム関連のコンベンション、エキジビションイベントが最大の目玉です。今回はスケジュールの手違いでここでの自分のスピーチは決まらなかったのですが、High Scoreのスピーチを見に来ていたオーディエンスがPAX会場で頻繁に声をかけてきてくれたおかげで多くの交流が持てました。今年3月のサンフランシスコのGDCに参加した時には何もつてがない状態でひとりで飛び込んだ様な形だったのでネットワーキングするにも苦労しましたが、今回は得るものが多かったです。前回のブログにも書きましたがシドニーやオーストラリアの他の街や他国から来ているひとの割合が意外に多く、ここでもゲーム産業のハブとしてのメルボルンの価値がこれから上がっていく可能性を実感しました。

Photo 4-10-19, 9 45 54 am.jpg

PAXでは正式な形でのビジネスミーティングの様なものはスケジュールに組み込んでなかったので会うひと会うひとと楽しく雑談してまわっていたのですが、ネットワーキングする上で外国の方と最初に打ち解けるにはお互いの国の文化のあるあるネタで盛り上がるのがとても有効です。例えばある人に「何で日本では店先に水を撒いたりするのか」と聞かれ「あれは道が舗装されてなかった時代に飲食店が衛生上行ってた事が慣習化したんだ」と説明したらとても府に落ちた様でした。オーストラリアは昔から水が貴重なのでなぜ日本みたいに街が清潔な国がわざわざ水を無駄にするのか理解不能だったとのことです。

また自分が驚いたのは現地の方がある会話の中で「オーストラリアではカンガルーはペストなんだ」と言ったことです。ペストとはまさに病原菌のペストで、つまりほっとくと増え過ぎて収拾がつかなくなる困った存在というほとんどゴキブリの様な意味で言っていて、さらには「どんどん獲って食べた方がいいけど肉が筋肉質で硬いので食べにくいんだよ」とのことで何とも意外な話でした。せっかくセンシティブな話題が出たのであえて「捕鯨のこととかはどう考えてるの?」と聞いてみたところ「一部の反捕鯨組織みたいな考えのひとはほとんどいないし捕鯨が日本の文化だってことも知ってるよ」と、しかし「でも以前に知り合いの日本人に鯨っておいしいの?って聞いたら特別に美味しいものってわけではないって言ってたんだ、だったらあえて捕る必要があるのかなとは思う」と言われてしまいました。その彼が言いたいのはつまり鯨料理が抜群に美味しければ勝手に広まっていって反対意見なんてねじ伏せてしまうだろうということでした。これには自分も参りましたが「反捕鯨活動は日本人の伝統文化に対するアイデンティティ・クライシスを誘発して逆に捕鯨文化を下支えしてる面もあるんだよ」とも伝えておきました。

High ScorePAXの間に二日間オーストラリア最東端のバイロンベイという美しい海辺の街にも休暇で行ったのですが、そこで高台から沖の海をみると鯨やイルカの群れを見ることができて、それはまさにこの世のものとも思えない程の美しい光景でした。こんなものを日常的にみていたら感情的に反捕鯨に向かう感覚もわからんでもない気がしました。カンガルーの件も含めて感情的にもつれた文化的なコンフリクトは実際に現地で体験しないと実情は伝わらないなと思いました。

Photo 11-10-19, 10 17 33 am.jpg

PAX最終日にはCD販売の特設会場を用意していただいたので自ら売り子として精力的に自分のアルバムや他のBrave Waveからのリリース作品を売っていきました。こういう場所ではまだフィジカルの製品は強いのですが、自分が一通り商品内容を説明したあとで実際の音を自分のスマホからSpotifyで試聴して確認してからどれを買うか決める人が多く、今の時代の複雑な音楽業界事情を反映したおもしろい現象だと思いました。購入後は早速パッケージを開けてインナースリーブにサインをするのですが「何か日本語を書いて欲しい」というお客さんには即興でその方の名前を当て字で漢字にして書いてあげてその漢字名の意味を説明してあげました。これは外国では鉄板でウケるんです。

次回、最後はPAXで参加したオーディオ系のセッションについて。