KCGIの伊藤博之教授が全学生に対して特別講義
「未来から来た初めての音」が名前の由来というバーチャル・シンガーは,国内外で開催されるライブコンサートで今日も大勢のファンの心を揺さぶり続ける―。
世界中で人気のボーカロイド(VOCALOID)「初音ミク」の生みの親で,クリプトン・フューチャー・メディア株式会社(本社:札幌市,創立:1995年)代表取締役の伊藤博之氏は,2013年から京都情報大学院大学(KCGI)の教授を務めている。コンピュータと音を接点としたソフトウェアを開発し続ける伊藤教授は,将来のIT業界を担おうとするKCGグループの学生全員を対象に,毎年秋に特別講義を開催。コンテンツビジネスの第一人者として,「初音ミク」誕生の経緯や成長ぶり,音声技術への取り組み,国内外での幅広い活躍について解説し,学生たちに深い感銘を与えてくれる。
特別講義の内容を紹介する。
クリプトン・フューチャー・メディアという会社をやっています。この会社は,みなさんよりずっと先輩で,1995年に創業しました。札幌にあります。
何の会社ですかと聞かれたら,「音の会社」と答えています。音に関して,いろんなことに取り組んでいる会社です。大きく分けて2方向あり,音の技術に関すること,音のコンテンツ…音楽,楽器,効果音とかいろんなコンテンツがあるんですけど,技術面とコンテンツの両面に取り組んでいます。
初音ミクはうちの会社で開発した,歌を歌うソフトウェアです。歌うだけじゃなく,キャラクターを作り,どうぞ自由に使ってくださいとオープンにしています。それでインターネット上で広がり今に至っているわけです。初音ミクに関するソフトウェアとしての研究開発,キャラクターに関する取り組みをやっています。
うちの会社は,初音ミクの音楽を作る,音声を合成して音楽を作る技術の開発とか製品の販売だけじゃなく,コンピュータ・グラフィックス(CG)の研究を一緒にやっていますけど,初音ミク関係だけじゃなく,他にも音に関するいろんなことを手掛けています。
初音ミク以外に「ROUTER.FM」という,音楽を配信するプラットフォームを運営しています。プロのアーティストはレコード会社と契約しているので,自分が作った作品を国内外で販売できるけど,アマチュアのミュージシャンって,そういう伝手はないので,自分が作ったものを広めるのに困るわけです。そうしたとき,こういうサービスを使って,作った曲をSpotifyとかAmazonとか世界中のプラットフォームに配信することができるんです。
あと「SONOCA」。スマホ向けの音楽カードと呼んでいますが…みなさん音楽って何で聴きますか。CD,それともYouTubeとかSpotifyみたいな音楽サービスですか。最近CDってプレーヤー自体売っていなかったり,コンピュータにもCD−ROMを収めるトレーがなくなってきているので,CDは売っていますが,なかなか再生する機会がないと思うんです。だけど,みなさんスマートフォンは持っていると思います。いろんな音楽サービスを通じて,大体みなさんスマートフォンで聴きますよね,音楽を。
スマートフォンをQRコードにかざしてピッとやると音楽がダウンロードできるカードとして販売することで,CDがなくても音楽が聴けるわけで,CDの代わりにリリースするアーティストが増えているんです。そういう音楽カードのソリューションを開発しています。
あとは「『音』の商社」みたいなことをやっています。ゲーム,映画,アニメも,いろんな音が入っていますよね。セリフとか音楽だけじゃなくて,爆発音だったり宇宙船の発進音とかいろんな音が含まれ,それで作品としてデジタルコンテンツとしてできあがっている。そういう作品に必要な音の素材をうちの会社はたくさん取り扱っています。
今では3,4千万件のサウンドを取り扱っています。何でそれだけたくさんの音が集まっているかといいますと,提携している会社が海外に100社以上あります。そういったところが開発した音源をわれわれが契約し持っていて,主に日本のゲーム会社とか音楽を作るクリエイターに販売しているんです。ウェブサイト「SONICWIRE」では楽器も販売しています。といってもピアノとかギターとか,物としての楽器じゃなくソフトウェアとしての楽器です。バーチャル・インストゥルメントといいます。これ,後で説明します。
うちの会社の事業はTの字の形をしています。得意分野を深く掘り下げていきます。うちの場合は音です。サウンドの素材とかソフトウェアとしての楽器=バーチャル・インストゥルメントの取り扱い,オンラインで音を配信するプラットフォームの構築とか,徹底的に掘り下げます(Tの字の縦棒)。やっていくといろんな知識が付いてくる。サウンドの素材であれば信号処理に詳しくなっていく。そうすると音を扱うソフトウェアが開発できるような,体力が付いてきます。サウンドの配信で検索技術みたいなことを学んだり,研究すると,そういった部分について詳しくなって,いろんなことができるようになってきます。
次に付いた知識を他に応用できないかと考えます (Tの字の横棒)。研究的な部門もあったり,初音ミク以降はキャラクターについて取り組むことが多いので,ゲームとかVRとかの製品を作ったり,開発したり,イベントとかキャラクターについての商品化をやったり,横展開ができるようになってくるんです。深掘りするだけじゃなくて,そこで付いたいろんな経験とか知識を横に応用していくと,正三角形のようなイメージができます。これがTの字という意味です。
深掘りするだけで何も応用しなかったら,細長い三角形になって面積は小さいですし,逆にコアコンピタンスっていうんですけど,コアになる価値を持っていないで何でもかんでも手を出していくと平べったい三角形になって,どっちも面積は小さいです。得意分野を持っていながら,それに甘んじることなく,水平展開も考えていく。これによってバランスがいいビジネスができていくと思い,Tの字をイメージした事業を心掛けているんです。
うちの会社には九つのチームがあるんですけど,一個一個が独立しているという感じじゃなく,プロジェクトごとに有機的につながって仕事をしています。
取引先は,札幌,北海道の地元企業との付き合いがありつつも,音楽業界,楽器業界,ゲーム業界中心にいろんな会社があります。
デジタルサウンド入門みたいな話をします。デジタルっていうのは広辞苑からの引用ですけど0と1の数字で表せる状態に置いたデータのことをいいますよね。アナログは波だったりするんですけど。自然界の情報は音も光も,気温とか株価とか,波の形をしているものが多いんです。その波を0/1情報に置き換え,デジタル化して,あるフォーマットに基づいてコンピュータの中に蓄えるわけです。音のフォーマットは2種類あります。一つはMIDIっていう音楽の楽譜情報を扱う規格です。
もう一つはPCMっていいまして,波形情報をデジタル化した状態のもの。圧倒的にPCMの方がデータ量は大きいので,昔20年以上前,例えばカラオケみたいなものも,PCMじゃなくてMIDIデータを送って実現していたんです。でも今はインターネットを安く使えますから,PCMデータを使ったカラオケって普通です。音のフォーマットは大きく分けて2種類あるっていうことです。
MIDIは楽譜情報をしまっておくための規格です。こちらは日本の音楽電子事業協会=AMEIという団体が骨子を作って最終的には国際標準にしたものです。今は使わないけど,着メロはMIDIフォーマット。ボーカロイドを使っている方だとVSQファイル形式で最終的に保存されるのを知っていると思うんですけど,これもある種のMIDIフォーマットです。
PCMは実際に録音した音そのものですね。大きく分けて圧縮してあるフォーマットと非圧縮の2種類ありますが,非圧縮で代表的なのはwavファイルですね。wavという拡張子が付いたファイル,みなさんのパソコンにもたくさん入っていると思うんですが,音の非圧縮フォーマットです。CDも非圧縮です。CDの場合は44・1キロヘルツ/16ビットがそこに入っている音の解像度ですね。一応言っておくと,ヘルツは周期の単位です。1ヘルツは1秒間に1回転という周期。キロは千ですから,44・1キロっていうのは4万4100回ですね。1秒間に4万4100回の細かさで音をサンプリング…サンプリングというのは音を標本化する細かさという意味です。だから44・1キロよりも48キロ,96キロの方が音は頻繁にサンプリングされているということになるので,音のクオリティは高いということになります。
圧縮フォーマットとして代表的なのは,mp3です。みなさんのパソコンの中にもものすごくたくさんのmp3ファイルがあると思います。あとはwmaとか,拡張子で察しはつくと思うんですが,たくさんの圧縮フォーマットが世の中にあります。それからSpotify,LINE MUSIC,Apple Musicとかストリーミング系の定額音楽配信サービスで使われているファイルも圧縮形式です。
デジタルコンテンツを作るときに,音を効果的に使うとより良いものになるといわれています。人間は生まれもって心理学的に聴覚が発達する生き物なので,聴覚に対して敏感です。映像を作るときはやっぱり映像に注目しがちですけど,音にもこだわるとすごくインパクトがある映像が作れます。
例えば宇宙船の映像にちょっと音を付けると,迫力がある,その映像に見えてくるんです。映像に対して音付けする作業をMAっていいます。マルチオーディオ(Multi Audio)の略で,MAをもっぱら行うソフトウェアのことをDAW(Digital Audio Workstation)っていうんです。映画とか音楽を作るときにはこのDAWを使って作業をします。
DAWを使って映像とか音楽を作るときに,その素材を自分でロケに行って録音すればいいんですけども,なかなか時間がなかったり,存在しない音,例えば恐竜の鳴き声を録ろうと思ってもないわけです。そういうときにはライブラリーといいまして,プロが作った恐竜の鳴き声とか爆発する宇宙船の音だとか,いろんな実在するものも実在しないものも含めて,ひとまとまりにしているものがあるので,それを使うと早い。MAをやるときには,ライブラリーを使うと便利です。
BGMライブラリーも同様です。勝手に市販されている曲を使うといろいろ問題になりますよね。素材として自由に使っていいですよと宣言しているBGMライブラリーも世の中にはあるので,そういったものも活用すると権利処理が非常にやりやすくなる。
サンプルパックという音楽を作る素材集があります。ギターとかベースの断片的な音の素材があって,DAW上で順番を入れ替えたり繰り返したりすると,音楽が簡単にできるんです。素材をアッセンブルして好きな長さで曲を作ることができる。サンプルパックはいろんな楽器が出ていて,自分で演奏しなくてもいい。実際に,プロで活躍されている方も結構,もちろんそれを加工して使うんですけども,こういう素材集を使って曲を作っている方が多いですね。
コンピュータで音楽を作ることをDTMっていいます。Desk Top Musicの略ですが,実は和製英語で,海外の人にDTMと言っても伝わりません。海外では単にComputer Music。昔はDTMをやるときにシンセサイザーとかドラムのマシンとか,ハードウェアをたくさん買って曲を作ったんですね。でも今,バーチャル・インストゥルメントというソフトウェアとしての楽器があるように,何でもかんでもソフトウェア化しているので,今はハードウェアというよりソフトウェアをたくさん集めて曲を作るという状態になりました。昔はハードウェアをたくさん買わなければ,何百万円もお金をかけなければDTMできなかったんですが,今は限りなくフリーで始められます。
DTMに必要な機材ですがスピーカーとかヘッドホン…これは要りますね。あと,自分の声とかギターの演奏をパソコンに取り込むときは,アナログからデジタルに変換するオーディオ・インタフェースが要ります。ADコンバーターです。逆にコンピュータの中で作ったデジタル音楽をスピーカーに出すときはデジタルからアナログに変換するインタフェースが必要です。これをDAコンバーターっていいます。一つのコンバーターの中にどちらの向きのものも含まれているものが多いんですけど,こういったオーディオ・インタフェースが必要です。
ただ,オーディオ・インタフェースはコンピュータにデフォルトで組み込まれています。Skypeで友達,親と話ができるということは,アナログからデジタルに変換するインタフェースと,デジタルからアナログに変換するインタフェースがそのパソコンなりスマホに入っているということになります。より良い精度でデジタル化,アナログ化したいときは,高いものを使うと,それなりの性能になるので,こだわる方は使ってください。
あとDTMに必要なものは,MIDIキーボードとかMIDIコントローラですね。MIDIキーボードは鍵盤楽器の形をしています。コントローラはミキシングコンソールみたいな形をしているものがあり,実際にスタジオでやってる機材と同じような手触り感で自宅でも操作できるんです。マウスでぐりぐりやってもいいですけど,何となくカッコいいし操作が速いので好んで使われていますね。
DTMをやるときはDAWも必要になります。波形情報を編集することもできるし,あとMIDIデータを打ち込んだり,バーチャル・インストゥルメントというソフトウェアとしての楽器を操作したりできるんです。エフェクトかけたり,音楽を作るときに中心となるソフトウェアになります。
DTMに必要なものの3番目は音源です。音を鳴らす楽器のことですね。音源のことをMIDI音源とかソフト音源とかバーチャル・インストゥルメントとかいうんですけど,大体同じ意味です。これからお話しするボーカロイドも,音源なんです。もともとボーカロイドというのは歌声の音源技術として生まれました
バーチャル・インストゥルメント(Virtual Instruments)についてお話ししますが,読んで字のごとくです。インストゥルメントは楽器という意味です。直訳すると仮想楽器で,実物の楽器はそこに存在しないんだけど,その楽器と同じような感じで音色を奏でることができるソフトウェアのことをいいます。
バーチャル・インストゥルメント,もちろんコンピュータが一般的になってきてから発達した概念ですが,実は大昔からバーチャル・インストゥルメントもどきは存在しました。1960年代,みなさん当然生まれていませんし,親御さんが生まれたぐらいですよね。
その当時,メロトロンという楽器がありました。手前に鍵盤があり奥に箱があって,中を見ると細い帯状のものが鍵盤に対応してたくさん並んでいます。並んでいるのは磁気テープです。鍵盤一つひとつに対応して巻き付けられています。
何が磁気テープに記録されているかというと楽器の音色です。例えばバイオリンであれば,その音色の伸ばした音が記録されています。しかも各鍵盤の音程の楽器の音色が記録されているんです。そして,鍵盤を押したときにその磁気テープが動き始める。すると磁気テープに記録されている音が再生されるんですね。例えばバイオリンの音を記録した磁気テープであれば,バイオリンは存在しないけどバイオリンの音色をここで出すことができるちょっと不思議な楽器です。これが1960年代にすでにありました。
実際にメロトロンを使った有名な楽曲はいくつかありまして,みなさんも聞いたことがあると思うんですけど,そのうちの一つがザ・ビートルズの「ストロベリー・フィールズ・フォーエバー」という曲です。イントロでフルートの旋律が流れてるのがメロトロンです。ちょっと聞いてみましょう(演奏を紹介)。古い曲ですけども,すでにバーチャル・インストゥルメントの先祖的な楽器であるメロトロンの音色が使われていました。
もう一つの例は,10㏄というバンドの「アイム・ノット・イン・ラブ」という曲の中で全編を通してファーっていう人間の歌声,コーラスのような音色がずーっと流れているんです。それがメロトロンです(演奏を紹介)。シンセサイザーっぽい音なんで,最近の曲かなあっていう感じもするんですけども,本当に60年代の後半の曲です。こういう楽器が,コンピュータが出る前から存在していた。楽器を何とかシミュレーションしたいという人間のニーズが実験的に世の中に出ていたんですね。
1980年代とか90年代になってくると,コンピュータが世の中に出始めます。ようやく,デジタル楽器としてのバーチャル・インストゥルメントの原型がこのころに出てくるんですけれども,80年代にサンプラーという楽器が出ます。サンプリングをする楽器ということでサンプラーっていうんです。音をサンプリング…録音して,それを鍵盤に当てはめて,その鍵盤を鳴らすと,その音が再生されるっていう楽器です。楽器の音色を録音する場合もあれば,人のスピーチとか鳥の鳴き声だったり,そういった要素を入れることができるという楽器です。
80年代前半ぐらいは,日本はまだ全然遅れていてアメリカ系の会社が多かったんですね。ところが80年代の真ん中過ぎになると日本の楽器メーカーがどんどん性能が良くて安い製品を出してくるんです。日本のRolandが作ったサンプラーは,30万円ぐらいで買えたんです。30万円でも高いですけど,当時すごい価格破壊で,めちゃめちゃ売れたんですね。こういった電子楽器市場を以降は日本のメーカーが席巻するんです。Rolandもそうですしアカイ,ヤマハとかコルグとか。電子楽器は日本のブランドが世界的に使われたんです。90年代までですね。
2000年代になると,ハードウェア…物としてのサンプラー,楽器が主流だったところにコンピュータの中で動くサンプラーが出てきた。ソフトウェア・サンプラーっていうんです。そうなると日本のメーカーはすごく弱くて,また欧米のメーカーが主流になっていくんです。
バーチャル・インストゥルメントっていう,その楽器の音色をコンピュータの中で再現するソフトウェアは,ソフトサンプラーの流れから生まれています。ソフトサンプラーのエンジンに楽器の音色を合体させたものとして,バーチャル・インストゥルメントってものができあがってるんですね。バーチャル・インストゥルメントは海外製。日本製はほとんどなくて,海外製が主流です。例えばドラムの音色をシミュレーションするバーチャル・インストゥルメントは,そのものずばりという音色を,自分の狭いアパートの中でも作り上げることができるんですね。ドラムとか持ってなくてもいいですし,防音のシステム…設備がなくてもいいんです。
いろんな楽器がバーチャル・インストゥルメントになっています。ピアノもオーケストラ的な楽器も全部。大抵の楽器はバーチャル・インストゥルメントとして製品化されています。
他の楽器と同じように人間の歌声もバーチャル・インストゥルメント化できると,いろんな曲作りに幅ができるということで取り組みました。その製品の一つが初音ミクです。いきなり初音ミクを開発したわけじゃなくて,うちの会社は音に関することをずっとやってきて,その流れで歌のバーチャル・インストゥルメントに取り組む必要性を感じ,ヤマハがちょうど歌声を合成する技術=ボーカロイドを開発していたので,それを活用させていただきながら作り上げたソフトウェアの一つが初音ミクです。
初音ミクを作るとき,かわいらしい声優の声質で歌ってくれるソフトウェアを作ると面白いものになると思ったので,藤田咲さんの声を録音させていただき開発したんです。今は「初音ミクV4X」というのが最新バージョンですけど,このソフトウェアにはボーカロイドだけじゃなく,編集するためのボーカルエディターが同梱されていて,DAWも入っています。あと基礎的な音源は全部入っていて,ワンパッケージで音楽制作ができるということを売りにしているソフトウェアです。
歌声合成技術の前に音声合成技術っていう技術分野があります。電車の「次は何とか駅です」みたいなことを,自動音声でアナウンスするのに使う技術です。音声合成技術のことをText to Speech略してTTSというんですが,TTS技術は結構昔からあります。40年ぐらい前からすでに世の中に存在していました。TTS技術は,さまざまな会社が取り組み済みのありふれた技術分野です。
コンピュータ・ミュージックも技術的にはそんなに新しいものではありません。けど,音声合成技術とコンピュータ・ミュージックが交わる技術である歌声合成技術は,ヤマハが取り組むまでは,あまりなかったんです。ゼロじゃないですけど,取り組むケースが多くなかった。理由は簡単で,ビジネスにならないからです。
歌声合成技術は取り組みとしては珍しかったんですけど,そこにキャラクターをくっつけた製品は,うちの会社がやるまでは,どこにも存在しなかった。キャラクターは歌声合成技術という本体に対しておまけみたいなものだと考えがちですけども,実はキャラクターをくっつけたところが,非常に大きなポイントになります。というのは,特に初音ミクなんかは世の中に出て以降,初音ミクの動画をまた別の人がマッシュアップして,違う形で動画を作ったりみたいなことがあって,あと歌ってみたり演奏してみたり,踊ってみたりいろんな形で創作が連鎖的に広がりましたよね。こういった創作の連鎖が引き起こされた原因は,キャラクター性があったが故だと思うんですね。
もともとソフトウェアとして開発した初音ミクですが,インターネットの中でいろいろ創作が繰り返されることによって,どんどんキャラクターとしてのポジションが確立されていくことになります。
初音ミクは歌声合成ソフトウェアとして開発しました。キャラクターとしての初音ミクは,そのパッケージに描いたイラストから発しています。だからキャラクターとしてどう振る舞うべきかというのは,非常に悩ましいところだったんです。というのは,キャラクターを描いたイラストは著作物なので,使うためには,「使っていいですか」「はい,いいですよ」といった問い合わせと許諾が必要なんですね。だけど,当社がこういった用途であれば自由に使っていいという宣言をすれば,そういった煩わしさから解放される。権利処理には2種類あり,一つは自分たちの会社が持っている権利部分,それからファンアートといいますかファンが作った創作物に対しての権利処理。この2種類に取り組むことになります。
一つ目の取り組みは,簡単にいうとライセンス発行。みなさんオープンソースのプロジェクトって結構使いますよね。オープンソースは著作物であるソースコードをこういう範囲であれば自由に使ってよいということを宣言している,そういったソフトウェア群です。われわれも初音ミクというキャラクターですけども,そこに対するライセンスを発行します。ライセンスの表示には2種類あります。マスター版と,簡単に要約したもの。何で要約版を作っているかといいますと,初音ミクのイラストを二次創作している人は法律家じゃなくて,小学生とか中学生とかもいるんですね。そういったお子さんが契約書を読んで,理解して創作をするとは思えないわけです。もっと簡単に説明してあげないと分からないので,要約…サマライズしたライセンスの説明をあえて作って公開しているんです。
二次創作物を作って,それを公開したり配ったりするのはやっていいですよ。宣伝や広告のためにそれを使うこと,要するに商売のために使うのはだめですよ,他人の作品を自分のものだと偽って使うのはだめですよ,あとはキャラクターの価値を下げたりとか,他の人を不快にしたり,傷つけるのはだめですよ,とそんなような中身です。
二つ目の取り組みはファンアートに関してです。ファンが作った創作物をどう権利処理するか,どう円滑に権利処理をしようかということについては,「piapro(ピアプロ)」という投稿サイトを作りました。このサイトに投稿された作品は,他のピアプロユーザが創作に使ってよいというルールにしたんです。もう100万件以上のイラストが投稿されています。こういったルールを整備したということもあり,いろんな動画が投稿されて,中には非常にメジャーなシーンでも有名になっていくクリエイターが出てくるわけです。音楽を作っているクリエイターだけじゃなくて,イラストレーターとか3Dのクリエイターの中からもスターが生まれていくんです。
Googleがこういったネットを使った創作の連鎖に注目してテレビCMを作ったんです。初音ミクというか創作が上書きされ世界的に広がっていく,という様子で描かれていたんですが,ここでちょっと思うのは,コンテンツ,特にデジタルコンテンツは絶対誰にも使わせないぜって言って囲っても,あまりいいことが起きなくて,むしろ気前よくいろんな人たちにオープンにする…ということは,使ってもらうことによって,価値がどんどん増えていくということなんです。デジタルコンテンツは使えば使うほど,価値が増えます。
われわれは,初音ミク関係のキャラクターに関しては,どんどんコラボレーションしましょうと。しかも,できるだけ違うところとコラボレーションしていくことによって,価値が伝播していく,広がっていく,増えていく。そういうことで取り組んできました。だからいろんなコラボレーションをやっているんです。「プリキュア」とコラボしたり,男の子が好きなアニメの「シンカリオン」で北海道新幹線を運転するパイロットが初音ミクで登場したり。LUXというシャンプーで,バーチャルですけど髪サラサラみたいなことで起用していただいたり,北海道で工場のバリケードレンタル会社とコラボレーションしたり。もちろんプロのアーティストともコラボレーションします。引退された安室奈美恵さん,BUMP OF CHICKEN,スクウェア・エニックスの野村哲也さんという「ファイナルファンタジー」のキャラクターデザインをされた方。
千葉市とのコラボで,初音ミクの誕生日に合わせて千葉市のホームページを初音ミクバージョンにジャックしてアクセス10倍です。東京都が2018年に150年を迎えた記念の催しで,東京について歌われた流行歌39曲をミクが歌うイベントをやらせていただきました。大阪の通天閣とコラボしたり,京まふ(京都国際マンガ・アニメフェア)にも出させていただきました。あと渋谷慶一郎さんというピアニストが手掛けた人間が登場しないオペラ「THE END」に初音ミクが登場します。初音ミクの衣装はマーク・ジェイコブスというルイ・ヴィトンのデザイナーが手掛けたものです。ファッション業界とのコラボも時々あり,「VOGUE」というファッション誌の英語版でコラボレーションしました。初音ミクが着ているドレスはジバンシーのデザインです。もちろん初音ミク自体はCGですけどね。アースミュージック&エコロジーというブランドとのコラボで,初音ミクが着ている衣装を商品化するみたいなこともありました。
日本の伝統芸能とのコラボレーションもやっています。鼓童という和太鼓のグループとはすごく相性が良くて,筋肉隆々の人間が叩く太鼓と初音ミクが非常にうまい具合にコラボして非常に好評でした。NHKで何回か放送されました。毎年4月に千葉の幕張で開催されているニコニコ超会議の中で行った歌舞伎のテクノロジー版みたいなもので歌舞伎役者の中村獅童さんとも共演しています。非常に好評で,2019年の夏には京都にある南座でやらせていただきました。北野天満宮で実施している京都ニッポンフェスティバルでの展示もあります。
初音ミクのモチーフを使った研究開発を学生とか研究機関が行うというケースも少なからずあります。VRとかXR的なものとか,ロボットですね。セガと取り組んでいるゲームの中で歌って踊って登場する初音ミクを,ステージに上げるとコンサートできるよねってことになっていくわけです。初音ミクはもともとバーチャルですが,ゲーム等で使ったモーションとモデルを再利用すると,リアルな空間でのコンサートも実現できるということで,コンサートを時々やっています。日本ではマジカルミライというイベントを毎年夏に開催しています。2019年も8月に大阪と東京で開催しました。
初音ミクはソフトウェアで,アーティストではないわけですね。ですので,初音ミクのコンサートもそうですけど,初音ミクの裏側にある創作文化というものも同時に紹介してあげる。そうして初音ミクで創作をすることの楽しさ,初音ミクを支えているクリエイターの存在に気が付いて,そういった方々の作品を見てもらう機会にもしたいと思っています。
なのでマジカルミライというイベントは,コンサートだけじゃなくて企画展という形で展示のイベントも同時に開催し,いろんなクリエイターが作った作品を見ていただいています。2020年も大阪と東京でやります。ただオリンピックがあるので,東京は12月開催になります。大阪は8月開催で計画しています。
インターネットは国境がないので,ひとたび公開されたものは世界中に広がっていくわけです。だから初音ミクのコンサートも,ぜひわが国でもというご要望をいただくことが多くなって,いろんな国を巡り歩く初音ミクの世界ツアーを「MIKU EXPO」っていう名前で定期的にやっています。2018年12月はヨーロッパ3都市,2019年に入って台湾,香港。先週まで中国4都市のツアーをやってました。
パリではメディアもたくさん来ました。ケルンは平日だったんですけどもパリ以上に人が入ってくれました。ロンドンはソールドアウトして,もう本当に人がびっちりと入っています。
中国ツアーは上海,成都,北京,広州。最終日の広州では,動画プラットフォームで生配信もやりました。260万人ぐらいの視聴者がいたようです。次は2020年にヨーロッパツアーをまたやります。
うちの会社は北海道にあるんですけど,社員4分の3が北海道出身者です。そこで,初音ミクで培った経験を地元に活かせないかと考え行っているプロジェクトがSNOW MIKU=雪ミクというプロジェクトです。雪バージョン初音ミク。始まりは10年前にさかのぼります。毎年2月に開催されるさっぽろ雪まつりで,あまり大きくはないんですけど,初音ミクの雪像を作ったんです。雪でできた初音ミクなんで雪ミクって言うようになった。せっかくだから何かイベントも開催して,よりたくさんの人が北海道・札幌を訪れる機会にしたらいいんじゃないかと,SNOW MIKUというイベントを毎年雪まつりの時期に開催してます。
札幌と北海道の中でいろんな場所を借り,展開しています。公園,空港だったり商業施設とか,路面電車にラッピングした雪ミク電車も走らせているんです。雪ミクの衣装は毎年テーマを決めデザインを公募しています。2019年のテーマは「北海道の雪をイメージした『プリンセス』」。それに基づいた作品をピアプロに投稿してもらって募集しているんですけど,実に世界中から1000件以上の衣装案が寄せられます。雪像は毎年作ってまして,2019年は雪ミク10周年だったので,いちばん大きな会場にドーンとでかいやつを作らせていただきました。
うちの会社はコンテンツ面,技術面両方に明るいんですけども,そういったことを活かし,いろんな取り組みをしています。技術が伴わないとできない,達成できないことも頑張ってやろうということです。例えば2014年,レディー・ガガさんから前座をやってくれというオファーが来ました。コンサートの前座って,ぱっと出てぱっとはけるのが要求されるんです。でも初音ミクのコンサートはけっこう大がかりで,ぱっと出てはけるわけにいかない。どうしても何時間と掛かる。頑張って交渉して30分いただいて,そのためのシステムを自分たちで設計して作った。こういったシステムを設計して内製して対応して,それができたから,それなりに前座もやらせてもらったということです。
「イーハトーヴ交響曲」という,冨田勲さんというクラシック音楽に初めてシンセサイザーを持ち込んだ大御所の作曲家のプロジェクトがありました。ロック,ポップのコンサートってテンポがあらかじめ決まっているので,CGを作ってためておくことができる。だけどクラシックのテンポはその場で指揮者が決めるので,CGを作っておくことができないんです。常に指揮者のテンポに合わせてCGを合成して出すという仕組みを作らないと,クラシックとのコンサートってできない。冨田さんのオファーをどうやって実現するか考え,テンポに合わせてその場でCG映像を生成するという枠組みを自前で開発しました。CGをリアルタイムに生成する枠組みは,クラシックとのコラボレーションの中で開発し,マジカルミライでも,そのシステムを使ったコンサートをやりました。普通のコンサートは,CGを作りおいて,それを再生することで実現できるんですけども,この仕組みによるコンサートは,その場でCGを生成するので,お客さんのリアクションに応じて手を振ったり,その都度ポーズが変わったりという,ちょっと普通のCGではできないような演出ができるんです。これも内製で,社内で開発している技術です。
あと,一種のタレントみたいな感じでしゃべってくださいとか,スピーチしてください,コメントくださいみたいな要求が最近増えているので,初音ミクの音声を残しながら,かつ人間らしくしゃべる技術みたいなものを開発しています。
CGの技術と音声の技術と両方を,社内で開発して,なるべく初音ミクでできることを増やしていくことを目指しています。それによってクリエイターが表現できる初音ミクの幅も増えていくはずだし,たくさんのまた新しい表現を持った初音ミクの作品が生まれてくるといいなと思っています。
2019年11月,KCG京都駅前校・KCGI京都駅前サテライト6階大ホールで開講(英語同時通訳とともにKCGIの京都本校百万遍キャンパスと東京サテライトへも最新システムを使って同時中継)した内容を収録。写真の一部は2020年10月,コロナ禍のなかオンライン講義した際のもの。