Vtuber

開発者が語る、Vtuber向けアプリ『VTube Studio』の未来

Live2Dを使ってVtuber活動している人は少なくない。Live2Dは比較的安価(3Dモデルと比べたら)で作れるし、技術的なハードルも低いからだ。

そしてLive2Dを使うためのソフトの代表格としてあげられるのが『FaceRig』だ。安価でトラッキング精度もそれなりに良いため、大手Vtuberの中でもよく使われている。

もちろん『3tene』などでもLive2Dは動かせるが、性能的には『FaceRig』に軍配が上がるだろう(値段などは考慮しない)。そのため、Live2Dを使うVtuberの選択肢は必然的に一つに絞られていた。そう、今までは。

2020年6月、Live2Dを使うVtuberにとって革新的なアプリがリリースされた。それがLive2Dをスマホで動かせるアプリ『VTube Studio』だ。

────ということで前置きが長くなりましたが、『Vtube Studio』を紹介していこうと思います。なんと今回は、開発者であるDenchiさんに『VTube Studio』の裏話を聞かせていただきました!

そもそも『VTube Studio』とは?

『Vtube Studio』は、スマホを使用して顔をトラッキングし、Live2Dを動かすことができるVtuber向けアプリです。iPhoneのARKit機能を使用しており、webカメラを必要としません。

また、PC版の『VTube Studio』とつなぐことで、スマホでトラッキングした表情をPCに表示することができます。これにより、配信や動画制作にも使用することが可能です。

f:id:banana1147:20200609155038p:plain
『Welcome to VTube Studio』-Youtubeより

FaceRigを購入済みのVtuberさんの中には「FaceRig買ってるから必要なくない?」と思う方もいるでしょう。しかし『VTube Studio』には『FaceRig』とは明確に違う点があります。

『FaceRig』との一番の差別化点は、トラッキング精度です。iPhoneのカメラを使用しているためか、『FaceRig』より、挙動がはっきりとしており、トラッキングが外れにくいです。これに関しては、炎炉晴丸さんが比較動画をあげているので、見てみてください。

PCにつなぐなどの機能は有料版を買う必要がありますが、動作確認をする分には無料版でも十分なので、気になった方はまず無料版で動作を確かめるのをオススメします。

今はまだ、英語しか対応されていませんが、今後のアップデートで日本語対応される予定です。

VTube Studio

VTube Studio

  • Vincent Diener
  • Entertainment
  • Free

apps.apple.com

開発者が語る、『VTube Studio』の未来

リリース直後ということもあり、まだまだ情報が少ない『VTube Studio』。それだったら全てを知っている開発者に聞けばいい!ということで、開発者のDenchiさんに協力いただき、開発のきっかけや裏話などをインタビューさせていただきました。

────それではまず、簡単な自己紹介からお願いします。

f:id:banana1147:20200608003744p:plain
Denchiと言います。ドイツ出身で、ソフトウェア開発者として働いています。趣味は酒を飲んだり、アニメを観たり、ゲームをすることですね。日本語を勉強中ですが、まだまだ上手ではなく、簡単な文章しか書くことができません。だから今回のインタビューで使う英語があっていることを願っています(笑)。

────日本のVtuberについてどう思いますか? 

f:id:banana1147:20200608003744p:plain
大好きです!日本らしい独創的でユニークなコンセプトですよね。特にすごくかわいいVtuberが好きです。日本語は勉強中のため、まだまだ理解できないこともありますが…。

私はよく英語の画像掲示板(画像を主体とした2chのようなもの)を見るのですが、2014年ごろから日本のVtuberの動画が投稿されるようになりましたね。すぐにハマってしまい、見れるものはすべて見てしまいました。当時は、イラストやアニメーションは質の高いものではなかったですが、キャラクターがかわいくて、性格も面白かったです。現在のVtuberと比較してみると、よくここまで進化したなと感じます。

変わっているかもしれませんが、個人的には普通のYoutuberやアイドルより、Vtuberやバーチャルアイドルのほうが好きです。

────『VTube Studio』を開発したきっかけは何ですか?

f:id:banana1147:20200608003744p:plain
ゲーム開発のために、数年前にLive2Dに興味を持ち始めたことがきっかけです。ネットでLive2Dの動画を見て、これを自分のプロジェクトに使えないかなと思いました。しかし私の絵はそこまで上手ではないため、アニメーションを使うことで改善しました。Live2Dについて勉強するうちに、『FaceRig』の存在を知りました。『FaceRig』は優れたソフトですが、私には少しだけ使いづらいように感じました。それだったら自分で作ってみるのも面白いかなということで、『VTube Studio』の制作を始めました。

────開発の際に苦労した点などはありますか?

f:id:banana1147:20200608003744p:plain
現在、フェイストラッキングにはiPhoneのARKitという機能を使っています。この機能は便利で使いやすいのですが、私が開発を始めた初期のころには、まだiPhoneにはなく、似たような機能がandroidにあるだけでした。androidのはARCoreというARKitと似ている機能なのですが、ARKitと比べると正確さに欠け、正直使いづらいですね。ARKitならば、使用者の笑顔やまばたきなどを読み取り、簡単にLive2Dに表情を反映させることができます。しかしARCoreの場合は、顔のメッシュデータをもとに、パラメータを自分で調整する必要があります。これを実装するのは、本当に骨が折れましたね。今思えば、iPhoneのARKitのほうが圧倒的に優れているので、最初からそっちに力を入れたほうがよかったかもしれません。android版のリリースを考えていますが(うまくいけばすぐにでも)、残念ながらiPhone版ほどの性能にはならないでしょう。GoogleがARCoreを改善することを望んでいますが、iPhoneは高精度のフェイストラッキングのために特殊な機能(TrueDepthCamera)を使っているので、そこまで期待できないですね.

────『Vtube Studio』にかける想いを教えてください。

f:id:banana1147:20200608003744p:plain
私が『VTube Studio』で目指したのは、技術がない人でも簡単に使えるよう複雑さを抑え、誰でも楽しく使えるアプリを作ることでした。そのため、UIデザインやユーザーがどのようにアプリを使うかなどを考えるのに多くの時間を費やしました。『FaceRig』は好きですが、設定が大変で使いにくいという意見をよく聞きます。そのため、モデルのセットアップをアプリ内で完結させ、「モデルをロードすれば、すぐに使うことができる」という簡単なものにしたいと思っていました。しかし同時に、ユーザーが望むのなら、アプリからもモデルやトラッキングをカスタマイズできるようにしたいとも感じていました。

概ね、アプリの出来には満足しています。ただ、まだまだ使いづらいところもあると思います。そしてもちろん、対応言語が英語のみなのも大きな問題であると理解しています。日本の有志の方々がアプリの説明を翻訳してくれたり、チュートリアル動画を出してくれたことには、本当に感謝しかありません。

────今後やりたいことはありますか?

f:id:banana1147:20200608003744p:plain
ここ数か月、私は多くの時間を『VTube Studio』に費やしてきましたが、まだまだ課題が残っており、今後それに取り組むことになるでしょう。今のところ考えているのは、ショートカットであらかじめ登録しておいた表情やアニメーションを再生するというものです。他にも追加してほしい機能があれば、TwitterやDiscordで連絡してください!

最近はゲーム用のLive2Dを作っていなかったので、ひと段落したら、またそっちに戻ろうと思っています。

今回お話を伺った人:Denchi
f:id:banana1147:20200608003744p:plain

ドイツ出身。「Live2D Creative Awards 2019」でクリエイティブ賞インタラクティブ作品部門を受賞。日本語勉強中です。

www.youtube.com