この記事の概要を簡単まとめ!
- VTuberに必要な物は多い、揃えるには金がかかる
- リアルに見せるには現実とのリンクを行う必要がある
- Webカメラは前提、ソフトウェアは様々あり有料も存在する
- フリーソフトでありながら高機能なソフトウェア”VSeeFace”を試すことに
- Webカメラが1つあれば、顔のトラッキングは完璧に行ってくれる
- 設定を最適化すれば低スペックでもそれなりに動かせる
- 外部周辺機器とソフトウェアに対応する
- 慣れてきたら腕・手・全身トラッキングも可能になる
- 難点:VSeeFace自体を閉じないと止められない
- これ1つでVTuberの基本は達成できる
ある物事を理解するには、その物事に何らかの形で関わることが最適解である。そう感じている私は、VTuber・VR関連の調査のために自分自身がVTuberに近いことを行い、それによって得られた情報をここにまとめている。この手の物はそれをやっている人から話を聞いてそれをまとめるということをしてもいいとは思うが、しかし実際にやらなければわからないことも多いわけで、正確な情報のためには自分自身でやることは大事である。
今回取り上げるものその1つとなる。VTuberの3Dモデルを動かす際に必要なことといえば、現実との動きをリンクさせ、それを表示するソフトウェアだ。これがなければ、リアリティを出すことは難しい。昔は限定的にしかなかったそのソフトウェアも、有料・無料問わず様々なものが作られては市場に流れている。誰がどれを使っているかについては、把握はほぼ不可能だ。
そのソフトウェアの1つとして、かなり高い評価を得ているものがある。それが”VSeeFace”である。これはフリーのソフトウェアとなるが、その完成度は有料のソフトウェア並で、これ単体でかなりトラッキングするようで、細かい部分のトラッキングに関しては必要な機材を入手すれば、殆どが対応しているのですぐにでもトラッキングの設定やテストができるというものになっている。私の周りでは卯塚ウウ氏が使用中であり、さらにこのソフトウェア自体が他のVTuber関連ソフトウェアの解説の基盤にもなる。まずはVseeFaceが一体どのようなものなのか。これをしっかり見ていくこととする。
これ、ここまでしっかり動いている!?
VTuberの活動に必要なもの
VTuberという存在
VTuberといえば、3Dモデルが要る。それはもうどこを見ても当たり前の話で、逆に皮がない状態でどうやってVTuberになるというのか、という話でもある。それはともかく、3DモデルはVTuberを語る上では絶対に必要なものとなる。3Dモデルについては制作には3Dモデリングの知識が必要で、その知識を持っている人は商業でゲームやアニメなどに携わっている人か、趣味の領域かつ有料販売できる人くらいである。殆どは触ったこともない人であふれている。もっとも、それが普通である。
とはいえ、素人でも感覚的に制作できるソフトウェアが作られて、無料でダウンロード出来るようにもなっている。創作支援系の活動をする企業であるPixivが開発したVRoid Studioがそれである。また、無料でありながら有料に引けを取らない、拡張機能も色々導入できるBlenderも3Dモデリングではよく用いられる。なおBlenderについては習得するまでが大変であり、しかしこれが使えるようになると何でもできるという位置づけにある。
さて、現状のVTuber事情を考えると、企業に関しては「ガソリン」であるので特に何もしなくても勝手に盛り上がるし、業務に関わる部分については従来の企業と同様に事務員がまとめてやってくれることであろう。内実はそこまで知らない。だが企業に所属する以上制約は存在し、少しのミスで「干される」ことも少なくない。あるいは解雇も良くある話で、これについてはたまにSNS上で話題になり、VTuberやVRを専門とするインターネットメディアで書かれるものが多い。その分従来メディアではあまり取り上げることはないようだ。
個人については今から始めるのは魔境に脚を突っ込むようなものである。明確な目標とそれに至るまでの計画、周囲のサポートしてくれるであろう人や同じ個人VTuberの横の繋がりを自分から増やしていく、案件に対し自分から獲得するように動く、といったことが必要になる。そしてサポートしてくれる人がいたとしても、個人は基本的に全てを1人でこなさなければならないということで、自己管理能力が高い人でないと長続きしないものであると考えていい。なので今からVTuberになるのであれば、選考倍率こそあるが企業VTuberになった方が楽というのはある。そこである程度の実績を積めば、その後で個人営業になってもそれなりにやっていけるためだ。実例は最近見た。
VTuberに必要な物は多く、金がかかる
VTuberに必要な物と言われて何を想像するか。3Dモデルについては前提として、PCは石油王スペックを1台か用途別を複数持ち、メーカー別の最新コンシューマゲーム機、光回線、割といい感じのスマホ、Webカメラ、VR機材。これらは殆どのVTuberで標準とされるものになるであろう。もう少し完璧にしたい場合はVR用の追加のトラッキングデバイスやカメラが必要になり、或いはそれ用の特化した有料のソフトウェアが要るなど、様々なことが想定される。
これらはあくまでも一例に過ぎない。他にやりたいことや目標があれば、それに関わる費用のために資金を調達しなければならない。実地でのVTuberイベントは開催地への交通費と食費、そのイベントでのみ使用する機材費など、様々なことが考えられる。考え出すとキリがない。私の周りで最も「機材投資」していると見れるのはclea氏で、プロフィールページの下に保有機材情報からわかるように相当機材が揃っている。また、1年以上前の動画となるが、clea氏自身がその時点で現在使用している機材の価格についてをまとめたものがあり、その情報から以下のことが判明した。
- 現行のPC(構成はプロフィールと変更なし):構成パーツ及びモニタとOSを含めた全額で¥237,038。ドスパラ・ガレリアZF(2019)のRAM32GBに変更したカスタム品。
- 周辺機器(モニタ・マウス・Webカメラなど):約10万円。買い替えにより現在は使用していないものも含まれる。
- VR関連:Quest 2とリンクケーブルで¥45,000。本体価格¥35,000程度の本人談から128GBモデルである。
- ソフトウェア:サブスクリプションは月額表示のため、1年分の補正(×12)を行って総額約3.2万円。この頃はゆかコネを使用しているためAPIもゆかコネの頃のプラン。
- 総額:clea氏自己申告約39万円, 補正後推定金額約42万円, ざっと高く見積もって約50万円
- ※総額にモデリング代は含まず

これらは過去の情報であるので、現在の情報とは相違があることは前提で考えると、初期投資だけでも相当かかるものであることが分かる。現在はフリーソフトや廉価版、性能がほぼ同じで安いモデルが存在したり、やや遠回りながら同じ効果を持つやり方が存在するほか、現物に関しては型落ち中古品が市場に流れるので、少しは全体価格が下がるものと考えていい。もっとも、敷居が下がっても継続できるかどうかについては、それは別問題である。
リアルに見せるには現実とのリンクを行う必要がある
さて、VTuberとして絶対的に必要な3Dモデルであるが、作っただけでは意味がない。3Dモデルを何らかの形で動かして初めてVTuberとして成り立つというものである。今までのやり方で言うとMMDと動画投稿があるが、現在のメインスタイルは配信である。よって配信=リアルタイムでそれを動かすことになるわけだが、それをリアルに見せるなら、現実とのリンクを行う必要がある。要するに、現実の自分と3Dモデルの自分との動きを一致させるということである。
その際に最も使いやすいものがWebカメラである。被写体の動きを最も捉えやすいデバイスであり、外付けのものは中国製ならギャンブルにこそなるが安くて性能はそれなり、というものが多いのである意味初期費用は安く抑えられる。もっともメーカー製でもそれなりに安くなっているが。ちゃんとしたものでも¥3,000を超えないことは殆どである。この場合はテレワークのような仕事で使えるレベルのスペックとなっている。
3Dモデルを動かすためのソフトウェアも無数に存在する
ただ、カメラだけあっても仕方ない。カメラで捉えたその結果を3Dモデルの動きとして反映させなければならない。できれば遅延を少なく、現実で動いた分と同じだけ動き、もっと言えば人間的な細かい動き(口やまばたき)も再現してほしいと考えるのが使っている人の思いであろう。VTuberが登場した当時は果たしてどうだったかは知らないが、現在は多数の3Dモデルを連動させるソフトウェアが有料・無料問わず市場に存在する。そのモデルの形式毎に対応するソフトウェアもそれぞれ特色がある。
モデル形式については、早い段階でVTuberを始めた場合はLive2D対応のもの(拡張子moc3ないしmodel3.json等)、3Dモデリング技術が進んで後発で始めた人は3Dモデル対応のもの(原則として拡張子vrm)を使用していることが多い。今よく見るのは3Dモデルの方が多く、Live2Dは正直少なくなってきているのではないかと思われる。前述の通り誰でも簡単に3Dモデリングができるようになったので、それによって増えてきているとも考えられる。
ここでは3Dモデルを前提とするので、確認するのも3Dモデルに対応するソフトウェアのみで考える。当然拡張子はVRM形式を前提とする。VRM形式対応のソフトウェアは検索すれば多数結果に上がってくるので探すには困らないが、1つ挙げておくなら3teneが有名である。が、しっかり使うのであれば有料版(3tene Pro)が必要であり、Live2D版に関しても有料版しかない。本ブログにおいて金のかかるものは(企業によって提供される場合を除き)原則として取り上げない方針のためこれはスルーする。
その代わりに今回取り上げるのは、それら有料のソフトウェアに劣らず多機能でありながらフリーツールとして提供されている、”VSeeFace”である。基本はWebカメラが1つあれば解決するもので、トラッキング精度は高精度で名高いLuppetに並ぶ程とも言われている(※有料)。加えてある外部周辺機器に対応し、別のソフトウェアであるThreeDPoseTracker(TDPT, 無料)1)株式会社デジタル・スタンダードが開発・提供している、自社開発の画像認識AI技術(ディープラーニング)を利用して、体の24の検出ポイントを3次元の座標で出力することができる、リアルタイムモーションキャプチャシステム。Windowsのみ対応で、フリーソフトとしてBoothで提供中である。も連携対応しており、これだけあれば全身トラッキングも可能といった高機能なものになっている。ただ、これ単体では腕・手を動かすには至らず、前述の周辺機器が必要である。今回は導入編として、まずはVSeeFace単体+Webカメラで果たしてどんな感じになるかを実際に試し、その記録をしていく。
Webカメラ代だけで始めるVSeeFace
VSeeFaceを解説するにあたり、検証するPCのスペックに関わる情報のみを掲載しておく。使用するPCはHP EliteBook 8570w (Mobile Workstation)で、CPU: i7-3740QM(4C/8T ~2.70GHz MAX ~3.70GHz), GPU: Quadro K2000M(DDR3, 2GB, bus 128bit), RAM: DDR3-1600(8GB*2+4GB*2=24GB) となっている。つまり弱い。これより強いPCを持っているのであれば、ここに書いてある設定よりも強くしていい。
初歩:インストール(ZIP解凍形式)
まずはVSeeFaceをインストールする。ソフトウェア自体は自己解凍形式ではなくZIP解凍形式となる。したがって通常の解凍を行った場合Windowsのスタート欄に直接起動するプログラムが表示されないものとなる。登録方法はあるもののここでは解説しない。まずはVSeeFaceの入ったZIPファイルをダウンロードすることから開始する。公式サイト及び配布先はここで、開発の関係で基本は英語である。ただし日本語の解説もある程度存在するようだ。
ダウンロードはトップページから少し下にあり、そこに大きく存在するダウンロードリンクをクリックすることで、その時点での最新版の入ったZIPファイルをダウンロードする。ZIP形式につき中身は任意の場所に展開すること。最も楽なのはデスクトップに置くことであろう。展開すればインストールは完了である。

起動からチュートリアル完了まで
初めて起動するとチュートリアルが表示される。チュートリアルの内容は設定の仕方が7ページにわたって書かれている。その割には同時進行で設定できないのが問題であるが、それは仕方ないものとする。ポイントとなるのは2番のOBSのプロパティ設定である。ここで「透過を許可」をチェックし「カーソルをキャプチャ」をチェックを外すことが前提となる。VSeeFaceは透過が標準で用意されているので、この機能を生かすためにもこの部分を確認しておく。
チュートリアルについては後で見返すこともできるので、一旦は先に進めるといいだろう。

準備1:カメラ設定の最適化
まず必要なことは、カメラ設定を最適化することである。これは任意のWebカメラを接続した状態で行う。私が使用しているのはAmazonで購入したURVOLAXという無名の、おそらく中国のメーカー製だと思われるものを1000円の最安値の時に購入している。既に賭けであったこれだが、特に何の問題もなく使用できている。なお、マイク内蔵/最大1080P/200万画素/30FPSであると自己申告スペックでは書かれている。本当かどうかは知らない。
それはともかく、PCにWebカメラを接続し、OSが認識できている状態でVSeeFaceを起動し、メイン画面の右側に存在するカメラ設定を確認する。この設定を使用しているPCの限界を超えず、かつ他のソフトやツールを起動していたとしても問題なく動作する状態を想定して設定することが重要である。そうでもしないと、まずまともには動かないであろう。そのため調整時はあえてOBSやゆかNEO、わんコメといった必須ツールを起動した状態でテストするといい。
なお、カメラの調整はかなり細かく設定できるようで、使用しているWebカメラのハードウェアとしての限界を上限として、FPS値も1fps単位で変更できるようになっている。ただ、どれくらいの設定が最適かというのは実際に試さないと分からないもので、専門知識のない人だと調整も難しい。その人向けには自動設定の項目があり、これを使用するとパフォーマンスを測定した上で最適解を設定してくれるというものになっている。もっとも自動設定は目安に過ぎないので、参考程度に捉えておくといい。気に入らなければその部分を自分で変えてしまってもいいわけだ。

準備2:モデル選択
カメラ設定については一旦これで置いておくとして、モデルを選択する。モデルについてはローカルからVRMを指定する、或いはVRoid Hubにログインしてそれを使用するという形になる。基本的にローカルから指定する方が安全なため、ここではローカルから選択する。「アバターを登録する」から参照形式で使用したいモデルのVRMを選択して登録する。登録は何個でもOKだが、1つずつしか登録できないのはネックである。
任意のモデルを選択すると、右側にVRM内に登録されているモデルの情報が表示される。他人の制作モデルであれば確認するとして、殆どは自分のモデルを使用していることなのでここはスルーしてもいい。そして使用したいモデルを選択した状態で「スタート」をクリックすることで、指定したモデルが表示されトラッキングが開始される。

準備3:OBSへの反映+トリミング
トラッキングを開始したら、今度はその映像(ウィンドウ)をOBSに取り込む。取り込む際は右下の※マーク(上にFPS値・TR値・解像度がある)をクリックして透過モードにしておく。その上でOBSを起動し、準備1で見たチュートリアルの2番目を参考に「ゲームキャプチャ」として取り込む。タイトルは”[VSeeFace.exe]: VSeeFace v[バージョン値]”となっているので、これを探してチュートリアルに従って設定する。
導入してみてわかるが、標準では余白が大きすぎる。配置場所を決めたら、余白のトリミングを行うといい。標準では可動範囲(右側にある2つのスライダーの下のやつ)は0.30にセットされており、この可動範囲であるとまず余白が余りすぎるのである。モデルを置くときに調整がしづらいため、実際に動いて上と左右(下は考えなくていい)を確認した上でトリミングする。これは実際の環境に依るものとなる。なお、可動範囲が最大の場合に余白を削ると逆に動いたときに画面から消えてしまうので、その場合はトリミングしなくていい。

ここまでできれば、VSeeFaceを使う準備は整った。後は複数の必須ツールと同時に起動し、挙動を確認しながら設定を調整していき、問題なく動く状態にすることだ。
VSeeFaceの中身を見ていく
次はVSeeFaceを実際に使用し、気になったところについてツッコミを入れていくことにする。
設定を最適化すれば軽いVSeeFace
VSeeFaceを使ってみてわかったのが、設定を最適化すれば軽いということである。もちろん、滑らかな動きを要求したりカメラのFPS値を上げようとしたり解像度を高くすれば要求されるリソースは多くなる。だがVSeeFaceはクソザコPCでも使用することを想定しているので、最低品質設定が可能になっている。したがって、使用するPCのスペックに合わせて軽量化でき、GPUを持たないまたは低レベルGPUのPCでさえもモデルを動かすことが可能になる。無論、クオリティは保障しない。
配信想定で様々なソフトウェア・ツールを同時に使用し、その状態を再現すると私のPCではまず悲鳴を上げるほどにはきついものである。したがって設定は下げざるを得ないのが現実。ではどこまで下げても「まともに見える」のかを調べてみる。VSeeFaceの最低レベルはトースター級、よく言われるゴミとか産廃扱いされるようなスペックのPCの設定があるが、これで試したところトラッキングすらしてくれないものだった。
これでは使う意味がないので、その1つ上のレベルとなる「トースター級よりまだマシ」(おそらくVSeeFace側の下限)にセットした上で、カメラを1280×720, 30fps(MJPEG, スロー)、カメラのレートを12fpsとする。マイクについてはいつも使用しているM858にシンクするようセット。この状態で、実際に配信の状況を可能な限り再現した状況で、録画でテストすることにした。その結果が以下である。
音声が非常に遅延しているが、これは入力→Voidol(ノイズフィルタのみ使用)→恋声→出力の順序を取っているためで、これによるものである。結果的に字幕とほぼ同タイミングで音声が聞こえる形になっている。しかしこれは少ないリソースの中で無理矢理使用しているためであるので、もう少しリソースに余裕があれば遅延は少ないものと考えられる。
結果:8570wにそもそも無理させすぎである
負荷試験をするのであれば常に動きのある映像、つまりはゲームなどをここに映すのが理想的であるが、それができないので代わりにclea氏の配信を映像エンコードの負荷試験として使用した。ただ、負荷試験を兼ねているのでタスクマネージャーを大きく表示する必要があるため、表示エリアを小さくせざるを得なかった。そのため完全な負荷試験とはなっていない。もっともChromeをいつも通り動かしている時点で負荷が相当高いので、既にリソースが危険な状態になっている。これを閉じれば少しはマシになると思われるが、8570wで作業も並行している以上、難しいことである。
タスクマネージャーを確認すると、CPUのリソースの半分はOBS、GPUのリソースの半分はVSeeFaceで消費されていることが分かる。この状態が録画終了まで継続し、裏で動かしていたCPUの熱を確認するツールでは70℃以上の状態が続いていて、最高で80℃台になっていた。そして何より、PC自体が非常に重くなっている。そもそもであるが、8570wは搭載するGPUがCADなどの3DCGを扱うときに向いているQuadroであり、K2000Mなので8570wでも上位モデルのものとなる。逆にゲームや映像のエンコードの用途には、残念ながら適していない。一応QuadroなのにNVEncが使用可能であったものの、実際に使用したところ、GPUの性能的にまともに使えたものではないので結局使用していない。しかもリソースがVSeeFaceに食われているのでそれどころではない。
CPUもi7-3740QMとはいえIvy Bridge、第3世代で2012年の第3期(6~10月くらい)に発売されたものであるので、既に11年も古いものとなる。ターボブーストテクノロジーは2.0であるが、それを使えば爆熱になることが避けられなくなる。長時間90℃以上に到達することは私としては良しとしないうえ、熱によって別の問題も発生する可能性があるため、この機能は無効にしている。よって実力をフルに発揮していないことになるわけだが、私は8570wにこれをさせている時点でまず前提が間違っているのである。素直にゲーミングラップトップを入手してそれに代行させた方がいいというものである。
とはいえ、これで動かないわけではないことは証明できた。しかしここまでしてモデルを動かす意味があるかと問われればそれは微妙である。安定してやりたければ、十分なスペックを持ったPCでやるべきである。
VSeeFaceで確認しておきたいこと
VSeeFaceの日本語文献は少ないが、それでも多少存在する。その使用者の情報や設定に関すること、そして自分で調べた結果、次のことは確認しておくと便利であるようだ。
- 一般設定より、中央位置にあるアンチエイリアシングの設定を下げる。デフォルトで16倍となっていて非常に負荷が高い。だが0にはできないため、最低値である2倍に設定しておく。ついでにその下の「アンチエイリアシングを強化する(SMAA)」のチェックを外しておくと軽量化できる。これで低スペックでもかなり余裕ができる。
- 自動まばたき:デフォルトでOFF。自動でまばたきする。カメラの映りによっては変な位置でまぶたが止まったりするため、その現象が発生する場合にはお勧め。
- まばたき同期:デフォルトでON。これをOFFにすることでウインクに対応できる2)参照1:VSeeFaceの使い方【3Dvtuber向けのトラッキングソフトウェア】 自動まばたきについてもこのページから参照している。。
- 表情の校正:「トラッキングポイントを表示」で点線で構成された顔が出る。これと「実験的な表情検出」を合わせて使用することで、表情を細かく設定することができる3)参照2:【使い方解説】VSeeFaceで笑顔になれ!Webカメでフェイストラッキングのすすめ。|朱鷺村伊鞠|pixivFANBOX 表情の設定方法について詳しく書かれている。。
他にも確認することは多々あるが、とりあえず入門としてはこれらを抑えておくといいだろう。特にアンチエイリアシングはカットしておくと、低スペックPCでも余裕ができるためこれは必須である。もちろん十分に余裕があるPCでも軽量化のためにやっておくに越したことはない。
対応する外部周辺機器やソフトウェア
VSeeFaceの優秀なところは、これがフリーソフトウェアでありながら外部周辺機器やソフトウェアに対欧することである。外部周辺機器については、Leap Motionが対応している。これは旧Leap Motion社(米)、現Ultraleap社(英)によって開発された非接触型ハンドトラッキングセンサで、2012年に販売開始された。元々は手のジェスチャーのみによってPCをはじめとしたさまざまな機器の入力を行うためのデバイスで、マウスや画面タッチをせずに動作させることができるという点で主に商業での利用で注目されていた。一般向けにAmazonでの販売が開始されたのは2014年からであるので、割と歴史が長く、持っている人もそれなりである。
これをPCの前に置く、あるいは首掛けにできるアクセサリーを接続して首元に来るようにして、この動きの結果をVSeeFace上に取り込み、ハンドトラッキングとして細かい手首の動きとして反映させるのである。設定自体は簡単だが、Leap Motion自体、残念ながら現在は無能ジャップ政府の無能政策のせいで本当に時期が悪く高額アイテムである。そのため私が手と腕を含めたトラッキングをVSeeFaceで実現することは遠い未来の話となるであろう。
VSeeFaceは名前にFaceとあるので本来は顔、もっと言えば上半身を中心にトラッキングするものとなる。それを全身にまで対象を拡張できるようになる。これはかなり前の方で名前だけ出した、ThreeDPoseTrackerを使うことで実現する。ただしこの記事では解説はしない。先駆者による情報がいくつかあるので、代表としてここを参照するか、”ThreeDPoseTracker”で検索するといい。
難点:VSeeFace自体を閉じないと止められない
調査するにあたって、重い負荷になんとか耐えながら画像を撮影しては得た情報を書き込んでいた。その際はつけっぱなしにしておいて、ある程度まとまったら一旦閉じて、また必要になったときに再起動して実験する、ということを繰り返していた。つまりVSeeFace自体をつけたり消したりを繰り返して中身を確認していたのである。このパターンは私的にはRAMに負荷を与える動作となるので、あまりやりたくないことである。だがVSeeFaceは、モデル変更やモデル自体の非表示はできるが、メインメニューに戻る方法が一切存在せず、停止するには閉じること以外に方法がないのである。
もしかしたら探せばあるのかもしれないが、設定やメニューをくまなく調べたとしてもメインメニューに戻る方法は存在せず、せいぜい先に挙げたことくらいしかない。私としてはこれは使う上で少々不便であると感じ、カメラ調整もメインメニューからでないと詳細に設定できないので、調整のためにわざわざ再起動がいるのは微妙なところである。もっとも不満点としてはここくらいで、他の部分は特に問題なく、対応する周辺機器とソフトウェアによってより高度なトラッキングをするには十分な材料となるわけで、これくらいは妥協してもいいことではある。とはいえPCとその構成パーツも一種の消耗品扱いであり、それを大事にするならあった方がいいのは確かである。
これ1つでVTuberの基本は達成できる
既にVTuberが1つのジャンルないし文化として確立し、それは海外にも普及していった。そのこともあってVTuberをするための基本的なソフトウェアないしツールが多く整備されるようになり、プレイ環境は良好と言える状態である。もっとも根本的インフラや使用する道具(ハードウェア)がクソザコだとどうにもならないが、その前提条件をクリアしておけば割と自由にやることができる。ただし継続できるかどうかについてはまた別問題となる。
整備されてくるようになると生じる問題は、逆に選択肢が多すぎるためどうしたらいいかわからなくなることにある。選択肢が増えることはいいことだが、それによって初心者が混乱するようなことがあると本末転倒である。また初心者の心情の1つに、「高い金を払って失敗したくない」というのも人によっては持っている。その場合に勧めたいのが、初心者でも安心して使える無料のものである。今回挙げたVSeeFaceは、マニュアルとUIが基本英語で構成されているため多少の英語読解力を要求されるが、親切なことにガバガバ日本語翻訳ながら日本語対応しており、そこに文明の利器を使って翻訳してあげれば完璧になる。
その上で分からないことがあれば検索で調べてみる。VSeeFaceは少ないながらも情報は存在するので。うまく探せば求めている情報を入手できる。それでもわからないことがあるなら、実際に使っている人に話を聞いてみるのもいいだろう。VSeeFaceについては、うーちゃんが積極的に使用しているので、具体的に話をすれば解決策が出てくるかもしれない。とはいえ、タイミングは見計らって聞くように。
以上、”VSeeFace”使ってみた!~セットアップ編~、であった。次は何の記事で会おうかな?
KIBEKIN at 00:00 July 20th, 2022
スポンサーリンク
脚注
本文へ1 | 株式会社デジタル・スタンダードが開発・提供している、自社開発の画像認識AI技術(ディープラーニング)を利用して、体の24の検出ポイントを3次元の座標で出力することができる、リアルタイムモーションキャプチャシステム。Windowsのみ対応で、フリーソフトとしてBoothで提供中である。 |
---|---|
本文へ2 | 参照1:VSeeFaceの使い方【3Dvtuber向けのトラッキングソフトウェア】 自動まばたきについてもこのページから参照している。 |
本文へ3 | 参照2:【使い方解説】VSeeFaceで笑顔になれ!Webカメでフェイストラッキングのすすめ。|朱鷺村伊鞠|pixivFANBOX 表情の設定方法について詳しく書かれている。 |