2021-05-29 00:00:00

Duolingoで中国語を100日勉強!どこまでできるようになる?

中国語学習のできるアプリのDuolingoで中国語を100日間勉強しました!どのくらいできるようになったのかを、中国語を話せるようになったのか?ということについて記載します。

キャプチャ画像は100日の時を取り忘れたので101日になってしまいました。

目次

Duolingoって?

Duolingoは中国語に限らずいろいろな言語を勉強することができるサービスです。 PCからWebからの学習や、スマホアプリで勉強することができます。

広告などは表示されますが、無料でも利用できるので新しい言語をちょっと勉強してみたいというときにおすすめのサービスです。

結論!どれくらい話せるようになる?

語学でどのくらいといっても、モノサシがないと伝えづらいのですが、

日本でよく受けられている中国語検定(HSK)のレベルで言うとギリギリ2級合格レベルにはなれたかと思います。

HSK の公式サイトでチェックで各級の例題を受けられるのですが、なんとか2級までは合格圏内でした。 レベルチェックテスト | HSK 日本で一番受けられている中国語検定

HSKは1級、2級、3級、4級、5級、6級と 級位が上がるごとに難しくなります。他の日本の検定とは逆なので注意。

この2級レベルですが、HSKのサイトにはこう書かれています。

筆記2級について | HSK 日本で一番受けられている中国語検定

「身近な日常生活の話題について簡単で直接的な交流ができ、初級中国語の上位レベルに達している」

ビジネス会話は無理ですが、「あそこに○○があります」とか「私は何々がしたいです」といった簡単な意思表示や説明で日常会話を行う事ができる程度かと思います。

Duolingoをどのくらいすすめたのか?

この100日間で得た経験値は5881XPでした。

1日あたりにすると58XPですね。1つのレッスンあたり10~15XPもらえるので、だいたい毎日4レッスンくらい進めていた感じですかね。

コースの進捗としてはこんな感じです。

チェックポイント3以降は実は始めた頃はまだレッスン自体がなくて、最近追加されたレッスンになります。

ちょうどすべてのレッスンが終わりそうだったので、新しいレッスンが増えてくれてよかったです。

学んだ単語数

Duolingoの中国語のコースでチェックポイント3あたりまでで学んだ単語数は315語でした

HSK2級の単語数はだいたい300語と言われているので、ちょうどそのあたりの学習語数ですね。

300語程度の常用単語と文法知識を習得している者を対象としています。

Duolingoで学んでよかったところ

音声があるので中国語の発音が身につく

中国語は声調などもあり発音がかなり大事になってくると思います。

Duolingoではリスニングの問題でなくても、毎回中国語を発音してくれるので、発音を覚えるのにはかなり役立つと思います。

書籍などのテキストだけではこのあたりは身につかないので、Duolingoの良いところですね。

反復練習が自然とできる

スマホやPCで選択肢を選ぶだけなので、簡単に続けられてなおかつ反復練習ができます。

一度最後までやったレッスン? しばらくすると、下の画像のように壊れた感じになって、再度レッスンを行うことを促してくれます。

私の場合本のテキストだとなかなか本を開くのが億劫になってしまうのですが、スマホやPCはよく触るので空き時間に暇つぶし感覚でやれるのも良いところです。

Duolingoの物足りない点

ピンインや文法についての説明がない

Duolingoの日本語で受けられる中国語のコースは文法についての説明が一切ありません。

特に始めは中国語はpinyinというのを使って読み方を表記しますが、こちらもDuolingoには説明がないです。

大体はローマ字読みっぽい感じで何となく発音わかるとは思うのですが、中国語は発音が大事な部分だと思うのでこのあたりは別の教材で学ぶ必要があると思いました。

私の場合Youtubeなどでピンインの発音方法などは学びました。

文法に関しては実は、日本語で中国語のコースを受けるのではなく、英語で中国語のDuolingoのコースを受けると、軽く文法の説明が合ったりするようなので、英語がある程度できる方はそちらで勉強しても良いかもしれません。

さいごに

100日間自分のペースでやってみて、100日間やっているだけ合って始めた頃よりは少しは中国語ができるようになっているとは、実感しています。

ただ、実際使われている会話を聞き取ることや、会話をするというレベルにはまだまだほど遠いです。

せっかく100日間続けてきたので、もう少しDuolingoでの学習も続けてみようかと思います。

2021-01-21 22:30:00

Webカメラだけで全身トラッキング! ThreeDPoseTracker! Vtuberになろう!

Vtuberをやりたい!もしくはVtuberをやっていると、やはり自分のモデルの全身を動かしたくなってきますよね?

というわけで、今回はWebカメラだけでフルトラッキングができるThreeDPoseTrackerというソフトについて紹介します。

全身フルトラッキングというとVIVEなどのモーションキャプチャ用のトラッカーが必要となりますが、実はWebカメラだけでも全身トラッキングができます!

最近ではGoogleからMediaPipeなどのライブラリも出てWebカメラだけでもハンドトラッキングや全身トラッキングができる時代になって来ているのではないかと思います。

目次

Webカメラだけでフルトラッキング!

全身フルトラッキングというとVIVEなどのモーションキャプチャ用のトラッカーを装着してバーチャルモーションキャプチャーなどを使って全身トラッキングをしたりというのが考えられますが、 トラッカーだけでもかなり高いですし、ベースステーションの設置も必要で、部屋の環境なども制限されてきます。

個人Vtuberなどでやってる人にはそんなに高い機材は変えないし、もっと気楽にやりたいですよね。

実はWebカメラだけでもフルトラッキングができます!

それが次に紹介するThreeDPoseTrackerというソフトです。

ThreeDPoseTracker

USBカメラモーションキャプチャーThreeDPoseTrackerの説明 - Qiita

Webカメラの映像の情報から姿勢推定をしてVRoidの3Dモデルに反映してくれます!

しかも無料で使える!本当にありがたいですね。Licenseやソフトのダウンロードのリンク先があります。

使ってみる

ダウンロード

最新版が更新されていることがあるので下記の記事からたどって最新版をダウンロードしてください。 (2021年1月21日時点の最新はv0.3.0)

USBカメラモーションキャプチャーThreeDPoseTrackerの説明 - Qiita

Zip形式なので、解答して中にある実行ファイルを起動するだけでアプリケーションを使うことができます。

使い方

VRoidなどで自分で作ったモデルを読み込むときはAdd Avatarから追加します。

読み込めるのはVRMファイルになります。

VRM Fileのところで自分VRMファイルを選択します。 Addを押すと追加されます。

ウェブカメラを使ってトラッキングするには、「Source Dvice」のところから、自分の使っているWebカメラを選択します。

その後「Start Cam」をクリックするとトラッキングが開始されます

使ってみた感想

Webカメラ1台だけということで、精度などが気になるところでしたが、全然使えます!

後ろ向いたりとかも普通にできます!

紹介の動画にあるように、環境が良ければ踊ったりも十分できそうです。

配信などでOBSで使う

OBSで取り込むときはThreeDPoseTrackerはグリーンバックになっているので、それをウィンドウキャプチャで取り込んで、グリーンバックを透過すればよいです。

OBSのソース=> 「ウィンドウキャプチャ」を選択

任意の名前(ここではThreeDPoseTrackerとします)を入力してOKをクリックします。

ウィンドウにThreeDPoseTrackerが選択してください。 事前にThreeDPoseTrackerは起動しておく必要があります。

キャプチャ方法をはWindows10以降であれば Windows Graphics Captureにしておくとよいと思います。

そのままOKをクリックします。

グリーンバックを透過させるためにフィルターを追加します

ソースの先程追加した「ThreeDPoaseTracker」を右クリックして「フィルタ」を選択

エフェクトフィルタのところで「+」ボタンを押してカラーキーのフィルタを追加します。

類似性と滑らかさを調整してモデルに緑の縁残らないようにして閉じるをクリックします。

上のバーのところは透過されず残っていますが、後でクロップ、トリミングするので問題ありません。

ソースの「ThreeDPoseTracker」をクリックするとOBSの画面上でウィンドウキャプチャしてる範囲が赤い枠で表示されています。

赤い枠を「Alt」キーを押しながらドラッグすることで表示範囲をトリミングできます

これでOBSに背景を透過させてモデルだけ表示させることができました。

Webカメラだけでトラッキングができる時代

ここからは少し余談になりますが、技術的な話になります。

上記のThreeDPoseTrackerではディープラーニングを利用して、自前で姿勢推定モデルを作成されているようですが、以前GoogleからMediaPipeというライブラリが公開されました。

google/mediapipe: Cross-platform, customizable ML solutions for live and streaming media.

MediaPipeはストリーミングメディア向けの、パイプライン推論を行うライブラリです。

上記のgithubを見てもらえばわかるように、リアルタイムで顔認識やハンドトラッキングを行うサンプルなどもあります。

  • 顔検出
  • ハンドトラッキング
  • 姿勢推定
  • 物体検出
  • アイトラッキング

などなど

MediaPipeにこういったモデル自体も含まれているので、誰でも簡単にWebカメラだけでトラッキングが試すことができます。

ハンドトラッキングといえばLeapMotionが有名ですが、Webカメラだけでもハンドトラッキングもできるようになりそうですね。

こういったライブラリが公開されると、トラッキングソフトなども作りやすくなるので、これからどんどんWebカメラだけでもトラッキングできるソフトが増えてくるのではないかと思います。

全身トラッキングも、ハンドトラッキングもすべてWebカメラだけで完結して、簡単にフルトラッキングでVtuberになれる時代が来るのではないかと思います。

2021-01-18 22:30:00

Vtuberになろう!トラッキングにはVSeeFaceがおすすめ!3tene,wakaru, Luppetとも比較!【2021年版】

個人Vtuberとして、Vtuber活動をしておりますが、その際に必要となるトラッキングソフトについて紹介します。今回は3tene,luppet,VSeeFaceを紹介します。

以前ブログで3tene,wakaru,luppetを紹介しましたが、しばらく期間があき他にも良いソフトが出てきたので今回は現時点での私のベストだと思うトラッキングツールを紹介します。

以前の記事 => Vtuberになろう!配信環境とソフトの紹介 | なぎなぎブログ

トラッキングソフトは3tene,Luppetあたりが有名ドコロですが、私の一番のおすすめはVSeeFaceです。

無料で使えて一番機能も豊富で使いやすい。表情トラッキングやアイトラッキング機能もついています。

目次

【結論】トラッキングソフトはVSeeFaceがおすすめ!

はじめに結論を書きますが、2021年1月13日時点で私の一番のすすすめのトラッキングソフトはVSeeFaceです。

この記事では主にVSeeFaceの魅力を書いていきますが、用途によっては他のソフトも使いどころはあるのでその特徴も記載していきます。

VSeeFace

VSeeFace

私の中ではこちらが一番オススメです。

他のソフトにある機能はだいたい揃っていますし、細かく設定もできてとても柔軟です。

意外と日本ではまだ知られていなくていない気がしますが、こちらが一番使いやすいです。

機能が豊富

主な機能を挙げます

  • LeapMotionのトラッキングに対応
    • LeapMotionを首掛け、机上などの選択も可能
  • Webカメラだけで目線のトラッキングに対応
  • Webカメラだけで表情のトラッキングに対応
  • waidayoなどと連携してパーフェクトシンクも可能
  • VMCプロトコルに対応していて、Unityなどと連携が可能

特に下記の2点の機能は他のトラッキングソフトにはない機能です。

  • 目線のトラッキング
  • 表情のトラッキング

表情の例

上記の表情の例はホットキー(キーボード)などは使わずに顔の表情のWebカメラのトラッキングだけで行っています。

Webカメラだけでこれだけの機能を揃えているトラッキングソフトはVSeeFaceしかないかと思います(調査不足で他にあったらすいません)

目線トラッキングや表情トラッキングがあるので、他のトラッキングソフトよりも自然な印象です。

最新のiPhoneを持っている方であればwaidayoなどを使えばiFacialMocapを使ってパーフェクトシンクを利用して、より高い表現もできるようです。 これに関しては私はiPhoneを持っていないので試していません。

他にもVMCプロトコルというものに対応しているので、他のVMC対応ソフトとの連携や、自分でUnityが触れる人であれば、Unity上でいろいろ連携させて使えるところも大きな利点です。

トラッキング性能が良い

トラッキングの精度がよく、激しく動いてもしっかりトラッキングできます。

ある程度左右への振り向きなども認識してくれて、他のソフトよりも表現の幅が広いように感じます。

例えば横向きのとき

画像のようにちゃんと横を向いてもトラッキングしてソフト上にも反映してくれます。

もちろん、そんなに動かしたくない場合も平滑化などの設定も細かくあるのでこのあたり自由に設定でき柔軟性が高いです。

LeapMotionが使いやすい

LeapMotionで手のトラッキングができますが、他のソフトに比べてLeapMotionの細かい設定ができます。

まずLeapMotionの首掛け、や机上に置いた場合どちらにも対応しています。

UI上にLeapMotionの位置が表示され、この仮想空間上のLeapMotionの位置を設定で自由に動かすことができます。

角度設定などもできるので非常に柔軟です。

ここまで柔軟に設定ができるソフトも他に見たことがないですね。

3tene

3tene

軽く特徴を上げておきます

  • 無料版がある
  • Macにも対応している
  • オブジェクトを読み込める
  • LeapMotionに対応している
    • 首掛け、机上両方に対応

3teneはmac版もあるので、Macで配信をする場合は3teneを使っています。

Macで動くツールは少ないので、Macでの利用を考えている場合は3teneが良いと思います。

他にも3DのVRMのモデル以外に、他のオブジェクトを読み込むことができるのが良い点です。 VRoidStudioなどで、リボンや、メガネなどのアクセサリを作ろうと思うと、髪の編集で無理やりメガネとかを作る必要がありますが、3teneであれば、メガネなどは別でBlender等の3Dソフトで自分で作成するなり、公開されているもの使うなりすれば、あとから3teneの方で別で読み込むことができるので便利です。

オブジェクトを読み込む機能があるのは3teneにしかないので、そういった機能を使いたい方にはおすすめです。

トラッキング精度に関しては認識の精度がVSeeFaceなどに比べると悪いような気がします。 光源などの関係よってはうまく顔を認識してくれないことがありました。

また、胴体を軸に上半身が動いているからかカメラの端の方に行くと、モデルが斜めに傾いた状態になりやすいので少し気になります。

LeapMotionは首掛けにも机上にも両方対応しているのは良いですね。

wakaru

Steam:Wakaru ver. beta

  • 無料
  • アイトラッキングができる
  • Webカメラだけで手のトラッキングができる

こちらはLeapMotionの機能や別のオブジェクトを読み込む機能はありませんが、シンプルで動作も軽いです。 モデルが斜めに傾きすぎたりと行ったこともなく、割と使いやすいです。 Webカメラだけでアイトラッキングなどもしてくれたり、きれいに使うのは難しいですがカメラだけで手の動きをトラッキングすることもできます。

LeapMotionを持っていないけど、ても動かして見たいという方にはこちらがおすすめです。

動作も軽めのため、スペックが低いPCを使っている方にはおすすめです

Luppet

Luppet

  • 有料(個人の場合5000円)
  • LeapMotionが使える
  • iFacialMocapと連携してパーフェクトシンクが可能
  • バストショット(上半身)での配信に最適化されたツール

こちらもLeapMotionが使えます。3teneよりもLeapMotionの機能が使いやすく自然な感じに手や指先が動かせます。 LeapMotionは首掛けにしか対応していないようなので、別途ネックマウンタが必要になります。

横向きにもある程度対応していたりして、3teneよりも自然な動きが表現できていると感じます。

Webカメラとモデルへの反応速度は調整できず緩やかにしか動かないので激しい動きを正確にトラッキングすることができません。そのあたりを調整することもできないのは少し柔軟性に欠けているのかなと思います。

最近(Ver2.0.2(2020/12/30))ではiFacialMocap(iOSアプリ)との連携機能が追加されて、パーフェクトシンクができるようになりました。

正直ver2.0.2以前はVSeeFaceですべての機能が補えるのでLuppetを選ぶ意味は殆どなかったのですが、パーフェクトシンクの機能が増えたのでLuppetを使う意味も出てきたように思います。

といっても、VSeeFaceもwaidayoなどと連携してパーフェクトシンクできるので好みで選ぶことになりそうです。