Unity AR FoundationGoogle ARCoreApple ARKitUnity上で統合して、マルチプラットフォームでARアプリを開発できるフレームワーク です。

Unityは AR Foundationを簡単に理解できるように、いくつものシーンを含んだ サンプルプロジェクトをGitHubにあげています
前回・前々回とそのサンプルの中でも ARでよく使われる機能として、単純に3DモデルをAR表示する機能SimpleARマーカー認識を基にAR表示をする機能ImageTrackingの使用法や詳細説明をしました。

Unity AR Foundation のサンプルを試してみた(SimpleAR)
Unity AR Foundation のサンプルを試してみた(ImageTracking)

そして、今回は以前から流行っている 顔認識を基にAR表示をする機能サンプルFaceTrackingを紹介します。
ARF_FaceTracking_10
また、今回は AR Foundationの基本的な設定方法は省きます。上記の他のサンプルと完全に同じです。


【ターゲット環境】

・ Unity 2019.2AR Foundation は Unity 2019.2以降に標準で入っておりますので、Unity 2019.2を使用します。
・ Android端末AR Foundation は ARCoreにもARKitにも対応してますが、ビルドする際は当然選択する必要があるので、今回は Android端末を選択します。


【FaceTrackingに含まれるシーン】

本サンプルには、この FaceTrackingに関していくつかのシーンを含んでいます。

ARF_FaceTracking_07

この中で、AndroidのARCoreで使用可能なのが以下のものとなります。

ARCoreFaceRegions:
認識した顔の特定の場所情報を提供します。左右の眉毛の位置と方向、鼻の位置と方向を表示します。フロントカメラを使用します。

FacePose:
最もシンプルな FaceTrackingのサンプルとなります。認識した顔の位置と方向を表示します。フロントカメラを使用します。

FaceMesh:
認識した顔に Mesh Rendererをかぶせ、特定の Textureを顔に表示させます。認識した顔の数等のデバイス側の情報も表示します。フロントカメラを使用します。


【ARCoreFaceRegions】

本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
ARF_FaceTracking_01

AR Session Originのコンポーネント:
ARF_FaceTracking_06

そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
ARF_FaceTracking_08



【FacePose】

本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
ARF_FaceTracking_02

AR Session Originのコンポーネント:
ARF_FaceTracking_05

そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
ARF_FaceTracking_09


【FaceMesh】

本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
ARF_FaceTracking_03

AR Session Originのコンポーネント:
ARF_FaceTracking_04

そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
ARF_FaceTracking_10

以上、Unity ARFoundation のサンプルに含まれる、ARCoreに対応したシーン「ARCoreFaceRegions」「FacePose」「FaceMesh」の紹介でした。


次回は、左右の眉毛の位置と方向、鼻の位置と方向を認識する「ARCoreFaceRegions」に関して、詳細説明と応用方法を紹介します。

Unity AR Foundation のサンプルを試してみた(FaceTracking)Part.2



Sponsored Link