Unity AR Foundation は Google ARCore と Apple ARKit を Unity上で統合して、マルチプラットフォームでARアプリを開発できるフレームワーク です。
Unityは AR Foundationを簡単に理解できるように、いくつものシーンを含んだ サンプルプロジェクトをGitHubにあげています。
前回・前々回とそのサンプルの中でも ARでよく使われる機能として、単純に3DモデルをAR表示する機能「SimpleAR」と マーカー認識を基にAR表示をする機能「ImageTracking」の使用法や詳細説明をしました。
【Unity AR Foundation のサンプルを試してみた(SimpleAR)】
【Unity AR Foundation のサンプルを試してみた(ImageTracking)】
そして、今回は以前から流行っている 顔認識を基にAR表示をする機能サンプル「FaceTracking」を紹介します。
【FaceTrackingに含まれるシーン】
本サンプルには、この FaceTrackingに関していくつかのシーンを含んでいます。
この中で、AndroidのARCoreで使用可能なのが以下のものとなります。
ARCoreFaceRegions:
認識した顔の特定の場所情報を提供します。左右の眉毛の位置と方向、鼻の位置と方向を表示します。フロントカメラを使用します。
FacePose:
最もシンプルな FaceTrackingのサンプルとなります。認識した顔の位置と方向を表示します。フロントカメラを使用します。
FaceMesh:
認識した顔に Mesh Rendererをかぶせ、特定の Textureを顔に表示させます。認識した顔の数等のデバイス側の情報も表示します。フロントカメラを使用します。
【ARCoreFaceRegions】
本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
AR Session Originのコンポーネント:
そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
Unityは AR Foundationを簡単に理解できるように、いくつものシーンを含んだ サンプルプロジェクトをGitHubにあげています。
前回・前々回とそのサンプルの中でも ARでよく使われる機能として、単純に3DモデルをAR表示する機能「SimpleAR」と マーカー認識を基にAR表示をする機能「ImageTracking」の使用法や詳細説明をしました。
【Unity AR Foundation のサンプルを試してみた(SimpleAR)】
【Unity AR Foundation のサンプルを試してみた(ImageTracking)】
そして、今回は以前から流行っている 顔認識を基にAR表示をする機能サンプル「FaceTracking」を紹介します。
また、今回は AR Foundationの基本的な設定方法は省きます。上記の他のサンプルと完全に同じです。
【ターゲット環境】
・ Unity 2019.2:AR Foundation は Unity 2019.2以降に標準で入っておりますので、Unity 2019.2を使用します。
・ Android端末:AR Foundation は ARCoreにもARKitにも対応してますが、ビルドする際は当然選択する必要があるので、今回は Android端末を選択します。
【ターゲット環境】
・ Unity 2019.2:AR Foundation は Unity 2019.2以降に標準で入っておりますので、Unity 2019.2を使用します。
・ Android端末:AR Foundation は ARCoreにもARKitにも対応してますが、ビルドする際は当然選択する必要があるので、今回は Android端末を選択します。
【FaceTrackingに含まれるシーン】
本サンプルには、この FaceTrackingに関していくつかのシーンを含んでいます。
この中で、AndroidのARCoreで使用可能なのが以下のものとなります。
ARCoreFaceRegions:
認識した顔の特定の場所情報を提供します。左右の眉毛の位置と方向、鼻の位置と方向を表示します。フロントカメラを使用します。
FacePose:
最もシンプルな FaceTrackingのサンプルとなります。認識した顔の位置と方向を表示します。フロントカメラを使用します。
FaceMesh:
認識した顔に Mesh Rendererをかぶせ、特定の Textureを顔に表示させます。認識した顔の数等のデバイス側の情報も表示します。フロントカメラを使用します。
【ARCoreFaceRegions】
本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
AR Session Originのコンポーネント:
そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
【FacePose】
本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
AR Session Originのコンポーネント:
そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
AR Session Originのコンポーネント:
そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
【FaceMesh】
本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
AR Session Originのコンポーネント:
そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
以上、Unity ARFoundation のサンプルに含まれる、ARCoreに対応したシーン「ARCoreFaceRegions」「FacePose」「FaceMesh」の紹介でした。
次回は、左右の眉毛の位置と方向、鼻の位置と方向を認識する「ARCoreFaceRegions」に関して、詳細説明と応用方法を紹介します。
【Unity AR Foundation のサンプルを試してみた(FaceTracking)Part.2】
本サンプルを構成するオブジェクトとコンポーネントは以下のようになります。
AR Session Originのコンポーネント:
そして、ビルドして、デバイスにインストール後の実行画面は以下のようになります。
以上、Unity ARFoundation のサンプルに含まれる、ARCoreに対応したシーン「ARCoreFaceRegions」「FacePose」「FaceMesh」の紹介でした。
次回は、左右の眉毛の位置と方向、鼻の位置と方向を認識する「ARCoreFaceRegions」に関して、詳細説明と応用方法を紹介します。
【Unity AR Foundation のサンプルを試してみた(FaceTracking)Part.2】
Sponsored Link