JP2008176696A - Cgキャラクタアニメーション作成装置 - Google Patents
Cgキャラクタアニメーション作成装置 Download PDFInfo
- Publication number
- JP2008176696A JP2008176696A JP2007011332A JP2007011332A JP2008176696A JP 2008176696 A JP2008176696 A JP 2008176696A JP 2007011332 A JP2007011332 A JP 2007011332A JP 2007011332 A JP2007011332 A JP 2007011332A JP 2008176696 A JP2008176696 A JP 2008176696A
- Authority
- JP
- Japan
- Prior art keywords
- character
- feature
- shape
- correspondence table
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】関節の接続構造が人体と大幅に異なる3DCGキャラクタを身体動作によって直観的かつ対話的に操作できるようにする。
【解決手段】身体の形状の時々刻々の計測値から抽出した制御可能な特徴量を、3DCGキャラクタの1つまたは複数の姿勢情報(関節の屈曲や部位の寸法)として用い、レンダリングした映像を実時間で表示する。
【選択図】図1
【解決手段】身体の形状の時々刻々の計測値から抽出した制御可能な特徴量を、3DCGキャラクタの1つまたは複数の姿勢情報(関節の屈曲や部位の寸法)として用い、レンダリングした映像を実時間で表示する。
【選択図】図1
Description
本発明は、CGキャラクタアニメーションの作成装置およびCGキャラクタアニメーションの作成方法に関する。
CGアニメーションにおける人に似たCGキャラクタの動きを作成する方法としては、人体にモーションキャプチャ機器を装着して姿勢認識を行い、再構築する方法が一般的である。
Jinxiang.ChaiandJessicaK.Hodgins, Performance Animation from Low-dimensional Control Signals, ACM Transactions on Graphics (TOG), Proceedings of SIGGRAPH 2005,No. 3,pp.686-696. Norman I. Badler, Michael J. Hollick, John P. Granieri: Real-Time Control of a Virtual Human Using Minimal Sensors. Presence 2(1): 82-86 (1993) Semwal, S., Hightower, R., and Stansfield, S. 1998. Mapping algorithms for real-time control of an avatar using eight sensors. Presence 7, 1, 1-21. Yin, K., Pai, D. K. An interactive animation system. In Proc ACM SIGGRAPH/Eurographics Symposium on Computer Animation. pp.329-338. 2003.
Jinxiang.ChaiandJessicaK.Hodgins, Performance Animation from Low-dimensional Control Signals, ACM Transactions on Graphics (TOG), Proceedings of SIGGRAPH 2005,No. 3,pp.686-696. Norman I. Badler, Michael J. Hollick, John P. Granieri: Real-Time Control of a Virtual Human Using Minimal Sensors. Presence 2(1): 82-86 (1993) Semwal, S., Hightower, R., and Stansfield, S. 1998. Mapping algorithms for real-time control of an avatar using eight sensors. Presence 7, 1, 1-21. Yin, K., Pai, D. K. An interactive animation system. In Proc ACM SIGGRAPH/Eurographics Symposium on Computer Animation. pp.329-338. 2003.
しかしながら、人体と大幅に形状の異なるキャラクタの動きを作成する方法としては、従来、マウス入力を用いたGUIアプリケーションでCGキャラクタの一連の動作を少しずつ変化させるなど、フレームごとの編集作業に頼らざるを得ないのが現状である。
上記背景技術において、CGアニメーション作成には1コマずつ手作業で作成するため多大な時間を要し、作成者は編集機器などの専門的な技術が必要とされる。
請求項1記載の発明の装置は、利用者の身体またはその一部の位置と形状の情報を取得する形状取得手段と、形状情報から形状ごとに定まる1つまたは複数の量を特徴量として抽出する特徴量抽出手段と、特徴量をCGキャラクタの関節の角度ないしは部位の寸法を表す位置姿勢情報に変換する特徴量‐姿勢変換手段と、位置姿勢情報から表面形状を構成する表面形状構成手段と、表面形状を可視化して映像を得るレンダリング手段と、映像を表示する表示手段を備えることにより、上記目的を達成している。
上記構成によれば、特徴量抽出手段で取得した利用者の全身または身体の一部の動きを示す特徴量変化に応じてCGキャラクタの動きを制御することができる。ここで、特徴量‐姿勢変換手段は、人体の骨格とは異なる形を持つCGキャラクタの3次元位置姿勢情報への変換を可能にしている。
また、請求項2に記載するように、形状取得手段は、利用者の周囲に配置された単独または複数からなる撮影手段と、該撮影手段で取得した画像より位置および形状を推定する位置形状推定手段を備えてもよい。
上記構成によれば、利用者に特別な機器を装着せずに利用者の位置姿勢推定を行うことができる。
請求項3に記載するように、特徴量は各関節の屈曲の向きと大きさおよび位置を成分とする位置姿勢ベクトルであってもよい。
上記構成により、利用者の動作を再現したCGキャラクタアニメーションを生成することができる。
請求項4に記載するように、特徴量‐姿勢変換手段は、仮特徴量(パラメータ)を用いてCGキャラクタの位置姿勢情報を表す仮変換手段と、各パラメータをどの特徴量として具体化するかを記述する仮特徴量対応表と、仮特徴量対応表に従ってCGキャラクタの各位置姿勢情報中のパラメータに特徴量のどれかを代入する代入装置からなり、さらに、請求項1に記載の各手段に加えて仮特徴量対応表の内容を変更する仮特徴量対応表変更手段を備えてもよい。
上記構成により、CGキャラクタの部位の位置姿勢情報をどの特徴量に対応させるかの対応関係の割り当てを動的に切り替えることができる。ここで、CGキャラクタの部位は同じパラメータで支配されている位置姿勢情報を持つ関節達の集合である。
本発明のCGキャラクタアニメーション作成方法によれば、利用者の身体動作を直接キャラクタに伝えることで直観的にCGアニメーションを作成することができる。
図4は本発明の実施例の利用風景を示した図であり、利用者2はディスプレイ5に表示されるCGキャラクタ1を操作している。これは、後に述べる3つの実施例に共通している。図1は、請求項2に基づいて、CGキャラクタ1を制御するための処理の流れを示している。撮影手段11で利用者2を撮影し、その映像を位置形状推定手段6に送る。位置形状推定手段6で利用者2の位置形状情報を推定し、特徴量抽出手段17に送る。特徴量抽出手段17では、位置形状情報から特徴量を算出し、特徴量‐姿勢変換手段7に送る。特徴量‐姿勢変換手段7では、予め任意に定められた変換式に従って特徴量をCGキャラクタ1の位置姿勢情報に変換することでキャラクタの姿勢を生成し、表面形状構成手段8に送る。表面形状構成手段8では、予め決められたCGキャラクタ1の表面形状に従ってCGキャラクタ1の該姿勢における表面形状を決定しレンダリング手段9に送る。レンダリング手段9では、表面形状を可視化し、表示手段10に送る。表示手段10では、CGキャラクタ1の映像を表示する。
図2は、請求項4に基づいて、特徴量−姿勢変換手段7の実装を示している。代入装置19は、仮特徴量対応表15から対応関係を参照して特徴量をCGキャラクタ1のパラメータに代入し仮変換手段16に送る。仮変換手段16は、CGキャラクタ1の位置姿勢情報を算出する。一方、仮特徴量対応表変更手段14は、仮特徴量対応表15の内容を変更する。
図3は仮特徴量対応表変更手段14の実装を示す。撮影手段21で利用者2の映像を撮影し、追跡点検出手段12および表示手段20に送る。追跡点検出手段12で利用者2の身体の特定の点を追跡点として検出し、近接部位検出手段13と表示手段20に送る。表示手段20はCGキャラクタ1とライブの利用者2および追跡点を表示し、近接部位検出手段13はCGキャラクタ1の部位のパラメータ及び各部位から一定の距離にある利用者2の追跡点に対応する特徴量を組にして、仮特徴量対応表15に登録すると同時に表示手段20に当該部位の強調表示指令を送る。
本実施例1は、請求項2に記載の方法に基づいている。利用者2の身体のうち手によってCGキャラクタ1の動作を制御する例として、利用者2の指先にマーカを装着し、特徴量で制御する方法について述べる。
図4は、本実施例1の使用時の概観を示した図である。利用者2を撮影するビデオカメラ3(撮影手段11)と、特徴量の抽出やCGキャラクタ1への位置姿勢情報の変換、CGキャラクタ1の表面形状の決定、CGキャラクタ1の可視化を行うコンピュータ4(追跡点検出手段12、位置形状推定手段6、特徴量抽出手段17、特徴量−姿勢変換手段7、表面形状構成手段8、レンダリング手段9)と、利用者2の手のライブ映像およびCGキャラクタ1の映像を映し出すディスプレイ5(表示手段10)を必要とする。
本実施例1では、位置形状推定手段6と特徴量抽出手段17は以下で述べる移動回転屈伸アルゴリズムによって同時に実装される。ビデオカメラ3は利用者2の前面に配置され、利用者2の手を撮影する。本実施例1では利用者2は撮影する手のうちの親指、人差し指、中指にそれぞれ赤、緑、青のマーカ(22、23、24)を装着する。コンピュータ4で、仮特徴量対応表15によりCGキャラクタ1の各部位に対応する特徴点を取得する。
本実施例1では、緑マーカ23はCGキャラクタ1の右腕、赤マーカ22はCGキャラクタ1の左腕、青マーカ24はCGキャラクタ1の両足にそれぞれ対応している。
部位ごとに予め定義された変換式により、特徴量の変化に応じてCGキャラクタ1の姿勢情報を計算して当該部位の関節を屈曲させる。マーカのライブ映像およびレンダリングにより可視化された変形後のCGキャラクタ1の映像をディスプレイ5に表示する。図5は、人差し指を上に伸ばしたときの手の様子とそのときのCGキャラクタ1の画像を示した図である。以下に上記各手段の詳細を示す。
追跡点検出手段12では、ビデオカメラ3で撮影した映像から赤、緑、青マーカ(22、23、24)の色を検索してそれぞれの座標を取得する。
「指先が手の回転中心を通る線上のみを移動しこれらの線が互いになす角が変わらない」と仮定する。このとき移動回転屈伸アルゴリズムは、手の回転中心の初期値と各フレームでの赤、緑、青の3つのマーカの映像中の位置を与えられたとき、各フレームでの位置形状として手の移動L、特徴量として手の回転σおよび指の屈伸a1、a2、a3を次のように算出する.
あるフレームにおける手の回転中心Pと3つのマーカQi(i=1,2,3)及び次のフレームにおける3つのマーカQi'(i=1,2,3)の位置がわかっている時、前者のフレームにおけるa1、a2、a3および後者のフレームでの回転中心P'とPとの差l=P'−P(座標成分ごとの差)は次のようにして算出できる。
まず次のフレームの回転中心P'からの各マーカの相対位置qi'=Qi'−P'を今のフレームのマーカの回転中心からの相対位置qi=Qi−Pで表すと数1のようになることに着目する。(未知数はai(i=1,2,3)、θ、l)
θ<<0であるからsinθ〜θ、cosθ〜1と仮定すると数1は線型方程式であるので代数的に解くことができてai(i=1,2,3)、θおよびlが得られる。さらにこのとき次のフレームにおける手の回転中心P'はP'=P+lによって計算できる。これによりPの初期値から上記の手続きを繰り返すことにより全てのフレームのai(i=1,2,3)が、また各フレームでのθ、lを累積することでσ、Lが得られる。
特徴量−姿勢変換手段7では、移動回転屈伸アルゴリズムで算出したσ,L, ai(i=1,2,3)をCGキャラクタ1の関節の角度(φ,ψ)(球面座標)で表される位置姿勢情報に変換する。例えば、bを基準長として、φ=(π/2)ai/b、ψ=θのようにして変換を行う。
実施例1の使用方法として、利用者2はディスプレイ5に表示されたCGキャラクタ1の映像を見ながら指間の角度を一定にして親指、人差し指、中指を曲げるだけでCGキャラクタ1のそれぞれ右腕、左腕、両足を操作することができる。
本実施例2は、請求項3に記載の方法に基づいている。利用者2の身体のうち手によってCGキャラクタ1の動作を制御する例として、データグラブによるCGキャラクタ操作を可能にする方法について述べる。データグラブの位置姿勢取得やCGキャラクタ1への位置姿勢情報の変換、CGキャラクタ1の表面形状の決定、CGキャラクタ1の可視化を行うコンピュータ4(形状取得手段18、特徴量−姿勢変換手段7、表面形状構成手段8、レンダリング手段9)と、CGキャラクタ映像を映し出すディスプレイ5(表示手段10)を必要とする。
実施例2により、実際のパペット操作と同じ手動作で仮想的にパペットを操っているかのようなリアリティのある動きを得る事ができる。
本実施例3は、請求項4に記載の方法に基づいている。利用者2の手動作で利用者2とCGキャラクタ1の対応する部位を決定する方法を実施した例について述べる。利用者2を撮影するビデオカメラ28(撮影手段21)と、追跡点の検出や追跡点と部位の対応付けを行うコンピュータ4(追跡点検出手段12、近接部位検出手段13)と、利用者2の映像、追跡点およびCGキャラクタ1の映像を映し出すディスプレイ29(表示手段20)を必要とする。
本実施例3では利用者2は撮影する手のうちの親指、人差し指、中指にそれぞれ赤、青、緑、黄色のマーカ(22、23、24、31)を装着し、このマーカをそれぞれa1、a2、a3、θの追跡点(25、26、27、30)とする。
コンピュータ4で、各色の追跡点(25、26、27、30)と重なった、CGキャラクタ1の部位のパラメータと重ねられた追跡点に対応する特徴量を組として仮特徴量対応表15に登録すると同時に、当該部位をディスプレイ29に強調表示する。例として、組(α,σ)(β,a1)(γ,a2)および(η,a3)を登録した仮特徴量対応表15を図6に示す。
代入装置19は、仮変換手段16の各パラメータに、仮特徴量対応表15にそのパラメータとの組として記された特徴量を代入してCGキャラクタ1の位置姿勢情報を計算する。例えば、仮特徴量対応表15が図6のようであったとき、首の角度ψneck=α/πの中のパラメータαにσが代入され、結果、ψneck=σ/πとなる。
図7は、実施例3の使用時の状況を示した図である。ディスプレイ29に出力した画面内で、緑マーカの追跡点26をCGキャラクタ1の左腕に重ねて対応を指定している様子である。これにより、人差し指でCGキャラクタ1の左腕が動かせるようになる。このように、実施例3により、利用者2はCGキャラクタ1の各部位をどの特徴量で動かすかを直観的な動作で指定できる。
1 CGキャラクタ
2 利用者
3 ビデオカメラ
4 コンピュータ
5 ディスプレイ
6 位置形状推定手段
7 特徴量−姿勢変換手段
8 表面形状構成手段
9 レンダリング手段
10 表示手段
11 撮影手段
12 追跡点検出手段
13 近接部位検出手段
14 仮特徴量対応表変更手段
15 仮特徴量対応表
16 仮変換手段
17 特徴量抽出手段
18 形状取得手段
19 代入装置
20 表示手段
21 撮影手段
22 赤マーカ
23 緑マーカ
24 青マーカ
25 赤マーカの追跡点
26 緑マーカの追跡点
27 青マーカの追跡点
28 ビデオカメラ
29 ディスプレイ
30 黄マーカの追跡点
31 黄マーカ
2 利用者
3 ビデオカメラ
4 コンピュータ
5 ディスプレイ
6 位置形状推定手段
7 特徴量−姿勢変換手段
8 表面形状構成手段
9 レンダリング手段
10 表示手段
11 撮影手段
12 追跡点検出手段
13 近接部位検出手段
14 仮特徴量対応表変更手段
15 仮特徴量対応表
16 仮変換手段
17 特徴量抽出手段
18 形状取得手段
19 代入装置
20 表示手段
21 撮影手段
22 赤マーカ
23 緑マーカ
24 青マーカ
25 赤マーカの追跡点
26 緑マーカの追跡点
27 青マーカの追跡点
28 ビデオカメラ
29 ディスプレイ
30 黄マーカの追跡点
31 黄マーカ
Claims (4)
- 利用者の身体またはその一部の位置と形状の情報を取得する形状取得手段と、形状情報から形状ごとに定まる1つまたは複数の量を特徴量として抽出する特徴量抽出手段と、特徴量をCGキャラクタの関節の角度ないしは部位の寸法を表す位置姿勢情報に変換する特徴量‐姿勢変換手段と、位置姿勢情報から表面形状を構成する表面形状構成手段と、表面形状を可視化して映像を得るレンダリング手段と、映像を表示する表示手段を有することを特徴とするCGキャラクタアニメーション作成装置。
- 請求項1において、形状取得手段は、利用者の周囲に配置された単独または複数からなる撮影手段と、該撮影手段で取得した画像より位置および形状を推定する位置形状推定手段からなることを特徴とする装置。
- 請求項1において、特徴量は各関節の屈曲の向きと大きさおよび位置を成分とする位置姿勢ベクトルであることを特徴とする装置。
- 請求項1において、特徴量‐姿勢変換手段は、仮特徴量(パラメータ)を用いてCGキャラクタの位置姿勢情報を表す仮変換手段と、各パラメータをどの特徴量として具体化するかを記述する仮特徴量対応表と、仮特徴量対応表に従ってCGキャラクタの各位置姿勢情報中のパラメータに特徴量のどれかを代入する代入装置からなり、さらに、請求項1に記載の各手段に加えて仮特徴量対応表の内容を変更する仮特徴量対応表変更手段からなることを特徴とする装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007011332A JP2008176696A (ja) | 2007-01-22 | 2007-01-22 | Cgキャラクタアニメーション作成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007011332A JP2008176696A (ja) | 2007-01-22 | 2007-01-22 | Cgキャラクタアニメーション作成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008176696A true JP2008176696A (ja) | 2008-07-31 |
Family
ID=39703653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007011332A Pending JP2008176696A (ja) | 2007-01-22 | 2007-01-22 | Cgキャラクタアニメーション作成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008176696A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014513836A (ja) * | 2011-04-21 | 2014-06-05 | マイクロソフト コーポレーション | カラー・チャネルおよび光マーカー |
KR20190022811A (ko) * | 2016-06-30 | 2019-03-06 | 스냅 인코포레이티드 | 아바타 기반의 표의문자 생성 |
JP2020046958A (ja) * | 2018-09-19 | 2020-03-26 | 大日本印刷株式会社 | コンテンツ作成装置 |
WO2023095667A1 (ja) | 2021-11-29 | 2023-06-01 | ソニーセミコンダクタソリューションズ株式会社 | データ処理装置およびデータ処理方法、並びにプログラム |
-
2007
- 2007-01-22 JP JP2007011332A patent/JP2008176696A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014513836A (ja) * | 2011-04-21 | 2014-06-05 | マイクロソフト コーポレーション | カラー・チャネルおよび光マーカー |
KR20190022811A (ko) * | 2016-06-30 | 2019-03-06 | 스냅 인코포레이티드 | 아바타 기반의 표의문자 생성 |
KR102241428B1 (ko) | 2016-06-30 | 2021-04-16 | 스냅 인코포레이티드 | 아바타 기반의 표의문자 생성 |
KR20210043021A (ko) * | 2016-06-30 | 2021-04-20 | 스냅 인코포레이티드 | 아바타 기반의 표의문자 생성 |
KR102372756B1 (ko) | 2016-06-30 | 2022-03-10 | 스냅 인코포레이티드 | 아바타 기반의 표의문자 생성 |
JP2020046958A (ja) * | 2018-09-19 | 2020-03-26 | 大日本印刷株式会社 | コンテンツ作成装置 |
JP7196487B2 (ja) | 2018-09-19 | 2022-12-27 | 大日本印刷株式会社 | コンテンツ作成装置 |
WO2023095667A1 (ja) | 2021-11-29 | 2023-06-01 | ソニーセミコンダクタソリューションズ株式会社 | データ処理装置およびデータ処理方法、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7249390B2 (ja) | 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム | |
JP7273880B2 (ja) | 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体 | |
KR101687017B1 (ko) | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 | |
JP5422735B2 (ja) | 可変姿勢を含む画像シーケンスのリアルタイム利用可能なコンピュータ支援分析方法 | |
CN107016717B (zh) | 用于患者的透视视图的系统和方法 | |
JP4148281B2 (ja) | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム | |
CN108564643B (zh) | 基于ue引擎的表演捕捉系统 | |
Roth et al. | A simplified inverse kinematic approach for embodied VR applications | |
Bellarbi et al. | Hand gesture interaction using color-based method for tabletop interfaces | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
Moeslund et al. | Multiple cues used in model-based human motion capture | |
JP2020052979A (ja) | 情報処理装置およびプログラム | |
JP2016071645A (ja) | オブジェクト3次元モデル復元方法、装置およびプログラム | |
JP4938748B2 (ja) | 画像認識装置及びプログラム | |
Liu et al. | Hand pose estimation from rgb images based on deep learning: A survey | |
JP2008176696A (ja) | Cgキャラクタアニメーション作成装置 | |
CN111179341B (zh) | 一种增强现实设备与移动机器人的配准方法 | |
JPH10240908A (ja) | 映像合成方法 | |
Zainordin et al. | Human pose recognition using Kinect and rule-based system | |
Michoud et al. | Real-time and markerless 3D human motion capture using multiple views | |
Cha et al. | Mobile. Egocentric human body motion reconstruction using only eyeglasses-mounted cameras and a few body-worn inertial sensors | |
US20220198747A1 (en) | Method for annotating points on a hand image to create training dataset for machine learning | |
Poppe | Towards real-time body pose estimation for presenters in meeting environments | |
JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Ehlers et al. | Self-scaling Kinematic Hand Skeleton for Real-time 3D Hand-finger Pose Estimation. |