[go: up one dir, main page]

JP2007179338A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2007179338A
JP2007179338A JP2005377466A JP2005377466A JP2007179338A JP 2007179338 A JP2007179338 A JP 2007179338A JP 2005377466 A JP2005377466 A JP 2005377466A JP 2005377466 A JP2005377466 A JP 2005377466A JP 2007179338 A JP2007179338 A JP 2007179338A
Authority
JP
Japan
Prior art keywords
face
image
feature point
information
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005377466A
Other languages
Japanese (ja)
Inventor
Toshiya Irie
俊也 入江
Kazuhiro Ishikawa
和弘 石川
Naohiro Amamoto
直弘 天本
Seiji Inoue
清司 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2005377466A priority Critical patent/JP2007179338A/en
Publication of JP2007179338A publication Critical patent/JP2007179338A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processor for surely achieving pointing, and for more improving entertainment property by arbitrarily moving this information processor without fixing it for detecting pointing. <P>SOLUTION: An information terminal device 10 supplies image data 22 picked up by an image pickup part 12 to a feature point extracting part 14 and a control part 16, and extracts the face included in the image data 22 and the feature points of the face by the feature point extraction part 14, and judges the movement of the face based on the position of the feature point by a feature judging part 18, and generates movement information 32, and generates a capture image as the face image to be displayed based on the image data 22 and the movement information 32 by the control part 16, and controls selection accompanied with pointing and information processing corresponding to this selection while being interlinked with an application, and displays the capture image to be supplied to a monitor 20. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、情報処理装置、とくに、入力した画像に応じてアプリケーションを操作する情報端末装置、携帯電話機やゲーム端末装置等の情報処理装置に関するものである。   The present invention relates to an information processing device, and more particularly to an information processing device such as an information terminal device, a mobile phone, or a game terminal device that operates an application according to an input image.

一般に、従来のカメラからの入力画像を用いて操作する装置がある。このような装置の動作原理は、たとえば入力画像を背景と人物の部分の差分により人物の動きを解析し、解析結果の情報を基に操作している。特許文献1は、オペレータの視線および音声で操作する視線・音声入力装置である。また、特許文献2は、ポインティングできる機能を有する携帯機器である。パターンマッチングにより動き方向および動き量を求め、ポインティング機能を装置に持たせている。さらに、特許文献3は、ポインティングデバイス機能付携帯電話である。特許文献3は、被写体と撮像手段との位置を相対的に変化させた際に得られる画像データを用い、変化にともなう相対な移動量を情報処理装置に送出し、ポインティングさせる。
特開平10−39995号公報 特開2003−288161号公報 特開2004−312194号公報
In general, there is a device that operates using an input image from a conventional camera. The operation principle of such an apparatus is that, for example, an input image is analyzed based on the difference between the background and the person and the operation of the person is operated based on the analysis result information. Patent Literature 1 is a line-of-sight / speech input device operated by an operator's line of sight and voice. Patent Document 2 is a portable device having a function capable of pointing. The movement direction and the movement amount are obtained by pattern matching, and the pointing function is given to the apparatus. Further, Patent Document 3 is a mobile phone with a pointing device function. Patent Document 3 uses image data obtained when the positions of the subject and the imaging unit are relatively changed, and sends a relative movement amount accompanying the change to the information processing apparatus for pointing.
Japanese Patent Laid-Open No. 10-39995 Japanese Patent Laid-Open No. 2003-288161 Japanese Patent Laid-Open No. 2004-312194

しかしながら、特許文献1は、このような操作を装置に実現させるために、入力画像を提供するカメラが固定して使用される。このような利用形態が示すように、特許文献1は携帯機器に向かない。これは、初期設定で取得した画像状態を保ち、上述した差分で動きを解析するからである。携帯端末装置は、カメラ位置を固定して利用することが難しい。   However, in Patent Document 1, a camera that provides an input image is used in a fixed manner in order to realize such an operation in the apparatus. As shown by such usage, Patent Document 1 is not suitable for portable devices. This is because the image state acquired in the initial setting is maintained and the motion is analyzed with the above-described difference. It is difficult to use the mobile terminal device with the camera position fixed.

特許文献2および3は、基準としてあらかじめ位置を設定し、相対的に携帯機器を動かして相対的な移動量を持たせ、ポインティング量に反映させている。このためこれらを適用した装置は、装置を所望の方向に動かすことでポインティングすることになる。   In Patent Documents 2 and 3, a position is set in advance as a reference, and the mobile device is relatively moved to have a relative movement amount, which is reflected in the pointing amount. For this reason, the apparatus to which these are applied points by moving the apparatus in a desired direction.

本発明はこのような従来技術の欠点を解消し、ポインティングの検出において固定せず、任意に移動させて、確実にポインティングさせ、よりエンタテイメント性を向上させることができる情報処理装置を提供することを目的とする。   The present invention eliminates the drawbacks of the prior art, and provides an information processing apparatus that can be moved arbitrarily, and can be reliably pointed and improved in entertainment, without being fixed in the detection of pointing. Objective.

本発明は上述の課題を解決するために、ポインティングに応じて情報を処理する情報処理装置において、この装置は、被写界を撮像し、撮像により画像データを生成する撮像手段と、画像データに含まれる顔およびこの顔の部位を規定する特徴点を抽出する抽出手段と、特徴点の位置を基に顔の動きを判断し、動き情報を生成する動き判断手段と、画像データおよび動き情報を基に表示する顔画像としてキャプチャ画像を生成し、ポインティングにともなう選択およびこの選択に応じた情報処理をアプリケーションに連動させて、制御する制御手段と、供給されるキャプチャ画像を表示する表示手段とを含むことを特徴とする。   In order to solve the above-described problems, the present invention provides an information processing apparatus that processes information in accordance with pointing. This apparatus captures an object scene and generates image data by imaging, and image data. Extraction means for extracting a feature point defining a face and a part of the face, a motion judgment means for judging the motion of the face based on the position of the feature point, and generating motion information, image data and motion information A control unit that generates a captured image as a face image to be displayed based on the screen and controls a selection associated with pointing and information processing according to the selection in conjunction with the application, and a display unit that displays the supplied captured image. It is characterized by including.

本発明に係る情報処理装置によれば、撮像手段で撮像した画像データを抽出手段および制御手段に供給し、抽出手段で画像データに含まれる顔およびこの顔の特徴点を抽出し、動き判断手段で特徴点の位置を基に顔の動きを判断し、動き情報を生成し、制御手段で画像データおよび動き情報を基に表示する顔画像としてキャプチャ画像を生成し、ポインティングにともなう選択およびこの選択に応じた情報処理をアプリケーションに連動させて、制御し、表示手段に供給されるキャプチャ画像を表示することにより、キャプチャ画像とともに、顔の特徴点も表示して抽出状況を確認しながら、任意な移動でありながら、確実なポインティングを実現させ、アプリケーションを動作させることによってよりエンタテイメント性を向上させることができるができる。   According to the information processing apparatus of the present invention, the image data captured by the imaging unit is supplied to the extraction unit and the control unit, the face included in the image data and the feature points of the face are extracted by the extraction unit, and the motion determination unit To determine the movement of the face based on the position of the feature point, generate movement information, generate a captured image as a face image to be displayed based on the image data and movement information by the control means, and select and select with pointing By controlling the information processing according to the application and controlling it, and displaying the captured image supplied to the display means, along with the captured image, the facial feature points are also displayed to check the extraction status and Realize reliable pointing while moving, and improve entertainment by running applications Can can.

次に添付図面を参照して本発明による情報処理装置の一実施例を詳細に説明する。図1を参照すると、本発明による情報端末装置10の実施例は、撮像部12で撮像した画像データ22を特徴点抽出部14および制御部16に供給し、特徴点抽出部14で画像データ22に含まれる顔およびこの顔の特徴点を抽出し、特徴判断部18で特徴点の位置を基に顔の動きを判断し、動き情報32を生成し、制御部16で画像データ22および動き情報32を基に表示する顔画像としてキャプチャ画像を生成し、ポインティングにともなう選択およびこの選択に応じた情報処理をアプリケーションに連動させて、制御し、モニタ20に供給されるキャプチャ画像を表示することにより、キャプチャ画像とともに、顔の特徴点も表示して抽出状況を確認しながら、任意な移動でありながら、確実なポインティングを実現させ、アプリケーションを動作させることによってよりエンタテイメント性を向上させることができるができる。   Next, an embodiment of an information processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings. Referring to FIG. 1, in the embodiment of the information terminal device 10 according to the present invention, the image data 22 captured by the imaging unit 12 is supplied to the feature point extraction unit 14 and the control unit 16, and the feature point extraction unit 14 supplies the image data 22. And a feature point of this face are extracted, a feature determination unit 18 determines the movement of the face based on the position of the feature point, generates motion information 32, and the control unit 16 generates image data 22 and motion information. By generating a captured image as a face image to be displayed based on 32, controlling the selection associated with pointing and information processing corresponding to this selection in conjunction with the application, and displaying the captured image supplied to the monitor 20 By displaying the facial feature points along with the captured image and confirming the extraction status, it is possible to realize reliable pointing while operating the application while moving arbitrarily You can improve the entertainment property.

本実施例は、本発明の情報処理装置を情報端末装置10に適用した場合である。本発明と直接関係のない部分について図示および説明を省略する。以下の説明で、信号はその現れる接続線の参照番号で指示する。   In this embodiment, the information processing apparatus of the present invention is applied to the information terminal apparatus 10. The illustration and description of parts not directly related to the present invention are omitted. In the following description, the signal is indicated by the reference number of the connecting line in which it appears.

情報端末装置10は、図1に示すように、撮像部12、特徴点抽出部14、制御部16、特徴判断部18およびモニタ20を含む。撮像部12は、被写界を撮影し、取得した画像をディジタル化するカメラ機能を有する。撮像部12は、撮影した人の顔を含む画像データ22を特徴点抽出部14および制御部16に出力する。   As shown in FIG. 1, the information terminal device 10 includes an imaging unit 12, a feature point extraction unit 14, a control unit 16, a feature determination unit 18, and a monitor 20. The imaging unit 12 has a camera function for capturing a scene and digitizing the acquired image. The imaging unit 12 outputs image data 22 including the photographed human face to the feature point extraction unit 14 and the control unit 16.

特徴点抽出部14は、画像データ22から人の頭部を抽出し、更に、頭部の各部位の位置を特徴点として抽出する機能を有する。この抽出処理は、特許第3593057号に記載された表情特徴抽出部と同じ機能である。顔の各部位とは、たとえば顔の輪郭、目、口、鼻および眉等である。すなわち、抽出は、1998年1月1日付で提案されたWG11/MPEG(Working Group 11/Moving Picture Experts of Group)のコミッティドラフトに記載された68個のFAP(Face Animation Parameters)を特徴点として解析する。この実現のため、特徴点抽出部14は、図示しないがエッジ検出および特徴点トラッキング機能部等を含む。   The feature point extraction unit 14 has a function of extracting a human head from the image data 22 and further extracting the position of each part of the head as a feature point. This extraction process has the same function as the facial expression feature extraction unit described in Japanese Patent No. 3593057. Each part of the face is, for example, a face outline, eyes, mouth, nose, eyebrows, or the like. In other words, the extraction was analyzed using 68 FAP (Face Animation Parameters) described in the committee draft of Working Group 11 / Moving Picture Experts of Group (WG11 / MPEG) proposed on January 1, 1998 as feature points. To do. In order to realize this, the feature point extraction unit 14 includes an edge detection and feature point tracking function unit and the like (not shown).

エッジ検出機能部は、供給される顔画像を走査して顔画像のエッジを検出する機能を有する。エッジ検出機能部は、検出したエッジから目、口、鼻および眉の輪郭を抽出し、抽出した各部の位置データまたは座標データを特徴点トラッキング機能部に送る。特徴点トラッキング機能部は、供給される座標データを探索し、得られた各特徴点の位置を追跡し、各特徴点の座標データを検出する機能を有する。特徴点トラッキング機能部は、特徴点抽出部14の出力として検出した座標データ24を特徴点判断部18に出力する。   The edge detection function unit has a function of detecting the edge of the face image by scanning the supplied face image. The edge detection function unit extracts the contours of the eyes, mouth, nose, and eyebrows from the detected edges, and sends the extracted position data or coordinate data of each unit to the feature point tracking function unit. The feature point tracking function unit has a function of searching the supplied coordinate data, tracking the position of each obtained feature point, and detecting the coordinate data of each feature point. The feature point tracking function unit outputs the coordinate data 24 detected as the output of the feature point extraction unit 14 to the feature point determination unit 18.

特徴点判断部18は、顔枠算出機能部26、顔向き判断機能部28および口開閉判断機能部30を含む。特徴点判断部18は、供給される座標データ24を基に動きを判断し、動き情報32を生成する機能を有する。顔枠算出機能部26は、カメラに映る使用者の顔枠を座標データから求め、頭の移動方向および移動量を算出する機能を有する。顔向き判断機能部28は、座標データから頭の移動方向を算出する機能を有する。口開閉判断機能部30は、座標データから口の開閉を算出する機能を有する。特徴点判断部18は、算出した顔枠、顔向きおよび口の開閉を含む動き情報32を制御部16に出力する。   The feature point determination unit 18 includes a face frame calculation function unit 26, a face orientation determination function unit 28, and a mouth opening / closing determination function unit 30. The feature point determination unit 18 has a function of determining movement based on the supplied coordinate data 24 and generating movement information 32. The face frame calculation function unit 26 has a function of obtaining a user's face frame reflected in the camera from the coordinate data and calculating the moving direction and the moving amount of the head. The face orientation determination function unit 28 has a function of calculating the moving direction of the head from the coordinate data. The mouth opening / closing determination function unit 30 has a function of calculating opening / closing of the mouth from the coordinate data. The feature point determination unit 18 outputs the motion information 32 including the calculated face frame, face orientation, and opening / closing of the mouth to the control unit 16.

制御部16は、ポインタ制御機能部34、アプリケーション制御機能部36、表示制御機能部38およびキャプチャ画像生成機能部40を含む。制御部16は、供給される画像データ22および動き情報32を基に、ポインタ制御機能部34、アプリケーション制御機能部36、表示制御機能部38およびキャプチャ画像生成機能部40のそれぞれで得られた情報を相互に供給して、それぞれの機能を連動させて制御することが好ましい。アプリケーション制御機能部36は、他の機能部から供給される情報に連動してアプリケーション動作を制御することが望ましい。   The control unit 16 includes a pointer control function unit 34, an application control function unit 36, a display control function unit 38, and a captured image generation function unit 40. Based on the supplied image data 22 and motion information 32, the control unit 16 obtains information obtained by each of the pointer control function unit 34, the application control function unit 36, the display control function unit 38, and the captured image generation function unit 40. Are preferably supplied to each other and controlled in conjunction with each other. It is desirable that the application control function unit 36 controls application operations in conjunction with information supplied from other function units.

各機能部の機能は以下のように定義される。ポインタ制御機能部34は、供給される動き情報32に応じて表示するポインタによる選択や移動を制御する機能を有する。アプリケーション制御機能部36は、少なくとも、どのようにアプリケーションを制御するかという機能を有し、また、供給される動き情報32に応じてポインタを操作するか否かも有してもよい。表示制御機能部38は、画像データ22および動き情報32を基にモニタ20への顔画像の表示を制御する機能を有する。さらに説明すると、表示制御機能部38は、とくに、リアルタイムにキャプチャ画像、顔の特徴点および顔枠を更新し、表示を制御する機能を有する。キャプチャ画像生成機能部40は、供給される画像データ22から顔の部分の画像を抽出し、キャプチャ画像を生成する機能を有する。制御部16は、生成したキャプチャ画像データおよびカーソルの制御情報を含む表示情報42をモニタ20に出力する。   The function of each functional unit is defined as follows. The pointer control function unit 34 has a function of controlling selection and movement by a pointer displayed according to the motion information 32 supplied. The application control function unit 36 has at least a function of how to control the application, and may also have whether or not to operate the pointer according to the motion information 32 supplied. The display control function unit 38 has a function of controlling the display of the face image on the monitor 20 based on the image data 22 and the motion information 32. More specifically, the display control function unit 38 has a function of updating a captured image, a facial feature point, and a face frame in real time to control display. The capture image generation function unit 40 has a function of extracting a face image from the supplied image data 22 and generating a capture image. The control unit 16 outputs display information 42 including the generated captured image data and cursor control information to the monitor 20.

モニタ20は、供給される表示情報42を表示する機能を有する。モニタ20には撮影されたキャプチャ画像が表示される。この画像は、鏡像になる。キャプチャ画像をモニタ20に表示することで使用者は、顔の特徴点の検出状態を確認することができる。   The monitor 20 has a function of displaying the supplied display information 42. A captured image is displayed on the monitor 20. This image becomes a mirror image. By displaying the captured image on the monitor 20, the user can check the detection state of the facial feature points.

次に抽出する特徴点と判断について説明する。顔の部位には、それぞれ、図2に示すように、参照番号を付す。すなわち、左目44、目頭46、目尻48、上瞼の中心50、下瞼の中心52、目尻と上瞼の中心との中間54、目頭と上瞼の中心との中間56、右目58、目頭60、目尻62、上瞼の中心64、下瞼の中心66、目頭と上瞼の中心との中間68、目尻と上瞼の中心との中間70、左眉先端72、左眉中間74、右眉先端76、右眉中間78、鼻80、口として唇左端82、唇右端84、上唇の中心、すなわち人中86、下唇中心88、人中と唇左端との中間90、人中と唇右端との中間92、下唇中心と唇右端との中間94および下唇中心と唇左端との中間96で部位の位置を表わす。   Next, feature points to be extracted and determination will be described. Each face part is given a reference number as shown in FIG. That is, left eye 44, eye head 46, eye corner 48, center of upper eyelid 50, center of lower eyelid 52, middle 54 between the corner of eye corner and upper eyelid, middle 56 between eye and center of upper eyelid, right eye 58, eye head 60 , 62 eye corner, 64 center of upper eyelid, 66 center of lower eyelid, 68 between center of eye and center of upper eyelid, 70 between eye corner and center of upper eyelid, tip of left eyebrow 72, middle of left eyebrow 74, right eyebrow Tip 76, middle right eyebrow 78, nose 80, left lip 82 as mouth, right lip 84, center of upper lip, ie man 86, lower lip center 88, middle 90 between man and left lip, man and right lip The position of the part is represented by an intermediate 92 between the center of the lower lip and an intermediate 94 between the center of the lower lip and the right end of the lip and an intermediate 96 between the center of the lower lip and the left end of the lip.

顔枠算出機能部26は、基準幅98、基準高100、顔枠左端102、顔枠右端104、顔枠上端106および顔枠下端108を算出する。
基準幅98=左目44−右目58、
基準高100=下唇中心88−左目44または下唇中心88−右目58、
顔枠左端102=左目44−(基準幅98×1.0)、
顔枠右端104=右目58−(基準幅98×1.0)、
顔枠上端106=左目44−(基準高100×0.8)または右目58−(基準高100×0.8)および
顔枠下端108は、下唇中心88+(基準高100×0.4)。
The face frame calculation function unit 26 calculates a reference width 98, a reference height 100, a face frame left end 102, a face frame right end 104, a face frame upper end 106, and a face frame lower end 108.
Reference width 98 = left eye 44-right eye 58,
Reference height 100 = lower lip center 88—left eye 44 or lower lip center 88—right eye 58,
Face frame left edge 102 = left eye 44-(reference width 98 x 1.0),
Face frame right edge 104 = right eye 58-(reference width 98 x 1.0),
Face frame upper end 106 = left eye 44− (reference height 100 × 0.8) or right eye 58− (reference height 100 × 0.8) and face frame lower end 108 are lower lip center 88+ (reference height 100 × 0.4).

顔向き判断機能部28は、右比率と左比率の変化により右向きと左向きを判断する。これ以降、参照符号に付される記号x, yは、座標データのx, yを表わす。図2および図3を用いて、右比率および左比率
右比率=((右目58x−鼻80x)÷(顔枠右端104x−顔枠左端102x)×100)
左比率=((鼻80x−左目44x)÷(顔枠右端104x−顔枠左端102x)×100)
を求める。また、上比率と下比率の変化により上向きと下向きを判断する。図2および図3を用いて、上比率および下比率
上比率=((鼻80y−右目64y)÷(顔枠下端108y−顔枠上端106y)×100)
下比率=((下唇中心88y−鼻80y)÷(顔枠下端108y−顔枠上端106y)×100)
を求める。さらに、中心位置(Cx,Cy)の変化により顔の向きを判断してもよい。
中心位置Cx=(顔枠左端102x+顔枠右端106y)÷2
中心位置Cy=(顔枠上端106y+顔枠下端108y)÷2
口開閉判断機能部30は、現在と前回の開口率の変化により開口を判断する機能を有する。現在と前回の開口率は、図4に示すように、
現在開口率=(現在下唇中心88y−現在の人中86y)÷(現在顔枠下端108y−現在顔枠上端106y)×100)から求め、前回開口率=(前回下唇中心88y−前回の人中86y)÷(前回顔枠下端108y−前回顔枠上端106y)×100)から求める。開口状態は、あらかじめ設定した開口閾値より大きいときとする。判断条件は、現在の開口率≠0かつ前回の開口率≠0の場合、(現在開口率>前回開口率)かつ(前回開口状態が閉口状態)かつ((現在開口率−前回開口率)>開口閾値)の場合に現在の開口状態が開口と判断する。また、(前回開口率>現在開口率)かつ(前回開口状態が開口状態)かつ((前回開口率−現在開口率)>開口閾値)の場合も現在の開口状態が開口と判断する。
The face orientation determination function unit 28 determines the right orientation and the left orientation based on the change in the right ratio and the left ratio. Hereinafter, the symbols x and y attached to the reference symbols represent x and y of the coordinate data. 2 and 3, the right ratio and the left ratio and the right ratio = ((right eye 58x−nose 80x) ÷ (face frame right edge 104x−face frame left edge 102x) × 100).
Left ratio = ((nose 80x-left eye 44x) ÷ (face frame right edge 104x-face frame left edge 102x) x 100)
Ask for. Further, the upward and downward directions are determined based on the change in the upward ratio and the downward ratio. 2 and 3, the upper ratio and the lower ratio upper ratio = ((nose 80y−right eye 64y) ÷ (face frame lower end 108y−face frame upper end 106y) × 100)
Lower ratio = ((lower lip center 88y−nose 80y) ÷ (face frame lower end 108y−face frame upper end 106y) × 100)
Ask for. Further, the orientation of the face may be determined based on a change in the center position (Cx, Cy).
Center position Cx = (Face frame left edge 102x + Face frame right edge 106y) / 2
Center position Cy = (Face frame upper edge 106y + Face frame lower edge 108y) ÷ 2
The mouth opening / closing determination function unit 30 has a function of determining an opening based on a change in the current and previous opening ratios. As shown in Fig. 4, the current and previous aperture ratios are
Current aperture ratio = (Current lower lip center 88y-Current human face 86y) ÷ (Current face frame lower end 108y-Current face frame upper end 106y) x 100), previous aperture ratio = (previous lower lip center 88y-previous 86y) / (previous face frame lower end 108y−previous face frame upper end 106y) × 100). The opening state is assumed to be larger than a preset opening threshold. When the current aperture ratio is not 0 and the previous aperture ratio is not 0, (current aperture ratio> previous aperture ratio) and (previous aperture state is closed) and ((current aperture ratio−previous aperture ratio)> In the case of (opening threshold), it is determined that the current opening state is an opening. In addition, when (previous opening ratio> current opening ratio), (previous opening state is opening state) and ((previous opening ratio−current opening ratio)> opening threshold), the current opening state is determined to be an opening.

次に情報端末装置10の動作について図5を用いて、説明する。使用者が情報端末装置10を起動する。使用者は、情報端末装置10の撮像部12を顔の前に向ける。顔の操作が開始されたか判断する(ステップS10)。使用者が顔の動きによるポインタ操作を開始した場合(YES)、入力画像の取得に進む(ステップS12へ)。ポインタ操作は、たとえばキーやマウスの通常の入力インタフェースを用い、開始ボタンのクリックやキーの押下げ等を行ない、操作を実行する。また、ポインタ操作がまだの場合(NO)、顔の操作が行なわれるまで待機する(ステップS10へ)。このポインタ操作後、撮像部12で入力画像を取得する(ステップS12)。取得した画像データ22を特徴点抽出部14に出力する。   Next, the operation of the information terminal device 10 will be described with reference to FIG. The user activates the information terminal device 10. The user points the imaging unit 12 of the information terminal device 10 in front of the face. It is determined whether the face operation has been started (step S10). When the user starts the pointer operation by the movement of the face (YES), the process proceeds to the acquisition of the input image (to step S12). The pointer operation is performed by, for example, using a normal input interface of a key or a mouse, clicking a start button, pressing a key, or the like. If the pointer operation is not yet performed (NO), the process waits until the face operation is performed (to step S10). After this pointer operation, an input image is acquired by the imaging unit 12 (step S12). The acquired image data 22 is output to the feature point extraction unit 14.

次に特徴点抽出部14で画像を解析し、入力画像に映っている顔画像から顔の輪郭および特徴点を抽出する(ステップS14)。特徴点抽出部14は抽出した座標データ24を特徴点判断部18に出力する。   Next, the feature point extraction unit 14 analyzes the image, and extracts the face outline and feature points from the face image shown in the input image (step S14). The feature point extraction unit 14 outputs the extracted coordinate data 24 to the feature point determination unit 18.

次に特徴点判断部18で顔枠を算出する(ステップS16)。特徴点判断部18は、顔枠算出機能部26で算出した顔枠を含む動き情報32を制御部16に出力する。   Next, the feature point determination unit 18 calculates a face frame (step S16). The feature point determination unit 18 outputs the motion information 32 including the face frame calculated by the face frame calculation function unit 26 to the control unit 16.

次に顔の向きに変化があるか否かを判断する(ステップS18)。特徴点判断部18の顔向き判断機能部28で顔向きを算出し、顔の向きを検出する。前述した比率を用いる方法は、使用者が向ける顔の方向検出に適し、中心位置を用いる方法は、使用者の顔位置の変化を検出するのに適している。前者の比率検出方法は、あらかじめ設定した各向きの閾値と検出した各比率とを比較して判断するとよい。また、数値N%の比率と顔の向きとを合わせて、「N%上」と表示してもよい。   Next, it is determined whether or not the face orientation has changed (step S18). The face direction determination function unit 28 of the feature point determination unit 18 calculates the face direction and detects the face direction. The method using the ratio described above is suitable for detecting the direction of the face that the user faces, and the method using the center position is suitable for detecting a change in the user's face position. The former ratio detection method may be determined by comparing a preset threshold value in each direction with each detected ratio. Further, “N% up” may be displayed by combining the ratio of the numerical value N% and the orientation of the face.

顔向きに変化がある場合(YES)、特徴点判断部18から算出した顔向きを含む動き情報32を制御部16に出力し、ポインタ移動処理に進む(ステップS20へ)。また、顔向きに変化がない場合(NO)、手順は口の開閉を判断する処理に進む(ステップS22へ)。   When there is a change in the face direction (YES), the motion information 32 including the face direction calculated from the feature point determination unit 18 is output to the control unit 16, and the process proceeds to the pointer movement process (to step S20). If there is no change in the face orientation (NO), the procedure proceeds to a process for determining opening / closing of the mouth (to step S22).

ポインタ移動処理は、ポインタ制御機能部34で供給される動き情報32に応じてポインタを移動させ、キャプチャ画像生成機能部40でキャプチャ画像データおよび移動させたカーソルの制御情報を含む表示情報42をモニタ20に出力する。モニタ20には、入力画像に特徴点と顔枠を重畳した画像が表示される。この表示画像をキャプチャ画像という。   In the pointer movement process, the pointer is moved according to the motion information 32 supplied by the pointer control function unit 34, and the display information 42 including the captured image data and the control information of the moved cursor is monitored by the capture image generation function unit 40. Output to 20. The monitor 20 displays an image in which feature points and a face frame are superimposed on the input image. This display image is called a capture image.

次に口の開閉があるか否かを判断する(ステップS22)。特徴判断部18の口開閉判断機能部30で口の開閉を検出する。開口の場合(YES)、アプリケーションの起動状態の確認処理に進む(ステップS24へ)。また、閉口の場合(NO)、顔操作の終了判断処理に進む(ステップS26へ)。   Next, it is determined whether or not there is opening / closing of the mouth (step S22). The mouth opening / closing determination function unit 30 of the feature determination unit 18 detects opening / closing of the mouth. In the case of opening (YES), the process proceeds to the application activation state confirmation process (to step S24). If the mouth is closed (NO), the process proceeds to a face operation end determination process (step S26).

次にアプリケーションの起動状態の確認処理は、制御部16のアプリケーション制御機能部36で起動状態か否かを確認する。起動状態に有る場合(YES)、アプリケーションの終了処理に進む(ステップS28へ)。また、起動状態にない場合(NO)、アプリケーションの起動処理に進む(ステップS30へ)。   Next, in the application activation state confirmation process, the application control function unit 36 of the control unit 16 confirms whether or not the application is activated. If it is in the activated state (YES), the process proceeds to application termination processing (to step S28). If not in the activated state (NO), the process proceeds to the application activation process (to step S30).

アプリケーションの終了はアプリケーション制御機能部36での制御により終了させる(ステップS28)。また、アプリケーションの起動は、現在ポインタが指しているアプリケーション制御機能部36での制御により起動させる(ステップS30)。これらの処理後、顔操作の終了判断処理に進む(ステップS26へ)。   The application is terminated by the control by the application control function unit 36 (step S28). In addition, the application is activated under the control of the application control function unit 36 currently pointed to by the pointer (step S30). After these processes, the process proceeds to a face operation end determination process (to step S26).

次に顔操作の終了か否かを判断する(ステップS26)。顔操作が未終了の場合(NO)、入力画像の取得に戻る(ステップS12へ)。また、顔操作が終了の場合(YES)、終了に進んで、顔操作処理を終了する。   Next, it is determined whether or not the face operation is finished (step S26). If the face operation has not been completed (NO), the process returns to the acquisition of the input image (to step S12). If the face operation is finished (YES), the process proceeds to the end, and the face operation process is finished.

このように入力画像から顔の特徴点を抽出し、顔枠、顔の向きおよび口の開閉を判断し、判断した結果を基に装置の動作を制御することにより装置のポインタを操作できる。また、情報端末装置10は、顔以外の部分を非固定で構わないことから、携帯型の装置でより有効である。   In this manner, the facial feature points are extracted from the input image, the face frame, the face orientation, and the opening / closing of the mouth are determined, and the device pointer can be operated by controlling the operation of the device based on the determined results. In addition, the information terminal device 10 is more effective in a portable device because the portion other than the face may be unfixed.

情報端末装置10には、ポインタの移動やアプリケーションで示した例の他、リストメニューの選択操作やスクロール操作等にも適用することができる。   The information terminal device 10 can be applied to a selection operation of a list menu, a scroll operation, and the like in addition to an example shown by movement of a pointer and an application.

より具体的な例としてゲームで説明する。制御部16は、アプリケーション制御機能部36としてゲーム制御機能部を含む。また、制御部16は、キャプチャ画像生成機能部40にゲームオブジェクトを重畳する機能を有し、キャプチャ画像とゲームオブジェクトを合成した画像を生成する機能を有する。これらの機能を用いて、図6に示すキャプチャ画像110がモニタ20に表示される。   A more specific example will be described with a game. The control unit 16 includes a game control function unit as the application control function unit 36. Further, the control unit 16 has a function of superimposing a game object on the capture image generation function unit 40, and has a function of generating an image obtained by synthesizing the capture image and the game object. The captured image 110 shown in FIG. 6 is displayed on the monitor 20 using these functions.

次にこの場合の情報端末装置10の動作を説明する。情報端末装置10は、すでにアプリケーション制御機能部36でゲームアプリケーションが起動している。本実施例のゲームアプリケーションは、図7の手順で動作する。ゲームアプリケーションの開始にともないオブジェクトを追加する(ステップS30)。キャプチャ画像はキャプチャ画像生成機能部40で顔画像にオブジェクト112、114および116を重畳合成する。オブジェクト112、114および116は、図6に示すように、たとえばおにぎり、とうもろこしおよび魚等をモニタ20の画面上部から下部の所定の位置に向かって降らせる。オブジェクトは、適当な頻度で発生させるとよい。   Next, the operation of the information terminal device 10 in this case will be described. In the information terminal device 10, the game application has already been activated by the application control function unit 36. The game application of the present embodiment operates according to the procedure shown in FIG. An object is added as the game application starts (step S30). The captured image is superposed and synthesized with the objects 112, 114, and 116 on the face image by the captured image generation function unit 40. As shown in FIG. 6, the objects 112, 114, and 116 cause, for example, rice balls, corn, fish, and the like to descend from the upper part of the screen of the monitor 20 toward a predetermined position. Objects should be generated at an appropriate frequency.

次に口の開閉があったか否かを判断する(ステップS32)。この判断には、特徴点判断部18で得た口の開閉を含む動き情報32から口の開閉をチェックする。口の開閉があった場合(YES)、位置確認処理に進む(ステップS34へ)。また、口の開閉がなかった場合(NO)、オブジェクト移動処理に進む(ステップS36へ)。   Next, it is determined whether the mouth has been opened or closed (step S32). For this determination, the opening / closing of the mouth is checked from the movement information 32 including opening / closing of the mouth obtained by the feature point determination unit 18. If the mouth has been opened or closed (YES), the process proceeds to the position confirmation process (to step S34). If the mouth has not been opened or closed (NO), the process proceeds to the object moving process (go to step S36).

次に位置確認処理では、オブジェクトと口の位置が一致するか否かを判断する(ステップS34)。口の特徴点の位置とオブジェクトの位置とを比較する。口の特徴点の位置は、図2に示す顔の口における特徴点である。図6のキャプチャ画像110では、口の周りに配された6個の記号○である。両方の位置が一致するとは、たとえば口の特徴点で囲まれた範囲内にオブジェクトの中心位置が含まれるように、一定範囲内に重なる場合である。両方の位置が一致する場合(YES)、オブジェクトが口に咥えられたと判断し、オブジェクト処理に進む(ステップS40へ)。また、両方の位置が一致しない場合(NO)、オブジェクト移動処理に進む(ステップS36へ)。   Next, in the position confirmation process, it is determined whether or not the position of the object matches the position of the mouth (step S34). The position of the mouth feature point is compared with the position of the object. The position of the mouth feature point is the feature point in the mouth of the face shown in FIG. In the captured image 110 of FIG. 6, there are six symbols ◯ arranged around the mouth. Both the positions coincide with each other when, for example, they overlap within a certain range such that the center position of the object is included in the range surrounded by the mouth feature points. If both positions match (YES), it is determined that the object has been picked up by the mouth, and the process proceeds to object processing (to step S40). If the two positions do not match (NO), the process proceeds to the object movement process (to step S36).

次にオブジェクト処理では、咥えられたオブジェクトを消去し、あらかじめ定められたゲームの得点を加算する(ステップS38)。次にゲームクリアの確認処理に進む(ステップS40へ)。   Next, in the object processing, the given object is deleted, and a predetermined game score is added (step S38). Next, the process proceeds to a game clear confirmation process (to step S40).

ゲームクリアの確認処理では、あらかじめ定められたクリア条件を達成したか否かを判断する(ステップS40)。クリア条件は、たとえば一定数のオブジェクトの消去または一定の得点の取得である。条件を満足する場合(YES)、ゲームオーバと判断し、終了に進み、ゲームアプリケーションを終了させる。また、条件を満足していない場合(NO)、ゲームを継続させ、オブジェクト移動処理に進む(ステップS36へ)。   In the game clear confirmation process, it is determined whether or not a predetermined clear condition has been achieved (step S40). The clear condition is, for example, erasing a certain number of objects or obtaining a certain score. If the condition is satisfied (YES), it is determined that the game is over, the process proceeds to end, and the game application is ended. If the condition is not satisfied (NO), the game is continued and the process proceeds to the object movement process (to step S36).

次にオブジェクト移動処理では、残ったオブジェクトを移動させる(ステップS36)。画面の最下端に達していたオブジェクトは、オブジェクト移動により画面から消える。次にこの移動にともないオブジェクトが表示範囲外に達したか否かを判断する(ステップS42)。オブジェクトが最下端にあった場合(YES)、画面から無くすオブジェクト削除処理に進む(ステップS44へ)。また、オブジェクトが最下端にない場合(NO)、口の開閉のチェックに戻る(ステップS32へ)。   Next, in the object moving process, the remaining object is moved (step S36). Objects that have reached the bottom of the screen disappear from the screen due to object movement. Next, it is determined whether or not the object has reached the outside of the display range with this movement (step S42). If the object is at the lowermost end (YES), the process proceeds to the object deletion process to be deleted from the screen (to step S44). If the object is not at the lowermost end (NO), the process returns to the mouth open / close check (to step S32).

次にオブジェクトを削除する(ステップS44)。該当するオブジェクトは得点されることなく、失われる。ゲームアプリケーションは、失われたオブジェクトの総数または総失点をカウントする。   Next, the object is deleted (step S44). The corresponding object is lost without being scored. The game application counts the total number of lost objects or total points.

次にカウントした失われたオブジェクトの総数または総失点があらかじめ設定した数または点数に達したか否かを判断する(ステップS46)。カウントした失われたオブジェクトの総数または総失点があらかじめ設定した数または点数に達していない場合(NO)、口の開閉のチェックに戻る(ステップS32へ)。また、カウントした失われたオブジェクトの総数または総失点があらかじめ設定した数または点数に達した場合(YES)、ゲームオーバでゲームを終了する。   Next, it is determined whether or not the total number of lost objects counted or the total score has reached a preset number or score (step S46). If the total number of lost objects or the total number of points lost has not reached the preset number or points (NO), the process returns to the mouth open / close check (to step S32). If the total number of lost objects or the total goal scored reaches a preset number or score (YES), the game is over when the game is over.

このようにゲーム操作とゲームのオブジェクトをキャプチャ画像に重畳表示することによりあたかも使用者がゲーム中に存在して、使用者の動作でゲームが進行するような表現を可能にし、情報処理装置10のエンタテイメント性をより向上させるという効果を奏する。   By superimposing the game operation and the game object on the captured image in this way, it is possible to make an expression as if the user exists in the game and the game progresses by the user's action. There is an effect of further improving entertainment properties.

情報端末装置10は、上述したゲームに限定されるものでなく、たとえば画面下部に使用者を示すオブジェクトを配し、画面上部から敵を示すオブジェクトがミサイルのような弾を発射するゲームでは使用者の顔の向きで使用者を示すオブジェクトの移動操作に用い、口の開閉を使用者からのミサイル発射操作に用いることができる。   The information terminal device 10 is not limited to the above-described game. For example, in the game in which an object indicating a user is arranged at the bottom of the screen, and an object indicating an enemy fires a missile-like bullet from the top of the screen. It can be used for the movement operation of the object indicating the user with the face direction, and the opening and closing of the mouth can be used for the missile launch operation from the user.

本実施例の情報端末装置10は、特許文献3と比較すると、顔検出を用いることから、時間的相対変化に加えて、画面上の顔の絶対的な位置を検出することができる。特許文献3は、設定した基準位置からの移動量だけで位置検出する。情報端末装置10は、移動でなく、顔の位置でポインタの位置を決定することができるから、初期位置の取得において背景が止まっていなくてもよい。情報端末装置10は、表情検出することから、使用者による大きなアクションまたは動作を取らずに顔の部位だけでポインタを操作できる。   Compared with Patent Document 3, the information terminal device 10 according to the present embodiment uses face detection, and therefore can detect the absolute position of the face on the screen in addition to the temporal relative change. In Patent Document 3, the position is detected only by the amount of movement from the set reference position. Since the information terminal device 10 can determine the position of the pointer based on the position of the face rather than the movement, the background does not have to stop in obtaining the initial position. Since the information terminal device 10 detects the facial expression, the pointer can be operated only with the face portion without taking a large action or action by the user.

また、情報端末装置10は、使用者の動きをゲームのアクションに反映できることから、バーチャルなゲーム世界に自分を投影されているような臨場感・感情移入を持たせることができる。これにより情報端末装置10は、特許文献3に比べてよりエンタテイメント性の高いゲームを実施できる。   Further, since the information terminal device 10 can reflect the movement of the user in the action of the game, the information terminal device 10 can have a sense of presence and empathy as if it were projected on the virtual game world. As a result, the information terminal device 10 can execute a game with higher entertainment characteristics as compared to Patent Document 3.

本発明の情報処理装置を適用した情報端末装置の概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the information terminal device to which the information processing apparatus of this invention is applied. 図1の特徴点抽出部で顔の特徴点として抽出する顔の位置を示す図である。It is a figure which shows the position of the face extracted as a feature point of a face in the feature point extraction part of FIG. 図2の特徴点を用いた顔向きの判断に用いる特徴点の位置関係を説明する図である。It is a figure explaining the positional relationship of the feature point used for determination of the face direction using the feature point of FIG. 図2の特徴点を用いた口の開口の判断に用いる特徴点の位置関係を説明する図である。It is a figure explaining the positional relationship of the feature point used for judgment of opening of the mouth using the feature point of FIG. 図1の情報端末装置における動作手順を説明するフローチャートである。It is a flowchart explaining the operation | movement procedure in the information terminal device of FIG. 図1のモニタに表示されるキャラクタ画像とオブジェクトとを合成したモニタ画像を示す図である。It is a figure which shows the monitor image which synthesize | combined the character image and object which are displayed on the monitor of FIG. 図1の情報端末装置に適用した際のゲームアプリケーションにおける動作手順を説明するフローチャートである。It is a flowchart explaining the operation | movement procedure in the game application at the time of applying to the information terminal device of FIG.

符号の説明Explanation of symbols

10 情報端末装置
12 撮像部
14 特徴点抽出部
16 制御部
18 特徴判断部
20 モニタ
10 Information terminal equipment
12 Imaging unit
14 Feature point extraction unit
16 Control unit
18 Feature judgment unit
20 Monitor

Claims (4)

ポインティングに応じて情報を処理する情報処理装置において、該装置は、
被写界を撮像し、撮像により画像データを生成する撮像手段と、
前記画像データに含まれる顔および該顔の部位を規定する特徴点を抽出する抽出手段と、
前記特徴点の位置を基に顔の動きを判断し、動き情報を生成する動き判断手段と、
前記画像データおよび動き情報を基に表示する顔画像としてキャプチャ画像を生成し、前記ポインティングにともなう選択および該選択に応じた情報処理をアプリケーションに連動させて、制御する制御手段と、
供給されるキャプチャ画像を表示する表示手段とを含むことを特徴とする情報処理装置。
In an information processing apparatus that processes information according to pointing, the apparatus includes:
Imaging means for imaging the object scene and generating image data by imaging;
Extracting means for extracting a feature point defining a face and a part of the face included in the image data;
A movement determining means for determining a movement of the face based on the position of the feature point and generating movement information;
Control means for generating a captured image as a face image to be displayed based on the image data and motion information, and controlling the selection associated with the pointing and information processing corresponding to the selection in conjunction with an application;
An information processing apparatus comprising: display means for displaying a supplied captured image.
請求項1に記載の装置において、前記動き判断手段は、前記特徴点から顔の枠を算出する算出機能ブロックと、
前記特徴点から顔の向きを判断する向き判断機能ブロックと、
前記特徴点から口の開閉を判断する開閉判断機能ブロックとを含むことを特徴とする情報処理装置。
The apparatus according to claim 1, wherein the movement determination unit calculates a face frame from the feature points;
An orientation determination function block for determining the orientation of the face from the feature points;
An information processing apparatus comprising: an opening / closing determination function block that determines opening / closing of the mouth from the feature point.
請求項1または2に記載の装置において、前記制御手段は、前記動き情報に応じて前記ポインティングの位置を示すポインタを制御するポインタ制御機能ブロックと、
前記画像データおよび動き情報を基に前記表示手段への顔画像の表示を制御する表示制御機能ブロックと、
前記キャプチャ画像を生成する画像生成機能ブロックとを含むことを特徴とする情報処理装置。
3. The apparatus according to claim 1, wherein the control means controls a pointer indicating a pointer indicating the position of the pointing according to the motion information;
A display control function block for controlling display of a face image on the display means based on the image data and motion information;
An information processing apparatus comprising: an image generation function block that generates the capture image.
請求項3に記載の装置において、前記制御手段は、少なくともアプリケーションをどのように制御するか指示する機能ブロックを含むことを特徴とする情報処理装置。   4. The information processing apparatus according to claim 3, wherein the control means includes a functional block that instructs at least how to control the application.
JP2005377466A 2005-12-28 2005-12-28 Information processor Pending JP2007179338A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005377466A JP2007179338A (en) 2005-12-28 2005-12-28 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005377466A JP2007179338A (en) 2005-12-28 2005-12-28 Information processor

Publications (1)

Publication Number Publication Date
JP2007179338A true JP2007179338A (en) 2007-07-12

Family

ID=38304456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005377466A Pending JP2007179338A (en) 2005-12-28 2005-12-28 Information processor

Country Status (1)

Country Link
JP (1) JP2007179338A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control device operation gesture recognition device, control device operation gesture recognition system, and control device operation gesture recognition program
JP2012190126A (en) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd Input device and input method
JP2013149257A (en) * 2012-01-20 2013-08-01 Visteon Global Technologies Inc Adaptive interface system
JP2017004553A (en) * 2016-08-22 2017-01-05 ソニー株式会社 Information processing apparatus, information processing method, and computer program
US10037078B2 (en) 2012-03-29 2018-07-31 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2021519996A (en) * 2019-02-01 2021-08-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Control of virtual objects based on changes in user posture

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037434A (en) * 2007-08-02 2009-02-19 Tokyo Metropolitan Univ Control device operation gesture recognition device, control device operation gesture recognition system, and control device operation gesture recognition program
JP2012190126A (en) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd Input device and input method
JP2013149257A (en) * 2012-01-20 2013-08-01 Visteon Global Technologies Inc Adaptive interface system
US10037078B2 (en) 2012-03-29 2018-07-31 Sony Corporation Information processing apparatus, information processing method, and computer program
US10437324B2 (en) 2012-03-29 2019-10-08 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2017004553A (en) * 2016-08-22 2017-01-05 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2021519996A (en) * 2019-02-01 2021-08-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Control of virtual objects based on changes in user posture
JP7104179B2 (en) 2019-02-01 2022-07-20 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド Control of virtual objects based on changes in user posture
US11429193B2 (en) 2019-02-01 2022-08-30 Beijing Sensetime Technology Development Co., Ltd. Control of virtual objects based on gesture changes of users

Similar Documents

Publication Publication Date Title
US11262840B2 (en) Gaze detection in a 3D mapping environment
US20140068526A1 (en) Method and apparatus for user interaction
JP7026267B2 (en) Interactive methods in the application scene and mobile terminals and computer programs that execute those methods
EP2956882B1 (en) Managed biometric identity
US9218781B2 (en) Information processing apparatus, display control method, and program
KR102878269B1 (en) Program, method, and information processing terminal
US11367260B2 (en) Video synthesis device, video synthesis method and recording medium
US20130113830A1 (en) Information processing apparatus, display control method, and program
CN111158469A (en) Viewing angle switching method, device, terminal device and storage medium
US20250264939A1 (en) Head-mounted display
US9412190B2 (en) Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program
EP2394710A2 (en) Image generation system, image generation method, and information storage medium
CN108712603B (en) Image processing method and mobile terminal
US11625858B2 (en) Video synthesis device, video synthesis method and recording medium
JP2016177658A (en) Virtual input device, input method, and program
JP4877762B2 (en) Facial expression guidance device, facial expression guidance method, and facial expression guidance system
JP6273243B2 (en) Apparatus, method, and program for interacting with objects in virtual reality space
WO2022037229A1 (en) Human image positioning methods and display devices
WO2021245823A1 (en) Information acquisition device, information acquisition method, and recording medium
JP2007179338A (en) Information processor
KR20180074124A (en) Method of controlling electronic device with face recognition and electronic device using the same
KR101850860B1 (en) Motion capture and Image Process System and implementation Method of the Same
CN114025854A (en) Program, method, and terminal device
JP2021009552A (en) Information processing equipment, information processing methods and programs
KR101987806B1 (en) Terminal apparatus and controlling method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090512