JP6762544B2 - Image processing equipment, image processing method, and image processing program - Google Patents
Image processing equipment, image processing method, and image processing program Download PDFInfo
- Publication number
- JP6762544B2 JP6762544B2 JP2018556754A JP2018556754A JP6762544B2 JP 6762544 B2 JP6762544 B2 JP 6762544B2 JP 2018556754 A JP2018556754 A JP 2018556754A JP 2018556754 A JP2018556754 A JP 2018556754A JP 6762544 B2 JP6762544 B2 JP 6762544B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- region
- feature amount
- color feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 66
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000005484 gravity Effects 0.000 claims description 50
- 238000000605 extraction Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Description
本発明は、画像に写った物体の像を認識する画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program for recognizing an image of an object in an image.
近年、仮想現実(バーチャルリアリティ、以下「VR」とも記す)をユーザに体験させる技術が、ゲームやエンターテインメント或いは職業訓練等の様々な分野で利用されている。VRにおいては、通常、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置が用いられる。HMDをユーザの頭部に装着し、HMDに内蔵された画面を両眼で見ることにより、ユーザは立体感のある画像を鑑賞することができる。HMDにはジャイロセンサや加速度センサが内蔵されており、これらのセンサによって検出したユーザの頭部の動きに応じて、画面に表示する画像が変化する。それにより、ユーザは、あたかも表示された画像の中に入り込んだような体験をすることができる。 In recent years, technology that allows users to experience virtual reality (hereinafter also referred to as "VR") has been used in various fields such as games, entertainment, and vocational training. In VR, a glasses-type or goggle-type display device called a head-mounted display (hereinafter, also referred to as “HMD”) is usually used. By attaching the HMD to the user's head and viewing the screen built into the HMD with both eyes, the user can appreciate a three-dimensional image. The HMD has a built-in gyro sensor and an acceleration sensor, and the image displayed on the screen changes according to the movement of the user's head detected by these sensors. As a result, the user can experience as if he / she is in the displayed image.
このようなVRの技術分野においては、画像の切り換えや画像内のオブジェクトの移動などの操作をユーザのジェスチャによって行うユーザインタフェースが研究されている。例えば、特許文献1には、仮想空間にユーザインタフェースを配置し、ユーザがこのユーザインタフェースを操作するために用いる操作部が撮像部の視野内にあり、且つ、操作部とユーザインタフェースとの位置関係が規定の位置関係にある場合に、ユーザインタフェースに対する操作があったと判断する画像処理装置が開示されている。
In such a VR technical field, a user interface for performing operations such as switching images and moving objects in an image by a user's gesture is being studied. For example, in
また、特許文献2には、動画像内に含まれる物体を、色特徴量を用いて認識する技術が開示されている。詳細には、処理対象のフレーム画像が有する色相の中で最も広い面積を占める色相である第1の基準色と、該処理対象のフレーム画像のRGBヒストグラムを作成し、そのヒストグラムの所定の閾値以上で、且つ第1の基準色に対して最も離れたピークを示す第2の基準色とを特定し、エッジ検出により、上記フレーム画像の中に存在する閉領域を特定し、該閉領域の中で、上記フレーム画像の1つ前に処理を行った画像フレームで特定された第1及び第2の基準色を含み、且つ該1つ前の画像フレームで上記物体として認識された閉領域に相当するエリアと少なくとも一部が重複する閉領域を上記物体として認識する。
Further,
ジェスチャにより操作を行う場合、ジェスチャを行う物体の像を画像内から精度良く認識する必要がある。しかしながら、ユーザの手や指などでジェスチャを行う場合、認識対象である手や指の色は個人差が非常に大きく、また同一人物の手や指であっても、部分によって色が異なるため、認識対象を過不足なく抽出するためには、適切な色特徴量を設定することが非常に重要である。 When performing an operation by a gesture, it is necessary to accurately recognize the image of the object to be gestured from the image. However, when performing a gesture with the user's hand or finger, the color of the hand or finger to be recognized varies greatly from person to person, and even if the hand or finger of the same person is used, the color differs depending on the part. It is very important to set an appropriate amount of color features in order to extract the recognition target in just proportion.
物体認識のための色特徴量に関し、特許文献2においては、1つ前のフレーム画像において認識すべき物体として判断された閉領域から、次の画像フレームの処理で用いられる色特徴量(第1及び第2の基準色)を求めている(特許文献2の段落0046参照)。しかしながら、そもそも、最初の処理対象のフレーム画像については、どのようにすれば適切な色特徴量を求めることができるのか、特許文献2には詳細が開示されていない。
Regarding the color feature amount for object recognition, in
本発明は上記に鑑みてなされたものであって、画像に写った特定の物体の像を精度良く認識するための適切な色特徴量を設定することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and is an image processing apparatus, an image processing method, and an image processing method capable of setting an appropriate color feature amount for accurately recognizing an image of a specific object in an image. An object of the present invention is to provide an image processing program.
上記課題を解決するために、本発明の一態様である画像処理装置は、特定の物体が写った画像から前記物体の像を認識する画像処理装置であって、当該画像処理装置が存在する空間に関する画像情報を取得する外部情報取得部と、前記画像情報に基づく画像内の所定の位置における複数の画素の色特徴量を用いて、前記画像から前記物体の像の領域を抽出し、該像の領域内の特定点の位置を取得する特定点取得部と、前記特定点を含む所定範囲内に位置する複数の画素の色特徴量に基づいて、前記物体を認識するための色特徴量を設定する色特徴量設定部と、を備えるものである。 In order to solve the above problems, the image processing device according to one aspect of the present invention is an image processing device that recognizes an image of the object from an image of a specific object, and is a space in which the image processing device exists. An image region of the object is extracted from the image by using an external information acquisition unit that acquires image information about the object and color features of a plurality of pixels at predetermined positions in the image based on the image information. Based on the specific point acquisition unit that acquires the position of the specific point in the region and the color feature amount of a plurality of pixels located within a predetermined range including the specific point, the color feature amount for recognizing the object is obtained. It is provided with a color feature amount setting unit for setting.
上記画像処理装置は、前記画像を画面に表示する表示部と、前記画像が表示される画面に対し、所定のオブジェクトを合成して表示させる画像合成部をさらに備え、前記所定の位置は、前記オブジェクトの内側に設定されていても良い。 The image processing device further includes a display unit that displays the image on the screen and an image composition unit that synthesizes and displays a predetermined object on the screen on which the image is displayed, and the predetermined position is the said. It may be set inside the object.
上記画像処理装置において、前記特定点取得部は、前記所定の位置における複数の画素の色特徴量のヒストグラムを作成し、該ヒストグラムの所定の範囲に含まれる色特徴量を有する画素の領域を、前記物体の像の候補領域として前記画像から抽出する物体領域抽出部と、前記候補領域の輪郭を抽出し、該輪郭に基づいて、前記候補領域が前記物体の像の領域であるか否かを判定する物体判定部と、前記候補領域が前記物体の像の領域であると判定された場合に、当該候補領域内の特定点を前記物体の像の領域内の特定点として出力する特定点決定部と、を有しても良い。 In the image processing apparatus, the specific point acquisition unit creates a histogram of the color features of a plurality of pixels at the predetermined positions, and creates a region of pixels having the color features included in the predetermined range of the histogram. An object area extraction unit extracted from the image as a candidate area for the image of the object and a contour of the candidate region are extracted, and based on the contour, whether or not the candidate region is a region of the image of the object is determined. The object determination unit to be determined, and a specific point determination that outputs a specific point in the candidate area as a specific point in the image area of the object when it is determined that the candidate area is an image area of the object. It may have a part and.
上記画像処理装置において、前記物体判定部は、前記候補領域の面積が所定値以上である場合、当該候補領域は前記物体の像の領域であると判定しても良い。 In the image processing device, when the area of the candidate region is equal to or larger than a predetermined value, the object determination unit may determine that the candidate region is an image region of the object.
上記画像処理装置において、前記物体判定部は、前記候補領域が複数抽出された場合、面積が最大の候補領域について、該面積が前記所定値以上であるか否かを判定しても良い。 In the image processing apparatus, when a plurality of the candidate regions are extracted, the object determination unit may determine whether or not the area is equal to or larger than the predetermined value for the candidate region having the largest area.
上記画像処理装置において、前記物体はユーザの手であり、前記物体判定部は、前記候補領域の輪郭における凹凸を検出し、凸部が4つ以上存在し、且つ、前記輪郭の重心位置から各凸部までの距離の平均値が、前記特定点から各凹部までの距離の平均値の所定倍以上である場合に、前記候補領域が前記物体の像の領域であると判定しても良い。 In the image processing apparatus, the object is a user's hand, and the object determination unit detects irregularities in the contour of the candidate region, has four or more convex portions, and is each from the position of the center of gravity of the contour. When the average value of the distances to the convex portions is a predetermined times or more the average value of the distances from the specific points to the concave portions, it may be determined that the candidate region is the region of the image of the object.
上記画像処理装置において、前記色特徴量設定部は、前記特定点を含む前記所定範囲内に位置する複数の画素の色特徴量の平均値、中央値、又は最頻値を算出し、該平均値、中央値、又は最頻値を含む所定範囲の値を、前記物体を認識するための色特徴量として設定しても良い。 In the image processing apparatus, the color feature amount setting unit calculates an average value, a median value, or a mode value of color feature amounts of a plurality of pixels located within the predetermined range including the specific point, and the average value. A value in a predetermined range including a value, a median value, or a mode value may be set as a color feature amount for recognizing the object.
上記画像処理装置において、前記色特徴量は、少なくともHSV色空間における色相を含んでも良い。 In the image processing apparatus, the color feature amount may include at least hue in the HSV color space.
本発明の別の態様である画像処理方法は、特定の物体が写った画像から前記物体の像を認識する画像処理装置が実行する画像処理方法であって、前記画像処理装置は、当該画像処理装置が存在する空間に関する画像情報を取得する外部情報取得部を備え、前記画像情報に基づく画像内の所定の位置における複数の画素の色特徴量を用いて、前記画像から前記物体の像の領域を抽出し、該像の領域内の特定点の位置を取得するステップ(a)と、前記特定点を含む所定範囲内に位置する複数の画素の色特徴量に基づいて、前記物体を認識するための色特徴量を設定するステップ(b)と、を含むものである。 An image processing method according to another aspect of the present invention is an image processing method executed by an image processing device that recognizes an image of the object from an image of a specific object, and the image processing device is the image processing. It is provided with an external information acquisition unit that acquires image information about the space in which the device exists, and a region of an image of the object from the image is used by using color features of a plurality of pixels at predetermined positions in the image based on the image information. Is extracted, and the object is recognized based on the step (a) of acquiring the position of a specific point in the region of the image and the color features of a plurality of pixels located within a predetermined range including the specific point. It includes a step (b) of setting a color feature amount for the purpose.
本発明のさらに別の態様である画像処理プログラムは、特定の物体が写った画像から前記物体の像を認識する画像処理装置に実行させる画像処理プログラムであって、前記画像処理装置は、当該画像処理装置が存在する空間に関する画像情報を取得する外部情報取得部を備え、前記画像情報に基づく画像内の所定の位置における複数の画素の色特徴量を用いて、前記画像から前記物体の像の領域を抽出し、該像の領域内の特定点の位置を取得するステップ(a)と、前記特定点を含む所定範囲内に位置する複数の画素の色特徴量に基づいて、前記物体を認識するための色特徴量を設定するステップ(b)と、を実行させるものである。 An image processing program according to still another aspect of the present invention is an image processing program executed by an image processing device that recognizes an image of the object from an image of a specific object, and the image processing device is the image. An external information acquisition unit that acquires image information about the space in which the processing device exists is provided, and color features of a plurality of pixels at predetermined positions in the image based on the image information are used to obtain an image of the object from the image. The object is recognized based on the step (a) of extracting a region and acquiring the position of a specific point in the region of the image and the color features of a plurality of pixels located within a predetermined range including the specific point. The step (b) of setting the color feature amount for this purpose is executed.
本発明によれば、画像内の所定の位置における複数の画素の色特徴量を用いて、画像内から認識対象である物体の像の領域を暫定的に抽出すると共に、該領域内の特定点の周囲に位置する複数の画素の色特徴量に基づいて、上記物体を認識するための色特徴量を設定するので、画像に写った特定の物体の像を精度良く認識するための適切な色特徴量を設定することが可能となる。 According to the present invention, a region of an image of an object to be recognized is tentatively extracted from the image by using the color features of a plurality of pixels at predetermined positions in the image, and a specific point in the region is tentatively extracted. Since the color feature amount for recognizing the object is set based on the color feature amount of a plurality of pixels located around the image, an appropriate color for accurately recognizing the image of a specific object in the image. It is possible to set the feature amount.
以下、本発明の実施形態に係る表示装置について、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 Hereinafter, the display device according to the embodiment of the present invention will be described with reference to the drawings. The present invention is not limited to these embodiments. Further, in the description of each drawing, the same parts are indicated by the same reference numerals.
以下の実施形態においては、一例として、ユーザに3次元的な空間を認識させるための画面が設けられる、所謂立体視が可能な画像処理装置に本発明を適用する場合を説明する。しかしながら、本発明はこれに限定されず、画像に写った特定の物体の像を認識して各種処理を行う様々な画像処理装置に適用することができる。 In the following embodiment, as an example, a case where the present invention is applied to a so-called stereoscopic image processing device provided with a screen for allowing a user to recognize a three-dimensional space will be described. However, the present invention is not limited to this, and can be applied to various image processing devices that recognize an image of a specific object in an image and perform various processes.
図1は、本発明の実施形態に係る画像処理装置の概略構成を示すブロック図である。本実施形態に係る画像処理装置1は、ユーザに両眼で画面を見させることにより、3次元的な空間を認識させる装置であり、図1に示すように、表示部11と、記憶部12と、各種演算処理を行う演算部13と、当該画像処理装置1の外部に関する情報(以下、外部情報という)を取得する外部情報取得部14とを備える。
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to an embodiment of the present invention. The
図2は、画像処理装置1をユーザ2に装着させた状態を示す模式図である。画像処理装置1としては、スマートフォン、携帯情報端末(PDA)、携帯型ゲーム装置のように、ディスプレイ及びカメラを備えた汎用の機器を用いることができる。画像処理装置1として例えばスマートフォンを用いる場合、ディスプレイが設けられた表側をユーザに向けてホルダー3に取り付けることにより、ユーザはハンズフリーでディスプレイを見ることができる。ホルダー3の内部には、ユーザの左右の眼に対応する位置に2つのレンズがそれぞれ取り付けられている。画像処理装置1に立体視用のコンテンツを表示させる場合、ユーザは、これらのレンズを通してディスプレイを見ることにより、ディスプレイに映った画像を3次元的な空間のように認識することができる。また、スマートフォンの背面には一般にカメラ4が設けられており、カメラ4によりユーザ2の周囲の空間を撮像して画像を取り込み、当該画像をそのままディスプレイに表示したり、当該画像を予め用意されたコンテンツ(動画や静止画)と合成して表示したりすることができる。
FIG. 2 is a schematic view showing a state in which the
もっとも、画像処理装置1の外観は、図2に示すものに限定されない。例えば、画像処理装置とホルダーが一体化された立体視専用の画像処理装置を用いても良い。なお、このような専用の画像処理装置は、ヘッドマウントディスプレイとも呼ばれる。また、画像処理装置1としては、スマートフォンなどの小型携帯機器に限らず、例えば、デスクトップ型のパーソナルコンピュータにウェブカメラを接続して用いても良いし、カメラが内蔵されたノート型のパーソナルコンピュータやタブレット端末を用いても良い。
However, the appearance of the
再び図1を参照すると、表示部11は、例えば液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイである。図3は、表示部11に表示される画面の例を示す模式図である。静止画又は動画をユーザに3次元的に認識させる際には、図3に示すように、表示部11の表示パネルを2つの領域に分け、互いに視差を設けた2つの画像をこれらの領域11a、11bに表示する。ユーザ2は、領域11a、11bに表示された2つの画像を左右の眼でそれぞれ見ることにより、3次元的な空間を認識することができる。
Referring to FIG. 1 again, the
記憶部12は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部12は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部121と、画像に写った特定の物体の像を認識する画像処理において使用される色特徴量を記憶する色特徴量記憶部122とを有する。この他、記憶部12は、表示部11に表示される各種コンテンツの画像データ及び音声データや、上記カメラ4により取得された画像の画像データ等を記憶しても良い。
The
演算部13は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部121に記憶された各種プログラムを読み込むことにより、画像処理装置1の各部を統括的に制御すると共に、種々の画像を表示するための各種演算処理を実行する。演算部13の詳細な構成については後述する。
The
外部情報取得部14は、画像処理装置1の周囲の現実空間に関する画像情報(画像データ)を取得する。外部情報取得部14の構成は、周囲の物体の位置や動きを検出可能な構成であれば特に限定されず、例えば光学カメラ、赤外線カメラ、超音波発信機及び受信機等を外部情報取得部14として用いることができる。例えば図2に示すようなスマートフォンを画像処理装置1として用いる場合、スマートフォンに内蔵されたカメラ4が外部情報取得部14として用いられる。
The external
次に、演算部13の詳細な構成について説明する。演算部13は、プログラム記憶部121に記憶された画像処理プログラムを読み込むことにより、外部情報取得部14によって取得された画像情報に基づいて画像を生成すると共に、該画像に写った特定の物体の像を認識する画像処理を実行する。
Next, the detailed configuration of the
図1に示すように、演算部13は、画像に写った特定の物体の像を認識する際に用いられる色特徴量(以下、物体認識用の色特徴量ともいう)を設定する重心位置取得部131及び色特徴量設定部132と、設定された色特徴量を用いて画像内の特定の物体の像を認識する物体認識部133と、表示部11に表示される画像の合成処理を行う画像合成部134とを有する。言い換えると、重心位置取得部131及び色特徴量設定部132は、物体認識部133において用いられる色特徴量のキャリブレーションを行う。
As shown in FIG. 1, the
重心位置取得部131は、画像から特定の物体の像の領域を抽出し、該領域内の特定点を取得する特定点取得部である。本実施形態においては、抽出された領域の重心位置を特定点として取得する。詳細には、重心位置取得部131は、物体領域抽出部131aと、物体判定部131bと、重心決定部131cとを有する。このうち、物体領域抽出部131aは、画像内の所定の位置における複数の画素の色特徴量に基づいて、特定の物体の像の候補領域を画像内から抽出する。物体判定部131bは、物体領域抽出部131aにより抽出された候補領域が、特定の物体の像の領域であるか否かを判定する。重心決定部131cは、特定の像の領域と判定された候補領域の重心位置を特定点として出力する特定点決定部である。
The center of gravity
色特徴量設定部132は、特定点(重心位置)及びその近傍の複数の画素の色特徴量に基づいて、物体認識用の色特徴量を設定する。詳細には、色特徴量設定部132は、特定点(重心位置)を含む所定範囲内に位置する複数の画素の色特徴量の平均値を算出し、該平均値を含む所定範囲の値を物体認識用の色特徴量として設定する。
The color feature
物体認識部133は、色特徴量設定部132により設定された物体認識用の色特徴量を有する画素を画像内から抽出することにより、画像に写った特定の物体の像を認識する。
The
画像合成部134は、現実空間の画像に対し、物体認識用の色特徴量を設定する際に用いられるオブジェクトを合成したり、物体認識部133により認識された物体の像を予め用意されたコンテンツの画像に合成するといった画像処理を行う。
The
次に、画像処理装置1の動作について説明する。
本実施形態において、認識対象とする物体は特に限定されず、例えば、ユーザの手や指、スタイラスペンなど種々の物体を認識対象とすることができる。ただし、物体認識用の色特徴量を設定するため、認識対象の物体の一般的な形状の特徴を予め記憶部12に記憶させておく。例えば、人の手には、通常、指先に相当する凸部と、指と指の間に相当する凹部とが存在し、且つ、手のひらの中の1点(例えば重心)から各凸部までの距離が、同じ点から各凹部までの距離よりも長いという特徴がある。この場合、人の手の一般的形状の特徴を、輪郭に少なくとも4つの凸部を有し、且つ、重心位置から各凸部までの距離の平均値が重心位置から各凹部までの距離の平均値の所定倍と表すことができる。そこで、このような特徴を記憶部12に記憶させておく。以下においては、ユーザの手を認識対象として説明する。Next, the operation of the
In the present embodiment, the object to be recognized is not particularly limited, and various objects such as a user's hand, finger, and stylus pen can be recognized. However, in order to set the color feature amount for object recognition, the general shape feature of the object to be recognized is stored in the
また、物体認識用の色特徴量の種類は特に限定されず、例えば、画素値(RGB値)、色比、色差、HSV色空間における色相、明度、及び彩度など、種々の値を用いることができる。以下においては、画素値(RGB値)をHSV色空間における色相、彩度、明度に変換した各値を色特徴量として用いる場合を説明する。 The type of color feature amount for object recognition is not particularly limited, and various values such as pixel value (RGB value), color ratio, color difference, hue in HSV color space, lightness, and saturation may be used. Can be done. In the following, a case where each value obtained by converting a pixel value (RGB value) into hue, saturation, and lightness in the HSV color space is used as a color feature amount will be described.
ここで、RGB値を用いる場合には3つの値で色合いを表す必要があるのに対し、HSV色空間における色相を用いる場合には1つの値で色合いを表すことができるという利点がある。また、色相を用いる場合、画像の明るさの変動や、認識対象の物体への光の当たり方の違いなどの影響を抑制することができる。 Here, when RGB values are used, it is necessary to express the hue with three values, whereas when using the hue in the HSV color space, there is an advantage that the hue can be expressed with one value. In addition, when hue is used, it is possible to suppress the influence of fluctuations in the brightness of the image and differences in the way light hits the object to be recognized.
図4は、画像処理装置1の動作を示すフローチャートである。図5及び図6は、表示部11に表示される画面を例示する模式図であり、外部情報取得部14により取得された外部空間の画像が画面内の2つの領域11a、11bに表示されている状態を示している。
FIG. 4 is a flowchart showing the operation of the
まず、ステップS10において、画像合成部134は、画面に手型の枠m1を描画する(図5参照)。詳細には、画面内の各領域11a、11bに表示された外部空間の画像に、手を形取ったオブジェクトを合成して表示する。この際、画像合成部134は、枠m1にユーザの手を合わせるよう指示するメッセージm2を画面(各領域11a、11b)に表示しても良い。ユーザは、外部情報取得部14(例えば図2に示すカメラ4)に対する自身の手の位置を調節することにより、図6に示すように、画面(各領域11a、11b)に写った手の像m4を枠m1に概ね合わせる。
First, in step S10, the
続くステップS12において、重心位置取得部131は、画面(各領域11a、11b)に写った手の像m4の重心位置を取得する。図7は、手の像の重心位置の取得処理を示すフローチャートである。図8は、手の像の重心位置の取得処理を説明するための模式図である。
In the following step S12, the center-of-gravity
まず、ステップS120において、重心位置取得部131は、外部情報取得部14により撮像された現実空間の画像を取得し、記憶部12に一時的に記憶させる。
First, in step S120, the center of gravity
続くステップS121において、物体領域抽出部131aは、予め設定された画像内の所定の座標のエリアm3内に位置する画素の画素値(RGB値)を取得する。ここで、エリアm3は、手型の枠m1の内側に収まるように設定されているため、ユーザが自身の手の像m4を枠m1に合わせると、大抵の場合、少なくともエリアm3内はユーザの手の像m4で占められることになる。
In the following step S121, the object
続くステップS122において、物体領域抽出部131aは、エリアm3内に位置する複数の画素の各々の画素値(RGB値)を、HSV色空間における色特徴量(即ち、色相、彩度、明度)に変換する。
In the following step S122, the object
続くステップS123において、物体領域抽出部131aは、エリアm3内に位置する複数の画素の色特徴量のヒストグラムを作成する。具体的には、ステップS122において変換された色相、彩度、明度の各々についてヒストグラムを作成する。
In the following step S123, the object
続くステップS124において、物体領域抽出部131aは、ステップS123において作成されたヒストグラムに基づいて、手の像m4を抽出するための色特徴量の範囲を設定する。詳細には、各色特徴量(色相、彩度、明度)のヒストグラムにおいて、最大頻度の色特徴量を含む所定の範囲を、手の像m4を抽出するための色特徴量の範囲として設定する。例えば、頻度が1番目から所定番目の階級に含まれる色相、彩度、明度の範囲を設定する。或いは、色相の最頻値±Δ°、彩度又は明度の最頻値±Δ%といった範囲を設定しても良い(符号Δは任意の値)。
In the following step S124, the object
続くステップS125において、物体領域抽出部131aは、ステップS124において設定された色特徴量を有する画素を、画像全体から抽出する。詳細には、ステップS124において決定された色特徴量の範囲の両端を閾値として二値化処理を実行する。これにより、図6に示すエリアm3内の画素の典型的な色特徴量に近似する領域が画像から抽出される。このような処理は、ヒストグラムのバックプロジェクションとも呼ばれる。
In the following step S125, the object
続くステップS126において、物体判定部131bは、ステップS125において抽出された領域に対して輪郭追跡を行うことにより、輪郭を抽出する。詳細には、二値画像において値を持つ画素(ステップS125において抽出された画素)を黒画素、それ以外の画素を白画素とすると、まず、ラスタスキャンによって白画素から黒画素に変化する画素点を探索する。黒画素が見つかると、探索した方向(進入方向)を起点に当該黒画素の周囲を右回りして黒画素を探索する。続いて、見つかった黒画素に移動し、進入方向を起点に当該黒画素の周囲を右回りして黒画素を探索する。この処理を繰り返し、見つかった黒画素が開始点(最初に見つかった黒画素)であり、且つ、次の移動点が既に探索済みである場合、処理を終了する。
In the following step S126, the
ここまでの処理により、図8に示すように、手の像に近似する領域(輪郭m5参照)を抽出できるものの、それと共に、手の像の色に近い領域(輪郭m6、m7参照)が抽出されることがある。以下、抽出された輪郭によって囲まれる領域を候補領域という。 By the processing up to this point, as shown in FIG. 8, a region close to the image of the hand (see contour m5) can be extracted, but at the same time, a region close to the color of the image of the hand (see contours m6 and m7) can be extracted. May be done. Hereinafter, the area surrounded by the extracted contour is referred to as a candidate area.
ステップS127において、物体判定部131bは、複数の候補領域が抽出された場合、面積が最大の候補領域を選択する。ここで、ステップS125において用いられる色特徴量は、エリアm3に重ねられた手の像m4(図6参照)の色特徴量をもとに設定されているので、通常、図8に示すように、手の像m4に含まれる領域の輪郭m5が、他の物体の像に含まれる領域の輪郭m6、m7よりも大きくなるからである。
In step S127, when a plurality of candidate regions are extracted, the
続くステップS128において、物体判定部131bは、選択された候補領域の面積が所定値以上であるか否かを判定する。ここで、手の像m4は手型の枠m1に合わせるように配置されるので、ステップS127において選択された候補領域が手の像m4に含まれる領域であれば、ある程度の大きさ以上になるはずだからである。このように面積で判別することにより、万が一、画像内に色が類似する他人の手の像が写り込んでいたとしても、当該他人の像に基づいて物体認識用の色特徴量が設定されてしまう事態を防ぐことができる。この判定において用いられる所定値は、手型の枠m1の大きさに基づいて適宜設定される。
In the following step S128, the
選択された候補領域の面積が所定値以上である場合(ステップS128:Yes)、物体判定部131bは、当該候補領域の輪郭の凹凸を判定する(ステップS129)。詳細には、当該候補領域の輪郭から角点を検出し、各角点が凹部であるか凸部であるかを判別する。角点の検出方法は公知の種々の方法を用いることができる。一例として、輪郭上の任意の点Piと、該点Piに対してk画素分だけ輪郭に沿って前後に離れた2つの点Pi-k、Pi+kとをそれぞれ結ぶ線分同士のなす角度が180°よりも小さいとき、又は180°よりも大きいとき、上記点Piが角点として検出される。そして、検出された角点において、線分Pi-kPiと線分PiPi+kとのなす角度が鋭角である場合、当該角点は凸部と判定される。また、上記角度が180°を超える場合、当該角点は凹部であると判定される。なお、上記角度が90°より大きく180°未満(即ち鈍角)の角点は、厳密には凸部であるが、ステップS129においては、ユーザの指に対応する領域を検出する趣旨から、鈍角の角点は凸部とみなさないこととする。図8に示す輪郭m5においては、角点P1、P2、P3、P4、P5が凸部と判別され、角点Q1、Q2、Q3、Q4が凹部と判別される。When the area of the selected candidate region is equal to or larger than a predetermined value (step S128: Yes), the
続くステップS130において、物体判定部131bは、判別対象の輪郭において凸部が4つ以上存在するか否かを判定する。4本以上とするのは、指同士が近接しているなどの場合に、5本全ての指を凸部として検出できない可能性を考慮しているためである。
In the following step S130, the
凸部が4つ以上存在する場合(ステップS130:Yes)、物体判定部131bは、当該候補領域の重心位置(重心点G)を算出する(ステップS131)。
When four or more convex portions are present (step S130: Yes), the
続くステップS132において、物体判定部131bは、重心位置から各凹部、及び各凸部までの距離を算出する。例えば、図8においては、重心点Gと、角点P1、P2、P3、P4、P5、Q1、Q2、Q3、Q4との間の距離がそれぞれ算出される。
In the following step S132, the
続くステップS133において、物体判定部131bは、重心位置から凸部までの距離の平均値(平均距離)が、重心位置から凹部までの距離の平均値(同上)の所定倍以上であるか否かを判定する。ここで、人の手においては、手のひらの概ね中心にある重心位置から指先までの距離は、重心位置から手のひらの端部までの距離よりも長く、個人差はあるが、一般には少なくとも1.2倍以上と言える。そこで、図8に示すように、重心点Gから凸部である角点P1、P2、P3、P4、P5までの平均距離と、重心点Gから凹部である角点Q1、Q2、Q3、Q4までの平均距離とを算出し、両者の比率に基づいて、抽出された候補領域の形状が手の形状に近似しているか否かを判断する。
In the following step S133, the
重心位置から凸部までの平均距離が重心位置から凹部までの平均距離の所定倍以上である場合(ステップS133:Yes)、物体判定部131bは、選択された候補領域が手の像の領域であると判断する。この場合、重心決定部131cは、候補領域の重心位置を手の像の重心位置として決定し、出力する(ステップS134)。その後、処理はメインルーチンに戻る。
When the average distance from the center of gravity position to the convex portion is equal to or more than a predetermined time of the average distance from the center of gravity position to the concave portion (step S133: Yes), in the
他方、ステップS127において選択された候補領域の面積が所定値未満である場合(ステップS128:No)、選択された候補領域の輪郭の凸部が3つ以下である場合(ステップS130:No)、又は、重心位置から凸部までの平均距離が重心位置から凹部までの平均距離の所定倍未満である場合(ステップS133:No)、処理はステップS120に戻る。 On the other hand, when the area of the candidate region selected in step S127 is less than a predetermined value (step S128: No), and when the contour of the selected candidate region has three or less convex portions (step S130: No). Alternatively, when the average distance from the center of gravity position to the convex portion is less than a predetermined time of the average distance from the center of gravity position to the concave portion (step S133: No), the process returns to step S120.
再び図4を参照すると、ステップS12に続くステップS14において、色特徴量設定部132は、ステップS12において取得された重心位置をもとに、物体認識用の色特徴量を設定する。図9は、重心位置をもとに物体認識用の色特徴量を設定する処理を示すフローチャートである。
Referring to FIG. 4 again, in step S14 following step S12, the color feature
まず、ステップS140において、色特徴量設定部132は、ステップS120(図7参照)において取得された画像から、ステップS12において取得された重心位置及びその近傍の複数の画素の画素値(RGB値)を取得する。画素値を取得する画素の範囲は、例えば、重心位置から数画素〜数十画素の範囲内などと、予め設定しておく。
First, in step S140, the color feature
続くステップS141において、色特徴量設定部132は、ステップS140において取得された複数の画素の各々の画素値(RGB値)を、HSV色空間における色特徴量(色相、彩度、明度)に変換する。
In the following step S141, the color feature
続くステップS142において、色特徴量設定部132は、ステップS140において取得された複数の画素の間における色特徴量の平均値を算出する。具体的には、色相、彩度、明度の各々について平均値を算出する。
In the following step S142, the color feature
続くステップS143において、色特徴量設定部132は、ステップS142において算出された平均値をもとに、物体認識用の色特徴量を設定する。詳細には、色相、彩度、明度の各々について、平均値を含む所定の範囲を物体認識用の色特徴量として設定する。例えば、色相の平均値±Δ°、彩度又は明度の平均値±Δ%といった範囲が設定される(符号Δは任意の値)。その後、処理はメインルーチンに戻る。
In the following step S143, the color feature
図4のステップS16において、物体認識部133は、ステップS14において設定された物体認識用の色特徴量を用いて、外部情報取得部14によって取得された画像から画素を抽出する。このようにして抽出された画素の領域が、手の像として認識される。図10は、認識対象である手の像m8が抽出された状態を示す模式図である。
In step S16 of FIG. 4, the
以上説明したように、本実施形態によれば、画像内において予め設定されたエリアm3内の画素の画素値をもとに暫定的に設定された色特徴量を用いて、手の像の候補領域を抽出し、この候補領域が手の形状の特徴を有すると判断される場合に、候補領域の重心位置及びその近傍の画素の画素値をもとに、物体認識用の色特徴量を設定するので、このように設定された物体認識用の色特徴量を用いることにより、画像内における手の像を精度良く認識することが可能となる。特に、本実施形態のように、色特徴量に関して個人差や場所ごとの差が大きいユーザの手を認識対象とする場合であっても、ユーザの手に合った物体認識用の色特徴量を精度良く設定することができる。 As described above, according to the present embodiment, a candidate for a hand image is used by using a color feature amount tentatively set based on the pixel values of the pixels in the area m3 set in advance in the image. When an area is extracted and it is determined that this candidate area has hand-shaped features, the color feature amount for object recognition is set based on the position of the center of gravity of the candidate area and the pixel values of the pixels in the vicinity thereof. Therefore, by using the color feature amount for object recognition set in this way, it is possible to accurately recognize the image of the hand in the image. In particular, as in the present embodiment, even when the user's hand, which has a large individual difference or a difference between places with respect to the color feature amount, is to be recognized, the color feature amount for object recognition suitable for the user's hand can be obtained. It can be set with high accuracy.
上記実施形態においては、特定点として、画像から抽出された認識対象の物体の像の領域の重心位置を取得することとしたが、特定点はこれに限定されない。例えば、認識対象の物体の像の領域の水平方向の中心線と垂直方向の中心線とが交差する点や、角点、或いは、角点同士を結んだ対角線の交差点などを特定点としても良い。特定点は、認識対象とする物体に応じて、該物体の典型的な色が現れる部分を適宜設定すれば良い。 In the above embodiment, as a specific point, the position of the center of gravity of the region of the image of the object to be recognized extracted from the image is acquired, but the specific point is not limited to this. For example, a point where the horizontal center line and the vertical center line of the image region of the object to be recognized intersect, a corner point, or a diagonal intersection connecting the corner points may be set as a specific point. .. As the specific point, a portion where a typical color of the object appears may be appropriately set according to the object to be recognized.
また、上記実施形態においては、色特徴量としてHSV色空間における色相、彩度、及び明度を用いたが、それ以外の値を用いても良い。例えば画素のRGB値を用いる場合、手の像の重心位置を取得する際には(図7参照)、ステップS122を省略し、R値、G値、B値それぞれについてヒストグラムを作成し(ステップS123)、これらのヒストグラムに基づいてR値、G値、B値それぞれの範囲を設定し(ステップS124)、設定された範囲内のR値、G値、B値を有する画素を抽出すれば良い(ステップS125)。また、重心位置をもとに物体認識用の色特徴量を設定する際には(図9参照)、ステップS141を省略し、R値、G値、B値それぞれについて平均値を算出し(ステップS142)、これらの平均値をもとに、R値、G値、B値の範囲を設定すれば良い(ステップS143)。或いは、色特徴量として、HSV色空間における色相のみを用いることとしても良いし、色相と彩度、又は色相と明度といった組み合わせを用いても良い。 Further, in the above embodiment, the hue, saturation, and lightness in the HSV color space are used as the color feature amount, but other values may be used. For example, when using the RGB values of pixels, when acquiring the position of the center of gravity of the hand image (see FIG. 7), step S122 is omitted, and histograms are created for each of the R value, G value, and B value (step S123). ), Each range of R value, G value, and B value is set based on these histograms (step S124), and pixels having R value, G value, and B value within the set range may be extracted (step S124). Step S125). Further, when setting the color feature amount for object recognition based on the position of the center of gravity (see FIG. 9), step S141 is omitted and the average value is calculated for each of the R value, G value, and B value (step). S142), the range of the R value, the G value, and the B value may be set based on these average values (step S143). Alternatively, as the color feature amount, only the hue in the HSV color space may be used, or a combination such as hue and saturation, or hue and lightness may be used.
また、上記実施形態においては、画像から抽出された認識対象の物体の像の特定点及びその近傍の画素の色特徴量の平均値を算出し(ステップS142)、この平均値をもとに物体認識用の色特徴量を設定したが(ステップS143)、平均値に限らず、特定点及びその近傍の画素の色特徴量の中央値や最頻値などの統計値をもとに物体認識用の色特徴量を設定しても良い。 Further, in the above embodiment, the average value of the color features of the pixels at the specific point of the image of the object to be recognized extracted from the image and the pixels in the vicinity thereof is calculated (step S142), and the object is based on this average value. Although the color feature amount for recognition is set (step S143), it is not limited to the average value, but is used for object recognition based on statistical values such as the median value and the mode value of the color feature amount of pixels at a specific point and its vicinity. The color feature amount of may be set.
本発明は、上記実施形態及び変形例に限定されるものではなく、上記実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上記実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、上記実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。 The present invention is not limited to the above-described embodiments and modifications, and various inventions can be formed by appropriately combining a plurality of components disclosed in the above-described embodiments and modifications. For example, some components may be excluded from all the components shown in the above-described embodiment and the modified example, or the components shown in the above-described embodiment and the modified example may be appropriately combined and formed. good.
1 画像処理装置
2 ユーザ
3 ホルダー
4 カメラ
11 表示部
11a、11b 領域
12 記憶部
13 演算部
14 外部情報取得部
121 プログラム記憶部
122 色特徴量記憶部
131 重心位置取得部
131a 物体領域抽出部
131b 物体判定部
131c 重心決定部
132 色特徴量設定部
133 物体認識部
134 画像合成部
1
Claims (9)
当該画像処理装置が存在する空間に関する画像情報を取得する外部情報取得部と、
前記画像情報に基づく画像内の所定の位置における複数の画素の色特徴量を用いて、前記画像から前記物体の像の領域を抽出し、該像の領域内の特定点の位置を取得する特定点取得部と、
前記特定点を含む所定範囲内に位置する複数の画素の色特徴量に基づいて、前記物体を認識するための色特徴量を設定する色特徴量設定部と、
前記画像を画面に表示する表示部と、
前記画像が表示される画面に対し、所定のオブジェクトを合成して表示させる画像合成部と、
を備え、
前記所定の位置は、前記オブジェクトの内側に設定されている、画像処理装置。An image processing device that recognizes an image of a specific object from an image of the object.
An external information acquisition unit that acquires image information about the space in which the image processing device exists, and
Using the color features of a plurality of pixels at predetermined positions in an image based on the image information, a region of an image of the object is extracted from the image, and the position of a specific point in the region of the image is acquired. Point acquisition department and
A color feature amount setting unit that sets a color feature amount for recognizing the object based on the color feature amounts of a plurality of pixels located within a predetermined range including the specific point.
A display unit that displays the image on the screen and
An image compositing unit that synthesizes and displays a predetermined object on the screen on which the image is displayed,
With
An image processing device whose predetermined position is set inside the object.
前記所定の位置における複数の画素の色特徴量のヒストグラムを作成し、該ヒストグラムの所定の範囲に含まれる色特徴量を有する画素の領域を、前記物体の像の候補領域として前記画像から抽出する物体領域抽出部と、
前記候補領域の輪郭を抽出し、該輪郭に基づいて、前記候補領域が前記物体の像の領域であるか否かを判定する物体判定部と、
前記候補領域が前記物体の像の領域であると判定された場合に、当該候補領域内の特定点を前記物体の像の領域内の特定点として出力する重心決定部と、
を有する、請求項1に記載の画像処理装置。The specific point acquisition unit
A histogram of the color features of a plurality of pixels at the predetermined positions is created, and a region of pixels having color features included in the predetermined range of the histogram is extracted from the image as a candidate region for an image of the object. Object area extraction unit and
An object determination unit that extracts the contour of the candidate region and determines whether or not the candidate region is an image region of the object based on the contour.
When the candidate region is determined to be the region of the image of the object, the center of gravity determination unit that outputs a specific point in the candidate region as a specific point in the region of the image of the object.
The image processing apparatus according to claim 1.
前記物体判定部は、前記候補領域の輪郭における凹凸を検出し、凸部が4つ以上存在し、且つ、前記輪郭の重心位置から各凸部までの距離の平均値が、前記特定点から各凹部までの距離の平均値の所定倍以上である場合に、前記候補領域が前記物体の像の領域であると判定する、
請求項3〜5のいずれか1項に記載の画像処理装置。The object is the user's hand
The object determination unit detects unevenness in the contour of the candidate region, has four or more convex portions, and the average value of the distances from the center of gravity position of the contour to each convex portion is each from the specific point. When the average value of the distances to the recesses is at least a predetermined time, it is determined that the candidate region is the region of the image of the object.
The image processing apparatus according to any one of claims 3 to 5.
前記画像処理装置は、当該画像処理装置が存在する空間に関する画像情報を取得する外部情報取得部と、前記画像を画面に表示する表示部と、を備え、
前記画像情報に基づく画像内の所定の位置における複数の画素の色特徴量を用いて、前記画像から前記物体の像の領域を抽出し、該像の領域内の特定点の位置を取得するステップ(a)と、
前記特定点を含む所定範囲内に位置する複数の画素の色特徴量に基づいて、前記物体を認識するための色特徴量を設定するステップ(b)と、
前記画像が表示される画面に対し、所定のオブジェクトを合成して表示させるステップ(c)と、
を含み、
前記所定の位置は、前記オブジェクトの内側に設定されている、画像処理方法。An image processing method executed by an image processing device that recognizes an image of a specific object from an image of the object.
The image processing device includes an external information acquisition unit that acquires image information about the space in which the image processing device exists, and a display unit that displays the image on a screen.
A step of extracting an image region of the object from the image and acquiring the position of a specific point in the image region using the color features of a plurality of pixels at predetermined positions in the image based on the image information. (A) and
The step (b) of setting the color feature amount for recognizing the object based on the color feature amount of a plurality of pixels located within a predetermined range including the specific point.
The step (c) of synthesizing and displaying a predetermined object on the screen on which the image is displayed, and
Including
An image processing method in which the predetermined position is set inside the object.
前記画像処理装置は、当該画像処理装置が存在する空間に関する画像情報を取得する外部情報取得部と、前記画像を画面に表示する表示部と、を備え、
前記画像情報に基づく画像内の所定の位置における複数の画素の色特徴量を用いて、前記画像から前記物体の像の領域を抽出し、該像の領域内の特定点の位置を取得するステップ(a)と、
前記特定点を含む所定範囲内に位置する複数の画素の色特徴量に基づいて、前記物体を認識するための色特徴量を設定するステップ(b)と、
前記画像が表示される画面に対し、所定のオブジェクトを合成して表示させるステップ(c)と、
を実行させ、
前記所定の位置は、前記オブジェクトの内側に設定されている、画像処理プログラム。An image processing program executed by an image processing device that recognizes an image of a specific object from an image of the object.
The image processing device includes an external information acquisition unit that acquires image information about the space in which the image processing device exists, and a display unit that displays the image on a screen.
A step of extracting an image region of the object from the image and acquiring the position of a specific point in the image region using the color features of a plurality of pixels at predetermined positions in the image based on the image information. (A) and
The step (b) of setting the color feature amount for recognizing the object based on the color feature amount of a plurality of pixels located within a predetermined range including the specific point.
The step (c) of synthesizing and displaying a predetermined object on the screen on which the image is displayed, and
To execute,
An image processing program in which the predetermined position is set inside the object.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016243239 | 2016-12-15 | ||
JP2016243239 | 2016-12-15 | ||
PCT/JP2017/044999 WO2018110680A1 (en) | 2016-12-15 | 2017-12-14 | Image processing device, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018110680A1 JPWO2018110680A1 (en) | 2019-11-07 |
JP6762544B2 true JP6762544B2 (en) | 2020-09-30 |
Family
ID=62558861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018556754A Active JP6762544B2 (en) | 2016-12-15 | 2017-12-14 | Image processing equipment, image processing method, and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6762544B2 (en) |
WO (1) | WO2018110680A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3557659B2 (en) * | 1994-08-22 | 2004-08-25 | コニカミノルタホールディングス株式会社 | Face extraction method |
JP3490910B2 (en) * | 1998-09-28 | 2004-01-26 | 三洋電機株式会社 | Face area detection device |
JP2010271921A (en) * | 2009-05-21 | 2010-12-02 | Fujifilm Corp | Skin area extraction method, skin area extraction device, and skin area extracting program |
JP6587421B2 (en) * | 2015-05-25 | 2019-10-09 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
-
2017
- 2017-12-14 WO PCT/JP2017/044999 patent/WO2018110680A1/en active Application Filing
- 2017-12-14 JP JP2018556754A patent/JP6762544B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018110680A1 (en) | 2019-11-07 |
WO2018110680A1 (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6323040B2 (en) | Image processing apparatus, image processing method, and program | |
US10497179B2 (en) | Apparatus and method for performing real object detection and control using a virtual reality head mounted display system | |
JP6417702B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US9256324B2 (en) | Interactive operation method of electronic apparatus | |
US20170293364A1 (en) | Gesture-based control system | |
CN114303120A (en) | virtual keyboard | |
EP3608755A1 (en) | Electronic apparatus operated by head movement and operation method thereof | |
US20120262486A1 (en) | System and method of user interaction for augmented reality | |
KR101079925B1 (en) | An augmented reality situational training system by recognition of markers and hands of trainee | |
US10503969B2 (en) | Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method | |
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
US11682183B2 (en) | Augmented reality system and anchor display method thereof | |
JP2014029656A (en) | Image processor and image processing method | |
JP2016099643A (en) | Image processing device, image processing method, and image processing program | |
US20220254123A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP6390260B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10824237B2 (en) | Screen display control method and screen display control system | |
JP5051671B2 (en) | Information processing apparatus, information processing method, and program | |
JP6762544B2 (en) | Image processing equipment, image processing method, and image processing program | |
US20200167005A1 (en) | Recognition device and recognition method | |
Xie et al. | Hand posture recognition using kinect | |
CN111489448B (en) | Method for detecting real world light source, mixed reality system and recording medium | |
KR20190059597A (en) | Apparatus and method for recognizing gesture | |
TWI460683B (en) | The way to track the immediate movement of the head | |
Pullan et al. | High Resolution Touch Screen Module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20190607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6762544 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |