JP7157444B2 - Information terminal with camera and program - Google Patents
Information terminal with camera and program Download PDFInfo
- Publication number
- JP7157444B2 JP7157444B2 JP2018214220A JP2018214220A JP7157444B2 JP 7157444 B2 JP7157444 B2 JP 7157444B2 JP 2018214220 A JP2018214220 A JP 2018214220A JP 2018214220 A JP2018214220 A JP 2018214220A JP 7157444 B2 JP7157444 B2 JP 7157444B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- user
- change
- sight
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Lens Barrels (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、頭部に装着するカメラ付き情報端末及プログラムに関するものである。 The present invention relates to an information terminal with a camera attached to the head and a program.
顔を含めた頭部の向きや視線の向きに基づいて機器を制御するユーザインタフェースが知られている。例えば特許文献1には、アイコン(同文献にはポインタと記載)が表示されるディスプレイ(11)を備えたヘッドマウントディスプレイ(1)が記載されている。これは、使用者の視線の向きを検出するカメラ(12)と、使用者の頭部の動きを検出する加速度センサ(13)とを備えた頭部装着型装置である。この装置は、使用者がアイコンに視点を置いた状態で頭部を上下や左右に振ることで、パソコン操作でいうところのクリックや、ドラッグが可能なポインティングシステムである。使用者の眼球とディスプレイ(1)との相対的な位置は不変なので、ディスプレイ(1)内のアイコンの位置が変わらなければ、頭部を振る際に眼球は回転運動しない。つまり視線変化はない。使用者がアイコンから視点を外すと、頭部を振ってもクリック動作とみなされず、無意識に頭部を振る動作に対しては誤作動が防止されている。
A user interface is known that controls a device based on the orientation of the head including the face and the orientation of the line of sight. For example,
また、特許文献2には、頭部装着型装置ではないものの、使用者が、机上に置かれたディスプレイの表示部(20)のアイコン(30)に視点(同文献では視線と記載)を滞留させた状態で頭部を前後に倒したり戻したりする動作(同文献ではうなずきジェスチャと記載)をすることで、アイコン(30)を選択したと判断するジェスチャ認識装置が記載されている。これは表示部(20)の上部に備えられたカメラ10で使用者の視線と頭部前面の顔の向きを検出するものである。同装置では、使用者の頭部と表示部(20)との位置関係は相対的に固定されてはいない。したがって、使用者がアイコン(30)に視点を滞留させた状態でうなずきジェスチャをすれば、使用者の眼球は回転運動をし、頭部の向きと視線の向きは不一致な向きへ変化することとなる。このように、視線の向きと顔の向きの不一致動作をもって意思表示をする方法は特許文献3にも記載されている。 Further, Patent Document 2 discloses that although the device is not a head-mounted device, the user maintains the viewpoint (described as line of sight in the document) at the icon (30) of the display section (20) of the display placed on the desk. This document describes a gesture recognition device that determines that an icon (30) has been selected by tilting the head back and forth or returning it (referred to as a nodding gesture in the document). The camera 10 provided above the display unit (20) detects the user's line of sight and the orientation of the face in front of the head. In this device, the positional relationship between the user's head and the display (20) is not relatively fixed. Therefore, if the user makes a nodding gesture while keeping the viewpoint at the icon (30), the user's eyeballs rotate, and the direction of the head and the direction of the line of sight change in a direction that does not match. Become. In this way, Patent Document 3 also describes a method of expressing an intention by a motion that does not match the direction of the line of sight and the direction of the face.
また、特許文献4には、使用者がファインダ画面(102)上の所定のマーク注視することによりカメラのズーム動作を制御する撮像装置が記載されている。これは、ファインダ画面(102)の隅にズーム動作のワイド側とテレ側とを示す指標(201、202)が表示されていて、使用者が所望のズーム率指標の表示箇所を所定時間注視すると、同撮像装置のズーム動作が行われるものである。ファインダ画面(102)隅という、通常注視しない場所にズーム率指標というマークを設けてこれをユーザインタフェースに用いることにより、使用者の意図しない誤作動を防止している。 Further, Patent Document 4 describes an imaging device that controls the zoom operation of the camera by the user's gaze at a predetermined mark on the finder screen (102). This is because indexes (201, 202) indicating the wide side and the tele side of the zoom operation are displayed in the corners of the finder screen (102), and when the user gazes at the display position of the desired zoom ratio index for a predetermined time, , the zoom operation of the imaging apparatus is performed. A mark called a zoom rate index is provided in a corner of the viewfinder screen (102), which is a place where the user does not normally gaze, and is used in the user interface to prevent unintentional malfunction by the user.
また、特許文献5には、タッチパネル式の操作表示部(106)において、ユーザの視線が向いている部分の表示の拡大処理を行うステップ(103)を有する画像形成装置が記載されている。これは、表示部(106)付近にユーザの指が検出された場合には拡大表示処理を行わない構成をとっている。このようにして、ユーザが指タッチ操作しているときに、不用意に拡大表示されて操作性が損なわれることを防止している。 Further, Patent Document 5 describes an image forming apparatus having a step (103) of performing a process of enlarging the display of a portion of a touch panel type operation display unit (106) to which the user's line of sight is directed. This is configured such that when the user's finger is detected near the display unit (106), the enlarged display process is not performed. In this way, it is possible to prevent impairing the operability due to unintentional enlargement of the display when the user is performing a finger touch operation.
また、特許文献6には、複数の決められたポイントを注視することによって画面を拡大表示するナビゲーション装置が記載されている。このように、複数のポイントを注視したときにのみ画面を拡大表示することとして、使用者の意図に反して拡大表示されることを防止している。このように、視線や顔、頭部の動きに基づいて機器を操作する技術が公開されている。これらは使用者の意図に反して動作しないための構成を伴っている。 Further, Patent Document 6 describes a navigation device that enlarges and displays a screen by gazing at a plurality of predetermined points. In this way, the screen is enlarged and displayed only when a plurality of points are gazed at, thereby preventing enlargement and display against the user's intention. In this way, techniques for operating devices based on the line of sight, face, and head movements have been disclosed. These are accompanied by a configuration for not operating against the user's intention.
しかし、これらの構成を、頭部装着型のカメラのズーム操作に適用しようとすると次のような課題が生じる。例えば、特許文献1の構成を適用するならば、カメラのファインダ若しくはこれに相当する画面に表示されているアイコンを注視しながら、ある程度の加速度をもって頭部を上下又は左右に振らなければならない。頭部を振るとこれに装着されているカメラも振れてしまい撮影の対象物をうまくとらえることができないという課題が生じる。
However, when trying to apply these configurations to the zoom operation of a head-mounted camera, the following problems arise. For example, if the configuration of
また、特許文献2及び特許文献3に記載の構成をとると、使用者の視点を撮影対象に置くと、頭部の向きは撮影対象から外れることとなる。頭部装着型カメラは頭部の向きと一致しているから、カメラも撮影対象から外れることとなり、使用者にとっては対象を画面にとらえながらのズーム操作が難しくなるという課題がある。 Further, with the configurations described in Patent Documents 2 and 3, when the user's viewpoint is placed on the object to be photographed, the direction of the head is out of the object to be photographed. Since the direction of the head-mounted camera is the same as the direction of the head, the camera is also out of the shooting target, making it difficult for the user to operate the zoom while capturing the target on the screen.
ところで、カメラのファインダ若しくはこれに相当する画面の中心は、カメラの中心と一致していることが好ましい。このようにすると、使用者はカメラが撮影する画像の中心と範囲を把握しやすくなるからである。これを踏まえて特許文献4に記載の構成をカメラに適用すると、撮影対象を画面中心にとらえながらも、ズーム操作のために、画面隅にあるズーム用アイコンを注視しなければならないという不自然な動作を強いられる課題が生じる。これを避けるためにズーム用アイコンを画面中心付近に表示すると、そもそも使用者は高い頻度で画面中心付近を注視するので、使用者の意図に反してズーム動作する誤作動が起こりやすくなる課題を生じる。 By the way, it is preferable that the center of the viewfinder of the camera or the screen corresponding thereto coincides with the center of the camera. This is because this makes it easier for the user to grasp the center and range of the image captured by the camera. Based on this, if the configuration described in Patent Document 4 is applied to a camera, it would be unnatural to have to look at the zoom icon at the corner of the screen for the zoom operation while capturing the object to be photographed in the center of the screen. A task that forces action arises. If the zoom icon is displayed in the vicinity of the center of the screen to avoid this, the user often gazes at the vicinity of the center of the screen in the first place, so there is a problem that the malfunction of zooming against the user's intention is likely to occur. .
また、特許文献5の構成を頭部装着型のカメラのズーム操作に適用するならば、眼球や頭部の動作に加えて、指などの手の動作も必要となり、両手のフリーを確保するというそもそものメリットを実現できないという課題が生じる。また、特許文献6の構成を同ズーム操作に適用するならば、画面内の複数のアイコンを順次注視していく必要があり、手続きが煩雑で時間がかかるという課題が生じる。 In addition, if the configuration of Patent Document 5 is applied to the zoom operation of a head-mounted camera, in addition to eyeball and head movements, hand movements such as fingers are also required, and both hands are said to be free. The problem arises that the original merit cannot be realized. Further, if the configuration of Patent Document 6 is applied to the same zoom operation, it is necessary to sequentially watch a plurality of icons in the screen, which causes a problem that the procedures are complicated and time consuming.
そこで、本発明の目的は、誤作動を防止しながらも、眼球動作と頭部の動作による操作であって、撮影対象を注視しながらズーム操作可能なカメラ付き情報端末及びプログラムを提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an information terminal with a camera and a program capable of performing a zoom operation while gazing at an object to be photographed, which is an operation by an eye movement and a head movement while preventing malfunction. be.
上記課題を解決する実施形態として、使用者の顔側に装着されている視界カメラ(11)と、視界カメラ(11)の姿勢変化を検出する姿勢変化検出部(13)と、使用者の眼球を撮影する眼球カメラ(14)と、眼球カメラ(14)の画像から視線を検出する視線検出部(15)と、使用者に視認し得る表示部(16)と、を有するカメラ付き情報端末とすることができる。そして、姿勢変化検出部(13)と視線検出部(15)とがそれぞれ検出した視界カメラ(11)の姿勢変化の向きと、視線の変化の向きとが相殺する向きであるときに、表示部(16)の中心付近に、注視アイコン(IC)が表示され、その注視アイコン(IC)に使用者の視点が滞留しているあいだは視界カメラ(11)のズーム率が大きく又は小さく制御される。 As an embodiment for solving the above problems, a view camera (11) attached to the face of the user, a posture change detection section (13) for detecting a posture change of the view camera (11), and the user's eyeballs. a camera-equipped information terminal having an eyeball camera (14) for photographing, a line-of-sight detection unit (15) for detecting the line of sight from the image of the eyeball camera (14), and a display unit (16) visible to the user can do. Then, when the direction of the change in the posture of the field-of-view camera (11) detected by the posture change detection unit (13) and the line of sight detection unit (15) and the direction of change in the line of sight are mutually offset, the display unit A gaze icon (IC) is displayed near the center of (16), and while the user's viewpoint remains at the gaze icon (IC), the zoom ratio of the view camera (11) is controlled to be large or small. .
本発明の実施形態は、誤作動を防止しながらも、眼球動作と頭部の動作による操作であって、撮影対象を注視しながらズーム操作可能なカメラ付き情報端末及びプログラムを提供することができる。 The embodiment of the present invention can provide an information terminal with a camera and a program that can perform a zoom operation while gazing at an object to be photographed while preventing malfunction, and being an operation by an eyeball movement and a head movement. .
〔第1実施形態 カメラ付き情報端末〕
図1を参照して、本発明に基づく第1実施形態に係るカメラ付き情報端末1を説明する。図1(A)は、使用者が、同カメラ付き情報端末1を装着した状態を表す図である。(A2)は使用者の右目側を示したものである。図1(B1)と(B2)とはそれぞれ、同カメラ付き情報端末1の一部を透明化して表した図である。図1に示すように、カメラ付き情報端末1の各構成物はフレーム1Fにより使用者の頭部に装着されている。そして、その右目側は右耳の手前まで覆う表示部カバー16Aで覆われている。表示部カバー16Aの内側には、使用者の前景を撮影する視界カメラ11と、使用者の右目を撮影する眼球カメラ14と、視界カメラ11が撮影取得する画像を使用者に視認し得るように表示する表示部16とが設けられている。また、図1(B1)において、表示部カバー16Aは透明に表されている。この内部には、表示や撮影に必要なプリズムやミラーが含まれているが、詳細は図2を参照して行うので、ここでは省略する。図1(A2)に記載されている視界カメラ11も外観上は視認し得ない状態で装着されている。
[First embodiment information terminal with camera]
A camera-equipped
フレーム1Fには、コントロールボックス2Aも装着されている。この中には、後で詳しく説明する演算器21と、通信部22と、メモリ23とが収められている。演算器21では、視界カメラ11の姿勢変化を検出する姿勢変化検出処理と、眼球カメラ14が取得する画像から使用者の視線を検出する視線検出処理とが行われる。
A
〔撮影系と表示系〕
図2を参照して、カメラ付き情報端末1の撮影系と表示系とについて説明をする。光路LP1は撮像用プリズム16Cにより、視界カメラ11へ導かれて動画撮影される。撮影用プリズム16Cは略三角柱であり、図2では三角形として表されている。この三辺のうち2番目の長さの辺は全ての入射角に対して光を反射するミラーで構成されている。従って、使用者の前景を伝える光の光路LP1は右目R-Eyeには直接入らない。使用者の前景は、視界カメラ11で撮影されてほぼリアルタイムに表示部16に表示される。使用者はこの表示部16を通じて自らの前景を視認することができる。表示部16から発せられた光の光路LP2は、表示部カバー16Aの内壁と、ミラー16Bと、視認用プリズム16Dとによって、右目R-Eyeに導かれる。また、視認用プリズム16Dの面のうち、撮影用プリズム16Cに面している面は全ての入射角に対して光を反射するミラーで構成されている。このようにして、使用者の頭部に装着された視界カメラ11の取得画像が、同頭部に装着された表示部16を介して、同使用者に視認される。
[Shooting system and display system]
The imaging system and the display system of the camera-equipped
〔等価視界カメラと等価表示部〕
図1と図2とで説明した第1実施形態のカメラ付き情報端末1では、視界カメラ11と表示部16とは表示部カバー16A内に組み込まれていて外観に表れていない。一方、図3(A)と(B)とに示すカメラ付き情報端末1は、視界カメラ11と表示部16とが外部に表れている。しかし、図1と図2とで説明したものと、図3に示すものとは、次の点で等価であることを説明する。
[Equivalent view camera and equivalent display part]
In the camera-equipped
まず、図1と図2によるカメラ付き情報端末1の視界カメラ11は、使用者頭部の前景を取得することができる。そして、使用者の頭部の姿勢の変化に伴って視界カメラ11の姿勢も変化する。この観点で、図3(A)と(B)とに示されている視界カメラ11と図1及び2の視界カメラ11とは等価である。また、図1及び2によるカメラ付き情報端末1の表示部16は視界カメラ11の取得画像を表示する。そして、使用者の頭部の姿勢が変化しても、表示部16と使用者の右目R-Eyeとの相対的な位置関係は不変である。この観点で、図3(A)と(B)とに示されている表示部16は図1及び2による表示部16と等価である。そこで、以後、図3に示される視界カメラ11と表示部16とに基づいて、説明をする。
First, the field-of-
ところで、図3では表示部16が視界カメラ11の前方を遮っているように見える。しかし、以後、視界カメラ11にとっては、表示部16は視野に入らないものとして説明をする。それは、図1と図2によるカメラ付き情報端末1では、プリズムとミラーとによってお互いに他方を遮蔽する等の干渉は回避しているからである。すなわち、図1~図3において、視界カメラ11は、使用者の鼻先の向く向きに向けて該使用者の顔側に装着されて使用者の前景を撮影できるようになっている。また、表示部16は、使用者が視認し得るように頭部に装着されて視界カメラ16の取得画像を表示するようになっている。また、前提として、視界カメラ11の取得する画像の中心は表示部16の中心に表示されるように調整されているものとする。そして、視界カメラ11がズーム動作したときは、取得画像の中心を基点として拡大あるいは縮小されるものとする。
By the way, in FIG. 3, the
〔使用者の動作〕
次に図4を参照して、同実施形態で重要な使用者の動作を説明する。図4は、使用者の動作に伴う、視界カメラ11が取得する画像の変化及び、表示部16に表示される画像の変化を説明する図である。図4(A1)、(B1)及び(C1)は使用者の動作を表す図である。一方、図4(A2)、(B2)及び(C2)はそれぞれ、表示部16に表示されている画像であって、視界カメラ11で撮影されている画像でもある。
[User Action]
Next, with reference to FIG. 4, important user actions in the embodiment will be described. FIG. 4 is a diagram for explaining changes in the image acquired by the field-of-
図4(A1)は、使用者が表示部16の中心に表示されている、小さな白い正方形に視線を向けて注視している状態である。つまり使用者の視線VDは表示部16の中心へ向かっている。また、上記したように、視界カメラ11で取得した画像の中心が表示部16の中心に表示されるように調整済みなので、視界カメラ11の向う向きCDは使用者の視線VDの方向と一致している。ここで、説明の都合上、使用者の視線VDが表示部16の表面と交差する点を視点VPと呼ぶこととする。
FIG. 4A1 shows a state in which the user gazes at a small white square displayed in the center of the
図4(A2)はこのとき、表示部16に表示されている画像である。使用者は表示部16の中心にある小さな白い正方形を注視している。表示部16の画面に対して水平で、その中心を通る線分をカメララインCLとして表示している。また、視点VPを通り表示部16の画面に対して水平な線分を視点ラインVLとして表示している。この場合は、カメララインCLと視点ラインVLとは一致している。
FIG. 4A2 shows an image displayed on the
〔相殺動作〕
図4(B1)は、使用者が先の注視点である小さな正方形に視点を残しつつ、頭部の姿勢をやや下向きした状態を表している。これは、使用者が顎を少し引いた状態でもある。使用者の頭部に装着されている視界カメラ11と表示部16とは頭部と同じ角度だけ傾く。その結果、図4(B2)に示すように、表示部16に表示されている画像は、画面上やや上方へ移動する。このとき、視界カメラ11の向う向きCDと、使用者の視線VDの方向との間には差異が生じる。カメララインCLと視点ラインVLとの間にも差異が生じて、分離した2つの線分として表されている。ここで示した例のように、前景の特定の部分に視点VPを残しつつ頭部の姿勢を変化させると、視線は頭部の姿勢変化を相殺する向きに変化する。ここでは、このように頭部の姿勢変化と逆向きの視線変化を生じさせる動作を相殺動作ともいうこととする。
[Offset action]
FIG. 4(B1) shows a state in which the user's head is turned slightly downward while keeping the viewpoint at the small square which is the previous gaze point. This is also the state in which the user has slightly pulled the chin. The
〔注視アイコン〕
図4(C1)と図4(B1)とは全く同じ姿勢である。使用者の動作に何ら変化はない。したがって、図4(C2)に表示されている画像と図4(B2)に表示されている画像とは一致する。しかし、図4(C2)においては、表示部16の中心に注視アイコンICが表示されている。
[Gaze icon]
FIG. 4(C1) and FIG. 4(B1) are exactly the same posture. There is no change in user behavior. Therefore, the image displayed in FIG. 4(C2) matches the image displayed in FIG. 4(B2). However, in FIG. 4C2, the gaze icon IC is displayed in the center of the
図5は表示部16に表示される注視アイコンICを説明する図である。図5(A1)は図4(C1)と頭部姿勢は同一の使用者である。ただし、視点VPは注視アイコンICに滞留している。その結果、視界カメラ11の向きCDと、使用者の視線VDの向きとは一致している。図5(A2)に示す表示部16の画面において、カメララインCLと視点ラインVLとは一致している。しかし、視点ラインVLは、最初に視点VPを滞留させていた場所である小さな白い正方形〔図4(A2)参照〕よりも下へずれている。
FIG. 5 is a diagram for explaining the gaze icon IC displayed on the
ここで、注視アイコンICに視点VPを滞留させつつも、同視点VPを最初に滞留していた小さな白い正方形に合わせることは簡単である。注視アイコンICへの視点滞留を維持しながら顎をやや突き出せばよい。この動作を実施した直後の様子が図5(B1)に示されている。この動作により、図5(B2)に示すように、表示部16の画像はやや下へ移動し、カメララインCLと視点ラインVL及び注視アイコンICとが、上記小さな白い正方形に重なるようになる。この時の使用者の姿勢は、図4(A1)と一致している。図4(A1)から、(B1)、(C1)、更に図5(A1)を経て、(B1)までの一連の動作は、通常、使用者が無意識にやる動作ではない。意識的でなければ行わない動作である。これは不自然な動作ではあるが、図4(C2)から図5(A2)及び(B2)までに注視アイコンICが表示部16に表示されることにより、簡単に行える動作となっている。そして、図5(C)と(D)とは、表示部16の中心、すなわち、注視アイコンICを中心として徐々にズーム率が大きくなって表示されていることを示している。
Here, it is easy to align the point of view VP with the small white square where the point of view VP stays at the first, while keeping the point of view VP at the fixation icon IC. What is necessary is to stick out the chin slightly while maintaining the fixation of the viewpoint on the gaze icon IC. FIG. 5B1 shows the state immediately after this operation is performed. By this operation, as shown in FIG. 5B2, the image on the
注視アイコンICは表示部16の中心に表示されることを原則とする。しかし、これに限るものではなく、表示部16の中心から広がりを持っていてもよい。例えば、図6(A)に示すように、表示部16の中心からある程度の広がりのある領域である。これを中心部領域161と称し、この領域内に注視アイコンICが表示される。分かりやすくするために中心部領域161は大きめに示している。図6(B)に示すように、使用者が表示部16の中心であるDS0を注視している状態から上方へ視線を2度隔てた視線をVDPとし、下方へ視線を2度隔てた視線をVDMとする。このときに、視線VDPと表示部16との交点と、視線VDMと表示部16との交点で規定する範囲内が中心部領域161である。表示部16の水平方向の範囲は、表示部16の中心DS0から左方へ視線を2度傾けた範囲と、右方へ視線を2度傾けた範囲とで定められる。この範囲を単に、表示部16の中心から視野角プラスマイナス2度の範囲内と表現することとする。視野角プラスマイナス2度の範囲内である中心部領域161に注視アイコンICが、視界カメラ11の取得画像に重ねて表示されるのでもよい。
In principle, the gaze icon IC is displayed in the center of the
〔構成ブロック図〕
次に図7を参照して、第1実施形態の構成をブロック図で説明する。第1実施形態に係るカメラ付き情報端末1は、視界カメラ11と、眼球カメラ14と、表示部16と、演算器21と、メモリ23と、通信部22とを有している。演算器21は、姿勢変化検出部13と、ズーム制御部12と視線検出部15と、表示制御部17とを電子回路として有していてもよい。若しくは、同等の処理を実行するプログラムに基づく処理により実現されていてもよい。同プログラムは演算器21内に組み込まれていてもよいし、メモリ23内に展開されていてもよい。演算器21は視界カメラ11と、眼球カメラ14と、表示部16とメモリ23と、通信部22とを制御し、これらの機器を含めて第1実施形態に係るカメラ付き情報端末1を構成している。
[Configuration block diagram]
Next, referring to FIG. 7, the configuration of the first embodiment will be described with a block diagram. The camera-equipped
たとえば、演算器21は、ズーム制御部12又はこれに該当するプログラムにより、視界カメラ11のズーム機能を制御し、視界カメラ11で取得する画像を拡大したり縮小したりする。この画像は、表示制御部17の制御により表示部16に表示される。また、この画像をメモリ23に保存したり、通信部22を介して他の機器に送信したりできるようにしてもよい。また、姿勢変化検出部13は、視界カメラ11の画像の変化から視界カメラ11の姿勢変化を検出することができる。検出方法は後記する。視界カメラ11の姿勢変化とは、同カメラ付き情報端末1の使用者の頭部の姿勢が変化することでもある。
For example, the arithmetic unit 21 controls the zoom function of the field-of-
また、表示制御部17は上記機能のほかに、所定の条件を満たした場合に、表示部16の中心若しくは、中心部領域161に注視アイコンICを表示し、あるいは消去する制御を行う。視線検出部15は眼球カメラ14が取得する使用者の眼球画像を処理して使用者の視線を検出する。視線検出とは、視線の方向若しくは、視線が表示部16の画面である表面と交差する点を視点VPとしてその座標を検出することである。
In addition to the above functions, the display control unit 17 performs control to display or erase the gaze icon IC in the center of the
〔処理フロー〕
次に、図8を参照して、第1実施形態のカメラ付き情報端末1の処理フローを説明する。図8(A)は、図4と図5とを参照しながら説明した、使用者の動作を検出するための処理フローである。演算器21で実行することができる。使用者が同カメラ付き情報端末1を使用中、この処理は繰り返し実行されている。この処理は使用者の視線変化と、視界カメラ11の姿勢変化とを検出し、両変化の向きが相反する向きであること、すなわち相殺する変化である場合は、注視アイコンICを、表示部16の中心又は中心付近に表示する。そして、使用者がその注視アイコンICに視点VPを滞留すればその表示を維持し、視点VPの滞留が無ければ注視アイコンICの表示を消去するものである。
[Processing flow]
Next, with reference to FIG. 8, the processing flow of the camera-equipped
まず、演算器21は視界カメラ11の姿勢変化を検出し(ステップSTP1)、眼球カメラ14が取得する画像から使用者の視線を検出する(ステップSTP2)。ステップSTP1とステップSTP2とは何れを先に実行してもよい。次に条件1に基づいて分岐する。条件1は使用者の視点VPが中心部領域161外にあれば‘真’である。この中心付近からの視線変位の条件は、より大きく変位することを条件1としてもよい。しかし、ここでは以後、視点VPが中心部領域161外にあることを「視線変化」とも表現する。通常、使用者の視点VPは、中心部領域161内にあり、使用者の何らかの動作に伴って、視点VPが同中心部領域161から外れるからである。‘真’でない場合、すなわち‘偽’の場合は処理を終了し、‘真’の場合は続く処理に分岐する(ステップSTP3)。
First, the computing unit 21 detects a change in posture of the view camera 11 (step STP1), and detects the line of sight of the user from the image acquired by the eyeball camera 14 (step STP2). Either step STP1 or step STP2 may be executed first. Next, branch based on
続いて、条件2の判断をする。条件2は視線の変化、すなわち、視点VPが中心部領域161から外れている向きと、視界カメラ11の姿勢変化すなわち使用者頭部の姿勢変化の向きとの比較に基づく判断である。先の図4(B1)と(C1)では、視点VPは中心部領域161から上向きに外れている。一方使用者が頭部を前に倒すことにより、頭部装着の視界カメラ11は下向きに姿勢変化している。このような場合は、視線変化はカメラの姿勢変化を相殺する向きなので、条件2の判断は‘真’である。カメラ姿勢変化が検出されなかったり、カメラ姿勢変化の向きと視線変化の向きが反対向きでなかったりする場合は相殺ではなく、‘偽’と判断される。条件2の判断に基づいて、‘偽’であれば処理を終了し、‘真’であれば続く処理へ分岐する(ステップSTP4)。
Then, condition 2 is judged. Condition 2 is a determination based on a comparison between a change in line of sight, that is, the direction in which the viewpoint VP deviates from the
続いて、注視アイコンICを中心部領域161に表示する。これは、視界カメラ11による取得画像に重ねて表示するものである。更に、後で説明を加える、注視フラグFGをセットする。そして、注視アイコンICの表示後は次の処理に進む前に所定時間だけ間を置く(ステップSTP5)。これは注視アイコンICが中心部領域161に表示され、使用者がそこに視点VPを滞留させる時間を確保するためである。この所定時間は1秒以内であることが望ましいが1秒を超える設定を除外するものではない。
Subsequently, the gaze icon IC is displayed in the
次いで、再び視線検出をし(ステップSTP6)、条件3の判断をする。条件3の判断において、使用者の視点VPが注視アイコンICから外れていれば‘偽’、滞留していれば‘真’である。条件3の判断に基づいて分岐する(ステップSTP7)。‘偽’の場合は注視フラグFGをリセットし、注視アイコンICを消去して処理を終了する(ステップSTP9)。一方、‘真’の場合はステップSTP6の視線検出に戻る(ステップSTP7)。ここで、注視フラグFGとは、他の処理ルーチンでも参照可能な、オンとオフといった二値の参照用フラグである。 Next, the line of sight is detected again (step STP6), and condition 3 is determined. In the judgment of condition 3, if the user's viewpoint VP is out of the gaze icon IC, it is 'false', and if it stays, it is 'true'. It branches based on the determination of condition 3 (step STP7). If 'false', reset the gaze flag FG, erase the gaze icon IC, and terminate the process (step STP9). On the other hand, in the case of 'true', the process returns to the line-of-sight detection of step STP6 (step STP7). Here, the gaze flag FG is a binary reference flag such as ON and OFF that can be referred to in other processing routines.
以上の処理を簡単に表すと、視線変化と、使用者の頭部に装着の視界カメラ11の動きが相殺する向きであるときは、中心部領域161に注視アイコンICが表示される。そして、使用者が視点VPをここに滞留させると、注視アイコンICの表示は維持されるが、視点VPをこれに滞留させないと注視アイコンICは消去される。また、注視アイコンICの表示が維持されている間は、注視フラグFGはセット状態を維持している。
To simply express the above processing, when the change in the line of sight and the movement of the field-of-
ここで、演算器21はマルチスレッドで動作する演算器である。すなわち、複数の処理ルーチンが並行して実行される。演算器21の構成はシングルプロセッサかマルチプロセッサのいずれでもよい。シングルプロセッサの場合は、時分割で複数の処理ルーチンを実施し、見かけ上並行して実施しているように見える。マルチプロセッサの場合は、複数のプロセッサが共通のメモリをアクセスし、メモリアクセスの競合は適切の調整されているものとする。 Here, the computing unit 21 is a computing unit that operates in multithread. That is, multiple processing routines are executed in parallel. The configuration of the calculator 21 may be either a single processor or a multiprocessor. In the case of a single processor, multiple processing routines are executed in a time-sharing manner, apparently in parallel. In the case of multiprocessors, it is assumed that multiple processors access common memory and memory access contention is appropriately regulated.
図8(B)に示す処理は、(A)を参照して説明した処理と並行して行われる。さらに、先に説明した処理で出力される注視フラグFGを参照することができる。ここではまず条件4の判断をする。条件4において、注視フラグFGがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’であれば処理を終了し、‘真’であれば続く処理へ分岐する(ステップSTP10)。次いで、視界カメラ11のズーム動作を、ズーム制御部12を介して行う(ステップSTP11)。そして、再度、条件4の判断をする(ステップSTP10)。この処理を実行することにより、注視フラグFGがセットされている間、すなわち、中心部領域161に注視アイコンICが表示されている間は、視界カメラ11のズーム動作が継続される。
The processing shown in FIG. 8(B) is performed in parallel with the processing described with reference to (A). Furthermore, it is possible to refer to the gaze flag FG that is output in the process described above. Here, condition 4 is first determined. In condition 4, if the gaze flag FG is set, it is 'true', and if it is reset, it is 'false'. If it is 'false', the process ends, and if it is 'true', it branches to the subsequent process (step STP10). Next, the zoom operation of the field-of-
以上、説明した処理フローにより、第1実施形態に係るカメラ付き情報端末の使用者は、頭部と眼球の動作のみで視界カメラ11のズーム操作を行うことができる。表示部16の中心付近である中心部領域161に表示されている注視アイコンICに視点VPを滞留させ続ければ、注視フラグFGのセット状態が続き視界カメラ11のズーム動作を継続させることができる。また、中心部領域161に注視アイコンICが表示されている場合において、視VP点が注視アイコンICから外れていることが、視線検出部15によって検出されると、ステップSTP9にて注視アイコンICは消去され、同時に注視フラグFGもリセットされる。その結果、図8(B)に示されるカメラズーム動作も終了する。
According to the processing flow described above, the user of the camera-equipped information terminal according to the first embodiment can perform the zoom operation of the field-of-
使用者の顎引き動作については既に図4と図5とを参照して説明した。顎引き動作に伴って、頭部前面の顔面は下向きに傾く一方で、視線は上方へ変化し、両者は相殺するように相反する向きに変化していた。これと対照的な動作は、使用者による顎突出し動作である。図9を参照してこれを説明する。図9(A1)は通常の自然な状態であって、顔向きと視線方向は一致している。頭部前面に装着されている視界カメラ11の方向CDと、表示部16の中心付近に視点VPを定めている使用者の視線方向CDとは一致している。図9(A2)は視界カメラ11が取得している画像であり、表示部16に表示されている画像でもある。この画像において、カメララインCLと、視点ラインVLとは、表示部16の中心付近で一致している。使用者は表示部16の中心付近に表されている小さな白い正方形を注視している。
The chin pulling action of the user has already been described with reference to FIGS. Along with the chin-pulling motion, the face on the front of the head tilted downward, while the line of sight changed upward, and the two directions changed in opposite directions to offset each other. A contrasting action is the chin thrusting action by the user. This is explained with reference to FIG. FIG. 9 (A1) shows a normal, natural state, in which the face direction and the line-of-sight direction match. The direction CD of the field-of-
図9(B1)は、使用者が、表示部16の中心付近に表されている小さな白い正方形への注視を維持しながら顎を突き出し、その結果、顔面がやや上を向いた状態を表している。この時視界カメラ11の姿勢は上方へ姿勢変化し、視点VPは下方へ変化する。このときに視界カメラ11が取得して表示部16に表示している画像は(B2)に示されている。(A2)の画像と比較すると、やや下方へ移動している。勿論、カメララインCLは表示部16の中心に位置し続ける。一方で視点ラインVLは小さな白い正方形と共に下方へ移動している。この時は、視界カメラ11の姿勢変化の向きと使用者の視線変化の向きとが相反し、相殺する向きなので、表示部16の中心部領域161に注視アイコンICが表示される〔図9(C2)〕。
FIG. 9B1 shows a state in which the user sticks out his chin while maintaining his gaze on the small white square displayed near the center of the
図10(A1)は、使用者が、視点VPの注視アイコンICヘの滞留を維持して、最初に注視していた小さな白い正方形を注視アイコンICへ重ねた様子を表している。(A2)はこの時の表示部16の表示画面である。図10(B)と(C)とは、表示部16の中心、すなわち注視アイコンICを中心にズーム率が小さくなるズーム動作がなされて、対象物が徐々に小さくなり、視野は徐々に拡大されていく様子を示している。
FIG. 10(A1) shows a state in which the user keeps the viewpoint VP staying on the gaze icon IC and superimposes the small white square that was initially gazed on the gaze icon IC. (A2) is the display screen of the
図4と図5で説明したのは、視線変化の向きが上方向で注視アイコンICが表示された例であり、図9と図10で説明したのは、視線変化の向きが下向で注視アイコンICが表示された例である。そのほか、視線変化が左右いずれかの向きに変化して、視界カメラ11がそれぞれこれを相殺する向きに姿勢変化する場合を作ることができる。次に説明する第2実施形態は、注視アイコンICが表示される動作において、視線変化が上方向であったときに視界カメラ11に拡大ズーム動作を起こさせ、視線変化が下方向であったときに視界カメラ11に縮小ズーム動作を起こさせるものである。ここで、拡大ズームとは対象物が大きくなる一方で視野範囲が狭くなるズーム動作とする。そして、縮小ズームとは対象物が小さくなる一方で視野範囲が広くなるズーム動作とする。
4 and 5 are examples in which the gaze icon IC is displayed when the direction of change in the line of sight is upward, and in FIGS. This is an example in which an icon IC is displayed. In addition, it is possible to create a case where the change in line of sight changes to either the left or right direction, and the
〔第2実施形態 カメラ付き情報端末〕
図11を参照して、本発明に基づく第2実施形態のカメラ付き情報端末2の処理フローを説明する。同カメラ付き情報端末2のブロック図で表される構成は第1実施形態のカメラ付き情報端末1と同様である。まず、図11(A)を参照する。ステップSTP1からステップSTP4までの処理は、第1実施形態のカメラ付き情報端末1と同様である。すなわち、視線変化の向きとカメラ姿勢変化の向きが相殺する関係になければ処理を終了する。相殺する関係にあれば、ステップSTP12に分岐する。
[Second embodiment information terminal with camera]
A processing flow of the camera-equipped information terminal 2 according to the second embodiment of the present invention will be described with reference to FIG. The configuration represented by the block diagram of the camera-equipped information terminal 2 is the same as that of the camera-equipped
条件5は、先のステップで検出した視線変化が上方への変化であったことである。上方へ視線変化するのは、使用者が顎を引き、頭部をやや下向きに向けたときに生じる変化である。条件5の判断をし、視線変化が上方ではなかった場合は、‘偽’としてステップSTP14へ分岐する。視線変化が上方であった場合は、‘真’としてステップSTP13へ分岐する(ステップSTP12)。ステップSTP13では、後で説明を加える、注視Uフラグをセットする。これは視線変化が上方であった時、すなわち、使用者が顎を引いたときにセットされる1ビットフラグである。後記する図11(B)で説明する処理ルーチンではこのフラグを参照する。ステップSTP14では、注視Dフラグをセットする。これは視線変化が下方であった時、すなわち、使用者が顎を突き出したときにセットされる1ビットフラグである。後記する図11(B)で説明する処理ルーチンではこのフラグを参照する。ただし、ここに示した処理フローでは視線変化が下方であったことを含めて、上方以外の視線変化では全て注視Dフラグがセットされる。厳格に、視線変化が下方の時のみ注視Dフラグをセットするのであれば、ステップSTP12の分岐を3通りとする必要がある。そして、視線変化が上下方向のいずれにも該当しない場合は、処理を終了するようにすればよい。 Condition 5 is that the line-of-sight change detected in the previous step is an upward change. The change in line of sight upward is a change that occurs when the user pulls the chin and turns the head slightly downward. If condition 5 is judged and the change in line of sight is not upward, it is determined as 'false' and the process branches to step STP14. If the line-of-sight change is upward, it is determined as 'true' and the process branches to step STP13 (step STP12). At step STP13, a gaze U flag, which will be explained later, is set. This is a 1-bit flag that is set when the line-of-sight change was upward, i.e. when the user pulled his chin. This flag is referred to in the processing routine described later with reference to FIG. 11(B). At step STP14, a gaze D flag is set. This is a 1-bit flag that is set when the line-of-sight change was downward, i.e., when the user stuck out his chin. This flag is referred to in the processing routine described later with reference to FIG. 11(B). However, in the processing flow shown here, the fixation D flag is set for all line-of-sight changes other than upward, including the fact that the line-of-sight change was downward. Strictly speaking, if the gaze D flag is to be set only when the line-of-sight change is downward, it is necessary to branch step STP12 in three ways. Then, if the line-of-sight change does not correspond to any of the vertical directions, the processing may be terminated.
続く処理で、中心部領域161に注視アイコンICを表示し、所定時間維持する(ステップSTP5)。これは、使用者が視点VPを注視アイコンICに滞留させるまでの時間を確保するためである。次いで、再び視線検出をし(ステップSTP6)、条件3の判断をする。条件3の判断において、使用者の視点VPが注視アイコンICに滞留していなければ‘偽’、滞留していれば‘真’である。条件3の判断に基づいて分岐する(ステップSTP7)。‘偽’の場合は注視Uフラグまたは注視Dフラグをリセットし、注視アイコンICを消去して処理を終了する(ステップSTP15)。一方、‘真’の場合はステップSTP6の視線検出に戻る(ステップSTP7)。ここで、注視Uフラグと注視Dフラグとは、他の処理ルーチンでも参照可能な、オンとオフといった二値の参照用フラグである。
In the subsequent processing, the gaze icon IC is displayed in the
以上の処理を簡単に表すと、視線変化と、使用者の頭部に装着の視界カメラ11の動きが相殺する向きであるときは、中心部領域161に注視アイコンICが表示される。使用者が視点VPをここに滞留させると、注視アイコンICの表示は維持されるが、視点VPをこれに滞留させないと注視アイコンICは消去される。また、注視アイコンICの表示が維持されている間は、注視Uフラグ又は注視Dフラグはセット状態を維持している。使用者の動作が顎を引く動作であった場合は注視Uフラグがセット状態となっており、使用者の動作が顎を突き出す動作であった場合は注視Dフラグがセット状態となっている。
To simply express the above processing, when the change in the line of sight and the movement of the field-of-
図11(B)に示す処理は、(A)を参照して説明した処理と並行して行われる。さらに、先に説明した処理で出力される注視Uフラグと注視Dフラグとを参照することができる。ここではまず条件6の判断をする。条件6において、注視Uフラグがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’であればステップSTP18へ分岐し、‘真’であればステップSTP17に分岐する(ステップSTP16)。ステップSTP17では、視界カメラ11の拡大ズーム動作を行い、再びステップ16に戻る(ステップSTP17)。ステップSTP18では、条件7の判断をする。条件7において、注視Dフラグがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’の場合は処理を終了する。一方、‘真’の場合は視界カメラ11の縮小ズーム動作を行う。あるいは、視野範囲最大の状態に戻す動作でもよい。その後、再びステップ16に戻る(ステップSTP19)。
The processing shown in FIG. 11(B) is performed in parallel with the processing described with reference to (A). Further, it is possible to refer to the attention U flag and the attention D flag output in the processing described above. Here, condition 6 is first determined. In condition 6, it is 'true' if the gaze U flag is set, and 'false' if it is reset. If 'false', the process branches to step STP18, and if 'true', the process branches to step STP17 (step STP16). At step STP17, the field-of-
以上、説明した処理フローにより、使用者にとって下を向く向きに視界カメラ11の姿勢変化が検出され。かつ、視点VPは中心部領域161から上へ変化したことが検出されると中心部領域161内に注視アイコンICが表示される。そして、使用者が視点VPを注視アイコンICに滞留している間は視界カメラ11のズーム率を増加する制御が行われるようにすることができる。
According to the processing flow described above, a change in posture of the field-of-
また、使用者にとって上を向く向きに視界カメラ11の姿勢変化が検出され、かつ、視点VPは中心部領域161から下へ変化したことが検出されると中心部領域161内に注視アイコンICが表示される。そして、使用者が視点VPを注視アイコンICに滞留している間は視界カメラ11のズーム率を減少させる制御が行われるようにすることができる。
Further, when a change in posture of the
また、視点VPが注視アイコンICから外れていることが検出されると、表示部16から注視アイコンICは消去される。同時に注視Uフラグ若しくは注視Dフラグもリセットされるので、視界カメラ11のズーム率を変化させる動作は終了する。
Further, when it is detected that the viewpoint VP is out of the gaze icon IC, the gaze icon IC is erased from the
次に、図12を参照して、視線検出部15の説明をする。視線検出部15は眼球カメラ14が取得する眼球画像から使用者の視線を検出するものである。より具体的には、使用者の視線と表示部16の表面とが交差する場所である視点VPの同表示部16の表面における座標を検出するものである。第1実施形態及び第2実施形態においては、眼球画像から使用者の右目の瞳の位置を検出する。瞳の検出を安定化するために、右目に近赤外照明を当てることもできる。この場合、眼球カメラ14は近赤外線領域に感度の高いカメラを用いる。
Next, the line-of-sight detection unit 15 will be described with reference to FIG. The line-of-sight detection unit 15 detects the user's line of sight from the eyeball image acquired by the
そして、視線検出に先立ち、図12(A1)と(A2)とに示されるキャリブレーション動作が必要である。第1実施形態及び第2実施形態のカメラ付き情報端末1及び2の表示部16の所定の位置には、キャリブレーション点P1と、P2、P3、P4が表示されている〔図12(A2)〕。同情報端末を装着した使用者はこれらの指定されたキャリブレーション点を目で追い、この時の眼球画像における瞳の位置が記録される。これは、使用者の視点VPの位置と瞳の位置との対応付けを行うことが目的である。この対応付けができたなら、例えば、図12(B2)ア)に示す右目眼球画像から、同じ行の(B3)のように瞳E1が検出されると、視点VPはキャリブレーション点P1上にあると判断される。ここで、使用者の視認する表示部16の表面(B1)と、眼球カメラからの画像による瞳(B3)とは、互いにほぼ逆向きゆえに左右逆転していることに注意する。(B3)アイウエのいずれにも一致しない位置に瞳を検出した場合には、(B1)のキャリブレーション点アイウエの位置から内そう又は外そうして視点VPの座標を検出する。以上が、視線検出部15の処理である。
Then, prior to line-of-sight detection, a calibration operation shown in FIGS. 12(A1) and (A2) is required. Calibration points P1, P2, P3, and P4 are displayed at predetermined positions of the
次に、図13を参照して、姿勢変化検出部13の説明をする。使用者の頭部に装着された視界カメラ11が方向CD1に向かっているとき〔図13(A1)〕の、同カメラによる取得画像を図13(A2)に表す。ここで、使用者が顎を引いて頭部をやや下向きに傾けると、視界カメラ11の向きはCD2に向かう向きになる。このときに同カメラが取得する画像は図13(B2)に表されている。ここで、(A2)と(B2)との画像の差異からオプティカルフローを求めれば、視界カメラ11の姿勢変化を検出することができる。オプティカルフロー検出の方法を限定するものではないが、例えば、(A2)画像から局所的なテンプレートパタンを作成して〔図13(C1)のT1,T2,T3〕、(B2)画像についてパタンマッチングをすると、(C2)に示すようにマッチング領域を求めることができ〔(C2)のM1,M2,M3〕、T2の位置からM2の位置へのベクトルV2としてオプティカルフローが検出される。このベクトルの大きさ、方向が視界カメラ11の姿勢変化の大きさと方向である。そして、このベクトルの向きと反対の向きが視界カメラ11の姿勢変化の向きである。このように、カメラの姿勢変化前後の画像を処理して、カメラ姿勢変化と向きとを検出することができる。すなわち、オプティカルフロー検出部で姿勢変化検出部13を実現することができる。以上が姿勢変化検出部13の処理である。カメラ姿勢変化を検出するために、取得画像からオプティカルフローを検出する他に、使用者の頭部に加速度センサやジャイロセンサを装着してもよい。
Next, the posture change detection unit 13 will be described with reference to FIG. 13 . FIG. 13(A2) shows an image acquired by the field-of-
以上が、第1実施形態及び第2実施形態に係るカメラ付き情報端末1及び2である。このような構成にすると、誤操作を抑えつつも、撮影対象を注視しながらカメラのズーム操作をすることができる。
The camera-equipped
〔第3実施形態 情報システム〕
次に、図14を参照して、本発明に基づく第3実施形態に係る情報システム3を説明する。第3実施形態の情報システム3は、頭部装着型端末3Aとサーバ3Bとからなる。サーバ3Bとしてパーソナルコンピュータを使用することができる。頭部装着型端末3Aに備えられた視界カメラ11と、眼球カメラ14が取得した画像はサーバ3Bへ送信される。サーバ3Bでは、視界カメラ11の画像を処理して視界カメラ11の姿勢変化を検出する。また、眼球カメラ14の画像を処理して視線変化が検出される。
[Third Embodiment Information System]
Next, referring to FIG. 14, an information system 3 according to a third embodiment of the present invention will be described. The information system 3 of the third embodiment is composed of a head-mounted terminal 3A and a
そして、サーバ3Bにて、視界カメラ11の姿勢変化と眼球カメラ14の画像から得られた視線変化とが相殺する向きであることを検出したときは、頭部装着型端末3Aに対して、注視アイコンICを表示する指令を送る。指令を受けた頭部装着型端末3Aは、これに備えられている表示部16の中心部領域161に注視アイコンICを表示する。その後、サーバ3Bは眼球カメラ14の画像から視線を求め、この視線の表示部16の表面との交点である視点VPが注視アイコンICから外れていると判断したときは、頭部装着型端末3Aに対して、注視アイコンICを消去するように指令を送る。一方、視点VPが注視アイコンICに滞留している場合にサーバ3Bは、頭部装着型端末3Aに対して、視界カメラ11のズーム動作をしてズーム率を大きく又は小さく制御するように指令を送る。指令を受けた頭部装着型端末3Aは視界カメラ11のズーム率を大きく又は小さく制御する。
Then, when the
以上の動作を踏まえて、図14(A)を参照する。頭部装着型端末3Aの構成は、図7に示した第1実施形態の構成から、姿勢変化検出部と、視線検出部の機能を除いたものである。より詳しくは、演算器31Aは演算器21から、姿勢変化検出部と、視線検出部の機能を除いたものになっている。これらの処理はサーバ3Bで行う。このような構成にすることで、演算器31Aの負荷を演算器21よりも軽減している。
Based on the above operation, FIG. 14A is referred to. The configuration of the head-mounted terminal 3A is the same as the configuration of the first embodiment shown in FIG. 7 except that the functions of the posture change detection section and the line-of-sight detection section are removed. More specifically, the arithmetic unit 31A is the same as the arithmetic unit 21 except for the functions of the posture change detection section and the line-of-sight detection section. These processes are performed by the
図14(B)には、サーバ3Bの構成が示されている。サーバ演算器31Bには視線検出部35と、姿勢変化検出部33と、ズーム動作指令部32と、表示制御指令部34とが含まれている。これらは専用の電子回路で構成されていてもよいし、同等の機能をソフトウェア処理するための処理ルーチンとして実現されていてもよい。姿勢変化検出部33は、視界カメラ11の画像からオプティカルフローを検出して、視界カメラ11の姿勢変化を検出する。頭部装着型端末3Aに加速度センサやジャイロセンサが備えられているときはこれらの機器の出力を受け取って、このオプティカルフローを検出する処理に変えてもよい。視線検出部35は眼球カメラ14の画像から視線及び視線変化を検出する。表示制御指令部34は表示部16に注視アイコンICを表示したり消去したりする指令を頭部装着型端末3A対してする。ズーム動作指令部32は頭部装着型端末3Aのズーム制御部12に対して視界カメラにズーム動作をさせるように指令を送る。尚、頭部装着型端末3Aとサーバ3Bとの通信は通信部22とサーバ通信部32とを介して行われる。以上が、第3実施形態に係る情報システム3の構成である。このような構成にすると、頭部装着型端末3Aの演算器31Aの負荷が軽くなり、その結果、頭部装着型端末3Aの発熱を抑えたり、消費電力を減らしたり、軽量化を達成しやすくなったりする効果がある。
FIG. 14B shows the configuration of the
〔第4実施形態〕
次に図15を参照して、本発明に基づく第4実施形態を説明する。この実施形態は視界カメラ11による取得画像の中心と表示部16の中心との関係に関するものであり、上記第1実施形態から第3実施形態までのすべての実施形態に付加できる実施形態である。図15(A)は、視界カメラ11が取得する画像の中心IM0と、表示部16の中心DS0との位置関係を表す。視界カメラ11のレンズ系111が結像した画像113はイメージセンサ112で電気信号に変換されて表示部16に伝送される。そして、この画像が表示部16に画像16Sとして表示される。このとき、画像113の中心IM0は、表示部16の中心DS0に表示される。これは、使用者が、通常は、表示部16の中心DS0に視点を置いていることを前提としている。表示部16の中心DS0に画像113の中心IM0が一致しているので、視界カメラ11のズーム動作を行うと、表示部16の中心DS0に写る部分を中心に表示画像16Sは拡大若しくは縮小する。それ故に、第1~3実施形態は、表示部16の中心に注視マーカICを表示させたのである。
[Fourth embodiment]
A fourth embodiment according to the present invention will now be described with reference to FIG. This embodiment relates to the relationship between the center of the image acquired by the field-of-
しかし、人間には個人差があり、通常状態で、必ずしも視線が表示部16の中心DS0に向かっているとは限らない。また、カメラ付き情報端末は、個人の眼鏡のように各人向けに調整して製造されているとは限らない。そうすると、なおさら、通常状態で表示部16の中心DS0に視点を置いている場合は少なくなると想定される。そこで、各使用者が通常視点を置く位置に応じて、画像を表示しようとする構成が第4実施形態である。
However, there are individual differences between people, and the line of sight is not necessarily directed toward the center DS0 of the
第4実施形態のカメラ付き情報端末では、常に、若しくは一定期間ごとに使用者の視点VPの位置である座標値をサンプルとして取得してメモリ23若しくはサーバメモリ33に保持する。これを統計処理して、使用者の視点VPが最も多く集まる位置の座標、若しくは平均的に集まる位置の座標を求める。統計処理としては平均値や最頻値をとることができる。サンプル取得するのは、使用者がズーム操作のために注視アイコンICを表示させている期間を除くのが好ましい。注視アイコンICに視点誘導されている期間は、使用者の通常の視点位置とは言えないからである。上記サンプルから古い物を捨てて、新しいものに入れ替えることで、使用者の通常の視点VPの位置が次第に変化していくことに追従する。
In the camera-equipped information terminal of the fourth embodiment, the coordinate values representing the position of the viewpoint VP of the user are acquired as samples at all times or at regular intervals, and stored in the
図15(B)の例では、統計処理で、視点VPが置かれる最頻値の座標を求めている。ここで、視点VPが置かれる最頻値の座標をニュートラル視点位置DS1と称することとする。このニュートラル視点位置DS1に画像113の中心IM0が一致するように移動させた画像16Qが表示部16に表示されるようにしている。(C)は、説明上の要部を拡大して表したものである。図では、ニュートラル視点位置DS1は表示部16の中心位置DS0に対して紙面上の上下方向のいずれかの移動に見えるが、実際には、紙面に直交する方向にも移動し得るものである。そして、中心部領域161も、ニュートラル視点位置DS1を中心に設定する。
In the example of FIG. 15B, the coordinates of the most frequent value at which the viewpoint VP is placed are obtained by statistical processing. Here, the coordinate of the most frequent value at which the viewpoint VP is placed is called a neutral viewpoint position DS1. An
以上説明した第4実施形態は、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出してニュートラル視点位置DS1とし、このニュートラル視点位置DS1に視界カメラ11で取得した画像113の中心IM0を一致させて表示部16に表示する。更に、ニュートラル視点位置DS1を中心として中心部領域161を設ける。
In the fourth embodiment described above, the position corresponding to the average value or the mode value of the coordinate values representing the position of the viewpoint VP is detected and set as the neutral viewpoint position DS1, and the
また、これらの処理を、プログラムを使って実現するには、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出して前記ニュートラル視点位置DS1とするステップを有し、表示部16に視界カメラ11の取得画像と、注視アイコンICとを表示するステップでは、視界カメラ11で取得した画像の中心をニュートラル視点位置DS1に一致させる。そして、ニュートラル視点位置DS1を中心として中心部領域161を定め、この中心部領域161内に注視アイコンICを表示する処理する。以上の一連の処理を演算器21又は演算器31Bに実行させればよい。このようにすることで、使用者ごとの視点の置き方の差異を吸収し、誰にとっても自然な操作ができる。以上、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出し、この位置に視界カメラ11で取得した画像113の中心IM0を一致させた画像16Qを表示部16に表示するカメラ付き情報端末を説明した。
In addition, in order to implement these processes using a program, there is a step of detecting the position corresponding to the average value or the mode value of the coordinate values representing the position of the viewpoint VP and setting it as the neutral viewpoint position DS1. In the step of displaying the image captured by the field-of-
尚、図15では、視界カメラ11が取得した画像113と、表示部への表示画像16Sと、補正後の表示画像16Qとを、厚みのある物体のように表している。しかしこれは、説明の便宜上このように表現しているのであって、これら画像は電荷のチャージ等の電気信号であるから、現実には図のように厚みのあるものではない。
Note that in FIG. 15, the
1・・・第1実施形態のカメラ付き情報端末、11・・・視界カメラ、
111・・・視界カメラのレンズ系、112・・・視界カメラのイメージセンサ、
113・・視界カメラが取得した画像、12・・・ズーム制御部、
13・・・姿勢変化検出部、14・・・眼球カメラ、15・・・視線検出部、
16・・・表示部、17・・・表示制御部、1F・・・フレーム、
16A・・・表示部カバー、16B・・・ミラー、16C・・・撮像用プリズム、
16D・・・視認用プリズム、16S・・・表示部への表示画像、
16Q・・・表示部への補正後の表示画像、161・・・中心部領域、
2A・・・コントロールボックス、21・・・演算器、22・・・通信部、
23・・・メモリ、2・・・第2実施形態のカメラ付き情報端末、
3・・・第3実施形態の情報システム、3A・・・頭部装着型端末、
3B・・・サーバ、31A・・・演算器、31B・・・サーバ演算器、
32・・・ズーム動作指令部、33・・・姿勢変化検出部、
34・・・表示制御指令部、35・・・視線検出部、CL・・・カメラライン、
VL・・・視点ライン、E1,E2,E3,E4・・・検出された瞳、
T1,T2,T3・・・テンプレート、M1,M2,M3・・・マッチング領域、
IC・・・注視アイコン、FG・・・注視フラグ、
IM0・・・視界カメラが取得した画像の中心、DS0・・・表示部の中心、
DS1・・・ニュートラル視点位置、LP1,LP2・・・光路、
P1,P2,P3,P4・・・キャリブレーション点、
R-Eye・・・第1実施形態のカメラ付き情報端末の使用者の右目、
VD・・・使用者の視線の向きと方向、
CD,CD1,CD2・・・視界カメラの向きと方向、
VP・・・視点、V1,V2,V3・・・オプティカルフローベクトル
1... information terminal with camera according to first embodiment, 11... field-of-view camera,
111... Lens system of field camera, 112... Image sensor of field camera,
113... Image acquired by view camera, 12... Zoom control unit,
13 Posture
16... display section, 17... display control section, 1F... frame,
16A... display unit cover, 16B... mirror, 16C... imaging prism,
16D: Prism for visual recognition, 16S: Display image on the display unit,
16Q: display image after correction on the display unit, 161: central region,
2A... Control box, 21... Computing unit, 22... Communication unit,
23... memory, 2... information terminal with camera according to the second embodiment,
3... Information system of the third embodiment, 3A... Head-mounted terminal,
3B... server, 31A... calculator, 31B... server calculator,
32... Zoom operation command unit, 33... Posture change detection unit,
34... Display control command unit, 35... Line of sight detection unit, CL... Camera line,
VL... viewpoint line, E1, E2, E3, E4... detected pupils,
T1, T2, T3... templates, M1, M2, M3... matching regions,
IC: gaze icon, FG: gaze flag,
IM0: the center of the image acquired by the field-of-view camera, DS0: the center of the display unit,
DS1: Neutral viewpoint position, LP1, LP2: Optical path,
P1, P2, P3, P4... calibration points,
R-Eye ... the right eye of the user of the camera-equipped information terminal of the first embodiment,
VD: Direction and direction of the user's line of sight,
CD, CD1, CD2 -- direction and direction of the view camera,
VP: viewpoint, V1, V2, V3: optical flow vector
Claims (8)
前記使用者の目を撮影するために該使用者の顔側に装着されている眼球カメラと、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部と、
前記使用者の頭部に装着されている機器から送られた情報を処理して前記視界カメラの姿勢変化の有無と向きとを検出する姿勢変化検出部と、を有し、
前記姿勢変化検出部が、前記使用者が顎を引くことで生じる前記顔面の下方への傾きに伴う前記視界カメラの姿勢変化を検出したときに、前記眼球カメラが取得する画像から算出される前記使用者の視線の変化の向きが前記視界カメラの姿勢変化を相殺する向きである場合に、
前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域内に、注視アイコンが所定時間だけ表示されるように構成されており、
前記表示部の表面と前記使用者の視線とが交差する点である視点が前記注視アイコンに滞留すると該注視アイコンの表示は維持され、更に前記視界カメラのズーム率が増加する拡大制御が行われるカメラ付き情報端末。 a vision camera mounted on the face side of the user's head in the direction in which the tip of the user's nose points, and tilted by the same angle as the posture of the user's head and face changes ;
an eyeball camera mounted on the user's face side for photographing the user's eyes;
a display unit mounted on the head of the user so that the user can visually recognize the image, and displaying an image acquired by the field-of-view camera;
a posture change detection unit that processes information sent from a device worn on the head of the user and detects whether or not there is a posture change and the orientation of the field-of-view camera ;
The above calculated from the image acquired by the eyeball camera when the posture change detection unit detects a posture change of the field-of-view camera that accompanies the downward inclination of the face caused by pulling the chin of the user. When the direction of the change in the user's line of sight is the direction that offsets the change in the posture of the sight camera,
The gaze icon is configured to be displayed for a predetermined time in a central region within a viewing angle range of plus or minus 2 degrees from the center of the display unit,
When the viewpoint, which is the point where the surface of the display unit and the line of sight of the user intersect, stays on the gaze icon, the display of the gaze icon is maintained, and enlargement control is performed to increase the zoom rate of the view camera. An information terminal with a camera.
前記視点が前記注視アイコンに滞留すると該注視アイコンの表示は維持され、更に前記視界カメラのズーム率が減少する縮小制御が行われる、請求項1に記載のカメラ付き情報端末。 2. A camera-equipped information terminal according to claim 1, wherein when said viewpoint stays on said gaze icon, the display of said gaze icon is maintained, and reduction control is performed to reduce the zoom ratio of said view camera.
該ニュートラル視点位置に前記視界カメラが取得した画像の中心を一致させて該画像を前記表示部に表示し、
前記ニュートラル視点位置を中心として前記中心部領域を設ける、請求項1又は請求項2に記載のカメラ付き情報端末。 Detecting a position corresponding to an average value or a mode value of coordinate values representing the position of the viewpoint on the surface of the display unit and calling it a neutral viewpoint position,
aligning the center of the image acquired by the field-of-view camera with the neutral viewpoint position and displaying the image on the display unit;
3. The camera-equipped information terminal according to claim 1, wherein said central region is provided around said neutral viewpoint position.
前記姿勢変化検出部は、前記ジャイロセンサ又は前記加速度センサから送られた情報に基づいて、前記頭部顔面の姿勢変化の向き及び、該頭部と同じ角度だけ傾く前記視界カメラの姿勢変化の向きを検出する、請求項1、請求項2又は請求項3のいずれか1項に記載のカメラ付き情報端末。 Having a gyro sensor or an acceleration sensor mounted on the user's head and detecting a change in posture of the head and face ,
Based on the information sent from the gyro sensor or the acceleration sensor, the posture change detection unit detects the direction of the posture change of the head and face and the direction of the posture change of the viewing camera tilted by the same angle as the head. 4. The camera-equipped information terminal according to any one of claims 1, 2, or 3, which detects .
前記使用者の目を撮影するために該使用者の顔側に装着されている眼球カメラが取得する画像を受信して、該画像から前記使用者の視線を検出する視線検出部と、
前記視界カメラのズーム制御部に対して指令を送るズーム動作指令部と、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部の表示制御部に対して指令を送る表示制御指令部と、を有し、
前記姿勢変化検出部が、前記使用者が顎を引くことで生じる前記顔面の下方への傾きに伴う前記視界カメラの姿勢変化を検出したときに、前記視線検出部が検出した視線が前記視界カメラの姿勢変化を相殺する向きに変化していると判定される場合には、
前記表示制御指令部は前記表示制御部に対して指令を出して、前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域に注視アイコンを所定時間だけ表示させ、
前記視線検出部が検出する視線が前記表示部表面と交差する点である視点が、前記注視アイコンに滞留していれば、前記表示制御指令部を介して前記表示制御部に前記注視アイコンの表示を維持させ、
更に前記ズーム動作指令部を介して前記ズーム制御部に前記視界カメラのズーム率が増加する拡大制御をさせるカメラ付き情報端末用サーバ。 A vision camera mounted on the user's face toward the direction of the user's nose tip and tilted by the same angle as the user's head and face posture changes, wherein the image of the vision camera is A gyro sensor or an acceleration mounted on the user's head that is tilted by the same angle as the field camera to detect the direction of the change in the posture of the field camera from the direction of the vector detected as the optical flow generated by the change an attitude change detection unit that detects the direction of attitude change of the viewing camera based on information sent from the sensor ;
a line-of-sight detection unit that receives an image acquired by an eyeball camera attached to the face of the user to photograph the eyes of the user and detects the line of sight of the user from the image;
a zoom operation command unit that sends a command to a zoom control unit of the field-of-view camera;
a display control command unit that is mounted on the user's head so that the user can visually recognize the image, and that sends a command to a display control unit of a display unit that displays an image acquired by the visual field camera. death,
When the posture change detection unit detects a change in posture of the field-of-view camera that accompanies a downward tilt of the face caused by pulling the chin of the user, the line of sight detected by the line-of-sight detection unit is detected by the field-of-view camera. If it is determined that it is changing in a direction that offsets the attitude change of
The display control command unit issues a command to the display control unit to display the gaze icon for a predetermined time in a central region within a viewing angle range of plus or minus 2 degrees from the center of the display unit,
If the viewpoint, which is the point where the line of sight detected by the line-of-sight detection unit intersects the surface of the display unit, stays on the gaze icon, the display control unit displays the gaze icon via the display control command unit. to maintain
Further, the camera-equipped information terminal server causes the zoom control section to perform enlargement control to increase the zoom ratio of the view camera through the zoom operation command section.
前記使用者の眼球に向けて該使用者の顔前に備えられた眼球カメラが取得する画像から前記使用者の視線を検出するステップと、
前記視界カメラの姿勢変化を検出するステップと前記視線を検出するステップとでそれぞれ検出された前記視界カメラの姿勢変化の向きと前記視線変化の向きとが相殺する向きであるときに、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部の中心若しくは、前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域に、注視アイコンを前記視界カメラが取得した画像に重ねて前記表示部に表示させるステップと、
前記使用者の視線が前記表示部の表面と交差する点である視点が前記注視アイコンに滞留している間は前記視界カメラのズーム率を制御させるステップとを有する処理を演算器に実行させるプログラムにして、
前記使用者が顎を引くことで生じる前記顔面の下方への傾きに伴う前記視界カメラの姿勢変化が検出されたときに、前記視線の変化の向きが該視界カメラの姿勢変化を相殺する向きである場合には、
前記視界カメラのズーム率を制御させるステップにて、前記視界カメラのズーム率が増加する拡大制御する処理を、前記演算器に実行させるプログラム。 a step of detecting a change in posture of a field-of-view camera mounted on the face side of the user in the direction in which the tip of the user's nose points;
a step of detecting the line of sight of the user from an image acquired by an eyeball camera provided in front of the user's face toward the user's eyeballs;
when the orientation of the orientation change of the visual field camera and the orientation of the visual line change detected in the step of detecting the orientation change of the visual field camera and the step of detecting the line of sight are mutually offset,
The center of a display unit that is worn on the user's head so that the user can visually recognize it and displays the image acquired by the visual field camera, or a viewing angle range of plus or minus 2 degrees from the center of the display unit causing the display unit to display a gaze icon superimposed on the image acquired by the field-of-view camera in a center area within the
a step of controlling the zoom ratio of the view camera while the viewpoint, which is the point where the line of sight of the user intersects the surface of the display unit, stays on the gaze icon. to
When a change in posture of the field-of-view camera caused by a downward tilt of the face caused by the user pulling the chin is detected, the direction of the change in the line of sight is a direction that offsets the change in the posture of the field-of-view camera. In some cases,
A program for causing, in the step of controlling the zoom factor of the field-of-view camera, to perform enlargement control processing in which the zoom factor of the field-of-view camera is increased.
該ニュートラル視点位置を算出するステップを有し、
前記表示部に前記視界カメラが取得した画像を表示するに際して、前記ニュートラル視点位置に前記視界カメラが取得した画像の中心を一致させて該画像を表示し、
前記注視アイコンを前記視界カメラが取得した画像に重ねて前記表示部に表示させるステップにおいては、前記ニュートラル視点位置を中心として前記中心部領域を設けたうえで前記注視アイコンを表示する処理を前記演算器に実行させる請求項7に記載のプログラム。 A position corresponding to an average value or a mode value of coordinate values representing positions of the viewpoint on the surface of the display unit obtained through the step of detecting the line of sight of the user is referred to as a neutral viewpoint position,
calculating the neutral viewpoint position;
When displaying the image acquired by the field-of-view camera on the display unit, displaying the image by aligning the center of the image acquired by the field-of-view camera with the neutral viewpoint position;
In the step of displaying the gaze icon superimposed on the image acquired by the field-of-view camera on the display unit, the process of displaying the gaze icon after providing the center area around the neutral viewpoint position is performed by the calculation. 8. The program according to claim 7, which is executed by a device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018214220A JP7157444B2 (en) | 2018-11-14 | 2018-11-14 | Information terminal with camera and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018214220A JP7157444B2 (en) | 2018-11-14 | 2018-11-14 | Information terminal with camera and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020085914A JP2020085914A (en) | 2020-06-04 |
JP2020085914A5 JP2020085914A5 (en) | 2021-09-09 |
JP7157444B2 true JP7157444B2 (en) | 2022-10-20 |
Family
ID=70907705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018214220A Active JP7157444B2 (en) | 2018-11-14 | 2018-11-14 | Information terminal with camera and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7157444B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150103003A1 (en) | 2013-10-11 | 2015-04-16 | Bernard James Kerr | User interface programmatic scaling |
JP2015149552A (en) | 2014-02-05 | 2015-08-20 | 株式会社ニコン | Wearable electronic apparatus |
JP2016024751A (en) | 2014-07-24 | 2016-02-08 | シャープ株式会社 | Image display device |
-
2018
- 2018-11-14 JP JP2018214220A patent/JP7157444B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150103003A1 (en) | 2013-10-11 | 2015-04-16 | Bernard James Kerr | User interface programmatic scaling |
JP2015149552A (en) | 2014-02-05 | 2015-08-20 | 株式会社ニコン | Wearable electronic apparatus |
JP2016024751A (en) | 2014-07-24 | 2016-02-08 | シャープ株式会社 | Image display device |
Also Published As
Publication number | Publication date |
---|---|
JP2020085914A (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20230074780A (en) | Touchless photo capture in response to detected hand gestures | |
US20250014536A1 (en) | Image processing device and image processing method | |
CN113709410B (en) | Method, system and equipment for enhancing human eye vision ability based on MR (magnetic resonance) glasses | |
JP6095763B2 (en) | Gesture registration device, gesture registration program, and gesture registration method | |
CN112840379B (en) | Information processing device, information processing method and computer readable medium | |
KR20220120649A (en) | Artificial Reality System with Varifocal Display of Artificial Reality Content | |
US20240103684A1 (en) | Methods for displaying objects relative to virtual surfaces | |
JP2013258614A (en) | Image generation device and image generation method | |
JP2015192436A (en) | Transmission terminal, reception terminal, transmission/reception system and program therefor | |
JP2010102215A (en) | Display device, image processing method and computer program | |
JP6711885B2 (en) | Transmission terminal, reception terminal, transmission/reception system, and its program | |
US20190019308A1 (en) | Image display device | |
KR20200040716A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
KR20230119003A (en) | Eyewear with push-pull lens set | |
JP2024113052A (en) | Head-mounted display | |
CN110895433A (en) | Method and apparatus for user interaction in augmented reality | |
JP2021056371A (en) | Display system, display method, and display program | |
JP7633452B2 (en) | Wearable terminal device, program, and display method | |
CN111902859A (en) | Information processing apparatus, information processing method, and program | |
JP7157444B2 (en) | Information terminal with camera and program | |
JP7024010B2 (en) | Sending terminal, receiving terminal, sending / receiving system, and its program | |
JP6817350B2 (en) | Wearable devices, control methods and control programs | |
KR20200111144A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
JP7478902B2 (en) | Wearable terminal device, program, and display method | |
EP4459434A1 (en) | Wearable device and method for identifying area for displaying image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220916 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7157444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |