JP6725999B2 - Information processing apparatus, information processing apparatus control method, and program - Google Patents
Information processing apparatus, information processing apparatus control method, and program Download PDFInfo
- Publication number
- JP6725999B2 JP6725999B2 JP2016039199A JP2016039199A JP6725999B2 JP 6725999 B2 JP6725999 B2 JP 6725999B2 JP 2016039199 A JP2016039199 A JP 2016039199A JP 2016039199 A JP2016039199 A JP 2016039199A JP 6725999 B2 JP6725999 B2 JP 6725999B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- gradation
- display mode
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000010365 information processing Effects 0.000 title claims description 20
- 238000001514 detection method Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Landscapes
- Controls And Circuits For Display Device (AREA)
Description
本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関し、特にHMD(Head Mounted Display)を用いる画像処理技術に関する。 The present invention relates to an information processing device, a control method of the information processing device, and a program, and more particularly to an image processing technique using an HMD (Head Mounted Display).
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルー型HMD(Head Mounted Display)を利用して、HMD使用者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像し、その撮像画像にCG(Computer Graphics)を重畳表示した画像をHMD使用者が観察できる技術が知られている。 In recent years, mixed reality, so-called MR (Mixed Reality) technology has been known as a technology for seamlessly fusing the real world and the virtual world in real time. As one of the MR technologies, a video see-through HMD (Head Mounted Display) is used to image a subject that substantially matches the subject observed from the pupil position of the HMD user with a video camera or the like, and the captured image is CG. A technique is known in which an HMD user can observe an image in which (Computer Graphics) is superimposed and displayed.
ビデオシースルー型HMDでは、CCD等の電荷結合素子により被写体を撮像して該被写体のデジタル画像データを得るとともに、CG画像を重畳したMR画像(複合現実画像)を液晶や有機EL等の表示デバイスを介して装着者に表示する構成になっている。 In the video see-through HMD, a subject is imaged by a charge-coupled device such as a CCD to obtain digital image data of the subject, and an MR image (mixed reality image) on which a CG image is superimposed is displayed on a display device such as a liquid crystal or an organic EL. It is configured to be displayed to the wearer via the.
また、HMD等に用いる画像表示装置としては、自然な観察を実現しつつ臨場感を増すために、広画角の画像提示が望まれている。広画角の画像提示を達成する技術として、左右の眼に異なる画角の映像を表示させて、一部の画角のみ左右の眼で重なるようにすることで、左右の眼に同じ画角の映像を表示させる場合よりも広画角の画像が観察できるようにした画像表示装置が知られている。 In addition, as an image display device used for an HMD or the like, it is desired to present an image with a wide angle of view in order to realize a natural observation and increase a sense of reality. As a technique to achieve wide-angle image presentation, by displaying images with different angles of view on the left and right eyes and overlapping only part of the angles of view on the left and right eyes, the same angle of view on the left and right eyes can be displayed. 2. Description of the Related Art There is known an image display device capable of observing an image having a wider angle of view than the case of displaying the image.
左右の眼に異なる画角の映像を表示させて、一部の画角のみ左右の眼で重なるようにする場合、単眼領域と両眼領域の境界部が目立ってしまい自然な観察ができない。この現象は、片眼には画像が表示されるが、もう片方の眼には画像が表示されずパネルの枠などの黒部(図15参照)が見えてしまうことによる、左右の眼の視野闘争により生じてしまう。 When images with different angles of view are displayed on the left and right eyes so that only part of the angles of view overlaps between the left and right eyes, the boundary between the monocular region and the binocular region is conspicuous, and natural observation cannot be performed. This phenomenon is caused by the fact that an image is displayed on one eye, but no image is displayed on the other eye, and the black part (see FIG. 15) such as the frame of the panel is seen, resulting in a binocular rivalry between the left and right eyes. Caused by.
これに対し、特許文献1に記載のHMDでは、所定の位置から画像の明るさを所定の減少カーブで低下させることで黒部を目立たないようにする技術を開示している。 On the other hand, the HMD described in Patent Document 1 discloses a technique of making a black portion inconspicuous by reducing the brightness of an image from a predetermined position with a predetermined decrease curve.
しかしながら、特許文献1に開示の技術では、黒部を目立たないようにしているが、HMDに有機ELパネル等を用いている場合、常に同じ個所に対して明るさの減少カーブを施しているため、表示部が焼きつきやすくなっていた。 However, in the technique disclosed in Patent Document 1, the black portion is made inconspicuous, but when an organic EL panel or the like is used for the HMD, the brightness decreasing curve is always applied to the same place, The display was easy to burn.
本発明は、上記の課題に鑑みてなされたものであり、表示部を焼きつき難くする技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for making a display unit difficult to burn.
上記の目的を達成する本発明に係る情報処理装置は、
第1の表示部に表示する第1の画像と第2の表示部に表示する第2の画像とを互いに一部重複させて使用者に観察させる際に、前記第1の画像および第2の画像それぞれにおいてグラデーション処理の対象領域が異なる第1の表示モードおよび第2の表示モードを含む複数の表示モードの切り替えにより、前記第1の画像および第2の画像に対してグラデーション処理を行う処理手段と、
前記第1の表示部および第2の表示部が前記第1の表示モードによりグラデーション処理された前記第1の画像および第2の画像を表示した第1の表示時間情報と、前記第1の表示部および第2の表示部が前記第2の表示モードによりグラデーション処理された前記第1の画像および第2の画像を表示した第2の表示時間情報とを含む、複数の表示時間情報を取得する取得手段と、
前記複数の表示時間情報のうち、最も短い表示時間に対応する表示モードを、前記第1の画像及び第2の画像を表示する表示モードとして決定する決定手段と、
を備えることを特徴とする。
An information processing apparatus according to the present invention which achieves the above object,
When the user observes the first image displayed on the first display section and the second image displayed on the second display section partially overlapping each other, the first image and the second image are displayed. Processing means for performing gradation processing on the first image and the second image by switching a plurality of display modes including a first display mode and a second display mode in which target areas for gradation processing are different for each image. When,
First display time information indicating the first image and the second image that have been gradation-processed in the first display mode by the first display unit and the second display unit, and the first display. Section and a second display section obtain a plurality of display time information including the first display image and the second display time information displaying the second image subjected to gradation processing in the second display mode. Acquisition means,
Among the plurality of display time information, and determining means for determining a display mode corresponding to the shortest display time, a display mode for displaying the first image and the second image,
It is characterized by including.
本発明によれば、表示部を焼きつき難くすることが可能となる。 According to the present invention, it is possible to make the display unit less likely to burn.
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
(実施形態1)
<システム構成>
図1は、本発明の実施形態1に係る画像表示システムの構成例を示す図である。図1において、画像表示システムは、頭部装着型表示装置(以下、HMD)1101(情報処理装置)、コントローラ1102、及び、表示部1103を有する画像処理装置1104を有する。
(Embodiment 1)
<System configuration>
FIG. 1 is a diagram showing a configuration example of an image display system according to the first embodiment of the present invention. In FIG. 1, the image display system includes a head-mounted display device (hereinafter, HMD) 1101 (information processing device), a controller 1102, and an image processing device 1104 having a display unit 1103.
HMD1101は、画像表示部、コントローラ1102と通信する通信部、及び、それらを制御する制御部を備えており、使用者の頭部に装着される。画像表示部は、画像処理装置1104で生成した画像を取得して表示する。画像表示部は、使用者のそれぞれの眼の前に光学系を含む構成で取付けられている。 The HMD 1101 includes an image display unit, a communication unit that communicates with the controller 1102, and a control unit that controls them, and is mounted on the head of the user. The image display unit acquires and displays the image generated by the image processing device 1104. The image display unit is attached in front of each eye of the user in a configuration including an optical system.
HMD1101は、WLAN(Wireless Local Area Network)やWPAN(Wireless Personal Area Network)のような、小規模ネットワークを構成する無線接続されたコントローラ1102と通信を行う。HMD1101とコントローラ1102との間は無線による通信に限らず、有線通信方式を利用してもよい。 The HMD 1101 communicates with a wirelessly connected controller 1102 that constitutes a small-scale network, such as a WLAN (Wireless Local Area Network) and a WPAN (Wireless Personal Area Network). A wired communication method may be used between the HMD 1101 and the controller 1102 without being limited to wireless communication.
コントローラ1102と有線接続された画像処理装置1104は、画像を再生する再生部と、再生する画像を格納しておく格納部とを有する。画像処理装置1104は、コントローラ1102を介してHMD1101と通信を行う。また、画像処理装置1104は、キーボードなどを備え、データや命令等を入力する。入力されたデータの表示や命令の結果等は、表示部1103に表示される。 The image processing apparatus 1104, which is connected to the controller 1102 by wire, has a reproduction unit that reproduces an image and a storage unit that stores the image to be reproduced. The image processing apparatus 1104 communicates with the HMD 1101 via the controller 1102. The image processing apparatus 1104 also includes a keyboard and the like, and inputs data, commands, and the like. The display of the input data, the result of the command, and the like are displayed on the display unit 1103.
図1では、画像処理装置1104とコントローラ1102とを別々のハードウェア構成としているが、コントローラ1102の持つ機能をすべて画像処理装置1104内に実装して、一体化することや、画像処理装置1104とコントローラ1102がそれぞれ有する機能を集め、専用の画像処理装置を構成することも可能である。 In FIG. 1, the image processing apparatus 1104 and the controller 1102 have different hardware configurations. However, all the functions of the controller 1102 are implemented in the image processing apparatus 1104 and integrated, or the image processing apparatus 1104 and the image processing apparatus 1104 are integrated. It is also possible to collect the functions of the controller 1102 and configure a dedicated image processing apparatus.
<機能構成>
図2は、図1に示した画像表示システムを構成する画像処理装置及びHMDの機能ブロック図である。HMD1201は図1のHMD1101に対応しており、外界を撮像する撮像部L1202/R1203、画像を表示する表示部L1204/R1205を備えている。また、表示する画像に対して画像処理を行う画像処理部1206、画像や制御信号を送受信するI/F通信ユニット1207、HMD1201を制御する制御部1208、HMD1201の装着又は取り外しを検知する検知部1209、その他不図示の機能部を備えている。
<Functional configuration>
FIG. 2 is a functional block diagram of an image processing device and an HMD that form the image display system shown in FIG. The HMD 1201 corresponds to the HMD 1101 of FIG. 1, and includes an image capturing unit L1202/R1203 that captures the outside world and a display unit L1204/R1205 that displays an image. Also, an image processing unit 1206 that performs image processing on an image to be displayed, an I/F communication unit 1207 that transmits and receives images and control signals, a control unit 1208 that controls the HMD 1201, and a detection unit 1209 that detects attachment or detachment of the HMD 1201. , And other functional units (not shown).
画像処理装置1210は図1の画像処理装置1104に対応しており、PC(Personal Computer)やWS(Workstation)などHMD1201とは異なる外部の装置で構成されている。画像処理装置1210は、I/F通信ユニット1211、位置姿勢取得部1212、CG描画部1213、コンテンツDB1214、及びその他不図示の機能部を備えている。 The image processing apparatus 1210 corresponds to the image processing apparatus 1104 of FIG. 1 and is configured by an external device different from the HMD 1201 such as a PC (Personal Computer) and a WS (Workstation). The image processing apparatus 1210 includes an I/F communication unit 1211, a position/orientation acquisition unit 1212, a CG drawing unit 1213, a content DB 1214, and other functional units (not shown).
I/F通信ユニット1211は、画像や制御信号等を送受信する。位置姿勢取得部1212は、HMD1201から受信した撮像画像からHMD1201の位置姿勢を算出して取得する。CG描画部1213は、コンテンツDB1214に格納されているCG画像を、撮像部L1202、R1203で撮像した撮像画像に重畳する。コンテンツDB1214は、仮想画像のCGコンテンツを格納している。 The I/F communication unit 1211 sends and receives images, control signals, and the like. The position/orientation acquisition unit 1212 calculates and acquires the position/orientation of the HMD 1201 from the captured image received from the HMD 1201. The CG drawing unit 1213 superimposes the CG image stored in the content DB 1214 on the captured images captured by the image capturing units L1202 and R1203. The content DB 1214 stores CG content of virtual images.
本実施形態ではHMD1201から画像処理装置1210へ撮像画像を送り、画像処理装置1210で位置姿勢の算出を行い、仮想画像のCGを撮像画像に重畳しているが、本構成に限定されるものではない。例えば、位置姿勢取得部1212をHMD1201に搭載して、HMD1201の位置姿勢情報を画像処理装置1210へ送信し、画像処理装置1210からHMD1201へ仮想画像のCG画像のみを送り、HMD1201の中で撮像画像とCG画像とを重畳する構成にしてもよい。 In the present embodiment, the HMD 1201 sends the captured image to the image processing device 1210, the image processing device 1210 calculates the position and orientation, and superimposes the CG of the virtual image on the captured image. However, the present invention is not limited to this configuration. Absent. For example, the position and orientation acquisition unit 1212 is mounted on the HMD 1201, the position and orientation information of the HMD 1201 is transmitted to the image processing apparatus 1210, only the CG image of the virtual image is sent from the image processing apparatus 1210 to the HMD 1201, and the captured image in the HMD 1201. And a CG image may be superimposed.
上述の構成において、HMD1201の撮像部L1202、R1203で撮像した外界の画像はI/F通信ユニット1207を介して画像処理装置1210へ送られる。 In the above-described configuration, the image of the outside world captured by the image capturing units L1202 and R1203 of the HMD 1201 is sent to the image processing apparatus 1210 via the I/F communication unit 1207.
画像処理装置1210の位置姿勢取得部1212は、受信した撮像画像から、HMD1201の位置姿勢を算出する。CG描画部1213は位置姿勢取得部1212で算出したHMD1201の位置姿勢に基づいてCG画像を描画し、当該CG画像を撮像部L1202、R1203で撮像した撮像画像に重畳し、左眼用、右眼用それぞれの表示画像を生成する。その後、I/F通信ユニット1211を介してHMD1201へ生成した画像を送信する。 The position/orientation acquisition unit 1212 of the image processing device 1210 calculates the position/orientation of the HMD 1201 from the received captured image. The CG drawing unit 1213 draws a CG image based on the position and orientation of the HMD 1201 calculated by the position and orientation acquisition unit 1212, and superimposes the CG image on the imaged images captured by the image capturing units L1202 and R1203. Each display image is generated. After that, the generated image is transmitted to the HMD 1201 via the I/F communication unit 1211.
HMD1201は、画像処理装置1210から受信した左眼用、右眼用それぞれの画像を画像処理部1206へ送る。画像処理部1206で左眼用、右眼用それぞれの表示画像に対してグラデーション処理等の画像処理を行った後、処理された画像を表示部L1204、R1205により表示する。以上の構成により、HMD1201を装着することにより、画像処理装置1210で描画したCG画像と撮像画像との重畳画像を観察することができる。 The HMD 1201 sends each image for the left eye and the image for the right eye received from the image processing device 1210 to the image processing unit 1206. After the image processing unit 1206 performs image processing such as gradation processing on the display images for the left and right eyes, the processed images are displayed by the display units L1204 and R1205. With the above configuration, by mounting the HMD 1201, it is possible to observe the superimposed image of the CG image drawn by the image processing device 1210 and the captured image.
<画像処理部の構成>
図3は、HMD1201の画像処理部1206の詳細ブロック図であり、本実施形態における表示画像に対してグラデーション処理を行う機能ブロックについて特化して記載している。グラデーション補正部L1301、R1302は、I/F通信ユニット1207から受け取った左眼用、右眼用それぞれの表示画像に対して第1の表示モードまたは第2の表示モードによりグラデーション処理を行い、処理結果を表示部L1204(第1の表示部)、R1205(第2の表示部)へ送る。このようにして、表示部L1204と表示部R1205とには、それぞれ一部の領域で同一の画像が表示され、その領域が左右の眼で一部重複して使用者に観察されるように構成されている。
<Structure of image processing unit>
FIG. 3 is a detailed block diagram of the image processing unit 1206 of the HMD 1201 and specifically describes functional blocks that perform gradation processing on a display image in the present embodiment. The gradation correction units L1301 and R1302 perform gradation processing on the display images for the left eye and the right eye received from the I/F communication unit 1207 in the first display mode or the second display mode, and the processing result To the display unit L1204 (first display unit) and R1205 (second display unit). In this manner, the display unit L1204 and the display unit R1205 are configured such that the same image is displayed in a part of each region and the regions are partially overlapped by the left and right eyes and are observed by the user. Has been done.
グラデーション決定部1303は、グラデーション補正部L1301、R1302で行うグラデーション処理を、第1の表示モードまたは第2の表示モードのどちらで行うか決定する。データ保存部1304は、各表示モードでグラデーション処理を行った累積時間を保存する。タイマー部1305は、グラデーション処理を行った時間をカウントする。 The gradation determination unit 1303 determines in which of the first display mode and the second display mode the gradation processing performed by the gradation correction units L1301 and R1302 is performed. The data storage unit 1304 stores the cumulative time when gradation processing is performed in each display mode. The timer unit 1305 counts the time when the gradation process is performed.
<グラデーション処理>
図4(a)−図4(b)は、本実施形態に係る各表示モードによりグラデーション処理を行った領域の一例を示す図である。図4(a)は第1の表示モードにより、グラデーション処理を行った画像を表示部L1204、R1205に表示した図である。図4(b)は、第2の表示モードにより、グラデーション処理を行った画像を表示部L1204、R1205に表示した図である。
<Gradation processing>
FIG. 4A and FIG. 4B are diagrams showing an example of a region where gradation processing is performed in each display mode according to the present embodiment. FIG. 4A is a diagram in which an image subjected to gradation processing is displayed on the display units L1204 and R1205 in the first display mode. FIG. 4B is a diagram in which an image subjected to gradation processing is displayed on the display units L1204 and R1205 in the second display mode.
図4(a)のように第1の表示モードにより表示した場合でも、図4(b)のように第2の表示モードにより表示した場合でも、HMD使用者が両眼で表示部L1204、R1205を見ると黒部が目立たない状態で見ることができる。 Whether the display is performed in the first display mode as shown in FIG. 4A or the second display mode as shown in FIG. 4B, the HMD user can display the display portions L1204 and R1205 with both eyes. When you see, you can see Kurobe in a non-conspicuous state.
本実施形態において、第1の表示モードでも第2の表示モードでも、左右両眼で見る画像において、グラデーション処理される対象領域に変わりはない。ただし、グラデーション処理される対象領域のうち、右側の領域については、第1の表示モードでは、左眼用の表示部L1204の画像に対してグラデーション処理を行う。一方、第2の表示モードでは、右眼用の表示部R1204の画像に対してグラデーション処理を行う。 In the present embodiment, in both the first display mode and the second display mode, there is no change in the target region to be gradation-processed in the images viewed by the left and right eyes. However, in the target area to be gradation-processed, the gradation processing is performed on the image on the display unit L1204 for the left eye in the first display mode in the right-side area. On the other hand, in the second display mode, gradation processing is performed on the image on the display unit R1204 for the right eye.
また、グラデーション処理される対象領域のうち、左側の領域については、第1の表示モードで、右眼用の表示部R1204の画像に対してグラデーション処理を行う。一方、第2の表示モードでは、左眼用の表示部L1204の画像に対してグラデーション処理を行う。 Further, the gradation processing is performed on the image on the display unit R1204 for the right eye in the first display mode for the area on the left side of the target area to be gradation-processed. On the other hand, in the second display mode, gradation processing is performed on the image on the display unit L1204 for the left eye.
すなわち、第1の表示モードで左眼用の表示部L1204の画像に対してグラデーション処理される対象領域と、第2の表示モードで右眼用の表示部R1204の画像に対してグラデーション処理される対象領域とは、左右両眼で見る画像において同じ領域である。また、第1の表示モードで右眼用の表示部R1204の画像に対してグラデーション処理される対象領域と、第2の表示モードで左眼用の表示部L1204の画像に対してグラデーション処理される対象領域とは、左右両眼で見る画像において同じ領域である。 That is, the target area that is subjected to gradation processing on the image of the display section L1204 for the left eye in the first display mode, and the gradation processing for the image of the display section R1204 for the right eye in the second display mode. The target area is the same area in the images viewed by both eyes. In addition, a target region that is subjected to gradation processing for the image of the display unit R1204 for the right eye in the first display mode, and a gradation process for the image of the display unit L1204 for the left eye in the second display mode. The target area is the same area in the images viewed by both eyes.
以上のように、本実施形態は、左眼用の表示部L1204、右眼用の表示部R1204のそれぞれにおいて、第1の表示モードと第2の表示モードとで、グラデーション処理の対象領域を異ならせるものである。これにより常に同じ領域に対してグラデーション処理を行った画像を表示するようなことを行わないため、表示部L1204、R1205の焼きつきを防止あるいは低減することが可能となる。なお、ここでは、第1の表示モードと第2の表示モードの2つを例示しているが、その他の表示モードを含む複数の表示モードによりグラデーション処理を行えるようにしてもよい。 As described above, according to the present embodiment, in each of the display unit L1204 for the left eye and the display unit R1204 for the right eye, if the target region for gradation processing is different between the first display mode and the second display mode. It is something that can be made. As a result, it is possible to prevent or reduce the burn-in of the display units L1204 and R1205 because the image in which the gradation process is performed on the same area is not always displayed. Although the first display mode and the second display mode are illustrated here as an example, gradation processing may be performed in a plurality of display modes including other display modes.
次に、図5及び図6を参照しながら、表示モードを切り替えて、各表示部でグラデーション処理の領域を変更する方法について説明を行う。まず、図5は図4(a)及び図4(b)で示したようなグラデーション処理を行う領域を変更するタイミングの例を記載した表である。項番1は使用者がHMD1201を装着する時を示しており、HMD1201に搭載されている検知部1209によって使用者へのHMD1201の装着を検知した時のタイミングである。項番2は表示部L1204、R1205がOFF→ONに変わったタイミングである。 Next, a method for switching the display mode and changing the gradation processing area in each display unit will be described with reference to FIGS. 5 and 6. First, FIG. 5 is a table showing an example of the timing of changing the region in which the gradation processing as shown in FIGS. 4A and 4B is changed. Item number 1 indicates the time when the user wears the HMD 1201 and is the timing when the detection unit 1209 mounted on the HMD 1201 detects the wearing of the HMD 1201 on the user. Item number 2 is the timing when the display units L1204 and R1205 change from OFF to ON.
変更するタイミングは図5の表に記載の全てのタイミングで変更するようにしてもよいし、いずれか1つのタイミングであってもよい。図5に記載したタイミング例は、何れも使用者がHMD1201を使用中にグラデーション処理の領域を切り替えているのではなく、使用開始前、または表示部L1204、R1205に画像を表示する処理を開始する時にグラデーション処理の領域を切り替えることを示している。HMD1201を使用中にグラデーション処理の領域を切り替るようにしてもよいが、使用中に違和感が発生しないよう、本実施形態のようにHMD1201の使用中以外のタイミングで切り替えることが好適である。なお、グラデーション処理の領域を切り替るタイミングとしては、図5に記載のタイミング以外のタイミングで切り替えを行ってもよい。 The timing to change may be all the timings shown in the table of FIG. 5, or may be any one timing. In each of the timing examples shown in FIG. 5, the user does not switch the gradation processing area while using the HMD 1201, but starts the processing of displaying an image before use or on the display units L1204 and R1205. It sometimes indicates that the gradation processing area is switched. The gradation processing area may be switched while the HMD 1201 is in use, but it is preferable to switch at a timing other than the time when the HMD 1201 is not in use as in the present embodiment so as not to cause discomfort during use. The timing of switching the gradation processing area may be switched at a timing other than the timing shown in FIG.
図6は、データ保存部1304に保存されているデータの例を示しており、各表示モードで画像を表示した時間を格納している。なお、図6は、図4(a)及び図4(b)に記載の第1の表示モードと第2の表示モードの例を記載している。図6の例によると、図4(a)の第1の表示モードで画像を表示した時間は10分、図4(b)の第2の表示モードで画像を表示した時間は20分である。 FIG. 6 shows an example of data stored in the data storage unit 1304, which stores the time when an image is displayed in each display mode. Note that FIG. 6 illustrates an example of the first display mode and the second display mode illustrated in FIGS. 4A and 4B. According to the example of FIG. 6, the time for displaying the image in the first display mode of FIG. 4A is 10 minutes, and the time for displaying the image in the second display mode of FIG. 4B is 20 minutes. ..
図5で説明したタイミングで表示モードを変更する時は、まず図6のテーブルを参照する。次に、各表示モードで表示される時間が同じ表示時間となるように、次の表示モードを決定する。図6の例では、図4(a)の第1の表示モードの表示時間の方が図4(b)の第2の表示モードの表示時間よりも短いため、次の表示モードを図4(a)の第1の表示モードに決定する。 When changing the display mode at the timing described with reference to FIG. 5, the table of FIG. 6 is first referenced. Next, the next display mode is determined so that the time displayed in each display mode becomes the same display time. In the example of FIG. 6, the display time of the first display mode of FIG. 4A is shorter than the display time of the second display mode of FIG. The first display mode of a) is determined.
<処理>
図7は、本実施形態における画像処理部1206が表示モードを変更する時の処理手順を示すフローチャートである。本実施形態では、表示モード変更のタイミングとしては図5で説明したタイミングを用いる。
<Process>
FIG. 7 is a flowchart showing a processing procedure when the image processing unit 1206 according to the present embodiment changes the display mode. In the present embodiment, the timing described in FIG. 5 is used as the timing for changing the display mode.
S1701において、グラデーション決定部1303は、データ保存部1304から、グラデーション処理を各表示モードで行った複数の表示時間を表示時間情報として取得する。 In step S1701, the gradation determination unit 1303 acquires, from the data storage unit 1304, a plurality of display times in which the gradation process is performed in each display mode as display time information.
S1702において、グラデーション決定部1303は、S1701で取得した複数の表示時間情報に基づいて、短い方の表示時間に対応する表示モードを決定し、決定結果をグラデーション補正部L1301、R1302へ通知する。S1703において、グラデーション補正部L1301、R1302は、グラデーション決定部1303により決定された表示モードに基づいて表示画像に対してグラデーション処理を行う。 In step S1702, the gradation determination unit 1303 determines the display mode corresponding to the shorter display time based on the plurality of pieces of display time information acquired in step S1701, and notifies the gradation correction units L1301 and R1302 of the determination result. In step S1703, the gradation correction units L1301 and R1302 perform gradation processing on the display image based on the display mode determined by the gradation determination unit 1303.
S1704において、グラデーション補正部L1301、R1302は、タイマー部1305に対してタイマーの開始を指示しグラデーション処理を行った画像の表示時間の計測を開始する。S1705において、グラデーション補正部L1301、R1302は、表示部L1204、R1205に対して表示する画像を出力し、表示部L1204、R1205により画像を表示する。 In step S1704, the gradation correction units L1301 and R1302 instruct the timer unit 1305 to start the timer and start measuring the display time of the image on which the gradation process has been performed. In step S1705, the gradation correction units L1301 and R1302 output images to be displayed on the display units L1204 and R1205, and the images are displayed on the display units L1204 and R1205.
図8は、本実施形態に係る表示部L1204、R1205が画像の表示を終了する時の処理手順を示すフローチャートである。終了タイミングは図5の逆のケースになる。例えば、使用者がMR体験を終え、HMD1201を取り外す時である。HMD1201の取り外しは検知部1209により検知する。HMD1201を取り外した時は特に表示部L1204、R1205に画像を表示しておく必要はないため、表示部L1204、R1205の表示を終了(消灯)する。また、HMD1201の電源をOFFする時も表示部L1204、R1205の表示を終了する。 FIG. 8 is a flowchart showing a processing procedure when the display units L1204, R1205 according to the present embodiment finish displaying an image. The end timing is the opposite case of FIG. For example, when the user finishes the MR experience and removes the HMD 1201. The removal of the HMD 1201 is detected by the detection unit 1209. When the HMD 1201 is detached, it is not necessary to display an image on the display units L1204 and R1205, so the display of the display units L1204 and R1205 is terminated (turned off). Also, when the power of the HMD 1201 is turned off, the display of the display units L1204 and R1205 is finished.
S1801において、グラデーション補正部L1301、R1302は、タイマー部1305から表示時間の情報を取得すると共に、タイマーを停止する。その後、グラデーション補正部L1301、R1302は、グラデーション決定部1303に対して取得した時間を通知する。 In step S1801, the gradation correction units L1301 and R1302 acquire display time information from the timer unit 1305 and stop the timer. After that, the gradation correction units L1301 and R1302 notify the gradation determination unit 1303 of the acquired time.
S1802において、グラデーション決定部1303は、データ保存部1304から今回実施した表示モードに対応する表示時間の情報を取得し、S1801で取得した時間を加算する。その後、グラデーション決定部1303は、加算した表示時間の情報をデータ保存部1304へ出力する。 In step S1802, the gradation determination unit 1303 acquires information on the display time corresponding to the display mode executed this time from the data storage unit 1304, and adds the time acquired in step S1801. After that, the gradation determination unit 1303 outputs the added display time information to the data storage unit 1304.
S1803において、データ保存部1304は、S1802で受け取った情報に基づいて図6で説明したような管理テーブルを更新する。そして、S1804において、表示部L1204、R1205は、画像表示を終了する。 In step S1803, the data storage unit 1304 updates the management table as described in FIG. 6 based on the information received in step S1802. Then, in step S1804, the display units L1204 and R1205 end the image display.
以上説明したように、本実施形態は、複数の表示部それぞれにおいて、グラデーション処理の対象領域を表示モードによって異ならせるものである。そして、所定のタイミングにおいて、各表示モードにおける表示時間の累計が出来るだけ同じになるように、表示モードを切り替える。これにより、本実施形態では、表示部の焼きつきを防止あるいは低減することが可能となる。 As described above, in the present embodiment, in each of the plurality of display units, the target region of gradation processing is different depending on the display mode. Then, at a predetermined timing, the display modes are switched so that the accumulated display time in each display mode is the same as much as possible. As a result, in the present embodiment, it is possible to prevent or reduce burn-in of the display unit.
(実施形態2)
実施形態1では、各表示モードの時間が同じになるように、表示モードを切り替える例を説明した。これに対して、本実施形態では、各表示モードの表示時間に加えて、表示部に画像を表示した際の輝度情報に基づいて表示モードを切り替える場合の処理について説明を行う。
(Embodiment 2)
In the first embodiment, an example has been described in which the display modes are switched so that the time in each display mode is the same. On the other hand, in the present embodiment, a process of switching the display mode based on the brightness information when the image is displayed on the display unit in addition to the display time of each display mode will be described.
図9は、本実施形態に係る画像処理部1206の構成例である。図3の構成と比較すると、輝度算出部L1901、R1902が追加されている点が異なる。輝度算出部L1901、R1902は、グラデーション補正部L1301、R1302から受け取った表示画像の輝度平均値を随時算出して、表示部L1204、R1205での画像表示を終了する時に、この輝度平均値をグラデーション決定部1303に送る。 FIG. 9 is a configuration example of the image processing unit 1206 according to this embodiment. Compared with the configuration of FIG. 3, the difference is that luminance calculation units L1901 and R1902 are added. The brightness calculation units L1901 and R1902 calculate the brightness average value of the display image received from the gradation correction units L1301 and R1302 at any time, and when the image display on the display units L1204 and R1205 is finished, the brightness calculation unit determines the gradation. Send to section 1303.
ここで、図10(a)及び図10(b)は、表示画像の中で輝度平均値を算出する領域に関して説明した図である。図10(a)は、グラデーション処理を行う周辺領域に対してのみ輝度平均値を算出する例である。一方、図10(b)は、画像全体に対して輝度平均値を算出する例である。図10(a)及び図10(b)のどちらの例を用いてもよいし、グラデーション処理を行う対象領域の一部を含んでいれば、これら以外の方法でもよい。 Here, FIG. 10A and FIG. 10B are diagrams illustrating the area in the display image in which the average brightness value is calculated. FIG. 10A is an example in which the average brightness value is calculated only for the peripheral region in which the gradation process is performed. On the other hand, FIG. 10B is an example of calculating the average luminance value for the entire image. Either of the examples of FIG. 10A and FIG. 10B may be used, and any other method may be used as long as it includes a part of the target region to be subjected to gradation processing.
グラデーション決定部1303は、受け取った輝度平均値に対して重み付け値の決定を行い、表示した時間に対して重み付け値を算出してデータ保存部1304に渡す。ここで、図11は、輝度平均値を重み付けするためのテーブルの例である。このテーブルの場合、重み付け値は輝度平均値が0以上50未満の時は1とし、200以上255以下の時は1.4としている。図11に示すように、50毎に0.1ずつ重み付け値を変化させている。また、図12は、本実施形態に係るデータ保存部1304に保存するテーブルの例である。実施形態1の図6と比べると保存する値は表示時間ではなく、時間と重み付け値とを乗算した累積の値となる。 The gradation determination unit 1303 determines a weighting value for the received brightness average value, calculates a weighting value for the displayed time, and passes it to the data storage unit 1304. Here, FIG. 11 is an example of a table for weighting the luminance average value. In the case of this table, the weighting value is 1 when the average luminance value is 0 or more and less than 50, and 1.4 when the average luminance value is 200 or more and 255 or less. As shown in FIG. 11, the weighting value is changed by 0.1 for each 50. FIG. 12 is an example of a table stored in the data storage unit 1304 according to this embodiment. Compared to FIG. 6 of the first embodiment, the value to be stored is not the display time but the cumulative value obtained by multiplying the time and the weighted value.
続いて、図13は、本実施形態に係る表示モードを変更する処理手順を示すフローチャートである。S2301において、グラデーション決定部1303は、データ保存部1304から、各グラデーションを表示した表示時間×重み付け値の情報を取得する。S2302において、グラデーション決定部1303は、S2301で取得した重み付け表示時間の情報に基づいて、小さい方の表示モードを決定し、決定結果をグラデーション補正部L1301、R1302へ通知する。その他の処理は図7の処理と同様であるため説明を省略する。 Subsequently, FIG. 13 is a flowchart showing a processing procedure for changing the display mode according to the present embodiment. In step S2301, the gradation determination unit 1303 acquires information of display time for displaying each gradation×weighting value from the data storage unit 1304. In step S2302, the gradation determination unit 1303 determines the smaller display mode based on the weighted display time information acquired in step S2301, and notifies the gradation correction units L1301 and R1302 of the determination result. The other processes are the same as the processes in FIG.
また、図14は、本実施形態に係る表示部L1204、R1205が画像の表示を終了する処理手順を示すフローチャートである。S2401において、グラデーション決定部1303は、輝度算出部L1901、R1902で算出した輝度平均値を取得する。S2402において、グラデーション決定部1303は、S2401で取得した輝度平均値に対応する重み付け値と、S1801で取得した表示時間とに基づいて、重み付け表示時間の算出を行う。 Further, FIG. 14 is a flowchart showing a processing procedure in which the display units L1204 and R1205 according to the present embodiment finish displaying an image. In step S2401, the gradation determination unit 1303 acquires the average brightness value calculated by the brightness calculation units L1901 and R1902. In S2402, the gradation determination unit 1303 calculates the weighted display time based on the weighted value corresponding to the luminance average value acquired in S2401 and the display time acquired in S1801.
S2403において、グラデーション決定部1303は、データ保存部1304に保存されている情報を取得し、該当する表示モードに対応する表示時間に対して、S2402で算出した重み付け表示時間を加算する。その他の処理は図8の処理と同様であるため説明を省略する。 In step S2403, the gradation determination unit 1303 acquires the information stored in the data storage unit 1304, and adds the weighted display time calculated in step S2402 to the display time corresponding to the corresponding display mode. The other processes are similar to those of FIG.
以上説明したように、本実施形態では、表示モードを決定する際に画面の輝度値も考慮するため、より表示部の焼きつきを防止又は低減することが可能となる。 As described above, in the present embodiment, since the brightness value of the screen is also taken into consideration when determining the display mode, it is possible to further prevent or reduce burn-in of the display unit.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1201:HMD、L1202,R1203:撮像部、L1204,R1205:表示部、1206:画像処理部、1207:I/F通信ユニット、1208:制御部、1209:検知部、1210:画像処理装置、1211:I/F通信ユニット、L1301,R1302:グラデーション補正部、1303:グラデーション決定部、1304:データ保存部、1305:タイマー部、L1901,R1902:輝度算出部 1201: HMD, L1202, R1203: Imaging unit, L1204, R1205: Display unit, 1206: Image processing unit, 1207: I/F communication unit, 1208: Control unit, 1209: Detection unit, 1210: Image processing device, 1211: I/F communication unit, L1301, R1302: gradation correction unit, 1303: gradation determination unit, 1304: data storage unit, 1305: timer unit, L1901, R1902: brightness calculation unit
Claims (10)
前記第1の表示部および第2の表示部が前記第1の表示モードによりグラデーション処理された前記第1の画像および第2の画像を表示した第1の表示時間情報と、前記第1の表示部および第2の表示部が前記第2の表示モードによりグラデーション処理された前記第1の画像および第2の画像を表示した第2の表示時間情報とを含む、複数の表示時間情報を取得する取得手段と、
前記複数の表示時間情報のうち、最も短い表示時間に対応する表示モードを、前記第1の画像及び第2の画像を表示する表示モードとして決定する決定手段と、
を備えることを特徴とする情報処理装置。 When the user observes the first image displayed on the first display section and the second image displayed on the second display section partially overlapping each other, the first image and the second image are displayed. Processing means for performing gradation processing on the first image and the second image by switching a plurality of display modes including a first display mode and a second display mode in which target areas for gradation processing are different for each image. When,
First display time information indicating the first image and the second image that have been gradation-processed in the first display mode by the first display unit and the second display unit, and the first display. Section and a second display section obtain a plurality of display time information including the first display image and the second display time information displaying the second image subjected to gradation processing in the second display mode. Acquisition means,
Among the plurality of display time information, and determining means for determining a display mode corresponding to the shortest display time, a display mode for displaying the first image and the second image,
An information processing apparatus comprising:
前記計測手段により計測された表示時間を、グラデーション処理が実行された表示モードに対応する表示時間に加算して保存する保存手段と、
をさらに備えることを特徴とする請求項1に記載の情報処理装置。 Measuring means for measuring a display time during which the first image and the second image subjected to gradation processing by the processing means are displayed on the first display part and the second display part;
Storage means for adding and storing the display time measured by the measuring means to the display time corresponding to the display mode in which the gradation process has been executed;
The information processing apparatus according to claim 1, further comprising:
使用者への前記頭部装着型表示装置の装着を検知する検知手段をさらに備え、
前記取得手段は、前記装着が検知された場合に、前記複数の表示時間情報の取得を開始することを特徴とする請求項1又は2に記載の情報処理装置。 The information processing device is a head-mounted display device,
Further comprising a detection means for detecting attachment of the head-mounted display device to a user,
The acquisition unit, when the mounting has been detected, the information processing apparatus according to claim 1 or 2, characterized in that starting the acquisition of the plurality of display time information.
使用者からの前記頭部装着型表示装置の取り外しを検知する検知手段をさらに備え、
前記保存手段は、前記取り外しが検知された場合に、前記計測手段により計測された表示時間を保存することを特徴とする請求項2に記載の情報処理装置。 The information processing device is a head-mounted display device,
Further comprising detection means for detecting removal of the head-mounted display device from a user,
The information processing apparatus according to claim 2 , wherein the storage unit stores the display time measured by the measurement unit when the removal is detected.
前記第1の表示モードにより前記第2の画像に対してグラデーション処理される対象領域と、前記第2の表示モードにより前記第1の画像に対してグラデーション処理される対象領域とは、前記使用者により観察される画像において同一の領域であることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。 The target area that is gradation processed for the first image in the first display mode and the target area that is gradation processed for the second image in the second display mode are the user. The same area in the image observed by
The target area that is gradation-processed for the second image in the first display mode and the target area that is gradation-processed for the first image in the second display mode are the user The information processing apparatus according to any one of claims 1 to 7 , wherein the images are observed in the same area.
処理手段が、第1の表示部に表示する第1の画像と第2の表示部に表示する第2の画像とを互いに一部重複させて使用者に観察させる際に、前記第1の画像および第2の画像それぞれにおいてグラデーション処理の対象領域が異なる第1の表示モードおよび第2の表示モードを含む複数の表示モードの切り替えにより、前記第1の画像および第2の画像に対してグラデーション処理を行う処理工程と、
取得手段が、前記第1の表示部および第2の表示部が前記第1の表示モードによりグラデーション処理された前記第1の画像および第2の画像を表示した第1の表示時間情報と、前記第1の表示部および第2の表示部が前記第2の表示モードによりグラデーション処理された前記第1の画像および第2の画像を表示した第2の表示時間情報とを含む、複数の表示時間情報を取得する取得工程と、
決定手段が、前記複数の表示時間情報のうち、最も短い表示時間に対応する表示モードを、前記第1の画像及び第2の画像を表示する表示モードとして決定する決定工程と、
を有することを特徴とする情報処理装置の制御方法。 A method of controlling an information processing device, comprising:
When the processing means causes the user to observe the first image displayed on the first display part and the second image displayed on the second display part partially overlapping each other, the first image The gradation processing is performed on the first image and the second image by switching a plurality of display modes including a first display mode and a second display mode in which target areas for gradation processing are different in each of the first and second images. A processing step for performing
Acquisition means displays first display time information indicating the first image and the second image subjected to gradation processing by the first display unit and the second display unit in the first display mode; A plurality of display times including a first display section and a second display section, and second display time information displaying the first image and the second image that have been gradation-processed in the second display mode. An acquisition process for acquiring information,
Determining means, among the plurality of display time information, a determination step of determining a display mode corresponding to the shortest display time, a display mode for displaying the first image and the second image,
A method for controlling an information processing device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016039199A JP6725999B2 (en) | 2016-03-01 | 2016-03-01 | Information processing apparatus, information processing apparatus control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016039199A JP6725999B2 (en) | 2016-03-01 | 2016-03-01 | Information processing apparatus, information processing apparatus control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017156513A JP2017156513A (en) | 2017-09-07 |
JP6725999B2 true JP6725999B2 (en) | 2020-07-22 |
Family
ID=59809656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016039199A Expired - Fee Related JP6725999B2 (en) | 2016-03-01 | 2016-03-01 | Information processing apparatus, information processing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6725999B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6639563B2 (en) * | 2018-05-31 | 2020-02-05 | 株式会社コロプラ | Program, computer, and method for providing a virtual experience to a user via an image display device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2883265B2 (en) * | 1993-09-24 | 1999-04-19 | キヤノン株式会社 | Image processing device |
JPH07302063A (en) * | 1994-05-02 | 1995-11-14 | Canon Inc | Display device |
JP3849574B2 (en) * | 2002-05-20 | 2006-11-22 | 日本ビクター株式会社 | Head mounted display device |
JP5862112B2 (en) * | 2011-08-24 | 2016-02-16 | ソニー株式会社 | Head mounted display and display control method |
JP6428024B2 (en) * | 2014-07-31 | 2018-11-28 | セイコーエプソン株式会社 | Display device, display device control method, and program |
-
2016
- 2016-03-01 JP JP2016039199A patent/JP6725999B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017156513A (en) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12131718B2 (en) | Image processing device and image processing method | |
EP3379525B1 (en) | Image processing device and image generation method | |
JP6179927B2 (en) | Remote action guidance system and processing method thereof | |
WO2019171522A1 (en) | Electronic device, head mounted display, gaze point detector, and pixel data readout method | |
JP6525740B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, AND PROGRAM | |
JP5949501B2 (en) | Work assistance system and program | |
WO2015171675A1 (en) | Method and system for mediated reality welding | |
WO2017022291A1 (en) | Information processing device | |
US7940295B2 (en) | Image display apparatus and control method thereof | |
KR100911066B1 (en) | Image display system, image display method and recording medium | |
US11003408B2 (en) | Image generating apparatus and image generating method | |
JP5464130B2 (en) | Information display system, apparatus, method and program | |
US20200312032A1 (en) | Image generating apparatus and image generation method | |
JP2011010126A (en) | Image processing apparatus, and image processing method | |
JP6904684B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6862210B2 (en) | Image processing equipment, image processing system, image processing method and program | |
JP2006202181A (en) | Image output method and device | |
JP6725999B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
WO2022004130A1 (en) | Information processing device, information processing method, and storage medium | |
JP6887824B2 (en) | Image processing equipment, image processing methods and programs | |
JP6932526B2 (en) | Image display device, image display method and program | |
JP7203157B2 (en) | Video processing device and program | |
JP2018120173A (en) | Image display device, image display method and program | |
JP2021096772A (en) | Image processing system, image processing method, system | |
JP7520507B2 (en) | Image processing device and method for controlling image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200626 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6725999 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |