[go: up one dir, main page]

JP7329795B2 - Image supply device, image supply method, display system and program - Google Patents

Image supply device, image supply method, display system and program Download PDF

Info

Publication number
JP7329795B2
JP7329795B2 JP2019190918A JP2019190918A JP7329795B2 JP 7329795 B2 JP7329795 B2 JP 7329795B2 JP 2019190918 A JP2019190918 A JP 2019190918A JP 2019190918 A JP2019190918 A JP 2019190918A JP 7329795 B2 JP7329795 B2 JP 7329795B2
Authority
JP
Japan
Prior art keywords
parallax
image
images
fusion limit
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019190918A
Other languages
Japanese (ja)
Other versions
JP2021068944A (en
Inventor
誉宗 巻口
英明 高田
哲雄 小野
大介 坂本
健悟 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Nippon Telegraph and Telephone Corp
NTT Inc
Original Assignee
Hokkaido University NUC
Nippon Telegraph and Telephone Corp
NTT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Nippon Telegraph and Telephone Corp, NTT Inc filed Critical Hokkaido University NUC
Priority to JP2019190918A priority Critical patent/JP7329795B2/en
Publication of JP2021068944A publication Critical patent/JP2021068944A/en
Application granted granted Critical
Publication of JP7329795B2 publication Critical patent/JP7329795B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Projection Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、映像供給装置、映像供給方法、表示システムおよびプログラムに関する。 The present invention relates to an image supply device, an image supply method, a display system and a program.

水平方向に視差を持つ複数の視点映像を複数のプロジェクタによって投影し、観察者の視点位置(両眼位置)に応じた映像を視認させることで、運動視差を伴う3D映像を裸眼で見ることができる技術が提案されている。 By projecting images from multiple viewpoints with horizontal parallax using multiple projectors and viewing images according to the viewer's viewpoint position (both eye position), 3D images with motion parallax can be viewed with the naked eye. A possible technique is proposed.

非特許文献1には、リニアブレンディングという知覚の視覚メカニズムを活用することで、疎なプロジェクタ間隔(少ないプロジェクタ数)で3D映像を投影する技術が開示されている。 Non-Patent Document 1 discloses a technique of projecting a 3D image with sparse projector intervals (small number of projectors) by utilizing a visual mechanism of perception called linear blending.

M. Makiguchi, T. Kawakami, M. Sasai, and H. Takada, “Smooth Motion Parallax Glassless 3D Screen System Using Linear Blending of Viewing Zones and Spatially Imaged Iris Plane”, SID, Vol. 48, Issue 1, pp. 903-906M. Makiguchi, T. Kawakami, M. Sasai, and H. Takada, “Smooth Motion Parallax Glassless 3D Screen System Using Linear Blending of Viewing Zones and Spatially Imaged Iris Plane”, SID, Vol. 48, Issue 1, pp. 903 -906

リニアブレンディングでは、隣り合う視点映像の視差を融合限界以下にしなければならないという制約がある。隣り合う視点映像内のオブジェクトの視差間隔が融合限界を超えると、オブジェクトが分離して二重像が知覚されてしまい、立体映像の品質が低下してしまう。 In linear blending, there is a constraint that the parallax between adjacent viewpoint images must be less than the fusion limit. When the parallax interval between objects in adjacent viewpoint images exceeds the fusion limit, the objects are separated and a double image is perceived, degrading the quality of the stereoscopic image.

リニアブレンディングを利用して立体映像を投影する際、観察者が想定距離よりもスクリーンに近づくと左右の眼のそれぞれで観察される映像内のオブジェクトの視差間隔が広がり、視差間隔が融合限界を超えたオブジェクトは二重像が知覚されるという問題があった。 When projecting a 3D image using linear blending, if the viewer gets closer to the screen than the expected distance, the parallax interval between the objects in the image observed by the left and right eyes widens, and the parallax interval exceeds the fusion limit. There is a problem that a double image is perceived for the object.

本発明は、上記に鑑みてなされたものであり、立体映像の品質低下を抑制することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to suppress deterioration in the quality of stereoscopic video.

本発明の一態様の表示システムは、リニアブレンディングを利用して立体映像を表示する表示システムであって、反射面を上方に向けて配置されたスクリーンと、前記スクリーンを囲んで配置され、前記スクリーンに視差を持つ映像を投影する複数のプロジェクタと、仮想空間内の被写体を複数の仮想カメラで異なる方向から撮影し、前記視差を持つ映像を前記複数のプロジェクタのそれぞれに供給する投影部と、観察者の視点位置および視距離を算出する視点算出部と、前記視点位置に基づいて前記観察者の視認する1つ以上の前記視差を持つ映像を特定し、前記視距離に基づいて前記視差を持つ映像内の被写体の視差間隔が融合限界を超えるか否か判定し、融合限界を超える場合は、前記被写体の視差間隔が融合限界を超えないように前記投影部を制御する制御部と、を有する。 A display system according to one embodiment of the present invention is a display system that displays stereoscopic images using linear blending, comprising a screen arranged with a reflective surface facing upward; a plurality of projectors for projecting images having parallax in a virtual space; a projection unit that photographs an object in a virtual space from different directions with a plurality of virtual cameras and supplies the images having the parallax to each of the plurality of projectors; a viewpoint calculation unit for calculating a viewpoint position and a viewing distance of a person; specifying one or more images having the parallax visually recognized by the observer based on the viewpoint position; and having the parallax based on the viewing distance. a control unit that determines whether or not a parallax interval of an object in an image exceeds a fusion limit, and controls the projection unit so that the parallax interval of the object does not exceed the fusion limit if the fusion limit is exceeded. .

本発明によれば、立体映像の品質低下を抑制することができる。 According to the present invention, it is possible to suppress deterioration in the quality of stereoscopic video.

図1は、本実施形態の表示システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of a display system according to this embodiment. 図2は、リニアブレンディングを説明するための図である。FIG. 2 is a diagram for explaining linear blending. 図3は、視点位置に応じた輝度分布を示す図である。FIG. 3 is a diagram showing a luminance distribution according to viewpoint positions. 図4は、リニアブレンディングを説明するための図である。FIG. 4 is a diagram for explaining linear blending. 図5は、方位角を示す図である。FIG. 5 is a diagram showing azimuth angles. 図6は、視距離を示す図である。FIG. 6 is a diagram showing viewing distances. 図7は、スクリーンまでの距離、奥行き距離、視点間隔、および視差間隔の関係を説明するための図である。FIG. 7 is a diagram for explaining the relationship between the distance to the screen, the depth distance, the viewpoint interval, and the parallax interval. 図8は、融合限界の奥行き距離および飛び出し距離を説明するための図である。FIG. 8 is a diagram for explaining the depth distance and projection distance of the fusion limit. 図9は、本実施形態の表示システムの処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing the processing flow of the display system of this embodiment. 図10は、表示システムのハードウェア構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a hardware configuration of a display system;

以下、本発明の実施形態について図面を用いて説明する。 An embodiment of the present invention will be described below with reference to the drawings.

図1に示す本実施形態の表示システムは、複数のプロジェクタ20から視差を持つ映像を円形テーブル状のスクリーン30に投影して立体画像を表示する。視差を持つ映像とは、被写体を異なる方向(視点)から撮影した映像である。本実施形態では、空間結合アイリス面が互いに重なり合う際に生じる視覚的な効果を利用した光学リニアブレンディング技術を用いて立体画像を表示する。 The display system of this embodiment shown in FIG. 1 projects images having parallax from a plurality of projectors 20 onto a circular table-like screen 30 to display a stereoscopic image. A video with parallax is a video of an object shot from different directions (viewpoints). In this embodiment, stereoscopic images are displayed using an optical linear blending technique that takes advantage of the visual effect that occurs when spatially coupled iris planes overlap each other.

複数のプロジェクタ20は、スクリーン30を囲むように円形に並べられて配置される。例えば、72台のプロジェクタ20が天井から吊り下げられて5度間隔で円形に配置される。 The plurality of projectors 20 are arranged in a circle so as to surround the screen 30 . For example, 72 projectors 20 are suspended from the ceiling and arranged in a circle at intervals of 5 degrees.

プロジェクタ20のそれぞれには、投影部13が接続される。投影部13の数とプロジェクタ20の数は同数であり、1台のプロジェクタ20に1つの投影部13が接続される。複数の投影部13は、互いに視差を持つ複数の映像をプロジェクタ20のそれぞれに供給する。プロジェクタ20のそれぞれは、投影部13から供給された映像をスクリーン30に投影する。プロジェクタ20それぞれからの映像はスクリーン30の全面に投影される。投影部13のそれぞれは、仮想空間内の被写体を異なる方向から仮想カメラで撮影した映像をレンダリングし、レンダリングした映像をプロジェクタ20に供給する。 A projection unit 13 is connected to each of the projectors 20 . The number of projection units 13 and the number of projectors 20 are the same, and one projection unit 13 is connected to one projector 20 . A plurality of projection units 13 supply a plurality of images having parallax to each of the projectors 20 . Each of the projectors 20 projects the image supplied from the projection unit 13 onto the screen 30 . Images from each of the projectors 20 are projected on the entire surface of the screen 30 . Each of the projection units 13 renders images of an object in the virtual space photographed by a virtual camera from different directions, and supplies the rendered images to the projector 20 .

スクリーン30は、反射面(投影面)を天井方向に向けたテーブル状の反射型のスクリーンである。観察者100は、スクリーン30の周囲360度の方向からテーブル上の物体を見るようにスクリーン30に投影された映像を観察できる。観察者100の位置に応じて観察される映像の視点が変化するので、観察者100は、スクリーン30に投影された映像を360度の方向から観察できる。 The screen 30 is a table-shaped reflective screen with a reflective surface (projection surface) directed toward the ceiling. The observer 100 can observe the image projected on the screen 30 as if he were looking at an object on the table from 360 degrees around the screen 30 . Since the viewpoint of the observed image changes according to the position of the observer 100, the observer 100 can observe the image projected on the screen 30 from 360-degree directions.

スクリーン30は、投影された映像を反射し、スクリーン30から所定距離離れた位置に空間結合アイリス面を形成する。空間結像アイリス面とは、輝度が調整された結合面である。空間結像アイリス面では、空間結合アイリス面の中心から水平方向に離れるに従って徐々にリニアに近いかたちで輝度が低下する。スクリーン30は、非特許文献1に記載の空間結像アイリス面型スクリーンを用いることができる。 The screen 30 reflects the projected image to form a spatially combining iris plane at a predetermined distance from the screen 30 . A spatial imaging iris plane is a combined plane with adjusted brightness. In the spatial imaging iris plane, the brightness gradually decreases in a nearly linear manner as the distance from the center of the spatial coupling iris plane increases in the horizontal direction. The screen 30 can use the spatial imaging iris surface type screen described in Non-Patent Document 1. FIG.

観察者100は、スクリーン30を挟んで反対側に配置されたプロジェクタ20が投影する映像を見ることができる。隣接するプロジェクタ20からの映像のそれぞれが形成する空間結合アイリス面は一部が重なり合う。空間結合アイリス面が重なり合う視点位置では、投影された映像のそれぞれを視認できる。視点位置に応じて混合される映像の輝度の比率が変化し、輝度の比率に応じて映像内のオブジェクトの位置が遷移する。これにより、観察者100には運動視差が生じ、スクリーン30の奥行き方向または手前方向にオブジェクトを知覚できる。また、観察者100が静止していても左右の眼のそれぞれで視認される映像は互いに異なる輝度の比率で混合された映像であり、左右の眼それぞれで映像内のオブジェクトを異なる位置で知覚するため、観察者100は、両眼視差によっても、スクリーン30の奥行き方向または手前方向にオブジェクトを知覚できる。 Observer 100 can see images projected by projectors 20 arranged on the opposite side of screen 30 . The spatially combined iris planes formed by the images from adjacent projectors 20 partially overlap. At viewpoint positions where the spatially coupled iris planes overlap, each of the projected images can be viewed. The luminance ratio of the video to be mixed changes according to the viewpoint position, and the position of the object in the video changes according to the luminance ratio. As a result, the observer 100 experiences motion parallax and can perceive an object in the depth direction or front direction of the screen 30 . In addition, even if the observer 100 is stationary, the images visually recognized by the left and right eyes are images mixed with different luminance ratios, and the left and right eyes perceive objects in the images at different positions. Therefore, the observer 100 can perceive an object in the depth direction or front direction of the screen 30 even with binocular parallax.

観察者100が、想定する視距離よりもスクリーン30に近づくと、映像内のオブジェクトが分離されて知覚されることがある。本実施形態では、視点算出部11と制御部12を備えて、視点算出部11が観察者100の視点位置を検出し、視点位置に応じて制御部12が仮想カメラの位置を最適化したり、画像処理を行わせたりすることで、立体映像の品質低下を抑制する。視点算出部11、制御部12、および投影部13の詳細については後述する。 When the observer 100 gets closer to the screen 30 than the expected viewing distance, the objects in the image may be perceived as separated. In this embodiment, a viewpoint calculation unit 11 and a control unit 12 are provided. The viewpoint calculation unit 11 detects the viewpoint position of the observer 100, and the control unit 12 optimizes the position of the virtual camera according to the viewpoint position, Quality degradation of stereoscopic video is suppressed by performing image processing. Details of the viewpoint calculation unit 11, the control unit 12, and the projection unit 13 will be described later.

図2を参照し、リニアブレンディングについて説明する。図2では、3台のプロジェクタ20-1,20-2,20-3とスクリーン30を図示している。 Linear blending will be described with reference to FIG. In FIG. 2, three projectors 20-1, 20-2, 20-3 and a screen 30 are shown.

プロジェクタ20-1,20-2,20-3は、スクリーン30から距離a離れた位置に配置される。中央のプロジェクタ20-2は、スクリーン30にオブジェクト50-2を投影する。プロジェクタ20-2の投影する映像は、スクリーン30によって反射されて、スクリーン30から距離d離れた位置に空間結像アイリス面40-2を形成する。空間結合アイリス面が形成される距離dは、スクリーン30の焦点距離をfとした場合に、(1/a)+(1/d)=1/fの関係を満たす。 The projectors 20-1, 20-2, and 20-3 are arranged at positions separated from the screen 30 by a distance a. A central projector 20-2 projects an object 50-2 onto the screen 30. FIG. The image projected by the projector 20-2 is reflected by the screen 30 to form a spatial imaging iris plane 40-2 at a distance d from the screen 30. FIG. The distance d at which the spatial coupling iris surface is formed satisfies the relationship of (1/a)+(1/d)=1/f, where f is the focal length of the screen 30 .

プロジェクタ20-2の図上で右側に配置されたプロジェクタ20-1は、スクリーン30から距離d離れた位置において、空間結像アイリス面40-2と一部が重なり合う空間結像アイリス面40-1を形成する。 The projector 20-1 arranged on the right side of the projector 20-2 in the figure has a spatial imaging iris surface 40-1 that partially overlaps with the spatial imaging iris surface 40-2 at a position separated by a distance d from the screen 30. to form

プロジェクタ20-2の図上で左側に配置されたプロジェクタ20-3は、スクリーン30から距離d離れた位置において、空間結像アイリス面40-2と一部が重なり合う空間結像アイリス面40-3を形成する。 The projector 20-3 arranged on the left side of the projector 20-2 has a spatial imaging iris surface 40-3 that partially overlaps with the spatial imaging iris surface 40-2 at a distance d from the screen 30. to form

図3に、視点位置に応じたプロジェクタ20-1,20-2,20-3からの映像の輝度分布を示す。同図に示す輝度分布は、プロジェクタ20-1,20-2,20-3のそれぞれから輝度が均一な映像(例えば真っ白な映像)をスクリーン30に投影したときの空間結合アイリス面における輝度分布である。位置P1,P2,P3のそれぞれは、プロジェクタ20-1,20-2,20-3それぞれの真正面である。位置P2では、プロジェクタ20-2からの映像の輝度が最も高い。位置P2では、両側のプロジェクタ20-1,20-3からの映像は観察者が識別可能な輝度ではない。そのため、位置P2では、観察者はプロジェクタ20-2からの映像のみを視認することになる。位置P2から位置P1への視点移動に伴ってプロジェクタ20-2から投影された映像の輝度が徐々に低下するとともに、プロジェクタ20-1から投影された映像の輝度が徐々に上昇する。両方の映像の輝度の和は一定である。位置P1と位置P2の間では、プロジェクタ20-1,20-2からの映像が位置に応じた輝度比率で混合された映像を観察できる。 FIG. 3 shows the luminance distribution of images from the projectors 20-1, 20-2, and 20-3 according to viewpoint positions. The luminance distribution shown in the figure is the luminance distribution on the spatially coupled iris plane when an image with uniform luminance (for example, a pure white image) is projected onto the screen 30 from each of the projectors 20-1, 20-2, and 20-3. be. Positions P1, P2, and P3 are directly in front of projectors 20-1, 20-2, and 20-3, respectively. At position P2, the luminance of the image from projector 20-2 is the highest. At the position P2, the images from the projectors 20-1 and 20-3 on both sides do not have brightness that can be discerned by the observer. Therefore, at the position P2, the observer sees only the image from the projector 20-2. As the viewpoint moves from the position P2 to the position P1, the brightness of the image projected from the projector 20-2 gradually decreases, and the brightness of the image projected from the projector 20-1 gradually increases. The sum of the luminance of both images is constant. Between the position P1 and the position P2, an image in which the images from the projectors 20-1 and 20-2 are mixed at a luminance ratio corresponding to the position can be observed.

図3のような輝度分布において、図2に示すように、プロジェクタ20-2がスクリーン30にオブジェクト50-2を投影し、プロジェクタ20-1がオブジェクト50-2の左側にオブジェクト50-1を投影すると、観察者は、運動視差により、オブジェクト50がスクリーン30から奥行きSの位置にあるように知覚する。 3, the projector 20-2 projects an object 50-2 onto the screen 30, and the projector 20-1 projects an object 50-1 to the left of the object 50-2, as shown in FIG. Then, the observer perceives the object 50 as if it were at a depth S from the screen 30 due to motion parallax.

また、図4に示すように、プロジェクタ20-2がスクリーン30にオブジェクト50-2を投影し、プロジェクタ20-1がオブジェクト50-2の右側にオブジェクト50-1を投影すると、観察者は、オブジェクト50がスクリーン30の手前S’の位置にあるように知覚する。 Also, as shown in FIG. 4, when the projector 20-2 projects an object 50-2 onto the screen 30 and the projector 20-1 projects an object 50-1 on the right side of the object 50-2, the observer sees the object It is perceived that 50 is positioned S′ in front of screen 30 .

リニアブレンディングでは、同時に視認される映像の視差間隔vを融合限界以下にする必要がある。視差間隔vが融合限界を超えるとプロジェクタ20-1,20-2のそれぞれから投影したオブジェクト50-1,50-2が分離して二重像が知覚されてしまい、オブジェクト50は奥行きSまたは手前S’の位置にあるように知覚されない。想定する視距離dよりも観察者が近づくとオブジェクト50-1,50-2間の視差間隔vが融合限界を超えるため、オブジェクト50-1,50-2が分離して知覚されてしまう。 In linear blending, it is necessary to make the parallax interval v of images visually recognized at the same time equal to or less than the fusion limit. When the parallax interval v exceeds the fusion limit, the objects 50-1 and 50-2 projected from the projectors 20-1 and 20-2 are separated and a double image is perceived. It is not perceived as being in position S'. When the observer gets closer than the assumed viewing distance d, the parallax interval v between the objects 50-1 and 50-2 exceeds the fusion limit, so the objects 50-1 and 50-2 are perceived separately.

そこで本実施形態では、観察者100の視点位置を検出し、想定する視距離dよりも視点位置がスクリーン30に近づいた場合は、オブジェクトの視差間隔が融合限界を超えないように仮想カメラの位置を最適化したり、レンダリングする映像に対して分離して知覚される画質低下成分を削除する画像処理を行ったりする。 Therefore, in this embodiment, the viewpoint position of the observer 100 is detected, and when the viewpoint position is closer to the screen 30 than the assumed visual distance d, the position of the virtual camera is adjusted so that the parallax interval of the object does not exceed the fusion limit. , or perform image processing to remove components of image quality degradation that are perceived separately from the rendered image.

図1に戻り、視点算出部11、制御部12、および投影部13について説明する。 Returning to FIG. 1, the viewpoint calculation unit 11, the control unit 12, and the projection unit 13 will be described.

視点算出部11は、観察者100の視点位置を算出する。例えば、視点算出部11は、図5および図6に示すように、スクリーン30上のある方位を基準とした方位角と観察者100の視点からスクリーン30の中心までの視距離を求める。視点算出部11は、ステレオカメラを備えて視点位置を算出してもよいし、カメラとデプスセンサを備えて視点位置を算出してもよい。 The viewpoint calculator 11 calculates the viewpoint position of the observer 100 . For example, as shown in FIGS. 5 and 6, the viewpoint calculator 11 obtains an azimuth angle based on a certain azimuth on the screen 30 and a visual distance from the viewpoint of the observer 100 to the center of the screen 30 . The viewpoint calculation unit 11 may be provided with a stereo camera to calculate the viewpoint position, or may be provided with a camera and a depth sensor to calculate the viewpoint position.

制御部12は、方位角に基づいて観察者100に提示される映像をレンダリングする仮想カメラ(投影部13)を特定する。図5に示すように、スクリーン30を挟んで観察者100の反対側に存在し、観察者100に映像を提供する1台以上のプロジェクタ20を特定する。特定したプロジェクタ20に接続された投影部13の制御する仮想カメラを制御対象カメラとする。制御対象カメラのうち、観察者100の真正面に近いプロジェクタ20に映像を提供する投影部13の制御する仮想カメラを主カメラとする。例えば前出の図3において、観察者100が位置P1と位置P2の間にいるときは、プロジェクタ20-1,20-2に接続された投影部13の仮想カメラが制御対象カメラである。観察者100が位置P1に近ければプロジェクタ20-1に接続された投影部13の仮想カメラが主カメラとなる。 The control unit 12 identifies a virtual camera (projection unit 13) that renders an image presented to the observer 100 based on the azimuth angle. As shown in FIG. 5 , one or more projectors 20 that exist on the opposite side of the observer 100 across the screen 30 and provide images to the observer 100 are identified. A virtual camera controlled by the projection unit 13 connected to the specified projector 20 is set as a camera to be controlled. Among the cameras to be controlled, the virtual camera controlled by the projection unit 13 that provides an image to the projector 20 near the front of the observer 100 is the main camera. For example, in FIG. 3 above, when the observer 100 is between the positions P1 and P2, the virtual camera of the projection unit 13 connected to the projectors 20-1 and 20-2 is the camera to be controlled. If the observer 100 is close to the position P1, the virtual camera of the projection unit 13 connected to the projector 20-1 becomes the main camera.

制御部12は、視距離に基づいて視差範囲を超えるオブジェクトを判定する。リニアブレンディングでは、視差間隔が融合限界を超えるオブジェクトは、スクリーン30の奥行き方向に知覚されずに、分離して知覚されてしまう。 The control unit 12 determines an object that exceeds the parallax range based on the viewing distance. In linear blending, an object whose parallax interval exceeds the fusion limit is not perceived in the depth direction of the screen 30 and is perceived separately.

図7を参照し、視差間隔が融合限界を超える場合について説明する。図7で示すスクリーン30から距離d離れた視点位置における融合限界の視差間隔vは次式で表される。 A case where the parallax interval exceeds the fusion limit will be described with reference to FIG. A parallax interval v of the fusion limit at a viewpoint position distant by a distance d from the screen 30 shown in FIG. 7 is expressed by the following equation.

Figure 0007329795000001
Figure 0007329795000001

ここで、Aは融合限界角度である。融合限界角度Aは、6~8(min)の角度である。図7および式(1)で分かるように、視点位置がスクリーン30に近づくと視差間隔vは融合限界を超えてしまう。 where A is the fusion limit angle. The fusion limit angle A is an angle of 6 to 8 (min). As can be seen from FIG. 7 and equation (1), when the viewpoint position approaches the screen 30, the parallax interval v exceeds the fusion limit.

観察者が知覚する奥行き方向の距離について説明する。視点位置dにおける視点間隔tは次式で表される。 The distance in the depth direction perceived by the observer will be described. A viewpoint interval t at a viewpoint position d is expressed by the following equation.

Figure 0007329795000002
Figure 0007329795000002

ここで、Pは仮想カメラの間隔(deg)である。 where P is the virtual camera interval (deg).

観察者が知覚する奥行き距離S、スクリーンまでの距離d、視点間隔t、および視差間隔vの関係は次式で表される。 The relationship between the depth distance S perceived by the observer, the distance d to the screen, the viewpoint interval t, and the parallax interval v is expressed by the following equation.

Figure 0007329795000003
Figure 0007329795000003

観察者が知覚する飛び出し距離S’、スクリーンまでの距離d、視点間隔t、および視差間隔vの関係は次式で表される。 The relationship between the projection distance S' perceived by the observer, the distance d to the screen, the viewpoint interval t, and the parallax interval v is expressed by the following equation.

Figure 0007329795000004
Figure 0007329795000004

式(3),(4)で表される奥行き距離Sまたは飛び出し距離S’の位置を超えるオブジェクトは分離されて知覚される。 Objects beyond the depth distance S or projection distance S' expressed by equations (3) and (4) are perceived as separated.

図8を参照し、図7に示す関係を本実施形態の表示システムに当てはめて考える。図8は、表示システムのスクリーン30を側面から見た側面図である。 With reference to FIG. 8, the relationship shown in FIG. 7 is applied to the display system of this embodiment. FIG. 8 is a side view of the screen 30 of the display system.

融合限界の視差間隔vを持つオブジェクトつまり奥行きSの位置で知覚されるオブジェクトは、視距離dの視点位置から見ると、スクリーン30面から奥行き距離h離れた位置に知覚される。つまり、奥行き距離hよりも低い位置にあるオブジェクトは分離されて知覚されてしまう。融合限界の奥行き距離hは次式で表される。 An object having a parallax interval v of the fusion limit, that is, an object perceived at a position of depth S is perceived at a position a depth distance h away from the screen 30 surface when viewed from a viewpoint position of visual distance d. In other words, an object located at a position lower than the depth distance h is perceived as being separated. The fusion limit depth distance h is expressed by the following equation.

Figure 0007329795000005
Figure 0007329795000005

ここで、Hはスクリーン30から視点位置までの垂直距離である。 Here, H is the vertical distance from the screen 30 to the viewpoint position.

また、スクリーン30よりも手前に知覚されるオブジェクトの融合限界の飛び出し距離h’は次式で表される。 Also, the projection distance h' of the fusion limit of the object perceived in front of the screen 30 is expressed by the following equation.

Figure 0007329795000006
Figure 0007329795000006

制御部12は、奥行き距離hより低い位置および飛び出し距離h’より高い位置に表示されるオブジェクトが存在するか否かを判定することで、制御対象カメラで撮影する仮想空間内に視差間隔が融合限界を超えるオブジェクトが存在するか否かを判定できる。奥行き距離hおよび飛び出し距離h’に相当する仮想空間内での高さは既知であるので、制御部12は、奥行き距離hおよび飛び出し距離h’を超える高さのオブジェクトが存在するか否かを判定する。 The control unit 12 determines whether or not there is an object displayed at a position lower than the depth distance h and at a position higher than the pop-out distance h', thereby merging the parallax intervals in the virtual space captured by the camera to be controlled. It can be determined whether there are any objects exceeding the limit. Since the height in the virtual space corresponding to the depth distance h and the pop-out distance h' is known, the control unit 12 determines whether or not there is an object with a height exceeding the depth distance h and the pop-out distance h'. judge.

観察者100が視認できる映像間において、オブジェクトの視差間隔が融合限界を超えている場合、制御部12は、オブジェクトの視差間隔が融合限界を超えないように投影部を制御する。具体的には、制御部12は、制御対象カメラ(仮想カメラ)の配置を変更するように投影部13を指示したり、当該オブジェクトに対して画質低下成分を削除する画像処理を投影部13に指示したりする。 If the parallax interval of the object exceeds the fusion limit between images that can be visually recognized by the observer 100, the control unit 12 controls the projection unit so that the parallax interval of the object does not exceed the fusion limit. Specifically, the control unit 12 instructs the projection unit 13 to change the arrangement of the camera to be controlled (virtual camera), or instructs the projection unit 13 to perform image processing for removing image quality degradation components for the object. give instructions.

制御対象カメラの間隔を狭めると、観察者100の知覚できる奥行き距離および飛び出し距離が長くなる。制御部12は、オブジェクトが奥行き方向に知覚される最大の奥行き距離hに対して、制御対象カメラの間隔tつまり制御カメラの間隔P(deg)を次式を満たすように設定する。 When the distance between the cameras to be controlled is narrowed, the depth distance and the popping distance perceivable by the observer 100 are increased. The control unit 12 sets the interval t between the cameras to be controlled, that is, the interval P (deg) between the control cameras, so as to satisfy the following expression for the maximum depth distance h at which the object is perceived in the depth direction.

Figure 0007329795000007
Figure 0007329795000007

また、制御部12は、オブジェクトが手前方向に知覚される最大の飛び出し距離h’に対して、制御対象カメラの間隔tを次式を満たすように設定する。 In addition, the control unit 12 sets the distance t between the cameras to be controlled so as to satisfy the following expression with respect to the maximum distance h' at which the object is perceived in the front direction.

Figure 0007329795000008
Figure 0007329795000008

制御対象カメラの間隔を変える際、制御部12は、例えば、主カメラに他の制御対象カメラを近づける。 When changing the interval between the controlled cameras, the control unit 12 brings the other controlled cameras closer to the main camera, for example.

また、制御対象カメラの間隔P(deg)を変えずに、制御対象カメラをオブジェクトからより遠くに移動させて、投影部13がレンダリングする際のスケールを縮小してもよい。 Alternatively, without changing the interval P (deg) between the controlled cameras, the controlled camera may be moved farther away from the object to reduce the scale of rendering by the projection unit 13 .

画質低下成分を削除する画像処理とは、例えば、融合限界を超えるオブジェクトを非表示にする処理、オブジェクトの融合限界を超える部分をクロップしてレンダリングする処理、深度情報に応じてオブジェクトをフェードアウトさせる処理、あるいは、深度情報に応じてオブジェクトにブラーをかける処理である。オブジェクトを非表示にしたり、クロップしたりした場合は、映像内に融合限界を超える部分が存在しなくなる。オブジェクトをフェードアウトさせたり、ブラーをかけたりした場合は、オブジェクトの輪郭が不明確となって二重像が知覚されにくくなる。 Image processing that removes image quality deterioration components includes, for example, processing to hide objects that exceed the fusion limit, processing to crop and render the portion of the object that exceeds the fusion limit, and processing to fade out the object according to depth information. Alternatively, it is a process of blurring an object according to depth information. If the object is hidden or cropped, there will be no part of the image that exceeds the fusion limit. When the object is faded out or blurred, the outline of the object becomes unclear and the double image becomes less perceptible.

投影部13は、制御部12の指示に基づいて仮想カメラを制御し、仮想カメラで仮想空間内を撮影した映像をレンダリングする。投影部13のそれぞれは、同じ仮想空間内をそれぞれ違う角度から撮影した映像をレンダリングする。プロジェクタ20は、スクリーン30を囲んで円形に配置されるので、仮想カメラのそれぞれは、仮想空間内の被写体を囲んで円形に配置される。 The projection unit 13 controls the virtual camera based on an instruction from the control unit 12, and renders an image captured by the virtual camera in the virtual space. Each of the projection units 13 renders images captured from different angles in the same virtual space. Since the projectors 20 are arranged in a circle around the screen 30, each virtual camera is arranged in a circle around the subject in the virtual space.

投影部13がレンダリングした映像はプロジェクタ20に供給される。なお、1つの投影部13が複数の仮想カメラを制御し、複数のプロジェクタ20のそれぞれに映像を供給してもよい。 The image rendered by the projection unit 13 is supplied to the projector 20 . Note that one projection unit 13 may control a plurality of virtual cameras and supply images to each of the plurality of projectors 20 .

プロジェクタ20がスクリーン30に投影した映像は、スクリーン30で反射し、スクリーン30を挟んでプロジェクタ20の反対側にいる観察者100に提供される。 The image projected on the screen 30 by the projector 20 is reflected by the screen 30 and provided to the observer 100 on the opposite side of the projector 20 with the screen 30 interposed therebetween.

図9を参照し、本実施形態の表示システムが画質低下を抑制する処理の流れについて説明する。投影部13のそれぞれは、仮想空間内の被写体を異なる方向から仮想カメラで撮影した映像をレンダリングし、レンダリングした映像をプロジェクタ20に供給している。プロジェクタ20のそれぞれは、投影部13がレンダリングした映像をスクリーン30に投影している。 With reference to FIG. 9, the flow of processing for suppressing deterioration in image quality by the display system of the present embodiment will be described. Each of the projection units 13 renders images of an object in the virtual space photographed by a virtual camera from different directions, and supplies the rendered images to the projector 20 . Each of the projectors 20 projects an image rendered by the projection unit 13 onto the screen 30 .

ステップS11にて、視点算出部11は、観察者100の視点位置を検出し、観察者100の方位角と視距離を求める。 In step S<b>11 , the viewpoint calculation unit 11 detects the viewpoint position of the observer 100 and obtains the azimuth angle and visual distance of the observer 100 .

ステップS12にて、制御部12は、方位角から観察者100に映像を提供する制御対象カメラを特定する。 In step S12, the control unit 12 identifies a camera to be controlled that provides an image to the observer 100 from the azimuth angle.

ステップS13にて、制御部12は、視距離と制御対象カメラ同士の視差に基づいて、映像間のオブジェクトが融合限界に収まるか否かを判定する。 In step S13, the control unit 12 determines whether or not the object between the images falls within the fusion limit based on the viewing distance and the parallax between the cameras to be controlled.

融合限界に収まらない場合、ステップS14にて、制御部12は、制御対象カメラの配置を変更する指示あるいは画質低下成分を削除する画像処理を行わせる指示を対応する投影部13へ送信する。 If it does not fit within the fusion limit, in step S14, the control unit 12 transmits to the corresponding projection unit 13 an instruction to change the arrangement of the camera to be controlled or an instruction to perform image processing for deleting the image quality deterioration component.

投影部13は、制御部12の指示に従って、仮想カメラの配置を変更したり、融合限界を超えるオブジェクトを非表示にしたり、オブジェクトの融合限界を超える部分をクロップしたり、深度情報に応じてオブジェクトをフェードアウトさせたり、あるいは、深度情報に応じてオブジェクトにブラーをかけたりする。 In accordance with instructions from the control unit 12, the projection unit 13 changes the placement of the virtual camera, hides objects that exceed the fusion limit, crops portions of the object that exceed the fusion limit, and displays objects according to depth information. , or blur the object according to the depth information.

本実施形態では、テーブル状のスクリーン30に対して360度の方向から映像を投影する表示システムについて説明したが、垂直に立てられた矩形のスクリーンに対して複数のプロジェクタから映像を投影し、リニアブレンディングする表示システムにも本発明を適用できる。 In this embodiment, a display system that projects images from 360 degrees onto a table-shaped screen 30 has been described. The present invention can also be applied to blending display systems.

また、本実施形態では、リニアブレンディングを実現する反射型のスクリーン30を用いた例で説明したが、プロジェクタ20の前面にレンズおよび拡散板などの光学部材を配置してリニアブレンディングを実現してもよい。 Further, in this embodiment, an example using the reflective screen 30 that achieves linear blending has been described. good.

上記説明した視点算出部11、制御部12、および投影部13には、例えば、図10に示すような、中央演算処理装置(CPU)901と、メモリ902と、ストレージ903と、通信装置904と、入力装置905と、出力装置906とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPU901がメモリ902上にロードされた所定のプログラムを実行することにより、視点算出部11、制御部12、および投影部13が実現される。このプログラムは磁気ディスク、光ディスク、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。 The viewpoint calculation unit 11, the control unit 12, and the projection unit 13 described above include, for example, a central processing unit (CPU) 901, a memory 902, a storage 903, and a communication device 904 as shown in FIG. , an input device 905, and an output device 906 can be used. In this computer system, the viewpoint calculation unit 11, the control unit 12, and the projection unit 13 are realized by the CPU 901 executing a predetermined program loaded on the memory 902. FIG. This program can be recorded on a computer-readable recording medium such as a magnetic disk, optical disk, or semiconductor memory, or distributed via a network.

以上説明したように、本実施形態の表示システムは、テーブル状の反射型のスクリーン30と、スクリーン30を囲むように円形に並べて配置された複数のプロジェクタ20と、複数のプロジェクタ20に接続された投影部13を有し、リニアブレンディングを利用して立体映像を表示する。視点算出部11が観察者100の視点位置を算出し、制御部12が観察者100の視認する映像を撮影する仮想カメラ(制御対象カメラ)を特定し、映像内のオブジェクトの視差間隔が融合限界を超えるか否かを判定する。融合限界を超える場合、制御部12は、制御対象カメラの配置を変えて間隔を狭めるように投影部13を指示したり、融合限界を超えるオブジェクトに対して画質低下成分を削除する画像処理を行うように投影部13に指示したりする。これにより、オブジェクトの二重像が知覚されず、立体映像の品質低下を抑制できる。 As described above, the display system of this embodiment includes a table-shaped reflective screen 30, a plurality of projectors 20 arranged in a circle so as to surround the screen 30, and a plurality of projectors 20 connected to each other. It has a projection unit 13 and displays a stereoscopic image using linear blending. The viewpoint calculation unit 11 calculates the viewpoint position of the observer 100, the control unit 12 specifies the virtual camera (controlled camera) that captures the image visually recognized by the observer 100, and the parallax interval of the object in the image is the fusion limit. It is determined whether or not the When the fusion limit is exceeded, the control unit 12 instructs the projection unit 13 to change the arrangement of the cameras to be controlled to narrow the interval, or performs image processing to remove the image quality deterioration component for the object exceeding the fusion limit. The projection unit 13 is instructed as follows. As a result, a double image of the object is not perceived, and deterioration in the quality of the stereoscopic video can be suppressed.

11…視点算出部
12…制御部
13…投影部
20…プロジェクタ
30…スクリーン
DESCRIPTION OF SYMBOLS 11... Viewpoint calculation part 12... Control part 13... Projection part 20... Projector 30... Screen

Claims (6)

リニアブレンディングを利用して立体映像を表示する表示系に視差を持つ映像を供給する映像供給装置であって、
仮想空間内の被写体を複数の仮想カメラで異なる方向から撮影し、前記視差を持つ映像を前記表示系に供給する投影部と、
観察者の視点位置および視距離を算出する視点算出部と、
前記視点位置に基づいて前記観察者の視認する1つ以上の前記視差を持つ映像を特定し、前記視距離に基づいて前記視差を持つ映像内の被写体の視差間隔が融合限界を超えるか否か判定し、融合限界を超える場合は、前記被写体の視差間隔が融合限界を超えないように前記投影部を制御する制御部と、を有する
映像供給装置。
An image supply device for supplying an image having parallax to a display system that displays a stereoscopic image using linear blending,
a projection unit that captures images of an object in a virtual space from different directions with a plurality of virtual cameras and supplies images having the parallax to the display system;
a viewpoint calculation unit that calculates a viewpoint position and a viewing distance of an observer;
One or more images having the parallax visually recognized by the observer are specified based on the viewpoint position, and whether or not the parallax interval of the object in the image having the parallax exceeds the fusion limit based on the viewing distance. and a control unit that controls the projection unit so that the parallax interval of the object does not exceed the fusion limit when the fusion limit is exceeded.
請求項1に記載の映像供給装置であって、
前記制御部は、前記被写体の視差間隔が融合限界を超える場合は、前記視差を持つ映像を撮影する前記仮想カメラの配置を変更する
映像供給装置。
The image supply device according to claim 1,
The image supply device, wherein the control unit changes the arrangement of the virtual camera that captures the image having the parallax when the parallax interval of the object exceeds a fusion limit.
請求項1に記載の映像供給装置であって、
前記制御部は、前記被写体の視差間隔が融合限界を超える場合は、前記投影部が当該被写体を撮影する際に、前記被写体の視差間隔が融合限界を超えないように、前記被写体を非表示にする処理、前記被写体の融合限界を超える部分をクロップしてレンダリングする処理、深度情報に応じて前記被写体をフェードアウトさせる処理、あるいは、深度情報に応じて前記被写体にブラーをかける処理のいずれかの処理を前記投影部に行わせる
映像供給装置。
The image supply device according to claim 1,
When the parallax interval of the object exceeds the fusion limit, the control unit hides the object so that the parallax interval of the object does not exceed the fusion limit when the projection unit photographs the object. cropping and rendering a portion of the subject that exceeds the fusion limit; fading out the subject according to depth information; or blurring the subject according to depth information. to the projection unit.
リニアブレンディングを利用して立体映像を表示する表示系に視差を持つ映像を供給する映像供給装置による映像供給方法であって、
仮想空間内の被写体を複数の仮想カメラで異なる方向から撮影し、前記視差を持つ映像を前記表示系に供給するステップと、
観察者の視点位置および視距離を算出するステップと、
前記視点位置に基づいて前記観察者の視認する1つ以上の前記視差を持つ映像を特定するステップと、
前記視距離に基づいて前記視差を持つ映像内の被写体の視差間隔が融合限界を超えるか否か判定するステップと、
融合限界を超える場合は、前記被写体の視差間隔が融合限界を超えないように制御するステップと、を有する
映像供給方法。
An image supply method by an image supply device for supplying an image having parallax to a display system that displays a stereoscopic image using linear blending,
a step of photographing an object in a virtual space from different directions with a plurality of virtual cameras and supplying the images having the parallax to the display system;
calculating an observer's viewpoint position and viewing distance;
identifying one or more images having the parallax viewed by the observer based on the viewpoint position;
determining whether a parallax interval of an object in an image having the parallax exceeds a fusion limit based on the viewing distance;
and controlling, if the fusion limit is exceeded, the parallax interval of the subject not to exceed the fusion limit.
リニアブレンディングを利用して立体映像を表示する表示システムであって、
反射面を上方に向けて配置されたスクリーンと、
前記スクリーンを囲んで配置され、前記スクリーンに視差を持つ映像を投影する複数のプロジェクタと、
仮想空間内の被写体を複数の仮想カメラで異なる方向から撮影し、前記視差を持つ映像を前記複数のプロジェクタのそれぞれに供給する投影部と、
観察者の視点位置および視距離を算出する視点算出部と、
前記視点位置に基づいて前記観察者の視認する1つ以上の前記視差を持つ映像を特定し、前記視距離に基づいて前記視差を持つ映像内の被写体の視差間隔が融合限界を超えるか否か判定し、融合限界を超える場合は、前記被写体の視差間隔が融合限界を超えないように前記投影部を制御する制御部と、を有する
表示システム。
A display system that displays a stereoscopic image using linear blending,
a screen arranged with the reflective surface facing upward;
a plurality of projectors arranged around the screen and projecting images having parallax on the screen;
a projection unit that captures images of an object in a virtual space from different directions with a plurality of virtual cameras and supplies images having the parallax to each of the plurality of projectors;
a viewpoint calculation unit that calculates a viewpoint position and a viewing distance of an observer;
One or more images having the parallax visually recognized by the observer are specified based on the viewpoint position, and whether or not the parallax interval of the object in the image having the parallax exceeds the fusion limit based on the viewing distance. a control unit that determines, and, if the fusion limit is exceeded, controls the projection unit so that the parallax interval of the subject does not exceed the fusion limit.
請求項1ないし3のいずれかに記載の映像供給装置の各部としてコンピュータを動作させるプログラム。 A program for causing a computer to operate as each part of the image supply device according to any one of claims 1 to 3.
JP2019190918A 2019-10-18 2019-10-18 Image supply device, image supply method, display system and program Active JP7329795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019190918A JP7329795B2 (en) 2019-10-18 2019-10-18 Image supply device, image supply method, display system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190918A JP7329795B2 (en) 2019-10-18 2019-10-18 Image supply device, image supply method, display system and program

Publications (2)

Publication Number Publication Date
JP2021068944A JP2021068944A (en) 2021-04-30
JP7329795B2 true JP7329795B2 (en) 2023-08-21

Family

ID=75638674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190918A Active JP7329795B2 (en) 2019-10-18 2019-10-18 Image supply device, image supply method, display system and program

Country Status (1)

Country Link
JP (1) JP7329795B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011519209A (en) 2008-04-10 2011-06-30 ポステック・アカデミー‐インダストリー・ファウンデーション Apparatus and method for synthesizing high-speed multi-view 3D stereoscopic video for 3D stereoscopic television without glasses
JP2016513384A (en) 2013-02-06 2016-05-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System for generating intermediate view images
JP2018180508A (en) 2017-04-06 2018-11-15 日本電信電話株式会社 Display device and display method
JP2018195998A (en) 2017-05-18 2018-12-06 日本電信電話株式会社 Stereoscopic image display apparatus
JP2019066560A (en) 2017-09-28 2019-04-25 日本電信電話株式会社 Display device and display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011519209A (en) 2008-04-10 2011-06-30 ポステック・アカデミー‐インダストリー・ファウンデーション Apparatus and method for synthesizing high-speed multi-view 3D stereoscopic video for 3D stereoscopic television without glasses
JP2016513384A (en) 2013-02-06 2016-05-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System for generating intermediate view images
JP2018180508A (en) 2017-04-06 2018-11-15 日本電信電話株式会社 Display device and display method
JP2018195998A (en) 2017-05-18 2018-12-06 日本電信電話株式会社 Stereoscopic image display apparatus
JP2019066560A (en) 2017-09-28 2019-04-25 日本電信電話株式会社 Display device and display method

Also Published As

Publication number Publication date
JP2021068944A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
JP3944188B2 (en) Stereo image display method, stereo image imaging method, and stereo image display apparatus
US8614738B2 (en) Stereoscopic image display method and stereoscopic image display apparatus
TW201902212A (en) a near-eye display with an extended eye movement range that is tracked by the eye
JP4328311B2 (en) Method and program for creating multi-viewpoint image for 3D image display
US9118894B2 (en) Image processing apparatus and image processing method for shifting parallax images
RU2554299C2 (en) Apparatus for generating stereoscopic images
KR20090035880A (en) ONES Multi Use Stereo Camera and Stereo Image Content Creation Method
TW201921922A (en) Apparatus and method for generating an image
EP3526639A1 (en) Display of visual data with a virtual reality headset
US20250193361A1 (en) Techniques for displaying and capturing images
US9225960B2 (en) Apparatus and method for attenuating stereoscopic sense of stereoscopic image
JP6700935B2 (en) Imaging device, control method thereof, and control program
CA2861212A1 (en) Image processing device and method, and program
JP6775220B2 (en) Stereoscopic image display device
JP7329795B2 (en) Image supply device, image supply method, display system and program
JP7329794B2 (en) Image supply device, image supply method, display system and program
GB2548080A (en) A method for image transformation
JP2011228821A (en) Multi-viewpoint image encoder
JP2017525197A (en) Stereoscopic video generation
KR102838246B1 (en) Techniques for displaying and capturing images
JP6490107B2 (en) Stereoscopic video zooming
KR101939243B1 (en) Stereoscopic depth adjustment and focus point adjustment
TWI477885B (en) 3d imaging system and method
CA2982015A1 (en) Method and apparatus for depth enhanced imaging
JP2012010302A (en) Image display device and image display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7329795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150