JP2006310936A - System for generating video image viewed at optional viewpoint - Google Patents
System for generating video image viewed at optional viewpoint Download PDFInfo
- Publication number
- JP2006310936A JP2006310936A JP2005127639A JP2005127639A JP2006310936A JP 2006310936 A JP2006310936 A JP 2006310936A JP 2005127639 A JP2005127639 A JP 2005127639A JP 2005127639 A JP2005127639 A JP 2005127639A JP 2006310936 A JP2006310936 A JP 2006310936A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- virtual camera
- line
- subject
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000005516 engineering process Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 20
- 230000003111 delayed effect Effects 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 10
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、任意視点映像生成システム、より詳細には、それぞれ異なる視点位置及び視線方向に配置した多数のカメラによる映像情報から、実際にはカメラの存在しない視点位置及び視線方向での映像すなわち仮想カメラの視点位置及び視線方向における映像を生成する任意視点映像生成システムに関する。 The present invention relates to an arbitrary viewpoint video generation system, and more specifically, video from a plurality of cameras arranged at different viewpoint positions and line-of-sight directions. The present invention relates to an arbitrary viewpoint video generation system that generates a video at a camera viewpoint position and a line-of-sight direction.
多くの研究機関・大学等で、実際には存在しない仮想カメラを想定し、該仮想カメラを用いて被写体を所望の任意視線方向及び任意視点位置から見た映像を生成する任意視点映像生成技術が研究されている。これは、あるシーン(被写体)を現実の多数のカメラを用いて撮影し、その映像データを処理することで、実際にはカメラの存在しない地点に仮想カメラがあるものと想定し、あたかも、この仮想カメラが撮影したように映像を生成する技術である。例えば非特許文献1や非特許文献2のような技術を用いれば、利用者が仮想カメラの視点位置や視線方向を操作して、特定被写体をずっと追跡して映像を見ることが可能である。スポーツ中継を例に採ると、自分のひいきの選手を常に追跡して見ることができる。
一方、移動する選手をカメラで撮影する場合に、自動的にカメラ方向を制御して選手を追跡する自動追跡技術がある(例えば、特許文献1参照)。
On the other hand, when a moving player is photographed with a camera, there is an automatic tracking technology that automatically controls the camera direction to track the player (see, for example, Patent Document 1).
上述のごとき任意視点映像生成技術を用いれば、特定の選手を常に追跡して見ることが可能であるが、利用者は、選手の移動に合わせて常に仮想カメラの視点位置や視線方向を調節する必要があり、利用者への負担が大きいという問題がある。負担を軽減するためには、自動的に選手を追跡できる機能があることが望ましい。 If the arbitrary viewpoint video generation technology as described above is used, it is possible to always track and watch a specific player, but the user always adjusts the viewpoint position and line-of-sight direction of the virtual camera according to the movement of the player. There is a problem that it is necessary and the burden on the user is large. In order to reduce the burden, it is desirable to have a function that can automatically track players.
しかし、上記特許文献1で挙げた自動追跡技術では、カメラ位置は固定であり、カメラ位置と選手の位置の関係によっては、例えば、選手がカメラから遠ざかると選手の映像が小さくなる、または、選手の背中しか撮影できなくなるなど、選手について所望の映像が得られない場合があるという問題がある。
However, in the automatic tracking technology described in
本発明は、上記の問題点を解決するために、任意視点映像生成の際に、下記の2点を実現するものである。
(1)特定選手を常に追跡して、仮想カメラの視点位置及び視線方向での映像を生成する。
(2)選手の位置や向きに応じて自動的に仮想カメラの視点位置及び視線方向を制御し、選手を見やすい位置から見た映像を提供する。
例えば、常に選手の正面で一定の距離になる位置及び方向に仮想カメラを自動的に移動させて、該仮想カメラの視点位置及び視線方向での映像を生成することを実現する。
In order to solve the above problems, the present invention realizes the following two points when generating an arbitrary viewpoint video.
(1) A specific player is always tracked, and an image in the viewpoint position and the line-of-sight direction of the virtual camera is generated.
(2) Automatically control the viewpoint position and line-of-sight direction of the virtual camera in accordance with the position and orientation of the player, and provide an image viewed from a position where the player can easily see.
For example, it is possible to automatically move the virtual camera to a position and a direction that are always a fixed distance in front of the player, and to generate an image in the viewpoint position and the line-of-sight direction of the virtual camera.
本発明の第1の手段は、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像から任意の仮想カメラの視点位置及び視線方向における映像を合成あるいは選択する映像システムにおいて、所定の条件を満たす仮想カメラの視点位置及び視線方向を算出する算出手段を備えたことを特徴とするものである。 According to a first aspect of the present invention, there is provided a video system that synthesizes or selects a video in a viewpoint position and a gaze direction of an arbitrary virtual camera from a video obtained by photographing a certain subject from one or more viewpoint positions and a gaze direction. And a calculation unit that calculates the viewpoint position and the line-of-sight direction of the virtual camera that satisfies the above.
本発明の第2の手段は、前記第1の手段において、一つ以上の被写体の位置及び向きを検出する手段を備え、該検出手段によって得られた一つ以上の被写体の位置及び向きの情報を用いて前記所定の条件を満たす仮想カメラの視点位置及び視線方向を算出することを特徴とするものである。 A second means of the present invention comprises means for detecting the position and orientation of one or more subjects in the first means, and information on the position and orientation of one or more subjects obtained by the detecting means. The viewpoint position and the line-of-sight direction of the virtual camera satisfying the predetermined condition are calculated using.
本発明の第3の手段は、前記第2の手段において、前記所定の条件は、被写体に対して仮想カメラが特定の方向に位置しかつ該仮想カメラの視線方向が被写体の方向を向くことであることを特徴とするものである。 According to a third means of the present invention, in the second means, the predetermined condition is that the virtual camera is positioned in a specific direction with respect to the subject and the line-of-sight direction of the virtual camera faces the direction of the subject. It is characterized by being.
本発明の第4の手段は、前記第2の手段において、前記所定の条件は、仮想カメラの視線方向を固定して視点位置を変え、被写体を仮想カメラの視点位置及び視線方向から常に撮影できることであることを特徴とするものである。 According to a fourth means of the present invention, in the second means, the predetermined condition is that the visual point direction of the virtual camera is fixed and the viewpoint position is changed, and the subject can always be photographed from the viewpoint position and the visual line direction of the virtual camera. It is characterized by being.
本発明の第5の手段は、前記第2乃至第4の手段において、前記所定の条件は、複数の被写体を仮想カメラの視点位置及び視線方向における映像内に収めることであることを特徴とするものである。 According to a fifth means of the present invention, in the second to fourth means, the predetermined condition is that a plurality of subjects are included in an image in a viewpoint position and a line-of-sight direction of the virtual camera. Is.
本発明の第6の手段は、前記第2の手段において、前記所定の条件は、被写体の視点位置及び視線方向と仮想カメラの視点位置及び視線方向が一致することであることを特徴とするものである。 According to a sixth means of the present invention, in the second means, the predetermined condition is that the viewpoint position and the line-of-sight direction of the subject coincide with the viewpoint position and the line-of-sight direction of the virtual camera. It is.
本発明の第7の手段は、前記第2乃至第6の手段において、被写体の位置及び方向の情報に対し不感帯域を設けた処理を行うことを特徴とするものである。 The seventh means of the present invention is characterized in that in the second to sixth means, processing is performed in which a dead band is provided for information on the position and direction of the subject.
本発明の第8の手段は、前記第2乃至第7の手段において、被写体の位置及び方向の情報に対しローパスフィルタ処理を加えることを特徴とするものである。 The eighth means of the present invention is characterized in that in the second to seventh means, low-pass filter processing is applied to information on the position and direction of the subject.
本発明の第9の手段は、前記第2乃至第8の手段において、一つ以上の被写体の位置及び向きを検出する検出手段は、一つ以上の被写体を一つ以上の視点位置及び視線方向から撮影した多眼映像を用いて検出する検出手段であることを特徴とするものである。 According to a ninth means of the present invention, in the second to eighth means, the detecting means for detecting the position and orientation of one or more subjects is one or more subjects for one or more viewpoint positions and line-of-sight directions. It is a detection means to detect using the multi-view video image | photographed from this, It is characterized by the above-mentioned.
本発明の第10の手段は、前記第2乃至第8の手段において、前記一つ以上の被写体の位置及び向きを検出する検出手段は、一つ以上の被写体を上方より撮影した映像を用いて検出する検出手段であることを特徴とするものである。 According to a tenth means of the present invention, in the second to eighth means, the detecting means for detecting the position and orientation of the one or more subjects uses an image obtained by photographing one or more subjects from above. It is the detection means to detect, It is characterized by the above-mentioned.
本発明の第11の手段は、前記第2乃至第8の手段において、前記一つ以上の被写体の位置及び向きを検出する検出手段は、被写体自体に該被写体の位置及び向きを検出できるセンサを有し、該センサにより取得した該被写体の位置及び向きの情報を用いて検出する検出手段であることを特徴とするものである。 According to an eleventh means of the present invention, in the second to eighth means, the detecting means for detecting the position and orientation of the one or more subjects is a sensor capable of detecting the location and orientation of the subject on the subject itself. And detecting means for detecting using the information on the position and orientation of the subject acquired by the sensor.
本発明の第12の手段は、前記第2乃至第8の手段において、請求項9乃至11の手段うちの、任意の検出手段を組み合わせた検出手段を有することを特徴とするものである。 A twelfth means of the present invention is characterized in that, in the second to eighth means, a detection means in which any detection means of the means of claims 9 to 11 is combined.
本発明の第13の手段は、前記第1乃至第12の手段において、前記算出手段による算出結果を用い、前記ある被写体を一つ以上の視点位置及び視線方向から撮影した映像をもとに、前記仮想カメラの視点位置及び視線方向における映像を合成する任意視点映像生成技術を用いることを特徴とするものである。 According to a thirteenth means of the present invention, in the first to twelfth means, based on an image obtained by photographing the certain subject from one or more viewpoint positions and line-of-sight directions, using the calculation result by the calculating means. An arbitrary viewpoint video generation technique for synthesizing videos in the viewpoint position and the line-of-sight direction of the virtual camera is used.
本発明の第14の手段は、前記第1乃至第12の手段において、前記算出手段による算出結果を用い、前記ある被写体を一つ以上の視点位置及び視線方向から撮影した映像から任意の仮想カメラの視点位置及び視線方向における映像に最も類似した映像を選択し、該選択した映像を任意の仮想カメラの視点位置及び視線方向における映像とすることを特徴とするものである。 According to a fourteenth aspect of the present invention, in any one of the first to twelfth means, an arbitrary virtual camera is used from a video obtained by photographing the certain subject from one or more viewpoint positions and line-of-sight directions, using the calculation result by the calculation means. A video that is most similar to the video at the viewpoint position and the line-of-sight direction is selected, and the selected video is used as an image at the viewpoint position and the line-of-sight direction of an arbitrary virtual camera.
本発明の第15の手段は、前記第1乃至第14の手段において、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を所定時間遅延させ、遅延させた映像をもとに任意の仮想カメラの視点位置及び視線方向における映像を合成し、あるいは、遅延させた映像から任意の仮想カメラの視点位置及び視線方向における映像に最も類似した映像を選択し、任意の仮想カメラの視点位置及び視線方向における映像とすることを特徴とするものである。 According to a fifteenth means of the present invention, in the first to fourteenth means, an image obtained by photographing a certain subject from one or more viewpoint positions and line-of-sight directions is delayed for a predetermined time, and an arbitrary image is obtained based on the delayed image. The virtual camera's viewpoint position and line-of-sight direction video are synthesized, or the video image most similar to the virtual camera's viewpoint position and line-of-sight direction image is selected from the delayed video, and the virtual camera's viewpoint position is selected. And an image in the line-of-sight direction.
本発明の第16の手段は、前記第15の手段において、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を所定時間遅延させ、仮想カメラの視点位置及び視線方向の算出を前記映像より相対的に先に行うことを特徴とするものである。 According to a sixteenth means of the present invention, in the fifteenth means, a video obtained by photographing a subject from one or more viewpoint positions and line-of-sight directions is delayed for a predetermined time, and calculation of the viewpoint position and line-of-sight direction of the virtual camera is calculated. It is characterized by being performed relatively earlier than the video.
本発明の第17の手段は、前記第1乃至第16の手段において、仮想カメラの視点位置及び視線方向において生成した映像を出力する手段を備えることを特徴とするものである。 The seventeenth means of the present invention is characterized in that, in the first to sixteenth means, means for outputting a video generated in the viewpoint position and the line-of-sight direction of the virtual camera is provided.
本発明の第18の手段は、前記第17の手段において、前記生成した映像を出力する手段として、2次元表示のディスプレイを用いることを特徴とするものである。 According to an eighteenth means of the present invention, in the seventeenth means, a two-dimensional display is used as the means for outputting the generated video.
本発明の第19の手段は、前記第17の手段において、前記生成した映像を出力する手段として、立体表示ディスプレイを用いることを特徴とするものである。 According to a nineteenth means of the present invention, in the seventeenth means, a stereoscopic display is used as the means for outputting the generated video.
本発明の第20の手段は、前記第1乃至第19の手段において、前記生成した映像内の被写体が逆光になる条件を検出する手段を備え、前記生成した映像内の被写体が逆光にならないことを前記所定の条件とすることを特徴とするものである。 According to a twentieth means of the present invention, in the first to nineteenth means, there is provided means for detecting a condition in which the subject in the generated video is backlit, and the subject in the generated video is not backlit. Is defined as the predetermined condition.
本発明の第21の手段は、前記第20の手段において、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を用いて逆光の検出を行うことを特徴とするものである。 The twenty-first means of the present invention is characterized in that, in the twentieth means, backlight detection is performed using an image obtained by photographing a certain subject from one or more viewpoint positions and line-of-sight directions.
本発明の映像システムによると、被写体が移動しても、該被写体の移動に合わせて仮想カメラの視点位置及び視線方向を自動的に変化させ、常に、一定の見やすい相対位置から被写体を観察することが可能である。
また、複数の被写体がある場合に、常にそれらが画面内に入るよう仮想カメラの視点位置及び視線方向を自動的に変化させることが可能である。
また、被写体位置及び向きと仮想カメラの視点位置及び視線方向が一致するよう自動的に変化させることで、被写体が見ている光景を合成することが可能である。
また、被写体位置及び向きの情報に対して不感帯域処理を加えることで、被写体位置及び向きの情報が細かく変化した場合でも、あるレベルα以下の細かい変化を無視することができ、仮想カメラの位置又は/及び方向が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため、利用者が映像に酔うことを防止できる。
また、被写体位置及び向きの情報に対してローパスフィルタ処理をかけることが可能である。該処理により被写体位置及び方向の情報の高周波成分を取り除き、仮想カメラの位置が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため利用者が映像に酔うことを防止できる。
また、映像を遅延させることで被写体位置及び向きの情報の処理を相対的に先読み処理することで、被写体の未来の動きを先取りして仮想カメラ位置及び方向の制御を行うことが可能である。
また、生成画面が逆光状態であるかどうかを判定することで、逆光状態になる仮想カメラの視点位置及び視線方向は避けるよう、仮想カメラの視点位置及び視線方向を制御することが可能である。
According to the video system of the present invention, even if the subject moves, the viewpoint position and the line-of-sight direction of the virtual camera are automatically changed in accordance with the movement of the subject, and the subject is always observed from a certain easy-to-see relative position. Is possible.
In addition, when there are a plurality of subjects, it is possible to automatically change the viewpoint position and the line-of-sight direction of the virtual camera so that they always enter the screen.
In addition, by automatically changing the subject position and orientation to match the viewpoint position and line-of-sight direction of the virtual camera, it is possible to synthesize a scene viewed by the subject.
In addition, by applying dead band processing to the subject position and orientation information, even if the subject position and orientation information changes finely, fine changes below a certain level α can be ignored, and the position of the virtual camera Alternatively, it is possible to prevent the direction from being changed too much and generate a stable image. Therefore, it is possible to prevent the user from getting drunk with the video.
Moreover, it is possible to apply low-pass filter processing to information on the subject position and orientation. By this processing, the high frequency component of the information on the subject position and direction is removed, the virtual camera position is prevented from changing too finely, and a stable image can be generated. Therefore, it is possible to prevent the user from getting drunk on the video.
Also, by delaying the video and relatively pre-reading the processing of the subject position and orientation information, it is possible to control the position and direction of the virtual camera in advance of the future movement of the subject.
Further, by determining whether or not the generated screen is in the backlight state, the viewpoint position and the line-of-sight direction of the virtual camera can be controlled so as to avoid the viewpoint position and the line-of-sight direction of the virtual camera that is in the backlight state.
第1の実施例:
図1は、本発明による任意視点映像生成システムの第1の実施例を説明するための要部概略構成を示すブロック図で、図中、10は本発明による任意視点映像生成システムを示し、該任意視点映像生成システム10は、多眼映像撮影部1、被写体位置及び向き検出部2、仮想カメラ位置及び方向算出部3、映像生成部4、映像出力部5から構成される。
First embodiment:
FIG. 1 is a block diagram showing a schematic configuration of a main part for explaining a first embodiment of an arbitrary viewpoint video generation system according to the present invention. In FIG. 1, 10 indicates an arbitrary viewpoint video generation system according to the present invention. The arbitrary viewpoint
多眼映像撮影部1は、被写体の周囲に多数のカメラを配置し、被写体を様々な視点位置及び視線方向から撮影した映像データ群を得るものである。
The multi-view
被写体位置及び向き検出部2は、一つ以上の被写体の位置や向きを検出する処理を行い、検出処理した情報を仮想カメラ位置及び方向算出部3に送る。
The subject position and
被写体の位置や向きの検出手段について以下に述べる。
被写体の位置に関しては、例えば、非特許文献3ないし非特許文献4では、多眼映像データから複数の被写体の位置を求める手法が述べられている。また、例えば非特許文献5ないし非特許文献6では、多眼映像データから被写体の向きを推定する手法が述べられている。これらの手法を用いれば、多眼映像撮影部101から得られる多眼映像データから複数の被写体の位置や向きを検出することが可能である。
また別の方法としては、被写体にあらかじめGPS(Global Positioning System)やジャイロセンサのような被写体の位置や向きを検出できるセンサを持たせ、該センサから取得した情報を利用し、被写体の位置や向きを検出する、という手段を用いることも可能である。
もちろん、その他の手段を用いてもかまわないし、それらの手段を複合して用いてもかまわない。
The means for detecting the position and orientation of the subject will be described below.
Regarding the positions of the subjects, for example,
As another method, the subject is provided with a sensor such as a GPS (Global Positioning System) or a gyro sensor that can detect the position and orientation of the subject in advance, and the information obtained from the sensor is used to obtain the position and orientation of the subject. It is also possible to use a means of detecting.
Of course, other means may be used, or these means may be used in combination.
仮想カメラ位置及び方向算出部3は、被写体位置及び向き検出部2から得られた被写体の位置や向きの情報を用いて、被写体に対する仮想カメラの視点位置と視線方向の情報を算出する。この算出方法に関しては、後で、より詳細に説明する。
The virtual camera position and
映像生成部4では、多眼映像撮影部1からの多眼映像データを用い、仮想カメラ位置及び方向算出部3から送られてきた仮想カメラの視点位置及び視線方向の情報に従って、該仮想カメラから被写体をみた仮想画像を生成する。この仮想画像の生成方法として例えば下記のA,B2つの方法が考えられる。
The
A.非特許文献1や非特許文献2に記載の任意視点映像生成技術を用い、多眼映像データから、仮想カメラの視点位置及び視線方向における映像を合成する方法である。この場合、元々カメラの存在しない視点位置及び視線方向における映像も合成して表示することが可能である。仮想カメラの視点位置及び視線方向の変化に応じて、映像もスムーズに変化する。また、任意視点映像生成技術を用いれば、左右の目の間隔だけ離れた2つの視点での映像を合成することで、立体表示可能な映像を生成することも可能である。
A. This is a method of synthesizing videos in the viewpoint position and line-of-sight direction of a virtual camera from multi-view video data using the arbitrary viewpoint video generation technology described in
B.仮想カメラの視点位置及び視線方向に最も近い映像を、多眼映像データの中から選び出して表示するものである。簡易的な方法であり、複雑な画像合成処理が不要なのが利点である。その代わりに、元々カメラの存在している場所からの映像しか見ることができず、仮想カメラの位置と方向の変化に対し、該仮想カメラの位置と方向に最も近いカメラへと時々映像が切り替わる形になる。
もちろん、その他の方法を用いてもかまわない。
B. The video closest to the viewpoint position and the line-of-sight direction of the virtual camera is selected from the multi-view video data and displayed. The advantage is that it is a simple method and does not require complicated image composition processing. Instead, only the video from where the camera originally resides can be seen, and the video sometimes switches to the camera closest to the virtual camera's position and direction as the virtual camera's position and direction change. Become a shape.
Of course, other methods may be used.
映像出力部5は、映像生成部4で生成された映像を表示する。一般的な2次元ディスプレイである場合や、立体視が可能な3次元ディスプレイである場合が考えられる。
The
仮想カメラ位置及び方向算出部3における処理は、被写体に応じていくつかの処理方法が考えられる。以下、それぞれについて詳細に説明する。
For the processing in the virtual camera position and
図2は、スポーツ中継に本発明を適用した場合において、仮想カメラの視点位置及び視線方向を算出する第1の例を説明するための図で、図中、21は被写体として想定したサッカーの選手、22は仮想カメラ、矢印Aはサッカーの選手21の正面の向き、矢印Bはサッカーの選手21の移動方向、矢印Cは仮想カメラ22の視線方向を示している。図2では、サッカーの選手21が、周りを見渡すために体の向き、つまり、正面の向き(矢印A)を変えながら、順次、矢印B方向へ移動している様子を鳥瞰している。
FIG. 2 is a diagram for explaining a first example of calculating the viewpoint position and line-of-sight direction of a virtual camera when the present invention is applied to a sports broadcast. In the figure,
ここで、被写体位置及び向き検出部2から得られた特定被写体の位置や向きの情報を用いれば、常に被写体に対して一定の距離及び方向に仮想カメラ22が位置し、仮想カメラ22が常に被写体の方向(矢印C)を向くように制御することが可能である。
Here, if information on the position and orientation of the specific subject obtained from the subject position and
図2では、被写体の選手21が位置や方向を変えても、常に選手21の正面方向(矢印A)で一定の距離に仮想カメラ22が位置し被写体の方向(矢印C)を向くよう制御している様子を示している。この制御により、選手21の位置や方向に関わらず、常に選手21を正面から一定の距離で見た場合の映像を生成することが可能となる。もちろん、被写体の正面方向だけではなく、被写体の背面、側面、上面など任意の方向に対して同様の処理が可能である。このように仮想カメラ位置を制御することで、常に、一定の見やすい相対位置から被写体を観察することが可能となる。
In FIG. 2, even if the
図3は、スポーツ中継に本発明を適用した場合において、仮想カメラの視点位置を算出する第2の例を説明するための図で、図中、21は被写体として想定した短距離走の選手、22は仮想カメラ、矢印Aは短距離走の選手21の正面の向き、矢印Bは短距離走の選手21の移動方向、矢印Cは仮想カメラ22の視線方向を示している。図3では、短距離走の選手21が他の選手の様子を知るために周りを見渡しながら走っている様子を示している。
FIG. 3 is a diagram for explaining a second example of calculating the viewpoint position of the virtual camera when the present invention is applied to a sports broadcast. In the figure, 21 is a short-distance running player assumed as a subject, 22 indicates a virtual camera, arrow A indicates the front direction of the
このとき、被写体位置及び向き検出部2から得られた特定被写体の位置の情報を用いれば、仮想カメラ22の絶対的な方向は固定したまま常に被写体を撮影し続けるように仮想カメラ22の視点位置を制御することが可能である。図3に示した第2の例においては、仮想カメラ22の視線方向(矢印C)がコース(短距離走の選手21の移動方向B)と常に直角になるよう保ちながら、選手21を画面の中央に捕らえるよう仮想カメラ22の視点位置を移動させている。このように、仮想カメラ22の視点位置を制御することにより、例えば100m走において常に選手の真横の位置から見ることが可能となり、どの選手が現在先頭なのかがはっきりとわかる映像を生成することができる。もちろん、コースと直角になる方向だけではなく任意の方向に仮想カメラの向きを固定して同様の処理を行うことが可能である。
At this time, if the information on the position of the specific subject obtained from the subject position and
図4及び図5は、スポーツ中継に本願発明を適用した場合において、仮想カメラの位置を算出する第3の例を説明するための図で、図4及び図5において、21は被写体として想定したサッカーの選手、22は仮想カメラ、23はボール、矢印Aはサッカーの選手21の正面の向き、矢印Dは該矢印Dが示した範囲が仮想カメラ22の撮影範囲であることを示している。そして、図4では、選手21の近くにボール23が存在する状況を、図5では、選手21がボール23を蹴ったため選手21からボール23が離れつつある状況を示しているとする。このとき、被写体位置及び向き検出部2から得られた特定被写体の位置の情報を用いれば、図4及び図5のいずれの場合でも選手21とボール23の両方が撮影範囲内に入るように仮想カメラ22の位置を制御することが可能である。
4 and 5 are diagrams for explaining a third example of calculating the position of the virtual camera when the present invention is applied to a sports broadcast. In FIGS. 4 and 5, 21 is assumed to be a subject. A soccer player, 22 is a virtual camera, 23 is a ball, arrow A is the front direction of the
図5において、仮想カメラ22の位置を、図4における仮想カメラ22の位置より後方に移動させることで、選手21とボール23の両方を撮影範囲に収めている。また、前記仮想カメラの位置及び方向を算出する第1及び第2の例と組み合わせて、前記第3の例を用いることも可能である。
In FIG. 5, by moving the position of the
図6は、スポーツ中継に本発明を適用した場合において、仮想カメラの視点位置及び視線方向を算出する第4の例を説明するための図で、21は被写体として想定したサッカーの選手、22は仮想カメラ、矢印Bはサッカーの選手21の移動方向、矢印Eはサッカーの選手21の正面の向き及び仮想カメラ22の視線方向を示している。図6では、サッカーの選手21が、周りを見渡すために体の向き、つまり、正面の向き(矢印E)を変えながら、矢印B方向へ移動している様子を示している。
FIG. 6 is a diagram for explaining a fourth example of calculating the viewpoint position and line-of-sight direction of the virtual camera when the present invention is applied to a sports broadcast, where 21 is a soccer player assumed as a subject, 22 is The virtual camera, arrow B indicates the moving direction of the
ここで、被写体位置及び向き検出部2から得られた特定被写体の位置及び向きの情報を用いれば、仮想カメラ22の位置及び向きと、選手21の視点位置及び向きを一致させることで、選手21の視点位置から選手21の向いている方向を見た場合の映像、すなわち選手が見ている光景を合成することが可能である。図6では、選手21の視点位置及び視線方向に合わせ、仮想カメラ22の位置及び方向が追従している様子を示した。
Here, if the information on the position and orientation of the specific subject obtained from the subject position and
第2の実施例:
図7は、本発明による任意視点映像生成システムの第2の実施例を説明するための要部概略構成を示すブロック図で、図中、10は本発明による任意視点映像生成システムで、該任意視点映像生成システム10は、多眼映像撮影部1、被写体位置及び向き検出部2、仮想カメラ位置及び方向算出部3、映像生成部4、映像出力部5、情報記録部6から構成される。つまり、図1に示した第1の実施例に対して、情報記録部6を追加したもので、この情報記録部6は、被写体位置及び向き検出部2から得られた特定被写体の位置や向きの情報を処理する際に必要となる不感帯域情報や、特定被写体の位置や向きの過去の情報を記録する部分である。
Second embodiment:
FIG. 7 is a block diagram showing a schematic configuration of a main part for explaining a second embodiment of the arbitrary viewpoint video generation system according to the present invention. In FIG. 7, 10 is an arbitrary viewpoint video generation system according to the present invention. The viewpoint
図8は、被写体の向きの情報(被写体の方向情報)に対して不感帯域を設けて被写体の方向情報を算出する例を説明したフロー図である。
まず、被写体位置及び向き検出部2から被写体の向きの情報(角度Fとする)を取得する(ステップS1)。
次に、角度Fが情報記録部6に記録されている不感帯域の範囲内かどうかを判定する(ステップS2)。
不感帯域の範囲内である場合には(ステップS2でYES)、情報記録部6から一時点前の被写体の向き情報を読み出し、仮想カメラの視点位置及び視線方向の算出のためのデータとして出力する(ステップS3)。
不感帯域の範囲外である場合には(ステップS2でNO)、まず、情報記録部6に新たな不感帯域の下限値として角度F−α、上限値として角度F+αを上書きし(ステップS4)、情報記録部6に被写体の向き情報の新しい値として角度Fを記録し(ステップS5)、角度Fを仮想カメラの視点位置及び視線方向の算出用データとして出力する(ステップS6)。
最後に、仮想カメラの視点位置及び視線方向を算出する(ステップS7)。
以上の処理を映像の各フレームごとに行う。なお、αは、不感帯域のレベル(基準値)である。
FIG. 8 is a flowchart illustrating an example of calculating subject direction information by providing a dead band for subject direction information (subject direction information).
First, information on the direction of the subject (angle F) is obtained from the subject position and orientation detection unit 2 (step S1).
Next, it is determined whether or not the angle F is within the dead band range recorded in the information recording unit 6 (step S2).
If it is within the dead band range (YES in step S2), the orientation information of the subject before the temporary point is read from the
If it is out of the dead band range (NO in step S2), first, the
Finally, the viewpoint position and line-of-sight direction of the virtual camera are calculated (step S7).
The above processing is performed for each frame of the video. Α is the level of the dead band (reference value).
不感帯域を設けた処理を行わない場合、被写体の向きの変化に追従するために仮想カメラ位置及び方向が常に細かな変化をし、生成画像を見た利用者が映像に酔う可能性がある。
これに対して、上記の不感帯域処理を加えることで、被写体の向きの情報(角度F)が細かく変化した場合でも、あるレベルα以下の細かい変化を無視することができ、仮想カメラの位置又は/及び方向が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため、利用者が映像に酔うことを防止できる。
When the processing with the dead band is not performed, the virtual camera position and direction always change slightly in order to follow the change in the direction of the subject, and the user who sees the generated image may get drunk on the video.
On the other hand, by adding the dead band processing described above, even if the information on the direction of the subject (angle F) changes finely, a fine change below a certain level α can be ignored, and the position of the virtual camera or / And it is possible to prevent the direction from changing too finely and to generate a stable image. Therefore, it is possible to prevent the user from getting drunk with the video.
なお、図8では被写体の向きの情報に適用した場合の例を説明したが、被写体の位置情報に対して同様の処理を加えることももちろん可能である。 Although the example in the case of applying to the orientation information of the subject has been described with reference to FIG. 8, it is of course possible to add the same processing to the location information of the subject.
また、過去の被写体位置及び方向の情報を情報記録部6に記録しておき、時系列で並べた被写体位置及び方向の情報に対してローパスフィルタ処理をかけることが可能である。該処理により被写体位置及び方向の情報の高周波成分を取り除き、仮想カメラの位置が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため利用者が映像に酔うことを防止できる。
It is also possible to record past subject position and direction information in the
第3の実施例:
図9は、本発明による任意視点映像生成システムの第3の実施例を説明するための要部概略構成を示すブロック図で、図中、10は本発明による任意視点映像生成システムで、該任意視点映像生成システム10は、多眼映像撮影部1、被写体位置及び向き検出部2、仮想カメラ位置及び方向算出部3、映像生成部4、映像出力部5、情報記録部6、映像遅延部7から構成される。つまり、図7に示した第2の実施例に対して、映像遅延部7を追加したものである。
Third embodiment:
FIG. 9 is a block diagram showing a schematic configuration of a main part for explaining a third embodiment of the arbitrary viewpoint video generation system according to the present invention. In FIG. 9, 10 is an arbitrary viewpoint video generation system according to the present invention. The viewpoint
映像遅延部7は、多眼映像撮影部1からの多眼映像データを一旦蓄積し、遅延させてから映像生成部4に送り出す機能を実行する。このように映像を遅延させることで、被写体位置及び向き検出部2から得られる被写体の位置及び向き情報は、映像に対して相対的に前の時間の情報となる。よって、被写体の位置及び向き情報を先読みするのと同等の処理(以下では仮想先読み処理と呼ぶ)を行うことが可能となる。
The video delay unit 7 executes a function of temporarily storing the multi-view video data from the multi-view
第3の実施例の具体的な例を、図10と図11を用いて説明する。図10、図11において、21は被写体として想定したサッカーの選手、22は仮想カメラ、23はサッカーボール、矢印Aはサッカーの選手21の正面の向き、矢印Dは該矢印Dが示した範囲が仮想カメラ22の撮影範囲であることを示している。そして、図10では、選手21の近くにボールが存在する状況を、図11では、選手21がボール23を蹴ったため選手からボール23が離れつつある状況を示しているとする。
A specific example of the third embodiment will be described with reference to FIGS. 10 and 11,
図4および図5で説明した実施例1では、図4および図5のいずれの場合でも選手21とボール23の両方が画面に入るように仮想カメラの位置を制御することが可能であることを示した。この実施例1に対して、さらに、仮想先読み処理を加えると、選手21がボール23を蹴ってボール23が離れていくことが先にわかるので早めに仮想カメラの視点位置及び視線方向を動かし、ボール23の進行方向が画面内(撮影範囲を示す矢印D内)に入るように仮想カメラの視点位置及び視線方向を制御することが可能となる。
In the first embodiment described with reference to FIGS. 4 and 5, it is possible to control the position of the virtual camera so that both the
図10に示した仮想カメラ22の位置と図4に示した仮想カメラ22の位置を比較すると、図10においては、選手21がボール23を蹴ることを先読みして仮想カメラ22の位置及び向きを制御するため、ボール23の進行方向を画面内に入れるような仮想カメラの位置及び向きとなっている。同様に、図11に示した仮想カメラ22の位置と図5の仮想カメラ22の位置を比較すると、図11に示した仮想カメラ22の位置は、ボール23の進行方向を画面内に入れるような位置及び向きになっている。
When the position of the
このような仮想先読み処理を行うことで、視聴者がよりボールを追いやすくなる。また、ボールの進行方向の先にあるものを見やすくなる。あるいは、処理が遅延するため、ボールが画面から出てしまう事を防ぐことが可能となる。 By performing such virtual prefetching processing, it becomes easier for the viewer to follow the ball. Also, it becomes easier to see what is ahead of the moving direction of the ball. Alternatively, since the processing is delayed, it is possible to prevent the ball from coming out of the screen.
なお、仮想カメラの視点位置及び視線方向の制御に用いる情報として、被写体の位置及び向き情報以外の情報も用いることが可能である。例えば、生成画面が逆光状態であるかどうかを判定する手段を用い、逆光状態になる仮想カメラの視点位置及び視線方向は避けるよう、仮想カメラの視点位置及び視線方向を制御することが可能である。あるいは、多眼映像撮影部1の映像から高輝度の被写体を判定し、該被写体が生成画面に入らないように仮想カメラの視点位置及び視線方向を制御することで、逆光状態になる仮想カメラの視点位置及び視線方向を避けることも可能である。
Information other than the subject position and orientation information can also be used as information used for controlling the viewpoint position and line-of-sight direction of the virtual camera. For example, it is possible to control the viewpoint position and the line-of-sight direction of the virtual camera so as to avoid the viewpoint position and the line-of-sight direction of the virtual camera that is in the backlight state by using means for determining whether the generated screen is in the backlight state. . Alternatively, a high-brightness subject is determined from the video of the multi-view
このように、生成画面が逆光状態にならないことを仮想カメラの視点位置及び視線方向を算出するための所定の条件とすることも可能である。他にも、仮想カメラの視点位置及び視線方向を算出するために様々な所定の条件を用いることが可能である。 As described above, it is also possible to set a predetermined condition for calculating the viewpoint position and the line-of-sight direction of the virtual camera that the generation screen does not enter the backlight state. In addition, various predetermined conditions can be used to calculate the viewpoint position and the line-of-sight direction of the virtual camera.
また、前記逆光状態になる仮想カメラの視点位置及び視線方向を避けるように仮想カメラの視点位置及び視線方向を制御する処理と、前記被写体の位置や方向の情報を用いて仮想カメラの視点位置及び視線方向を算出する処理を併用することも可能である。 In addition, a process of controlling the viewpoint position and the line-of-sight direction of the virtual camera so as to avoid the viewpoint position and the line-of-sight direction of the virtual camera that is in the backlight state, It is also possible to use a process for calculating the line-of-sight direction.
なお、本特許では図1ないし図7ないし図9のように、多眼映像撮影部1によって得られたデータを直接映像生成部4ないし映像遅延部7に入力する形で説明を行ったが、実施の形態はこれに限るものではない。例えば、放送に適用する形、すなわち多眼映像撮影部1で撮影した多眼映像データを電波やネットワークで送信し、視聴者がそれを受信して処理するシステムにおいても、同様の仕組みを適用可能である。また、パッケージメディアに適用する形、すなわち多眼映像撮影部1で撮影した多眼映像データを一旦何らかの記録媒体に記録し、視聴者側でそれを読み出して処理するシステムにおいても、同様の仕組みを適用可能である。
In this patent, as shown in FIG. 1 to FIG. 7 to FIG. 9, the data obtained by the multi-view
1…多眼映像撮影部、2…被写体位置及び向き検出部、3…仮想カメラ位置及び方向算出部、4…映像生成部、5…映像出力部、6…情報記録部、7…映像遅延部、21…選手、22…仮想カメラ、23…ボール。
DESCRIPTION OF
Claims (21)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005127639A JP2006310936A (en) | 2005-04-26 | 2005-04-26 | System for generating video image viewed at optional viewpoint |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005127639A JP2006310936A (en) | 2005-04-26 | 2005-04-26 | System for generating video image viewed at optional viewpoint |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006310936A true JP2006310936A (en) | 2006-11-09 |
Family
ID=37477353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005127639A Pending JP2006310936A (en) | 2005-04-26 | 2005-04-26 | System for generating video image viewed at optional viewpoint |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006310936A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011130323A (en) * | 2009-12-21 | 2011-06-30 | Canon Inc | Broadcast receiver and control method thereof |
JP2013106324A (en) * | 2011-11-16 | 2013-05-30 | Casio Comput Co Ltd | Image processor, image processing method and program |
JP2017055175A (en) * | 2015-09-07 | 2017-03-16 | キヤノン株式会社 | Image processing system |
JP2017112431A (en) * | 2015-12-14 | 2017-06-22 | キヤノン株式会社 | Information processing apparatus, information processing method, and computer program |
JP2019061629A (en) * | 2017-09-28 | 2019-04-18 | 沖電気工業株式会社 | Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system |
JP2019520013A (en) * | 2016-06-17 | 2019-07-11 | クールテ,アレクサンドル | Image capturing method and system using virtual sensor |
EP3574963A1 (en) | 2018-03-23 | 2019-12-04 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
US11778155B2 (en) | 2020-11-11 | 2023-10-03 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231405A (en) * | 1996-02-20 | 1997-09-05 | Sega Enterp Ltd | Picture processor and method therefor |
JP2000348165A (en) * | 1999-06-04 | 2000-12-15 | Mitsubishi Electric Corp | Scene display device |
JP2003244728A (en) * | 2002-02-15 | 2003-08-29 | Mitsubishi Heavy Ind Ltd | Virtual image creating apparatus and virtual image creating method |
JP2003264821A (en) * | 2002-03-08 | 2003-09-19 | Matsushita Electric Ind Co Ltd | Monitor system |
JP2003274257A (en) * | 2002-03-13 | 2003-09-26 | Matsushita Electric Ind Co Ltd | Automatic video shooting system, automatic video shooting method, and automatic video shooting device |
JP2004246667A (en) * | 2003-02-14 | 2004-09-02 | Keiogijuku | Free viewpoint moving image data generation method and program for causing computer to execute the processing |
JP2004287517A (en) * | 2003-03-19 | 2004-10-14 | Nippon Telegr & Teleph Corp <Ntt> | Virtual viewpoint image generation method and virtual viewpoint image generation device, virtual viewpoint image generation program, and recording medium |
JP2005100367A (en) * | 2003-09-02 | 2005-04-14 | Fuji Photo Film Co Ltd | Image generating apparatus, image generating method and image generating program |
-
2005
- 2005-04-26 JP JP2005127639A patent/JP2006310936A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231405A (en) * | 1996-02-20 | 1997-09-05 | Sega Enterp Ltd | Picture processor and method therefor |
JP2000348165A (en) * | 1999-06-04 | 2000-12-15 | Mitsubishi Electric Corp | Scene display device |
JP2003244728A (en) * | 2002-02-15 | 2003-08-29 | Mitsubishi Heavy Ind Ltd | Virtual image creating apparatus and virtual image creating method |
JP2003264821A (en) * | 2002-03-08 | 2003-09-19 | Matsushita Electric Ind Co Ltd | Monitor system |
JP2003274257A (en) * | 2002-03-13 | 2003-09-26 | Matsushita Electric Ind Co Ltd | Automatic video shooting system, automatic video shooting method, and automatic video shooting device |
JP2004246667A (en) * | 2003-02-14 | 2004-09-02 | Keiogijuku | Free viewpoint moving image data generation method and program for causing computer to execute the processing |
JP2004287517A (en) * | 2003-03-19 | 2004-10-14 | Nippon Telegr & Teleph Corp <Ntt> | Virtual viewpoint image generation method and virtual viewpoint image generation device, virtual viewpoint image generation program, and recording medium |
JP2005100367A (en) * | 2003-09-02 | 2005-04-14 | Fuji Photo Film Co Ltd | Image generating apparatus, image generating method and image generating program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011130323A (en) * | 2009-12-21 | 2011-06-30 | Canon Inc | Broadcast receiver and control method thereof |
JP2013106324A (en) * | 2011-11-16 | 2013-05-30 | Casio Comput Co Ltd | Image processor, image processing method and program |
JP2017055175A (en) * | 2015-09-07 | 2017-03-16 | キヤノン株式会社 | Image processing system |
JP2017112431A (en) * | 2015-12-14 | 2017-06-22 | キヤノン株式会社 | Information processing apparatus, information processing method, and computer program |
JP2019520013A (en) * | 2016-06-17 | 2019-07-11 | クールテ,アレクサンドル | Image capturing method and system using virtual sensor |
JP2019061629A (en) * | 2017-09-28 | 2019-04-18 | 沖電気工業株式会社 | Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system |
EP3574963A1 (en) | 2018-03-23 | 2019-12-04 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
US10834477B2 (en) | 2018-03-23 | 2020-11-10 | Canon Kabushiki Kaisha | Information processing apparatus and control method thereof |
US11778155B2 (en) | 2020-11-11 | 2023-10-03 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106331732B (en) | Generate, show the method and device of panorama content | |
US20200288113A1 (en) | System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view | |
US20120013711A1 (en) | Method and system for creating three-dimensional viewable video from a single video stream | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
JP6126820B2 (en) | Image generation method, image display method, image generation program, image generation system, and image display apparatus | |
JP5304714B2 (en) | Pseudo stereoscopic image generation apparatus and camera | |
WO2011043249A1 (en) | Image processing device and method, and program | |
EP3349444B1 (en) | Method for processing media content and technical equipment for the same | |
JP2011135459A (en) | Image processing apparatus and method, and program | |
TWI584050B (en) | Panoramic stereoscopic image synthesis method, apparatus and mobile terminal | |
US20130050412A1 (en) | Image processing apparatus and image processing method | |
KR101270025B1 (en) | Stereo Camera Appratus and Vergence Control Method thereof | |
US9161018B2 (en) | Methods and systems for synthesizing stereoscopic images | |
US20190335153A1 (en) | Method for multi-camera device | |
JP2006310936A (en) | System for generating video image viewed at optional viewpoint | |
JP4971813B2 (en) | Video generation apparatus and video generation program | |
US11187895B2 (en) | Content generation apparatus and method | |
JP2018033107A (en) | Video distribution device and distribution method | |
JP2008167310A (en) | Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program | |
KR20150031662A (en) | Video device and method for generating and playing video thereof | |
KR102838246B1 (en) | Techniques for displaying and capturing images | |
JP4454959B2 (en) | 3D image display method | |
EP4539454A1 (en) | Apparatus and method for head mountable display with a separate screen for spectator | |
KR20250113969A (en) | Techniques for displaying and capturing images | |
KR20240172094A (en) | Techniques for displaying and capturing images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060919 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110412 |