[go: up one dir, main page]

JP2006310936A - System for generating video image viewed at optional viewpoint - Google Patents

System for generating video image viewed at optional viewpoint Download PDF

Info

Publication number
JP2006310936A
JP2006310936A JP2005127639A JP2005127639A JP2006310936A JP 2006310936 A JP2006310936 A JP 2006310936A JP 2005127639 A JP2005127639 A JP 2005127639A JP 2005127639 A JP2005127639 A JP 2005127639A JP 2006310936 A JP2006310936 A JP 2006310936A
Authority
JP
Japan
Prior art keywords
viewpoint
virtual camera
line
subject
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005127639A
Other languages
Japanese (ja)
Inventor
Kenichiro Yamamoto
健一郎 山本
Masayuki Nakazawa
正幸 中沢
Michiaki Mukai
理朗 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005127639A priority Critical patent/JP2006310936A/en
Publication of JP2006310936A publication Critical patent/JP2006310936A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology of tracing a particular object at all times, generating its video image and providing a video image resulting from viewing the object from an easy to see position by automatically and optionally controlling a viewpoint position and a sight line direction. <P>SOLUTION: Video information items from a multiple-lens imaging section 1 comprising many cameras located at different viewpoint positions and different sight line directions are composed into a video image in an optional viewpoint position and an optional sight line direction. An object position and direction detection section 2 detects the position and the direction of the object and a virtual camera position and direction calculation section 3 calculates the viewpoint position and the sight line direction of a virtual camera with respect to the object. Further, a video generating section 4 uses multiple-lens video data from the multiple-lens imaging section 1 to generate an image according to the information about the viewpoint position and the sight line direction of the virtual camera transmitted from the virtual camera position and direction calculation section 3. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、任意視点映像生成システム、より詳細には、それぞれ異なる視点位置及び視線方向に配置した多数のカメラによる映像情報から、実際にはカメラの存在しない視点位置及び視線方向での映像すなわち仮想カメラの視点位置及び視線方向における映像を生成する任意視点映像生成システムに関する。   The present invention relates to an arbitrary viewpoint video generation system, and more specifically, video from a plurality of cameras arranged at different viewpoint positions and line-of-sight directions. The present invention relates to an arbitrary viewpoint video generation system that generates a video at a camera viewpoint position and a line-of-sight direction.

多くの研究機関・大学等で、実際には存在しない仮想カメラを想定し、該仮想カメラを用いて被写体を所望の任意視線方向及び任意視点位置から見た映像を生成する任意視点映像生成技術が研究されている。これは、あるシーン(被写体)を現実の多数のカメラを用いて撮影し、その映像データを処理することで、実際にはカメラの存在しない地点に仮想カメラがあるものと想定し、あたかも、この仮想カメラが撮影したように映像を生成する技術である。例えば非特許文献1や非特許文献2のような技術を用いれば、利用者が仮想カメラの視点位置や視線方向を操作して、特定被写体をずっと追跡して映像を見ることが可能である。スポーツ中継を例に採ると、自分のひいきの選手を常に追跡して見ることができる。
一方、移動する選手をカメラで撮影する場合に、自動的にカメラ方向を制御して選手を追跡する自動追跡技術がある(例えば、特許文献1参照)。
特開2004−80163号公報 北原,佐藤,大田,“多眼ステレオ法を用いた運動視差の再現可能な3次元画像表示―表示画像の生成と評価―”,テレビジョン学会誌,Vol.50,No.9,pp.1268 − 1276(1996) プリム,藤井,谷本:“自由視点テレビのためのリアルタイムシステム”,信学技報,IE2002−120(2002) 稲本,斎藤:“視点位置の内挿に基づく3次元サッカー映像の自由視点観賞システム”,映像情報メディア学会誌,Vol.58,No.4,pp.529 − 539(2004) 木村,斎藤:“テニスの多視点画像からのプレイヤー視点映像の生成法”,電子情報通信学会総合大会,D−12−172(2004) 大谷,岸野:“遺伝的アルゴリズムを用いた多眼画像からの人物の姿勢のモデルベース推定”,映像情報メディア学会誌,Vol.51,No.12,pp.2107 − 2115(1997) 湊,斎藤:“多視点サッカー映像を用いた選手の動作解析”,電子情報通信学会総合大会,D−12−123(2004)
Many research institutes / universities, etc. have an arbitrary viewpoint video generation technology for generating a virtual camera that does not actually exist and generates an image in which a subject is viewed from a desired arbitrary gaze direction and arbitrary viewpoint position using the virtual camera. It has been studied. This is because a scene (subject) is shot using a large number of real cameras, and the video data is processed, assuming that there is actually a virtual camera at a point where the camera does not exist. This is a technology for generating video as if it were taken by a virtual camera. For example, if a technique such as Non-Patent Document 1 or Non-Patent Document 2 is used, the user can manipulate the viewpoint position and line-of-sight direction of the virtual camera to watch the video while tracking the specific subject. Taking sporting sports as an example, you can always track and watch your favorite players.
On the other hand, when a moving player is photographed with a camera, there is an automatic tracking technology that automatically controls the camera direction to track the player (see, for example, Patent Document 1).
JP 2004-80163 A Kitahara, Sato, Ota, “3-D image display capable of reproducing motion parallax using the multi-eye stereo method—generation and evaluation of display image”, Television Society Journal, Vol. 1268-1276 (1996) Primm, Fujii, Tanimoto: "Real-time system for free viewpoint TV", IEICE Technical Report, IE2002-120 (2002) Inamoto, Saito: “Free viewpoint viewing system for 3D soccer video based on viewpoint interpolation”, Journal of the Institute of Image Information and Television Engineers, Vol. 58, no. 4, pp. 529-539 (2004) Kimura, Saito: “Method for generating player viewpoint video from multi-viewpoint images of tennis”, IEICE General Conference, D-12-172 (2004) Otani, Kishino: “Model-based estimation of human postures from multi-view images using genetic algorithms”, Journal of the Institute of Image Information and Television Engineers, Vol. 51, no. 12, pp. 2107-2115 (1997) Kaoru, Saito: “Analysis of player motion using multi-view soccer video”, IEICE General Conference, D-12-123 (2004)

上述のごとき任意視点映像生成技術を用いれば、特定の選手を常に追跡して見ることが可能であるが、利用者は、選手の移動に合わせて常に仮想カメラの視点位置や視線方向を調節する必要があり、利用者への負担が大きいという問題がある。負担を軽減するためには、自動的に選手を追跡できる機能があることが望ましい。   If the arbitrary viewpoint video generation technology as described above is used, it is possible to always track and watch a specific player, but the user always adjusts the viewpoint position and line-of-sight direction of the virtual camera according to the movement of the player. There is a problem that it is necessary and the burden on the user is large. In order to reduce the burden, it is desirable to have a function that can automatically track players.

しかし、上記特許文献1で挙げた自動追跡技術では、カメラ位置は固定であり、カメラ位置と選手の位置の関係によっては、例えば、選手がカメラから遠ざかると選手の映像が小さくなる、または、選手の背中しか撮影できなくなるなど、選手について所望の映像が得られない場合があるという問題がある。   However, in the automatic tracking technology described in Patent Document 1, the camera position is fixed, and depending on the relationship between the camera position and the position of the player, for example, when the player moves away from the camera, the video of the player becomes smaller, or the player There is a problem that a desired image cannot be obtained for the player, such as being able to shoot only the back of the player.

本発明は、上記の問題点を解決するために、任意視点映像生成の際に、下記の2点を実現するものである。
(1)特定選手を常に追跡して、仮想カメラの視点位置及び視線方向での映像を生成する。
(2)選手の位置や向きに応じて自動的に仮想カメラの視点位置及び視線方向を制御し、選手を見やすい位置から見た映像を提供する。
例えば、常に選手の正面で一定の距離になる位置及び方向に仮想カメラを自動的に移動させて、該仮想カメラの視点位置及び視線方向での映像を生成することを実現する。
In order to solve the above problems, the present invention realizes the following two points when generating an arbitrary viewpoint video.
(1) A specific player is always tracked, and an image in the viewpoint position and the line-of-sight direction of the virtual camera is generated.
(2) Automatically control the viewpoint position and line-of-sight direction of the virtual camera in accordance with the position and orientation of the player, and provide an image viewed from a position where the player can easily see.
For example, it is possible to automatically move the virtual camera to a position and a direction that are always a fixed distance in front of the player, and to generate an image in the viewpoint position and the line-of-sight direction of the virtual camera.

本発明の第1の手段は、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像から任意の仮想カメラの視点位置及び視線方向における映像を合成あるいは選択する映像システムにおいて、所定の条件を満たす仮想カメラの視点位置及び視線方向を算出する算出手段を備えたことを特徴とするものである。   According to a first aspect of the present invention, there is provided a video system that synthesizes or selects a video in a viewpoint position and a gaze direction of an arbitrary virtual camera from a video obtained by photographing a certain subject from one or more viewpoint positions and a gaze direction. And a calculation unit that calculates the viewpoint position and the line-of-sight direction of the virtual camera that satisfies the above.

本発明の第2の手段は、前記第1の手段において、一つ以上の被写体の位置及び向きを検出する手段を備え、該検出手段によって得られた一つ以上の被写体の位置及び向きの情報を用いて前記所定の条件を満たす仮想カメラの視点位置及び視線方向を算出することを特徴とするものである。   A second means of the present invention comprises means for detecting the position and orientation of one or more subjects in the first means, and information on the position and orientation of one or more subjects obtained by the detecting means. The viewpoint position and the line-of-sight direction of the virtual camera satisfying the predetermined condition are calculated using.

本発明の第3の手段は、前記第2の手段において、前記所定の条件は、被写体に対して仮想カメラが特定の方向に位置しかつ該仮想カメラの視線方向が被写体の方向を向くことであることを特徴とするものである。   According to a third means of the present invention, in the second means, the predetermined condition is that the virtual camera is positioned in a specific direction with respect to the subject and the line-of-sight direction of the virtual camera faces the direction of the subject. It is characterized by being.

本発明の第4の手段は、前記第2の手段において、前記所定の条件は、仮想カメラの視線方向を固定して視点位置を変え、被写体を仮想カメラの視点位置及び視線方向から常に撮影できることであることを特徴とするものである。   According to a fourth means of the present invention, in the second means, the predetermined condition is that the visual point direction of the virtual camera is fixed and the viewpoint position is changed, and the subject can always be photographed from the viewpoint position and the visual line direction of the virtual camera. It is characterized by being.

本発明の第5の手段は、前記第2乃至第4の手段において、前記所定の条件は、複数の被写体を仮想カメラの視点位置及び視線方向における映像内に収めることであることを特徴とするものである。   According to a fifth means of the present invention, in the second to fourth means, the predetermined condition is that a plurality of subjects are included in an image in a viewpoint position and a line-of-sight direction of the virtual camera. Is.

本発明の第6の手段は、前記第2の手段において、前記所定の条件は、被写体の視点位置及び視線方向と仮想カメラの視点位置及び視線方向が一致することであることを特徴とするものである。   According to a sixth means of the present invention, in the second means, the predetermined condition is that the viewpoint position and the line-of-sight direction of the subject coincide with the viewpoint position and the line-of-sight direction of the virtual camera. It is.

本発明の第7の手段は、前記第2乃至第6の手段において、被写体の位置及び方向の情報に対し不感帯域を設けた処理を行うことを特徴とするものである。   The seventh means of the present invention is characterized in that in the second to sixth means, processing is performed in which a dead band is provided for information on the position and direction of the subject.

本発明の第8の手段は、前記第2乃至第7の手段において、被写体の位置及び方向の情報に対しローパスフィルタ処理を加えることを特徴とするものである。   The eighth means of the present invention is characterized in that in the second to seventh means, low-pass filter processing is applied to information on the position and direction of the subject.

本発明の第9の手段は、前記第2乃至第8の手段において、一つ以上の被写体の位置及び向きを検出する検出手段は、一つ以上の被写体を一つ以上の視点位置及び視線方向から撮影した多眼映像を用いて検出する検出手段であることを特徴とするものである。   According to a ninth means of the present invention, in the second to eighth means, the detecting means for detecting the position and orientation of one or more subjects is one or more subjects for one or more viewpoint positions and line-of-sight directions. It is a detection means to detect using the multi-view video image | photographed from this, It is characterized by the above-mentioned.

本発明の第10の手段は、前記第2乃至第8の手段において、前記一つ以上の被写体の位置及び向きを検出する検出手段は、一つ以上の被写体を上方より撮影した映像を用いて検出する検出手段であることを特徴とするものである。   According to a tenth means of the present invention, in the second to eighth means, the detecting means for detecting the position and orientation of the one or more subjects uses an image obtained by photographing one or more subjects from above. It is the detection means to detect, It is characterized by the above-mentioned.

本発明の第11の手段は、前記第2乃至第8の手段において、前記一つ以上の被写体の位置及び向きを検出する検出手段は、被写体自体に該被写体の位置及び向きを検出できるセンサを有し、該センサにより取得した該被写体の位置及び向きの情報を用いて検出する検出手段であることを特徴とするものである。   According to an eleventh means of the present invention, in the second to eighth means, the detecting means for detecting the position and orientation of the one or more subjects is a sensor capable of detecting the location and orientation of the subject on the subject itself. And detecting means for detecting using the information on the position and orientation of the subject acquired by the sensor.

本発明の第12の手段は、前記第2乃至第8の手段において、請求項9乃至11の手段うちの、任意の検出手段を組み合わせた検出手段を有することを特徴とするものである。   A twelfth means of the present invention is characterized in that, in the second to eighth means, a detection means in which any detection means of the means of claims 9 to 11 is combined.

本発明の第13の手段は、前記第1乃至第12の手段において、前記算出手段による算出結果を用い、前記ある被写体を一つ以上の視点位置及び視線方向から撮影した映像をもとに、前記仮想カメラの視点位置及び視線方向における映像を合成する任意視点映像生成技術を用いることを特徴とするものである。   According to a thirteenth means of the present invention, in the first to twelfth means, based on an image obtained by photographing the certain subject from one or more viewpoint positions and line-of-sight directions, using the calculation result by the calculating means. An arbitrary viewpoint video generation technique for synthesizing videos in the viewpoint position and the line-of-sight direction of the virtual camera is used.

本発明の第14の手段は、前記第1乃至第12の手段において、前記算出手段による算出結果を用い、前記ある被写体を一つ以上の視点位置及び視線方向から撮影した映像から任意の仮想カメラの視点位置及び視線方向における映像に最も類似した映像を選択し、該選択した映像を任意の仮想カメラの視点位置及び視線方向における映像とすることを特徴とするものである。   According to a fourteenth aspect of the present invention, in any one of the first to twelfth means, an arbitrary virtual camera is used from a video obtained by photographing the certain subject from one or more viewpoint positions and line-of-sight directions, using the calculation result by the calculation means. A video that is most similar to the video at the viewpoint position and the line-of-sight direction is selected, and the selected video is used as an image at the viewpoint position and the line-of-sight direction of an arbitrary virtual camera.

本発明の第15の手段は、前記第1乃至第14の手段において、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を所定時間遅延させ、遅延させた映像をもとに任意の仮想カメラの視点位置及び視線方向における映像を合成し、あるいは、遅延させた映像から任意の仮想カメラの視点位置及び視線方向における映像に最も類似した映像を選択し、任意の仮想カメラの視点位置及び視線方向における映像とすることを特徴とするものである。   According to a fifteenth means of the present invention, in the first to fourteenth means, an image obtained by photographing a certain subject from one or more viewpoint positions and line-of-sight directions is delayed for a predetermined time, and an arbitrary image is obtained based on the delayed image. The virtual camera's viewpoint position and line-of-sight direction video are synthesized, or the video image most similar to the virtual camera's viewpoint position and line-of-sight direction image is selected from the delayed video, and the virtual camera's viewpoint position is selected. And an image in the line-of-sight direction.

本発明の第16の手段は、前記第15の手段において、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を所定時間遅延させ、仮想カメラの視点位置及び視線方向の算出を前記映像より相対的に先に行うことを特徴とするものである。   According to a sixteenth means of the present invention, in the fifteenth means, a video obtained by photographing a subject from one or more viewpoint positions and line-of-sight directions is delayed for a predetermined time, and calculation of the viewpoint position and line-of-sight direction of the virtual camera is calculated. It is characterized by being performed relatively earlier than the video.

本発明の第17の手段は、前記第1乃至第16の手段において、仮想カメラの視点位置及び視線方向において生成した映像を出力する手段を備えることを特徴とするものである。   The seventeenth means of the present invention is characterized in that, in the first to sixteenth means, means for outputting a video generated in the viewpoint position and the line-of-sight direction of the virtual camera is provided.

本発明の第18の手段は、前記第17の手段において、前記生成した映像を出力する手段として、2次元表示のディスプレイを用いることを特徴とするものである。   According to an eighteenth means of the present invention, in the seventeenth means, a two-dimensional display is used as the means for outputting the generated video.

本発明の第19の手段は、前記第17の手段において、前記生成した映像を出力する手段として、立体表示ディスプレイを用いることを特徴とするものである。   According to a nineteenth means of the present invention, in the seventeenth means, a stereoscopic display is used as the means for outputting the generated video.

本発明の第20の手段は、前記第1乃至第19の手段において、前記生成した映像内の被写体が逆光になる条件を検出する手段を備え、前記生成した映像内の被写体が逆光にならないことを前記所定の条件とすることを特徴とするものである。   According to a twentieth means of the present invention, in the first to nineteenth means, there is provided means for detecting a condition in which the subject in the generated video is backlit, and the subject in the generated video is not backlit. Is defined as the predetermined condition.

本発明の第21の手段は、前記第20の手段において、ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を用いて逆光の検出を行うことを特徴とするものである。   The twenty-first means of the present invention is characterized in that, in the twentieth means, backlight detection is performed using an image obtained by photographing a certain subject from one or more viewpoint positions and line-of-sight directions.

本発明の映像システムによると、被写体が移動しても、該被写体の移動に合わせて仮想カメラの視点位置及び視線方向を自動的に変化させ、常に、一定の見やすい相対位置から被写体を観察することが可能である。
また、複数の被写体がある場合に、常にそれらが画面内に入るよう仮想カメラの視点位置及び視線方向を自動的に変化させることが可能である。
また、被写体位置及び向きと仮想カメラの視点位置及び視線方向が一致するよう自動的に変化させることで、被写体が見ている光景を合成することが可能である。
また、被写体位置及び向きの情報に対して不感帯域処理を加えることで、被写体位置及び向きの情報が細かく変化した場合でも、あるレベルα以下の細かい変化を無視することができ、仮想カメラの位置又は/及び方向が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため、利用者が映像に酔うことを防止できる。
また、被写体位置及び向きの情報に対してローパスフィルタ処理をかけることが可能である。該処理により被写体位置及び方向の情報の高周波成分を取り除き、仮想カメラの位置が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため利用者が映像に酔うことを防止できる。
また、映像を遅延させることで被写体位置及び向きの情報の処理を相対的に先読み処理することで、被写体の未来の動きを先取りして仮想カメラ位置及び方向の制御を行うことが可能である。
また、生成画面が逆光状態であるかどうかを判定することで、逆光状態になる仮想カメラの視点位置及び視線方向は避けるよう、仮想カメラの視点位置及び視線方向を制御することが可能である。
According to the video system of the present invention, even if the subject moves, the viewpoint position and the line-of-sight direction of the virtual camera are automatically changed in accordance with the movement of the subject, and the subject is always observed from a certain easy-to-see relative position. Is possible.
In addition, when there are a plurality of subjects, it is possible to automatically change the viewpoint position and the line-of-sight direction of the virtual camera so that they always enter the screen.
In addition, by automatically changing the subject position and orientation to match the viewpoint position and line-of-sight direction of the virtual camera, it is possible to synthesize a scene viewed by the subject.
In addition, by applying dead band processing to the subject position and orientation information, even if the subject position and orientation information changes finely, fine changes below a certain level α can be ignored, and the position of the virtual camera Alternatively, it is possible to prevent the direction from being changed too much and generate a stable image. Therefore, it is possible to prevent the user from getting drunk with the video.
Moreover, it is possible to apply low-pass filter processing to information on the subject position and orientation. By this processing, the high frequency component of the information on the subject position and direction is removed, the virtual camera position is prevented from changing too finely, and a stable image can be generated. Therefore, it is possible to prevent the user from getting drunk on the video.
Also, by delaying the video and relatively pre-reading the processing of the subject position and orientation information, it is possible to control the position and direction of the virtual camera in advance of the future movement of the subject.
Further, by determining whether or not the generated screen is in the backlight state, the viewpoint position and the line-of-sight direction of the virtual camera can be controlled so as to avoid the viewpoint position and the line-of-sight direction of the virtual camera that is in the backlight state.

第1の実施例:
図1は、本発明による任意視点映像生成システムの第1の実施例を説明するための要部概略構成を示すブロック図で、図中、10は本発明による任意視点映像生成システムを示し、該任意視点映像生成システム10は、多眼映像撮影部1、被写体位置及び向き検出部2、仮想カメラ位置及び方向算出部3、映像生成部4、映像出力部5から構成される。
First embodiment:
FIG. 1 is a block diagram showing a schematic configuration of a main part for explaining a first embodiment of an arbitrary viewpoint video generation system according to the present invention. In FIG. 1, 10 indicates an arbitrary viewpoint video generation system according to the present invention. The arbitrary viewpoint video generation system 10 includes a multi-view video shooting unit 1, a subject position and orientation detection unit 2, a virtual camera position and direction calculation unit 3, a video generation unit 4, and a video output unit 5.

多眼映像撮影部1は、被写体の周囲に多数のカメラを配置し、被写体を様々な視点位置及び視線方向から撮影した映像データ群を得るものである。   The multi-view video shooting unit 1 arranges a large number of cameras around a subject, and obtains video data groups obtained by shooting the subject from various viewpoint positions and line-of-sight directions.

被写体位置及び向き検出部2は、一つ以上の被写体の位置や向きを検出する処理を行い、検出処理した情報を仮想カメラ位置及び方向算出部3に送る。   The subject position and orientation detection unit 2 performs processing for detecting the position and orientation of one or more subjects, and sends the detected information to the virtual camera position and direction calculation unit 3.

被写体の位置や向きの検出手段について以下に述べる。
被写体の位置に関しては、例えば、非特許文献3ないし非特許文献4では、多眼映像データから複数の被写体の位置を求める手法が述べられている。また、例えば非特許文献5ないし非特許文献6では、多眼映像データから被写体の向きを推定する手法が述べられている。これらの手法を用いれば、多眼映像撮影部101から得られる多眼映像データから複数の被写体の位置や向きを検出することが可能である。
また別の方法としては、被写体にあらかじめGPS(Global Positioning System)やジャイロセンサのような被写体の位置や向きを検出できるセンサを持たせ、該センサから取得した情報を利用し、被写体の位置や向きを検出する、という手段を用いることも可能である。
もちろん、その他の手段を用いてもかまわないし、それらの手段を複合して用いてもかまわない。
The means for detecting the position and orientation of the subject will be described below.
Regarding the positions of the subjects, for example, Non-Patent Document 3 to Non-Patent Document 4 describe a method for obtaining the positions of a plurality of subjects from multi-view video data. Further, for example, Non-Patent Document 5 to Non-Patent Document 6 describe a method for estimating the direction of a subject from multi-view video data. By using these methods, it is possible to detect the positions and orientations of a plurality of subjects from multi-view video data obtained from the multi-view video shooting unit 101.
As another method, the subject is provided with a sensor such as a GPS (Global Positioning System) or a gyro sensor that can detect the position and orientation of the subject in advance, and the information obtained from the sensor is used to obtain the position and orientation of the subject. It is also possible to use a means of detecting.
Of course, other means may be used, or these means may be used in combination.

仮想カメラ位置及び方向算出部3は、被写体位置及び向き検出部2から得られた被写体の位置や向きの情報を用いて、被写体に対する仮想カメラの視点位置と視線方向の情報を算出する。この算出方法に関しては、後で、より詳細に説明する。   The virtual camera position and direction calculation unit 3 uses the information on the position and orientation of the subject obtained from the subject position and orientation detection unit 2 to calculate information on the viewpoint position and line-of-sight direction of the virtual camera with respect to the subject. This calculation method will be described in detail later.

映像生成部4では、多眼映像撮影部1からの多眼映像データを用い、仮想カメラ位置及び方向算出部3から送られてきた仮想カメラの視点位置及び視線方向の情報に従って、該仮想カメラから被写体をみた仮想画像を生成する。この仮想画像の生成方法として例えば下記のA,B2つの方法が考えられる。   The video generation unit 4 uses the multi-view video data from the multi-view video shooting unit 1 and from the virtual camera according to the viewpoint position and line-of-sight direction information sent from the virtual camera position and direction calculation unit 3. A virtual image in which the subject is viewed is generated. As a method for generating this virtual image, for example, the following two methods A and B are conceivable.

A.非特許文献1や非特許文献2に記載の任意視点映像生成技術を用い、多眼映像データから、仮想カメラの視点位置及び視線方向における映像を合成する方法である。この場合、元々カメラの存在しない視点位置及び視線方向における映像も合成して表示することが可能である。仮想カメラの視点位置及び視線方向の変化に応じて、映像もスムーズに変化する。また、任意視点映像生成技術を用いれば、左右の目の間隔だけ離れた2つの視点での映像を合成することで、立体表示可能な映像を生成することも可能である。   A. This is a method of synthesizing videos in the viewpoint position and line-of-sight direction of a virtual camera from multi-view video data using the arbitrary viewpoint video generation technology described in Non-Patent Document 1 and Non-Patent Document 2. In this case, it is possible to synthesize and display an image at the viewpoint position and the line-of-sight direction where the camera originally does not exist. The video changes smoothly according to changes in the viewpoint position and line-of-sight direction of the virtual camera. In addition, if an arbitrary viewpoint video generation technique is used, it is also possible to generate a stereoscopically displayable video by synthesizing videos from two viewpoints separated by the distance between the left and right eyes.

B.仮想カメラの視点位置及び視線方向に最も近い映像を、多眼映像データの中から選び出して表示するものである。簡易的な方法であり、複雑な画像合成処理が不要なのが利点である。その代わりに、元々カメラの存在している場所からの映像しか見ることができず、仮想カメラの位置と方向の変化に対し、該仮想カメラの位置と方向に最も近いカメラへと時々映像が切り替わる形になる。
もちろん、その他の方法を用いてもかまわない。
B. The video closest to the viewpoint position and the line-of-sight direction of the virtual camera is selected from the multi-view video data and displayed. The advantage is that it is a simple method and does not require complicated image composition processing. Instead, only the video from where the camera originally resides can be seen, and the video sometimes switches to the camera closest to the virtual camera's position and direction as the virtual camera's position and direction change. Become a shape.
Of course, other methods may be used.

映像出力部5は、映像生成部4で生成された映像を表示する。一般的な2次元ディスプレイである場合や、立体視が可能な3次元ディスプレイである場合が考えられる。   The video output unit 5 displays the video generated by the video generation unit 4. A case of a general two-dimensional display or a case of a three-dimensional display capable of stereoscopic viewing can be considered.

仮想カメラ位置及び方向算出部3における処理は、被写体に応じていくつかの処理方法が考えられる。以下、それぞれについて詳細に説明する。   For the processing in the virtual camera position and direction calculation unit 3, several processing methods can be considered depending on the subject. Hereinafter, each will be described in detail.

図2は、スポーツ中継に本発明を適用した場合において、仮想カメラの視点位置及び視線方向を算出する第1の例を説明するための図で、図中、21は被写体として想定したサッカーの選手、22は仮想カメラ、矢印Aはサッカーの選手21の正面の向き、矢印Bはサッカーの選手21の移動方向、矢印Cは仮想カメラ22の視線方向を示している。図2では、サッカーの選手21が、周りを見渡すために体の向き、つまり、正面の向き(矢印A)を変えながら、順次、矢印B方向へ移動している様子を鳥瞰している。   FIG. 2 is a diagram for explaining a first example of calculating the viewpoint position and line-of-sight direction of a virtual camera when the present invention is applied to a sports broadcast. In the figure, reference numeral 21 denotes a soccer player assumed as a subject. , 22 indicates a virtual camera, arrow A indicates the front direction of the soccer player 21, arrow B indicates the moving direction of the soccer player 21, and arrow C indicates the line-of-sight direction of the virtual camera 22. In FIG. 2, a bird's-eye view of a soccer player 21 moving sequentially in the direction of arrow B while changing the body direction, that is, the front direction (arrow A) in order to look around.

ここで、被写体位置及び向き検出部2から得られた特定被写体の位置や向きの情報を用いれば、常に被写体に対して一定の距離及び方向に仮想カメラ22が位置し、仮想カメラ22が常に被写体の方向(矢印C)を向くように制御することが可能である。   Here, if information on the position and orientation of the specific subject obtained from the subject position and orientation detection unit 2 is used, the virtual camera 22 is always located at a certain distance and direction with respect to the subject, and the virtual camera 22 is always the subject. It is possible to control so as to face the direction (arrow C).

図2では、被写体の選手21が位置や方向を変えても、常に選手21の正面方向(矢印A)で一定の距離に仮想カメラ22が位置し被写体の方向(矢印C)を向くよう制御している様子を示している。この制御により、選手21の位置や方向に関わらず、常に選手21を正面から一定の距離で見た場合の映像を生成することが可能となる。もちろん、被写体の正面方向だけではなく、被写体の背面、側面、上面など任意の方向に対して同様の処理が可能である。このように仮想カメラ位置を制御することで、常に、一定の見やすい相対位置から被写体を観察することが可能となる。   In FIG. 2, even if the subject player 21 changes position and direction, control is performed so that the virtual camera 22 is always located at a fixed distance in the front direction (arrow A) of the player 21 and faces the subject (arrow C). It shows how it is. With this control, it is possible to always generate an image when the player 21 is viewed at a constant distance from the front regardless of the position and direction of the player 21. Of course, the same processing can be performed not only on the front direction of the subject but also on an arbitrary direction such as the back side, side surface, and top surface of the subject. By controlling the virtual camera position in this way, it is possible to always observe the subject from a certain easy-to-see relative position.

図3は、スポーツ中継に本発明を適用した場合において、仮想カメラの視点位置を算出する第2の例を説明するための図で、図中、21は被写体として想定した短距離走の選手、22は仮想カメラ、矢印Aは短距離走の選手21の正面の向き、矢印Bは短距離走の選手21の移動方向、矢印Cは仮想カメラ22の視線方向を示している。図3では、短距離走の選手21が他の選手の様子を知るために周りを見渡しながら走っている様子を示している。   FIG. 3 is a diagram for explaining a second example of calculating the viewpoint position of the virtual camera when the present invention is applied to a sports broadcast. In the figure, 21 is a short-distance running player assumed as a subject, 22 indicates a virtual camera, arrow A indicates the front direction of the sprinter 21, arrow B indicates the direction of movement of the sprinter 21, and arrow C indicates the direction of the virtual camera 22. FIG. 3 shows a state in which a short-distance running player 21 is running while looking around to see the other players.

このとき、被写体位置及び向き検出部2から得られた特定被写体の位置の情報を用いれば、仮想カメラ22の絶対的な方向は固定したまま常に被写体を撮影し続けるように仮想カメラ22の視点位置を制御することが可能である。図3に示した第2の例においては、仮想カメラ22の視線方向(矢印C)がコース(短距離走の選手21の移動方向B)と常に直角になるよう保ちながら、選手21を画面の中央に捕らえるよう仮想カメラ22の視点位置を移動させている。このように、仮想カメラ22の視点位置を制御することにより、例えば100m走において常に選手の真横の位置から見ることが可能となり、どの選手が現在先頭なのかがはっきりとわかる映像を生成することができる。もちろん、コースと直角になる方向だけではなく任意の方向に仮想カメラの向きを固定して同様の処理を行うことが可能である。   At this time, if the information on the position of the specific subject obtained from the subject position and orientation detection unit 2 is used, the viewpoint position of the virtual camera 22 always keeps photographing the subject while the absolute direction of the virtual camera 22 is fixed. Can be controlled. In the second example shown in FIG. 3, the player 21 is displayed on the screen while keeping the line-of-sight direction (arrow C) of the virtual camera 22 always perpendicular to the course (movement direction B of the sprinter 21). The viewpoint position of the virtual camera 22 is moved so as to be captured at the center. In this way, by controlling the viewpoint position of the virtual camera 22, for example, it is possible to always see from the position directly beside the player in 100 m running, and it is possible to generate an image that clearly shows which player is currently at the top it can. Of course, it is possible to perform the same processing by fixing the orientation of the virtual camera in an arbitrary direction as well as a direction perpendicular to the course.

図4及び図5は、スポーツ中継に本願発明を適用した場合において、仮想カメラの位置を算出する第3の例を説明するための図で、図4及び図5において、21は被写体として想定したサッカーの選手、22は仮想カメラ、23はボール、矢印Aはサッカーの選手21の正面の向き、矢印Dは該矢印Dが示した範囲が仮想カメラ22の撮影範囲であることを示している。そして、図4では、選手21の近くにボール23が存在する状況を、図5では、選手21がボール23を蹴ったため選手21からボール23が離れつつある状況を示しているとする。このとき、被写体位置及び向き検出部2から得られた特定被写体の位置の情報を用いれば、図4及び図5のいずれの場合でも選手21とボール23の両方が撮影範囲内に入るように仮想カメラ22の位置を制御することが可能である。   4 and 5 are diagrams for explaining a third example of calculating the position of the virtual camera when the present invention is applied to a sports broadcast. In FIGS. 4 and 5, 21 is assumed to be a subject. A soccer player, 22 is a virtual camera, 23 is a ball, arrow A is the front direction of the soccer player 21, and arrow D indicates that the range indicated by the arrow D is the shooting range of the virtual camera 22. 4 shows a situation where the ball 23 is present near the player 21, and FIG. 5 shows a situation where the ball 23 is being separated from the player 21 because the player 21 kicks the ball 23. At this time, if the information on the position of the specific subject obtained from the subject position and orientation detection unit 2 is used, it is assumed that both the player 21 and the ball 23 fall within the shooting range in both cases of FIGS. The position of the camera 22 can be controlled.

図5において、仮想カメラ22の位置を、図4における仮想カメラ22の位置より後方に移動させることで、選手21とボール23の両方を撮影範囲に収めている。また、前記仮想カメラの位置及び方向を算出する第1及び第2の例と組み合わせて、前記第3の例を用いることも可能である。   In FIG. 5, by moving the position of the virtual camera 22 backward from the position of the virtual camera 22 in FIG. 4, both the player 21 and the ball 23 are within the shooting range. The third example may be used in combination with the first and second examples for calculating the position and direction of the virtual camera.

図6は、スポーツ中継に本発明を適用した場合において、仮想カメラの視点位置及び視線方向を算出する第4の例を説明するための図で、21は被写体として想定したサッカーの選手、22は仮想カメラ、矢印Bはサッカーの選手21の移動方向、矢印Eはサッカーの選手21の正面の向き及び仮想カメラ22の視線方向を示している。図6では、サッカーの選手21が、周りを見渡すために体の向き、つまり、正面の向き(矢印E)を変えながら、矢印B方向へ移動している様子を示している。   FIG. 6 is a diagram for explaining a fourth example of calculating the viewpoint position and line-of-sight direction of the virtual camera when the present invention is applied to a sports broadcast, where 21 is a soccer player assumed as a subject, 22 is The virtual camera, arrow B indicates the moving direction of the soccer player 21, and arrow E indicates the front direction of the soccer player 21 and the line of sight of the virtual camera 22. FIG. 6 shows a situation in which a soccer player 21 moves in the direction of arrow B while changing the body direction, that is, the front direction (arrow E) in order to look around.

ここで、被写体位置及び向き検出部2から得られた特定被写体の位置及び向きの情報を用いれば、仮想カメラ22の位置及び向きと、選手21の視点位置及び向きを一致させることで、選手21の視点位置から選手21の向いている方向を見た場合の映像、すなわち選手が見ている光景を合成することが可能である。図6では、選手21の視点位置及び視線方向に合わせ、仮想カメラ22の位置及び方向が追従している様子を示した。   Here, if the information on the position and orientation of the specific subject obtained from the subject position and orientation detection unit 2 is used, the player 21 can match the position and orientation of the virtual camera 22 with the viewpoint position and orientation of the player 21. It is possible to synthesize an image when the player 21 is seen from the viewpoint position, that is, a scene that the player is viewing. FIG. 6 shows a state in which the position and direction of the virtual camera 22 are following the viewpoint position and line-of-sight direction of the player 21.

第2の実施例:
図7は、本発明による任意視点映像生成システムの第2の実施例を説明するための要部概略構成を示すブロック図で、図中、10は本発明による任意視点映像生成システムで、該任意視点映像生成システム10は、多眼映像撮影部1、被写体位置及び向き検出部2、仮想カメラ位置及び方向算出部3、映像生成部4、映像出力部5、情報記録部6から構成される。つまり、図1に示した第1の実施例に対して、情報記録部6を追加したもので、この情報記録部6は、被写体位置及び向き検出部2から得られた特定被写体の位置や向きの情報を処理する際に必要となる不感帯域情報や、特定被写体の位置や向きの過去の情報を記録する部分である。
Second embodiment:
FIG. 7 is a block diagram showing a schematic configuration of a main part for explaining a second embodiment of the arbitrary viewpoint video generation system according to the present invention. In FIG. 7, 10 is an arbitrary viewpoint video generation system according to the present invention. The viewpoint video generation system 10 includes a multi-view video shooting unit 1, a subject position / orientation detection unit 2, a virtual camera position / direction calculation unit 3, a video generation unit 4, a video output unit 5, and an information recording unit 6. That is, the information recording unit 6 is added to the first embodiment shown in FIG. 1, and the information recording unit 6 is the position and orientation of the specific subject obtained from the subject position and orientation detection unit 2. This is a part for recording the dead band information necessary for processing the information and the past information of the position and orientation of the specific subject.

図8は、被写体の向きの情報(被写体の方向情報)に対して不感帯域を設けて被写体の方向情報を算出する例を説明したフロー図である。
まず、被写体位置及び向き検出部2から被写体の向きの情報(角度Fとする)を取得する(ステップS1)。
次に、角度Fが情報記録部6に記録されている不感帯域の範囲内かどうかを判定する(ステップS2)。
不感帯域の範囲内である場合には(ステップS2でYES)、情報記録部6から一時点前の被写体の向き情報を読み出し、仮想カメラの視点位置及び視線方向の算出のためのデータとして出力する(ステップS3)。
不感帯域の範囲外である場合には(ステップS2でNO)、まず、情報記録部6に新たな不感帯域の下限値として角度F−α、上限値として角度F+αを上書きし(ステップS4)、情報記録部6に被写体の向き情報の新しい値として角度Fを記録し(ステップS5)、角度Fを仮想カメラの視点位置及び視線方向の算出用データとして出力する(ステップS6)。
最後に、仮想カメラの視点位置及び視線方向を算出する(ステップS7)。
以上の処理を映像の各フレームごとに行う。なお、αは、不感帯域のレベル(基準値)である。
FIG. 8 is a flowchart illustrating an example of calculating subject direction information by providing a dead band for subject direction information (subject direction information).
First, information on the direction of the subject (angle F) is obtained from the subject position and orientation detection unit 2 (step S1).
Next, it is determined whether or not the angle F is within the dead band range recorded in the information recording unit 6 (step S2).
If it is within the dead band range (YES in step S2), the orientation information of the subject before the temporary point is read from the information recording unit 6 and output as data for calculating the viewpoint position and the line-of-sight direction of the virtual camera. (Step S3).
If it is out of the dead band range (NO in step S2), first, the information recording unit 6 is overwritten with the angle F-α as the lower limit value of the new dead band and the angle F + α as the upper limit value (step S4). The angle F is recorded as a new value of the subject orientation information in the information recording unit 6 (step S5), and the angle F is output as data for calculating the viewpoint position and line-of-sight direction of the virtual camera (step S6).
Finally, the viewpoint position and line-of-sight direction of the virtual camera are calculated (step S7).
The above processing is performed for each frame of the video. Α is the level of the dead band (reference value).

不感帯域を設けた処理を行わない場合、被写体の向きの変化に追従するために仮想カメラ位置及び方向が常に細かな変化をし、生成画像を見た利用者が映像に酔う可能性がある。
これに対して、上記の不感帯域処理を加えることで、被写体の向きの情報(角度F)が細かく変化した場合でも、あるレベルα以下の細かい変化を無視することができ、仮想カメラの位置又は/及び方向が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため、利用者が映像に酔うことを防止できる。
When the processing with the dead band is not performed, the virtual camera position and direction always change slightly in order to follow the change in the direction of the subject, and the user who sees the generated image may get drunk on the video.
On the other hand, by adding the dead band processing described above, even if the information on the direction of the subject (angle F) changes finely, a fine change below a certain level α can be ignored, and the position of the virtual camera or / And it is possible to prevent the direction from changing too finely and to generate a stable image. Therefore, it is possible to prevent the user from getting drunk with the video.

なお、図8では被写体の向きの情報に適用した場合の例を説明したが、被写体の位置情報に対して同様の処理を加えることももちろん可能である。   Although the example in the case of applying to the orientation information of the subject has been described with reference to FIG. 8, it is of course possible to add the same processing to the location information of the subject.

また、過去の被写体位置及び方向の情報を情報記録部6に記録しておき、時系列で並べた被写体位置及び方向の情報に対してローパスフィルタ処理をかけることが可能である。該処理により被写体位置及び方向の情報の高周波成分を取り除き、仮想カメラの位置が細かく変化しすぎることを防ぎ、安定した画像を生成することを可能とする。そのため利用者が映像に酔うことを防止できる。   It is also possible to record past subject position and direction information in the information recording unit 6 and apply low-pass filter processing to the subject position and direction information arranged in time series. By this processing, the high frequency component of the information on the subject position and direction is removed, and the position of the virtual camera is prevented from changing too finely, and a stable image can be generated. Therefore, it is possible to prevent the user from getting drunk on the video.

第3の実施例:
図9は、本発明による任意視点映像生成システムの第3の実施例を説明するための要部概略構成を示すブロック図で、図中、10は本発明による任意視点映像生成システムで、該任意視点映像生成システム10は、多眼映像撮影部1、被写体位置及び向き検出部2、仮想カメラ位置及び方向算出部3、映像生成部4、映像出力部5、情報記録部6、映像遅延部7から構成される。つまり、図7に示した第2の実施例に対して、映像遅延部7を追加したものである。
Third embodiment:
FIG. 9 is a block diagram showing a schematic configuration of a main part for explaining a third embodiment of the arbitrary viewpoint video generation system according to the present invention. In FIG. 9, 10 is an arbitrary viewpoint video generation system according to the present invention. The viewpoint video generation system 10 includes a multi-view video shooting unit 1, a subject position and orientation detection unit 2, a virtual camera position and direction calculation unit 3, a video generation unit 4, a video output unit 5, an information recording unit 6, and a video delay unit 7. Consists of That is, the video delay unit 7 is added to the second embodiment shown in FIG.

映像遅延部7は、多眼映像撮影部1からの多眼映像データを一旦蓄積し、遅延させてから映像生成部4に送り出す機能を実行する。このように映像を遅延させることで、被写体位置及び向き検出部2から得られる被写体の位置及び向き情報は、映像に対して相対的に前の時間の情報となる。よって、被写体の位置及び向き情報を先読みするのと同等の処理(以下では仮想先読み処理と呼ぶ)を行うことが可能となる。   The video delay unit 7 executes a function of temporarily storing the multi-view video data from the multi-view video shooting unit 1 and sending it to the video generation unit 4 after being delayed. By delaying the video in this way, the subject position and orientation information obtained from the subject position and orientation detection unit 2 becomes information on the previous time relative to the video. Therefore, it is possible to perform processing equivalent to prefetching the position and orientation information of the subject (hereinafter referred to as virtual prefetching processing).

第3の実施例の具体的な例を、図10と図11を用いて説明する。図10、図11において、21は被写体として想定したサッカーの選手、22は仮想カメラ、23はサッカーボール、矢印Aはサッカーの選手21の正面の向き、矢印Dは該矢印Dが示した範囲が仮想カメラ22の撮影範囲であることを示している。そして、図10では、選手21の近くにボールが存在する状況を、図11では、選手21がボール23を蹴ったため選手からボール23が離れつつある状況を示しているとする。   A specific example of the third embodiment will be described with reference to FIGS. 10 and 11, reference numeral 21 is a soccer player assumed as a subject, 22 is a virtual camera, 23 is a soccer ball, arrow A is the front direction of the soccer player 21, and arrow D is the range indicated by the arrow D. This indicates that the shooting range is the virtual camera 22. 10 shows a situation where the ball is present near the player 21, and FIG. 11 shows a situation where the ball 23 is being separated from the player because the player 21 kicks the ball 23.

図4および図5で説明した実施例1では、図4および図5のいずれの場合でも選手21とボール23の両方が画面に入るように仮想カメラの位置を制御することが可能であることを示した。この実施例1に対して、さらに、仮想先読み処理を加えると、選手21がボール23を蹴ってボール23が離れていくことが先にわかるので早めに仮想カメラの視点位置及び視線方向を動かし、ボール23の進行方向が画面内(撮影範囲を示す矢印D内)に入るように仮想カメラの視点位置及び視線方向を制御することが可能となる。   In the first embodiment described with reference to FIGS. 4 and 5, it is possible to control the position of the virtual camera so that both the player 21 and the ball 23 enter the screen in both cases of FIGS. 4 and 5. Indicated. If virtual prefetch processing is further applied to the first embodiment, the player 21 kicks the ball 23 and knows that the ball 23 will leave first, so the viewpoint position and line-of-sight direction of the virtual camera are moved early, It becomes possible to control the viewpoint position and the line-of-sight direction of the virtual camera so that the traveling direction of the ball 23 falls within the screen (inside the arrow D indicating the shooting range).

図10に示した仮想カメラ22の位置と図4に示した仮想カメラ22の位置を比較すると、図10においては、選手21がボール23を蹴ることを先読みして仮想カメラ22の位置及び向きを制御するため、ボール23の進行方向を画面内に入れるような仮想カメラの位置及び向きとなっている。同様に、図11に示した仮想カメラ22の位置と図5の仮想カメラ22の位置を比較すると、図11に示した仮想カメラ22の位置は、ボール23の進行方向を画面内に入れるような位置及び向きになっている。   When the position of the virtual camera 22 shown in FIG. 10 is compared with the position of the virtual camera 22 shown in FIG. 4, in FIG. 10, the player 21 kicks the ball 23 and the virtual camera 22 is positioned and oriented. For the purpose of control, the position and orientation of the virtual camera is such that the traveling direction of the ball 23 enters the screen. Similarly, when the position of the virtual camera 22 shown in FIG. 11 is compared with the position of the virtual camera 22 shown in FIG. 5, the position of the virtual camera 22 shown in FIG. Position and orientation.

このような仮想先読み処理を行うことで、視聴者がよりボールを追いやすくなる。また、ボールの進行方向の先にあるものを見やすくなる。あるいは、処理が遅延するため、ボールが画面から出てしまう事を防ぐことが可能となる。   By performing such virtual prefetching processing, it becomes easier for the viewer to follow the ball. Also, it becomes easier to see what is ahead of the moving direction of the ball. Alternatively, since the processing is delayed, it is possible to prevent the ball from coming out of the screen.

なお、仮想カメラの視点位置及び視線方向の制御に用いる情報として、被写体の位置及び向き情報以外の情報も用いることが可能である。例えば、生成画面が逆光状態であるかどうかを判定する手段を用い、逆光状態になる仮想カメラの視点位置及び視線方向は避けるよう、仮想カメラの視点位置及び視線方向を制御することが可能である。あるいは、多眼映像撮影部1の映像から高輝度の被写体を判定し、該被写体が生成画面に入らないように仮想カメラの視点位置及び視線方向を制御することで、逆光状態になる仮想カメラの視点位置及び視線方向を避けることも可能である。   Information other than the subject position and orientation information can also be used as information used for controlling the viewpoint position and line-of-sight direction of the virtual camera. For example, it is possible to control the viewpoint position and the line-of-sight direction of the virtual camera so as to avoid the viewpoint position and the line-of-sight direction of the virtual camera that is in the backlight state by using means for determining whether the generated screen is in the backlight state. . Alternatively, a high-brightness subject is determined from the video of the multi-view video photographing unit 1, and the viewpoint position and line-of-sight direction of the virtual camera are controlled so that the subject does not enter the generation screen. It is also possible to avoid the viewpoint position and the line-of-sight direction.

このように、生成画面が逆光状態にならないことを仮想カメラの視点位置及び視線方向を算出するための所定の条件とすることも可能である。他にも、仮想カメラの視点位置及び視線方向を算出するために様々な所定の条件を用いることが可能である。   As described above, it is also possible to set a predetermined condition for calculating the viewpoint position and the line-of-sight direction of the virtual camera that the generation screen does not enter the backlight state. In addition, various predetermined conditions can be used to calculate the viewpoint position and the line-of-sight direction of the virtual camera.

また、前記逆光状態になる仮想カメラの視点位置及び視線方向を避けるように仮想カメラの視点位置及び視線方向を制御する処理と、前記被写体の位置や方向の情報を用いて仮想カメラの視点位置及び視線方向を算出する処理を併用することも可能である。   In addition, a process of controlling the viewpoint position and the line-of-sight direction of the virtual camera so as to avoid the viewpoint position and the line-of-sight direction of the virtual camera that is in the backlight state, It is also possible to use a process for calculating the line-of-sight direction.

なお、本特許では図1ないし図7ないし図9のように、多眼映像撮影部1によって得られたデータを直接映像生成部4ないし映像遅延部7に入力する形で説明を行ったが、実施の形態はこれに限るものではない。例えば、放送に適用する形、すなわち多眼映像撮影部1で撮影した多眼映像データを電波やネットワークで送信し、視聴者がそれを受信して処理するシステムにおいても、同様の仕組みを適用可能である。また、パッケージメディアに適用する形、すなわち多眼映像撮影部1で撮影した多眼映像データを一旦何らかの記録媒体に記録し、視聴者側でそれを読み出して処理するシステムにおいても、同様の仕組みを適用可能である。
In this patent, as shown in FIG. 1 to FIG. 7 to FIG. 9, the data obtained by the multi-view video photographing unit 1 is directly input to the video generation unit 4 to the video delay unit 7. The embodiment is not limited to this. For example, the same mechanism can be applied to a system that applies to broadcasting, that is, a system in which multi-view video data captured by the multi-view video capturing unit 1 is transmitted via radio waves or a network, and the viewer receives and processes it. It is. A similar mechanism is also applied to a system applied to package media, that is, a system in which multi-view video data captured by the multi-view video capturing unit 1 is temporarily recorded on some recording medium, and is read and processed on the viewer side. Applicable.

本発明による映像システムの第1の実施例を説明するための要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure for demonstrating the 1st Example of the video system by this invention. 仮想カメラの位置及び方向を算出する第1の例を説明するための図である。It is a figure for demonstrating the 1st example which calculates the position and direction of a virtual camera. 仮想カメラの位置を算出する第2の例を説明するための図である。It is a figure for demonstrating the 2nd example which calculates the position of a virtual camera. 仮想カメラの位置を算出する第3の例を説明するための図である。It is a figure for demonstrating the 3rd example which calculates the position of a virtual camera. 仮想カメラの位置を算出する第3の例を説明するための図である。It is a figure for demonstrating the 3rd example which calculates the position of a virtual camera. 仮想カメラの位置及び方向を算出する第4の例を説明するための図である。It is a figure for demonstrating the 4th example which calculates the position and direction of a virtual camera. 本発明による映像システムの第2の実施例を説明するための要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure for demonstrating the 2nd Example of the video system by this invention. 被写体の向きの情報(被写体の方向情報)に対し不感帯域を設け、該被写体の方向情報を算出する処理を説明したフロー図である。FIG. 6 is a flowchart illustrating a process of providing a dead band for information on the direction of a subject (subject direction information) and calculating the direction information of the subject. 本発明による映像システムの第3の実施例を説明するための要部概略構成を示すブロック図である。It is a block diagram which shows the principal part schematic structure for demonstrating the 3rd Example of the video system by this invention. 本発明の第3の実施例を説明するための図である。It is a figure for demonstrating the 3rd Example of this invention. 本発明の第3の実施例を説明するための図である。It is a figure for demonstrating the 3rd Example of this invention.

符号の説明Explanation of symbols

1…多眼映像撮影部、2…被写体位置及び向き検出部、3…仮想カメラ位置及び方向算出部、4…映像生成部、5…映像出力部、6…情報記録部、7…映像遅延部、21…選手、22…仮想カメラ、23…ボール。 DESCRIPTION OF SYMBOLS 1 ... Multi-eye image | video imaging | photography part, 2 ... Subject position and direction detection part, 3 ... Virtual camera position and direction calculation part, 4 ... Image | video production | generation part, 5 ... Image | video output part, 6 ... Information recording part, 7 ... Image | video delay part , 21 ... Player, 22 ... Virtual camera, 23 ... Ball.

Claims (21)

ある被写体を一つ以上の視点位置及び視線方向から撮影した映像から任意の仮想カメラの視点位置及び視線方向における映像を合成あるいは選択する映像システムにおいて、所定の条件を満たす仮想カメラの視点位置及び視線方向を算出する算出手段を備えたことを特徴とする任意視点映像生成システム。   The viewpoint position and line of sight of a virtual camera that satisfies a predetermined condition in a video system that synthesizes or selects an image in the viewpoint position and line of sight of an arbitrary virtual camera from an image of a subject taken from one or more viewpoint positions and line of sight An arbitrary viewpoint video generation system comprising a calculation means for calculating a direction. 一つ以上の被写体の位置及び向きを検出する手段を備え、該検出手段によって得られた一つ以上の被写体の位置及び向きの情報を用いて前記所定の条件を満たす仮想カメラの視点位置及び視線方向を算出することを特徴とする請求項1に記載の任意視点映像生成システム。   Means for detecting the position and orientation of one or more subjects, and using the information on the position and orientation of one or more subjects obtained by the detection means, the viewpoint position and line of sight of a virtual camera that satisfies the predetermined condition The arbitrary viewpoint video generation system according to claim 1, wherein a direction is calculated. 前記所定の条件は、被写体に対して仮想カメラが特定の方向に位置しかつ該仮想カメラの視線方向が被写体の方向を向くことであることを特徴とする請求項2に記載の任意視点映像生成システム。   3. The arbitrary viewpoint video generation according to claim 2, wherein the predetermined condition is that the virtual camera is positioned in a specific direction with respect to the subject, and the line-of-sight direction of the virtual camera faces the direction of the subject. system. 前記所定の条件は、仮想カメラの視線方向を固定して視点位置を変え、被写体を仮想カメラの視点位置及び視線方向から常に撮影できることであることを特徴とする請求項2に記載の任意視点映像生成システム。   3. The arbitrary viewpoint video according to claim 2, wherein the predetermined condition is that the visual point direction of the virtual camera is fixed and the viewpoint position is changed, and the subject can be always photographed from the viewpoint position and the visual line direction of the virtual camera. Generation system. 前記所定の条件は、複数の被写体を仮想カメラの視点位置及び視線方向における映像内に収めることであることを特徴とする請求項2乃至4のいずれか1に記載の任意視点映像生成システム。   5. The arbitrary viewpoint video generation system according to claim 2, wherein the predetermined condition is that a plurality of subjects are included in a video in a viewpoint position and a line-of-sight direction of a virtual camera. 前記所定の条件は、被写体の視点位置及び視線方向と仮想カメラの視点位置及び視線方向が一致することであることを特徴とする請求項2に記載の任意視点映像生成システム。   3. The arbitrary viewpoint video generation system according to claim 2, wherein the predetermined condition is that a viewpoint position and a line-of-sight direction of a subject coincide with a viewpoint position and a line-of-sight direction of a virtual camera. 被写体の位置及び方向の情報に対し不感帯域を設けた処理を行うことを特徴とする請求項2乃至6のいずれか1に記載の任意視点映像生成システム。   The arbitrary viewpoint video generation system according to any one of claims 2 to 6, wherein a process of providing a dead band is performed on information on a position and a direction of a subject. 被写体の位置及び方向の情報に対しローパスフィルタ処理を加えることを特徴とする請求項2乃至7のいずれか1に記載の任意視点映像生成システム。   The arbitrary viewpoint video generation system according to any one of claims 2 to 7, wherein a low-pass filter process is applied to information on a position and a direction of a subject. 一つ以上の被写体の位置及び向きを検出する検出手段は、一つ以上の被写体を一つ以上の視点位置及び視線方向から撮影した多眼映像を用いて検出する検出手段であることを特徴とする請求項2乃至8のいずれか1に記載の任意視点映像生成システム。   The detection means for detecting the position and orientation of one or more subjects is a detection means for detecting one or more subjects using a multi-view image captured from one or more viewpoint positions and line-of-sight directions. The arbitrary viewpoint video generation system according to any one of claims 2 to 8. 前記一つ以上の被写体の位置及び向きを検出する検出手段は、一つ以上の被写体を上方より撮影した映像を用いて検出する検出手段であることを特徴とする請求項2乃至8のいずれか1に記載の任意視点映像生成システム。   The detection means for detecting the position and orientation of the one or more subjects is detection means for detecting using one or more subjects photographed from above. The arbitrary viewpoint video generation system according to 1. 前記一つ以上の被写体の位置及び向きを検出する検出手段は、被写体自体に該被写体の位置及び向きを検出できるセンサを有し、該センサにより取得した該被写体の位置及び向きの情報を用いて検出する検出手段であることを特徴とする請求項2乃至8のいずれか1に記載の任意視点映像生成システム。   The detection means for detecting the position and orientation of the one or more subjects has a sensor capable of detecting the location and orientation of the subject in the subject itself, and uses the information on the location and orientation of the subject acquired by the sensor. The arbitrary viewpoint video generation system according to any one of claims 2 to 8, wherein the arbitrary viewpoint video generation system is detection means for detecting. 請求項9乃至11に記載の検出手段のうちの、任意の検出手段を組み合わせた検出手段を有することを特徴とする請求項2乃至8のいずれか1に記載の任意視点映像生成システム。   The arbitrary viewpoint video generation system according to any one of claims 2 to 8, further comprising a detection unit that is a combination of the detection units of the detection units according to claims 9 to 11. 前記算出手段による算出結果を用い、前記ある被写体を一つ以上の視点位置及び視線方向から撮影した映像をもとに、前記仮想カメラの視点位置及び視線方向における映像を合成する任意視点映像生成技術を用いることを特徴とする請求項1乃至12のいずれか1に記載の任意視点映像生成システム。   Arbitrary viewpoint video generation technology for synthesizing video in the viewpoint position and line-of-sight direction of the virtual camera based on video obtained by photographing the certain subject from one or more viewpoint positions and line-of-sight directions using the calculation result by the calculation means 13. The arbitrary viewpoint video generation system according to claim 1, wherein the arbitrary viewpoint video generation system is used. 前記算出手段による算出結果を用い、前記ある被写体を一つ以上の視点位置及び視線方向から撮影した映像から任意の仮想カメラの視点位置及び視線方向における映像に最も類似した映像を選択し、該選択した映像を任意の仮想カメラの視点位置及び視線方向における映像とすることを特徴とする請求項1乃至12のいずれか1に記載の任意視点映像生成システム。   Using the calculation result by the calculation means, select an image most similar to the image in the viewpoint position and line-of-sight direction of an arbitrary virtual camera from the images obtained by photographing the certain subject from one or more viewpoint positions and line-of-sight directions, and select The arbitrary viewpoint video generation system according to any one of claims 1 to 12, wherein the generated video is used as a video in a viewpoint position and a line-of-sight direction of an arbitrary virtual camera. ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を所定時間遅延させ、遅延させた映像をもとに任意の仮想カメラの視点位置及び視線方向における映像を合成し、あるいは、遅延させた映像から任意の仮想カメラの視点位置及び視線方向における映像に最も類似した映像を選択し、任意の仮想カメラの視点位置及び視線方向における映像とすることを特徴とする請求項1乃至14のいずれか1に記載の任意視点映像生成システム。   An image obtained by photographing a subject from one or more viewpoint positions and line-of-sight directions is delayed for a predetermined time, and an image in the viewpoint position and line-of-sight direction of any virtual camera is synthesized or delayed based on the delayed image. 15. The method according to claim 1, further comprising: selecting an image most similar to an image in a viewpoint position and a line-of-sight direction of an arbitrary virtual camera from the captured image, and setting the image in the viewpoint position and the line-of-sight direction of an arbitrary virtual camera. Or the arbitrary viewpoint video generation system according to claim 1. ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を所定時間遅延させ、仮想カメラの視点位置及び視線方向の算出を前記映像より相対的に先に行うことを特徴とする請求項15に記載の任意視点映像生成システム。   16. The video obtained by photographing a subject from one or more viewpoint positions and line-of-sight directions is delayed for a predetermined time, and the viewpoint position and line-of-sight direction of the virtual camera are calculated relatively earlier than the video. The arbitrary viewpoint video generation system described in 1. 仮想カメラの視点位置及び視線方向において生成した映像を出力する手段を備えることを特徴とする請求項1乃至16のいずれか1に記載の任意視点映像生成システム。   17. The arbitrary viewpoint video generation system according to claim 1, further comprising means for outputting a video generated at a viewpoint position and a line-of-sight direction of the virtual camera. 前記生成した映像を出力する手段として、2次元表示のディスプレイを用いることを特徴とする請求項17に記載の任意視点映像生成システム。   The arbitrary viewpoint video generation system according to claim 17, wherein a display of a two-dimensional display is used as the means for outputting the generated video. 前記生成した映像を出力する手段として、立体表示ディスプレイを用いることを特徴とする請求項17に記載の任意視点映像生成システム。   The arbitrary viewpoint video generation system according to claim 17, wherein a stereoscopic display is used as the means for outputting the generated video. 前記生成した映像内の被写体が逆光になる条件を検出する手段を備え、前記生成した映像内の被写体が逆光にならないことを前記所定の条件とすることを特徴とする請求項1乃至19のいずれか1に記載の任意視点映像生成システム。   20. The apparatus according to claim 1, further comprising means for detecting a condition in which the subject in the generated video is backlit, wherein the predetermined condition is that the subject in the generated video is not backlit. Or the arbitrary viewpoint video generation system according to claim 1. ある被写体を一つ以上の視点位置及び視線方向から撮影した映像を用いて逆光の検出を行うことを特徴とする請求項20に記載の任意視点映像生成システム。   21. The arbitrary viewpoint video generation system according to claim 20, wherein backlight detection is performed using video obtained by photographing a certain subject from one or more viewpoint positions and line-of-sight directions.
JP2005127639A 2005-04-26 2005-04-26 System for generating video image viewed at optional viewpoint Pending JP2006310936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005127639A JP2006310936A (en) 2005-04-26 2005-04-26 System for generating video image viewed at optional viewpoint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005127639A JP2006310936A (en) 2005-04-26 2005-04-26 System for generating video image viewed at optional viewpoint

Publications (1)

Publication Number Publication Date
JP2006310936A true JP2006310936A (en) 2006-11-09

Family

ID=37477353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005127639A Pending JP2006310936A (en) 2005-04-26 2005-04-26 System for generating video image viewed at optional viewpoint

Country Status (1)

Country Link
JP (1) JP2006310936A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130323A (en) * 2009-12-21 2011-06-30 Canon Inc Broadcast receiver and control method thereof
JP2013106324A (en) * 2011-11-16 2013-05-30 Casio Comput Co Ltd Image processor, image processing method and program
JP2017055175A (en) * 2015-09-07 2017-03-16 キヤノン株式会社 Image processing system
JP2017112431A (en) * 2015-12-14 2017-06-22 キヤノン株式会社 Information processing apparatus, information processing method, and computer program
JP2019061629A (en) * 2017-09-28 2019-04-18 沖電気工業株式会社 Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system
JP2019520013A (en) * 2016-06-17 2019-07-11 クールテ,アレクサンドル Image capturing method and system using virtual sensor
EP3574963A1 (en) 2018-03-23 2019-12-04 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
US11778155B2 (en) 2020-11-11 2023-10-03 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231405A (en) * 1996-02-20 1997-09-05 Sega Enterp Ltd Picture processor and method therefor
JP2000348165A (en) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp Scene display device
JP2003244728A (en) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd Virtual image creating apparatus and virtual image creating method
JP2003264821A (en) * 2002-03-08 2003-09-19 Matsushita Electric Ind Co Ltd Monitor system
JP2003274257A (en) * 2002-03-13 2003-09-26 Matsushita Electric Ind Co Ltd Automatic video shooting system, automatic video shooting method, and automatic video shooting device
JP2004246667A (en) * 2003-02-14 2004-09-02 Keiogijuku Free viewpoint moving image data generation method and program for causing computer to execute the processing
JP2004287517A (en) * 2003-03-19 2004-10-14 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image generation method and virtual viewpoint image generation device, virtual viewpoint image generation program, and recording medium
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231405A (en) * 1996-02-20 1997-09-05 Sega Enterp Ltd Picture processor and method therefor
JP2000348165A (en) * 1999-06-04 2000-12-15 Mitsubishi Electric Corp Scene display device
JP2003244728A (en) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd Virtual image creating apparatus and virtual image creating method
JP2003264821A (en) * 2002-03-08 2003-09-19 Matsushita Electric Ind Co Ltd Monitor system
JP2003274257A (en) * 2002-03-13 2003-09-26 Matsushita Electric Ind Co Ltd Automatic video shooting system, automatic video shooting method, and automatic video shooting device
JP2004246667A (en) * 2003-02-14 2004-09-02 Keiogijuku Free viewpoint moving image data generation method and program for causing computer to execute the processing
JP2004287517A (en) * 2003-03-19 2004-10-14 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image generation method and virtual viewpoint image generation device, virtual viewpoint image generation program, and recording medium
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130323A (en) * 2009-12-21 2011-06-30 Canon Inc Broadcast receiver and control method thereof
JP2013106324A (en) * 2011-11-16 2013-05-30 Casio Comput Co Ltd Image processor, image processing method and program
JP2017055175A (en) * 2015-09-07 2017-03-16 キヤノン株式会社 Image processing system
JP2017112431A (en) * 2015-12-14 2017-06-22 キヤノン株式会社 Information processing apparatus, information processing method, and computer program
JP2019520013A (en) * 2016-06-17 2019-07-11 クールテ,アレクサンドル Image capturing method and system using virtual sensor
JP2019061629A (en) * 2017-09-28 2019-04-18 沖電気工業株式会社 Information processing apparatus, information processing method, program, display control device, display control method, program, and information processing system
EP3574963A1 (en) 2018-03-23 2019-12-04 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
US10834477B2 (en) 2018-03-23 2020-11-10 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
US11778155B2 (en) 2020-11-11 2023-10-03 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
CN106331732B (en) Generate, show the method and device of panorama content
US20200288113A1 (en) System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
US20120013711A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP6126820B2 (en) Image generation method, image display method, image generation program, image generation system, and image display apparatus
JP5304714B2 (en) Pseudo stereoscopic image generation apparatus and camera
WO2011043249A1 (en) Image processing device and method, and program
EP3349444B1 (en) Method for processing media content and technical equipment for the same
JP2011135459A (en) Image processing apparatus and method, and program
TWI584050B (en) Panoramic stereoscopic image synthesis method, apparatus and mobile terminal
US20130050412A1 (en) Image processing apparatus and image processing method
KR101270025B1 (en) Stereo Camera Appratus and Vergence Control Method thereof
US9161018B2 (en) Methods and systems for synthesizing stereoscopic images
US20190335153A1 (en) Method for multi-camera device
JP2006310936A (en) System for generating video image viewed at optional viewpoint
JP4971813B2 (en) Video generation apparatus and video generation program
US11187895B2 (en) Content generation apparatus and method
JP2018033107A (en) Video distribution device and distribution method
JP2008167310A (en) Naked eye stereoscopic vision image processing method, device, and recording medium recording operation program
KR20150031662A (en) Video device and method for generating and playing video thereof
KR102838246B1 (en) Techniques for displaying and capturing images
JP4454959B2 (en) 3D image display method
EP4539454A1 (en) Apparatus and method for head mountable display with a separate screen for spectator
KR20250113969A (en) Techniques for displaying and capturing images
KR20240172094A (en) Techniques for displaying and capturing images

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412