JP2005165991A - Video information production method - Google Patents
Video information production method Download PDFInfo
- Publication number
- JP2005165991A JP2005165991A JP2003436044A JP2003436044A JP2005165991A JP 2005165991 A JP2005165991 A JP 2005165991A JP 2003436044 A JP2003436044 A JP 2003436044A JP 2003436044 A JP2003436044 A JP 2003436044A JP 2005165991 A JP2005165991 A JP 2005165991A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- view
- video
- angle
- information production
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 41
- 239000000203 mixture Substances 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 description 18
- 238000003860 storage Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 101150026173 ARG2 gene Proteins 0.000 description 1
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 240000004270 Colocasia esculenta var. antiquorum Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 101100005166 Hypocrea virens cpa1 gene Proteins 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 101100379633 Xenopus laevis arg2-a gene Proteins 0.000 description 1
- 101100379634 Xenopus laevis arg2-b gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 101150088826 arg1 gene Proteins 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
【課題】 映像オブジェクトが配置されるコンピュータグラフィックなどの仮想現実空間におけるカメラワークの設定を容易にする。
【解決手段】 ユーザが選択した映像オブジェクトを認識して、該認識された映像オブジェクトを被写体として複数の構図で捉えた複数の画像を表示する。ユーザが入力手段を用いて表示された前記複数の画像の少なくともいずれか1つを選択すると、該選択される画像に対応したカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定する。
【選択図】 図9PROBLEM TO BE SOLVED: To easily set camera work in a virtual reality space such as a computer graphic in which a video object is arranged.
A video object selected by a user is recognized, and a plurality of images obtained by capturing the recognized video object as a subject and having a plurality of compositions are displayed. When the user selects at least one of the plurality of images displayed using the input means, at least one value of the position, orientation, and angle of view of the camera corresponding to the selected image is set. Set.
[Selection] Figure 9
Description
本説明は、仮想現実空間におけるカメラワークを設定する映像情報制作方法に関し、特に、カメラワークの設定を容易にする技術に関する。 This description relates to a video information production method for setting camera work in a virtual reality space, and more particularly, to a technique for facilitating camera work setting.
従来の代表的な映像情報制作装置の一例を以下に説明する。図1は、映像情報制作装置の構成例を示すブロック図で、101はCPU、102はメモリ、103はCG(Computer Graphics)アニメーション生成部、104は音声合成部、105はシーケンサ部、106は入力装置、107はモニタ、108は動画像生成部、109は磁気記憶装置、110はバスである。CPU101は、バス110を介してメモリ102、CGアニメーション生成部103、音声合成部104、シーケンサ部105、入力装置106、モニタ107、動画像生成部108、及び、磁気記憶装置109と接続されている。 An example of a conventional representative video information production apparatus will be described below. FIG. 1 is a block diagram showing an example of the configuration of a video information production apparatus. 101 is a CPU, 102 is a memory, 103 is a CG (Computer Graphics) animation generation unit, 104 is a speech synthesis unit, 105 is a sequencer unit, and 106 is an input. The apparatus includes a monitor, 107 a monitor, 108 a moving image generation unit, 109 a magnetic storage device, and 110 a bus. The
図1において、CGアニメーション生成部103は、登場キャラクタやスタジオセットのCGアニメーション生成を行う。音声合成部104は、登場キャラクタの喋り声(セリフ、鳴声、擬音やスタジオの効果音等)を生成する。動画像生成部108は、予め編集済みの動画像を表示する。メモリ102は、映像コンテンツ等のシナリオに相当する登場キャラクタの喋りや動作、動画像生成、オーディオ再生等のイベント情報を記憶する。ここで、イベント情報は、一例として、TVML(TV Program Making Language、登録商標)言語で書かれているものとするが、これに限定されるものではない。 In FIG. 1, a CG
ここで、TVML言語仕様バージョン1.1(http://www.strl.nhk.or.jp/TVML/TVMLManual/tvml_j.html)の規則では、一つのイベントは以下に示すように記述する。
イベントタイプ:コマンド名(arg1=data1,arg2=data2,arg3=data3…)
イベントタイプは、12種類あり、それぞれにコマンドが複数存在する。コマンドの引数内のargは順不同である。なお、映像コンテンツとして時系列に並べられたイベント情報列全体をスクリプトと呼ぶ。Here, in the rules of the TVML language specification version 1.1 (http://www.str.nhk.or.jp/TVML/TVMLManual/tvml_j.html), one event is described as follows.
Event type: command name (arg1 = data1, arg2 = data2, arg3 = data3 ...)
There are 12 types of events, each of which has a plurality of commands. The arg in the command argument is in no particular order. Note that the entire event information sequence arranged in time series as video content is called a script.
シーケンサ部105は、メモリ102に記憶された映像コンテンツのイベント情報を元に、CGアニメーション生成部103、音声合成部104、及び、動画像生成部108を制御して、映像コンテンツを順次生成する。入力装置106は、モニタ107への表示の指示、シーケンサ部105への再生の指示、及び、メモリ102に記憶されている映像コンテンツのイベント情報の編集を指示するためのもので、主としてGUI操作を行うためのマウス等のポインティングデバイスと、キーボードからなっている。モニタ107は、生成された映像コンテンツ及び映像コンテンツのイベント情報の編集画面を表示する。磁気記憶装置109は、登場人物のモデリングデータ、スタジオのデータ、動画像の映像情報、及び、オーディオデータ(音楽、背景音、その他の音声データ)等を記憶し、かつ映像コンテンツのイベント情報等の編集を行うためのアプリケーションプログラム等を記憶する。 The
また、磁気記憶装置109は、ランダムアクセス可能な、例えば、ハードディスクや光ディスクや光磁気ディスクの他、伝送ネットワークを介したり、リモートファイルであっても良い。バス110は、映像情報制作装置の各構成要素を接続する。CPU101は、バス110を介して接続されている他の構成要素と信号を送受信し合い、各構成要素はCPU101からのアクセス信号により制御される。なお、映像情報制作装置は、バス110を介して他の装置への接続も可能である。 The
図2は、従来の映像情報制作装置における映像コンテンツのイベント情報の編集画面の一例である。図2において、201はイベントが時系列で配列されているスクリプト画面、202はコマンドの引数を設定するためのパラメータ設定画面、203は再生される映像をプレビューするためのプレビュー画面である。
以上のような構成の映像情報制作装置を用いることにより、映像コンテンツに登場する人物や小道具等をスタジオ内に配置して、映像コンテンツを生成、出力することが可能となる。詳しくは、特許文献1に記載されている通りである。FIG. 2 is an example of a video content event information editing screen in a conventional video information production apparatus. In FIG. 2, 201 is a script screen in which events are arranged in time series, 202 is a parameter setting screen for setting command arguments, and 203 is a preview screen for previewing a video to be played back.
By using the video information production apparatus configured as described above, it is possible to generate and output video content by arranging persons and props appearing in the video content in the studio. The details are as described in Patent Document 1.
ここで、特許文献1の段落:0062以降の記載、及び、図8には、カメラ位置を「正面」、「右」、「左」、「真上」及び「右斜め上」に設定することが出来るため、カメラ位置を容易に変更できることが記載されている。
また、特許文献2の図8〜図10には、複数の画角で撮影した複数の画像を同時に表示することで、カメラの画角の違いによる見え方を容易に把握できることが記載されている。Here, in the description of paragraph 1 of patent document 1 and subsequent paragraphs and FIG. 8, the camera position is set to “front”, “right”, “left”, “directly above”, and “right diagonally upward”. Therefore, it is described that the camera position can be easily changed.
Further, FIGS. 8 to 10 of Patent Document 2 describe that a plurality of images captured at a plurality of angles of view can be displayed simultaneously, so that the appearance due to the difference in the angle of view of the camera can be easily grasped. .
ところで、通常、カメラワークの基本となるものは、カメラのポジション(位置)、アングル(向き)、サイズ(画角)であり、これらの三要素によって、得られる映像の構図が決定される。カメラによく通じた人であれば、上記した三要素と被写体(映像オブジェクト)との関係がどのようになっているか分かるが、初心者には上記した三要素と被写体との関係が把握しづらいことが多いため、時間をかけて試行錯誤することになる。なお、ここでカメラワークとは、例えば、仮想現実空間におけるカメラの映像の構図をズームインやズームアウト等により変化させること、若しくは、カメラの位置、向き、及び、画角等により決定されるカメラの構図を決定すること等のことをいう。 By the way, the basics of camera work are usually the position (position), angle (orientation), and size (view angle) of the camera, and the composition of the obtained video is determined by these three elements. If you are familiar with the camera, you can see how the above three elements relate to the subject (video object), but beginners have difficulty understanding the relationship between the above three elements and the subject. Because there are many, it takes time and trial and error. Here, the camera work is, for example, that the composition of the video of the camera in the virtual reality space is changed by zooming in or zooming out, or the camera determined by the position, orientation, and angle of view of the camera. This means determining the composition.
同様に、従来の映像情報制作装置のカメラ設定においても、キャラクタの位置と向きを認識して、カメラの位置、向き、及び、画角を設定する操作が必要で、初心者にはカメラワークを理解するのに時間がかかる。つまり、各場面で欲しい映像であるかどうかを確認するためには、最初に、パラメータ設定画面202でカメラの位置、向き、及び、画角を設定してから、該設定を反映した映像がプレビュー画面203に表示されることになるため、通常は初期設定されているカメラの位置、角度、及び画角から設定を変更する操作を行うこととなる。したがって、初心者であっても、マウス操作と連動したプレビュー画面203の映像を見ながらカメラ設定を行うことはできるものの、例えば、俯瞰ショットや人物ごしショットを発想することは難しく、単調な構図の映像になってしまうという問題がある。 Similarly, in the camera settings of the conventional video information production device, it is necessary to recognize the character position and orientation and set the camera position, orientation, and angle of view. It takes time to do. In other words, in order to check whether the video is desired in each scene, first, the camera position, orientation, and angle of view are set on the parameter setting screen 202, and then the video reflecting the settings is previewed. Since the image is displayed on the screen 203, usually, an operation for changing the setting from the initially set position, angle, and angle of view of the camera is performed. Therefore, even a beginner can make camera settings while watching the video on the preview screen 203 in conjunction with the mouse operation, but for example, it is difficult to come up with a bird's eye shot or a person shot, and the monotonous composition There is a problem that it becomes an image.
なお、カメラ設定操作を簡易にする一機能として、上記TVML言語仕様バージョン1.1においては、「クローズアップ」、「ツーショット」等が用意され、被写体を選択するだけで、該被写体の正面の適切な位置からの適切な画角での映像を得られるものが実現されているが、該機能は被写体にカメラがズームする操作を容易にしたのみであって、初心者に対して、バラエティのある構図の映像を提供するためのカメラ設定操作を支援するものではない。 As a function for simplifying the camera setting operation, in the above-mentioned TVML language specification version 1.1, “close-up”, “two-shot”, etc. are prepared. Although it is possible to obtain an image with an appropriate angle of view from any position, this function only facilitates the operation of the camera zooming on the subject. It does not support the camera setting operation to provide the video.
また、特許文献1の図8に示されるユーザ視点選択メニュー801の項目の「正面」、「右」、「左」、「真上」、及び、「右斜め上」から映した画面に切り替える構成については、単に三次元空間における「正面図」、「右側面図」、「左側面図」、「平面図」及び「斜視図」に相当するものであって、カメラを被写体に対して動的に設定できるものではないため、被写体がどこにいようと、どちらを向いていようと、固定されているものである。したがって、欲しい映像を得るためのカメラ設定を容易にした構成とは言えない。 Also, a configuration for switching from “front”, “right”, “left”, “directly above”, and “diagonally right” of the items of the user
更に、例えば特許文献2に記載されているような、複数画角で撮影した複数の画像を同時に表示する構成についても、視点位置については、ユーザが(x,y,z)の座標を入力し、被写体の位置を設定することで、画角の違いによる見え方を容易に把握することに留まる。また、カメラの位置、向きを固定して画角を変更するだけでは、欲しい画像が得られないこともある。例えば、被写体の全身を捕らえる画像(フルフィギュア)と被写体の顔のアップを捉える画像(クローズアップ)は、画像の中心が全身の重心と顔の重心と異なるため、両方の画像をカメラの位置、向きを固定した画角の変更だけで上手く捉えられるとは限らない。 Further, for example, a configuration in which a plurality of images captured at a plurality of angles of view are simultaneously displayed as described in Patent Document 2, the user inputs (x, y, z) coordinates for the viewpoint position. By setting the position of the subject, it remains to easily grasp the appearance due to the difference in the angle of view. In addition, the desired image may not be obtained simply by changing the angle of view while fixing the position and orientation of the camera. For example, an image that captures the entire body of the subject (full figure) and an image that captures the close-up of the subject's face (close-up) are different from the center of gravity of the whole body and the center of gravity of the face. Just changing the angle of view with a fixed orientation does not always capture it well.
更に、Newtek社のLightWave3D等では、図10に示すように3次元CG空間の、パースペクティブ1001、カメラビュー1002、上面1003、右面1004を同時に表示すると共に、カメラやライトを示す図形を表示して、該図形を操作することで位置、向き、画角を設定することができるが、特定の被写体に対して、「クローズアップ」のような項目を選択するのみでカメラ設定をすることは出来ないし、被写体に対しての相対距離や相対向きを拘束してカメラ設定を行うこともできない。
本発明はこのような従来の事情に鑑み為されたもので、カメラ設定を容易にした映像情報制作方法を提供することを目的とする。Furthermore, in the New Wave LightWave 3D and the like, the
The present invention has been made in view of such a conventional situation, and an object of the present invention is to provide a video information production method that facilitates camera settings.
本発明の映像情報制作方法は、映像オブジェクトが配置される仮想現実空間におけるカメラワークを設定する映像情報制作方法において、ユーザが選択した映像オブジェクトを認識し、該認識された映像オブジェクトを被写体として複数の構図で捉えた複数の画像を表示し、ユーザが入力手段を用いて前記複数の画像の少なくともいずれか1つを選択すると、該選択される画像に対応したカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定するようになされる。
ここで、映像オブジェクトや、仮想現実空間や、カメラワークや、入力手段としては、それぞれ、種々なものが用いられてもよい。
なお、本明細書では、「構図」という語を用いて説明を行うが、例えば、「カメラアングル」といった語についても、同様な用語であり、本発明に包含される。The video information production method of the present invention is a video information production method for setting camera work in a virtual reality space in which video objects are arranged. The video information production method recognizes a video object selected by a user, and uses a plurality of recognized video objects as subjects. When the user selects at least one of the plurality of images using the input means, the camera position, orientation, and image corresponding to the selected image are displayed. A value of at least one of the corners is set.
Here, various types of video objects, virtual reality space, camera work, and input means may be used.
In this specification, the term “composition” is used for explanation, but for example, the term “camera angle” is a similar term and is included in the present invention.
また、本発明の映像情報制作方法は、映像オブジェクトが配置される仮想現実空間におけるカメラワークを設定する映像情報制作方法において、映像オブジェクトを表わす図形と、カメラの位置、向き、及び、画角の少なくともいずれか1つを表わす図形とを平面図表示し、ユーザが入力手段を用いて前記平面図表示される図形の少なくともいずれか1つを操作すると、該操作に基づいてカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定するようになされる。
また、本発明の映像情報制作方法において、前記映像オブジェクトと前記カメラとの少なくとも向き、及び、距離のいずれか1つを拘束したまま、前記図形の少なくともいずれか1つを操作することができるようになされる。
また、本発明の映像情報制作方法において、前記入力手段によりユーザが指示した前記図形の部位により、前記映像オブジェクトと前記カメラとの少なくとも向き、及び、距離のいずれか1つを拘束するようになされる。Also, the video information production method of the present invention is a video information production method for setting camera work in a virtual reality space where a video object is arranged. In the video information production method, a figure representing a video object, a camera position, orientation, and angle of view A figure representing at least one of the figures is displayed in a plan view, and when the user operates at least one of the figures displayed in the plan view using an input means, the camera position, orientation, And, at least one value of the angle of view is set.
In the video information production method of the present invention, it is possible to operate at least one of the figures while restraining at least one of the video object and the camera and the distance and the distance. To be made.
Further, in the video information production method of the present invention, at least one of the video object and the camera and the distance between the video object and the camera are constrained by the part of the graphic instructed by the user by the input means. The
また、本発明の映像情報制作方法は、映像オブジェクトが配置される仮想現実空間におけるカメラワークを設定する映像情報制作方法において、少なくとも「クローズアップ」を含むカメラワークを予め選択項目として備え、ユーザが入力手段を用いて前記映像オブジェクト及び前記選択項目の少なくともいずれか1つを選択すると、前記選択された映像オブジェクトを前記選択された項目に対応するカメラワークで設定可能なカメラの位置、向き、及び、画角の少なくともいずれか1つの値を算出し、該算出された値に基づき、前記選択された映像オブジェクトと、前記算出されたカメラの位置、向き、及び、画角の少なくともいずれか1つを平面図上に図形表示するようになされる。 The video information production method of the present invention is a video information production method for setting camera work in a virtual reality space in which video objects are arranged, and includes a camera work including at least “close-up” as a selection item in advance. When at least one of the video object and the selection item is selected using an input unit, the position, orientation, and camera position of the selected video object that can be set by camera work corresponding to the selected item, and Calculating at least one value of the angle of view, and based on the calculated value, at least one of the selected video object and the calculated position, orientation, and angle of view of the camera. Is graphically displayed on the plan view.
また、本発明の映像情報制作装置は、映像オブジェクトが配置される仮想現実空間におけるカメラワークを設定する映像情報制作装置において、ユーザが選択した映像オブジェクトを認識する選択映像オブジェクト認識手段と、該認識された映像オブジェクトを被写体として複数の構図で捉えた複数の画像を表示する複数画像表示手段と、ユーザが入力手段を用いて前記複数の画像の少なくともいずれか1つを選択すると、該選択される画像に対応したカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定するカメラ設定手段とから構成される。 The video information production apparatus of the present invention is a video information production apparatus for setting camera work in a virtual reality space in which video objects are arranged. A plurality of image display means for displaying a plurality of images captured with a plurality of compositions using the video object as a subject, and the user selects at least one of the plurality of images using the input means. It comprises camera setting means for setting at least one of the position, orientation, and angle of view of the camera corresponding to the image.
また、本発明の映像情報制作装置は、映像オブジェクトが配置される仮想現実空間におけるカメラワークを設定する映像情報制作装置において、映像オブジェクトを表わす図形と、カメラの位置、向き、及び、画角の少なくともいずれか1つを表わす図形とを平面図表示する平面図表示手段と、ユーザが入力手段を用いて前記平面図表示される図形の少なくともいずれか1つを操作すると、該操作に基づいてカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定するカメラ設定手段とから構成される。 The video information production device of the present invention is a video information production device for setting camera work in a virtual reality space where a video object is arranged, and a graphic representing the video object, the position, orientation, and angle of view of the camera. Plan view display means for displaying a figure representing at least one of the figures in plan view, and when the user operates at least one of the figures displayed in plan view using the input means, the camera is operated based on the operation. Camera setting means for setting at least one of the position, orientation, and angle of view.
本発明では、映像情報制作において、例えばカメラワークに慣れていないユーザであっても、様々な構図の映像を得るカメラ設定を容易に行うことができる。また、例えばカメラワークに慣れているユーザには、欲しい映像かどうかを確認する際に、各場面における複数アングル及び画角からの映像を同時に確認することができるため、欲しい映像を効率的に確認することができる。
また、表示された画像を選択するのみでカメラ設定を行うことができるため、プレビュー画面を見ながら、例えばカメラの位置、向き、及び画角などといった値の設定操作をする必要性が低くなり、カメラ設定操作の手順を省力化することができる。
また、例えば「クローズアップ」等のカメラワークを設定した際にも、カメラの位置、向き、及び、画角などといったものを把握することができ、かつ、例えば被写体からの相対的な距離や向きを拘束してカメラ設定を行うことができるため、カメラ設定の操作を容易に行うことができる。In the present invention, in video information production, for example, even a user who is not familiar with camera work can easily perform camera settings for obtaining videos of various compositions. For example, for users who are used to camera work, when confirming whether or not it is the desired image, it is possible to confirm images from multiple angles and angles in each scene at the same time. can do.
In addition, since camera settings can be performed simply by selecting the displayed image, it is not necessary to perform setting operations such as the camera position, orientation, and angle of view while viewing the preview screen. The procedure for camera setting operation can be saved.
In addition, for example, when camera work such as “close-up” is set, the camera position, orientation, angle of view, etc. can be grasped, and for example, relative distance and orientation from the subject. Since the camera setting can be performed with the restriction, the camera setting operation can be easily performed.
以下、本発明の実施の形態について、図面を参照しながら説明する。
本発明に使用される映像情報制作装置は、図1に示される構成と同様であるが、CPU101の動作等は異なる。映像コンテンツの編集画面についても、スクリプト画面及びプレビュー画面については、図2に示されるものと同様であるため、詳細な説明は省略する。ここで、映像コンテンツの編集画面におけるパラメータ設定画面については、新しい機能を有している。以下、この点について詳細に説明する。Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The video information production apparatus used in the present invention has the same configuration as that shown in FIG. 1, but the operation of the
図3は、本発明の一実施例に係るパラメータ設定画面を示す図である。従来の映像情報制作装置において、カメラに関わるメニューは、例えば、初期設定のメニューから「カメラ」、コマンドメニューからカメラワークを選んで、「移動...」、「ツーショット...」、「クローズアップ...」、「キャッチ...」及び「切り替え...」のサブメニューがある。該メニューが選択されると、それぞれパラメータを設定するためパラメータ設定画面が表示される。本発明では、上記カメラに関わるメニューの中で、「移動...」、「ツーショット...」、「クローズアップ...」及び「キャッチ...」を統合して一つのメニューとし(以下、カメラワークと呼ぶ)、図3に示すようなパラメータ設定画面300を表示する。 FIG. 3 is a diagram showing a parameter setting screen according to an embodiment of the present invention. In the conventional video information production apparatus, the menu related to the camera is selected, for example, by selecting “Camera” from the initial setting menu and Camerawork from the command menu, and then selecting “Move ...”, “Two-shot ...”, “Close”. There are sub-menus for "Up ...", "Catch ..." and "Switch ...". When the menu is selected, a parameter setting screen is displayed for setting parameters. In the present invention, among the menus related to the camera, “move ...”, “two-shot ...”, “close-up ...” and “catch ...” are integrated into one menu ( Hereinafter, the
まず、カメラワークのパラメータ設定画面300について説明する。図3において、301はクローズアップボタン、302はツーショットボタン、303はキャッチボタン、304はガイド設定ボタン、305はx−z値設定領域、306はy値設定領域、307、308はショット選択ボタンである。307、308は、どちらか一つだけにしても良い。301〜308以外の領域及びボタンについては、従来のカメラに関するメニューを選択したときに表示されるパラメータ設定画面202と同様の動きをする。 First, the camera work
図3のパラメータ設定画面300において、ユーザがクローズアップボタン301を選択すると、ドリーがオンに設定されている場合は、選択されているカメラ(図3の例では、カメラ1)の設定が、選択されている対象1(図3の例では、太郎)の正面で、かつ、対象がキャラクタならば目線の高さ、対象が小道具ならば対象の重心の高さの位置で、該位置から対象1が適切にクローズアップされる画角に設定される。ドリーがオフに設定されている場合は、現在のカメラ位置で適切に対象1がクローズアップされる画角に設定される。 When the user selects the close-up
また、ユーザがツーショットボタン302を選択すると、ドリーがオンに設定されている場合は、選択されているカメラの設定が、選択されている対象1及び対象2の重心を結んだ線分の中点の正面で、かつ、2つの対象がキャラクタならば目線の高さ、対象が小道具ならば対象の重心の高さの中間点の高さの位置で、該位置から対象1及び対象2が適切にツーショットされる画角に設定される。ドリーがオフに設定されている場合は、現在のカメラの位置で適切に対象1及び対象2がツーショットされる画角に設定される。
なお、カメラの位置や向き等が直前にどのように設定されていたとしても、クローズアップボタン301及びツーショットボタン302により、カメラの設定値が変更される。また、305及び306の領域に表示されているカメラの位置、向き、及び、画角についても連動して変更され、かつ、プレビューボタンを押下すれば、カメラの映像が変更に連動してプレビュー画面203に表示される。なお、本実施形態では、一例として「カメラの位置、向き、及び、画角」をカメラの設定値として用いているが、これら以外の要素を用いてもよく、それらは同様に本発明に包含される。In addition, when the user selects the two-
Note that the camera setting value is changed by the close-up
ユーザがキャッチボタン303を選択すると、選択されているカメラが、現在の位置と画角を変更せずに、選択されている対象1を捉えるように向きが変更されて設定される。特に、トラックが「追いかけ続ける」に設定されている場合には、動く対象に合わせてカメラの向きのみを変更して、対象を捉え続ける。
ガイド設定ボタン304は、305及び306の領域に、ガイドを表示するかどうかをユーザに選択させるチェックボタンである。ここで、ガイドとは、カメラを示す図形をガイド上のみで移動可能となるように、拘束するために表示するものである。移動可能範囲を拘束することで、カメラ設定の操作が容易になる。When the user selects the
A
x−z値設定領域305には、例えば、映像情報制作中の三次元CG空間(仮想現実空間)に存在するセット、キャラクタ、小道具等の位置、形状等を簡易な図形で表した平面図が表示され、カメラについても位置、向き、及び、画角を簡易な図形で表示する。更に、キャラクタがどちらを見ているかについても、矢印で表現する。aはカメラを示す図形、dは画角を示す図形、eはキャラクタの視線方向を示す図形である。
なお、上記のカメラに関わる図形(カメラ、画角、視線方向)については、ユーザは直接マウス等で移動や回転等の操作を行うことができると共に、該操作と連動してカメラの位置、向き、及び、画角の数値表示が変更される。また、プレビュー画面203が表示されている場合には、プレビューの表示についても相互に連動する。即ち、ユーザの操作による平面図上における前記図形の位置の変化が検出され、該検出される変化に基づいてカメラの位置、向き、及び、画角の値等が設定されたり、ユーザの操作によるカメラの位置、向き、及び、画角の数値の変更が検出され、該検出された数値に基づいて平面図上における前記図形の位置が設定されたりする。In the xz
The figure (camera, angle of view, line of sight direction) related to the above camera can be directly operated by the user with a mouse or the like, and the position and orientation of the camera can be linked with the operation. And the numerical display of the angle of view is changed. When the preview screen 203 is displayed, the preview display is also linked to each other. That is, a change in the position of the figure on the plan view by the user's operation is detected, and the position, orientation, angle of view value, etc. of the camera are set based on the detected change, or by the user's operation Changes in numerical values of the position, orientation, and angle of view of the camera are detected, and the position of the figure on the plan view is set based on the detected numerical values.
また、ガイド設定ボタン304により「ガイドあり」が選択されている場合には、図3に示されるように、選択されている対象1を中心に、カメラのある位置までの距離を半径とした円形図形、及び、対象1とカメラを結んだ線を延長した線分図形がガイドとして表示される。また、例えば、対象2も選択されていて、かつ、「ガイドあり」が選択されている場合には、図11に示されるように、対象1及び対象2の重心を結んだ線分の中点を中心に、円形図形がガイドとして表示される。bは被写体とカメラのアングルを一定にするためのガイド、cは被写体からのカメラの距離を一定にするためのガイドを示す図形である。なお、ガイドを用いたカメラ設定については後述する。 Further, when “with guide” is selected by the
y値設定領域306には、カメラの高さ方向と画角を簡易な図形で表した側面図が表示される。図2に示した例では、カメラ以外のキャラクタや小道具については表示していないが、領域306にキャラクタ等を正確に表示した側面図を表示するようにしても良い。また、ガイド設定ボタン304により「ガイドあり」が選択されている場合には、図3に示すように常にカメラ位置を通る、垂直な線分fのガイドが表示される。
ショット選択ボタン307、308が選択されると、選択されている対象1又は選択されている対象1及び対象2を中心として、複数の位置、向き、及び、画角で捉えた映像を同時に表示する画面が表示される(以下、カメラショット画面と呼ぶ)。In the y
When the
ここで、カメラショット画面の表示例を、図4〜図7に示す。欲しい映像の構図には、被写体を中心に、いくつかのパターンが考えられる。被写体のサイズを考えた場合には、例えば、被写体の全身を入れたサイズのフルフィギュア(FF)、ひざ上から頭までを入れたサイズのニーショット(NS)、腰から頭までを入れたサイズのウエストショット(WS)、胸から頭までを入れたサイズのバストショット(BS)、肩から上のサイズのクローズアップ(CU)の5種類の構図を用意する。被写体を捉える方向を考えた場合には、正面、正面上、正面下、正面右、正面左、右、左、背面等が考えられるが、これらの種類は必要な種類数であれば何種類でも良い。 Here, display examples of the camera shot screen are shown in FIGS. There are several possible patterns for the composition of the desired video, with the subject at the center. When considering the size of the subject, for example, a full figure (FF) that includes the whole body of the subject, a knee shot (NS) that includes the knee to the head, and a size that includes the waist to the head. 5 types of composition are prepared: waist shot (WS), bust shot (BS) with the size from the chest to the head, and close-up (CU) with the upper size from the shoulder. When considering the direction to capture the subject, the front, front, bottom, front right, front left, right, left, back, etc. can be considered, but these types can be any number as long as necessary. good.
例えば、対象1のみを設定した場合は、図4又は図5に示すように一つのCGオブジェクト(映像オブジェクト)を被写体の中心とした構図の映像となり、対象1及び対象2を設定した場合は、例えば、図6又は図7に示すように二つのCGオブジェクトを被写体の中心とした構図の映像となる。なお、図示はしないが、対象3等、更に対象の数を増やすことが可能であることは言うまでもない。 For example, when only the target 1 is set, as shown in FIG. 4 or FIG. 5, the video is composed with one CG object (video object) as the center of the subject, and when the target 1 and the target 2 are set, For example, as shown in FIG. 6 or FIG. 7, the image has a composition with two CG objects as the center of the subject. Although not shown, it goes without saying that the number of objects such as the objects 3 can be further increased.
ここで、図4及び図6は、全ての画像を並列に並べて表示した例であり、図5及び図7は同じアングルの画像同士を位置を少しずらして重ねて表示した例である。例えば、図4及び図6をショット選択ボタン307に、図5及び図7をショット選択2ボタン308に対応させる。なお、特に表示したい映像の枚数が多い場合には、図5及び図7の表示の仕方の方が好ましい。図5及び図7は、重なって部分的に見えない画像の上にマウスを持っていくと、マウスの動きに連動して、該画像が一番前面に表示されるように構成されるためである。図5及び図7に示すように、同じ向きの画像毎にまとまっている場合、画角の異なる画像をマウスの動きにより連続的に見ることができる。 Here, FIGS. 4 and 6 are examples in which all the images are displayed side by side, and FIGS. 5 and 7 are examples in which images of the same angle are displayed with their positions slightly shifted. For example, FIGS. 4 and 6 correspond to the
そして、図4〜図7に示すカメラショット画面において、一つの画像を選択してカメラワークのパラメータ設定画面300に戻る(例えば、一つの画像をクリックしてからOKボタンを押す、又は、一つの画像をダブルクリックする)と、選択された画像を得ることのできるカメラの位置、向き、及び、画角が、カメラワークのパラメータ設定画面300内の位置、向き、及び、画角の数値や、領域305、306のカメラ位置に反映される。また、プレビュー画面203が立ち上がっていれば、該画面内の画像にも反映する。 Then, in the camera shot screen shown in FIGS. 4 to 7, one image is selected and the camera work
ここで、カメラショット画面に表示される複数の画像は、キャラクタを構成している部品の位置、サイズの情報から、通常の3DCG技術により各方向からの適切なフィギュアのサイズにするように算出される。以下、その算出方法について説明する。
例えば、キャラクタは、head(頭)、jaw(顎)、neck(首)、armLU(左上腕)、armLD(左下腕)、handL(左手)、armRU(右上腕)、armRD(右下腕)、handR(右手)、chest(胸)、hip(腰)、legLU(左上脚)、legLD(左下脚)、footL(左脚)、legRU(右上脚)、legRD(右下脚)、footR(右足)等の3次元の部品からなり、仮想的な骨格(スケルトン)が設定される。そして、各部品の原点を設定し、該原点を関節として、部品同士が接続することでキャラクタが組み上げられる。また、キャラクタの向きも設定される。Here, the plurality of images displayed on the camera shot screen are calculated from the information on the positions and sizes of the parts constituting the character so as to obtain the appropriate figure size from each direction by the normal 3DCG technology. The Hereinafter, the calculation method will be described.
For example, the characters are head (head), jaw (chin), neck (neck), armLU (left upper arm), armLD (left lower arm), handL (left hand), armRU (upper right arm), armRD (right lower arm), handR (right hand), chest (chest), hip (waist), legLU (left upper leg), legLD (left lower leg), footL (left leg), legRU (upper right leg), legRD (right lower leg), footR (right leg), etc. A virtual skeleton is set. Then, the origin of each part is set, and the character is assembled by connecting the parts with the origin as a joint. The direction of the character is also set.
例えば、左前からのニーショットの画像を計算する場合には、chest(胸)の原点とキャラクタの向きから、キャラクタの左前に位置するようにカメラの位置の座標を得る。そして、該座標とchest(胸)の原点とを結ぶ線分の角度から、カメラの向きを得る。得られたカメラの位置と向きから、スクリーン座標系を得て、スクリーン座標系のY軸方向において、legLD(左下脚)及びlegRD(右下脚)の原点の座標と、head(頭)の原点のサイズから得られるhead(頭)の頂点の座標が、スクリーンに収まるように画角を設定する。
なお、上記算出方法に限らず、既存の3DCGの技術を用いることにより、カメラショット画面に表示される複数の画像を容易に取得することができる。For example, when calculating an image of a knee shot from the left front, the coordinates of the camera position are obtained from the origin of the chest (chest) and the direction of the character so as to be positioned at the left front of the character. Then, the direction of the camera is obtained from the angle of the line connecting the coordinates and the origin of the chest. From the obtained camera position and orientation, a screen coordinate system is obtained. In the Y-axis direction of the screen coordinate system, the coordinates of the origin of legLD (lower left leg) and legRD (lower right leg) and the origin of head (head) are obtained. The angle of view is set so that the coordinates of the head vertices obtained from the size fit within the screen.
In addition, not only the said calculation method but the existing 3DCG technique can be used, and the several image displayed on a camera shot screen can be acquired easily.
次に、カメラワークのパラメータ設定画面300が表示され、307のショット選択ボタン又は308のショット選択2ボタンが選択される場合の処理の流れについて、図9を用いて説明する。
まず、カメラワークのパラメータ設定画面300で、ショット選択ボタンが選択されると、パラメータ設定画面300で「対象1」にCGオブジェクトが設定されているか否かを判定する(ステップ901)。ここで、「対象1」にCGオブジェクトが設定されていない場合は、カメラショット画面を表示できない旨の忠告を示す画面を表示する(ステップ902)。一方、「対象1」にCGオブジェクトが設定されている場合は、「対象2」にCGオブジェクトが設定されているか否かを判定する(ステップ903)。Next, the flow of processing when the camerawork
First, when a shot selection button is selected on the camera work
次に、「対象2」にCGオブジェクトが設定されている場合は、ユーザによって選択された対象1及び対象2のCGオブジェクトを認識し、当該対象1及び対象2のCGオブジェクトの位置とサイズの値を取得し(ステップ904)、該値を用いて各方向、各サイズを得られるカメラの位置、向き、及び、画角の値を算出する(ステップ905)。一方、「対象2」にCGオブジェクトが設定されていない場合は、ユーザによって選択された対象1のCGオブジェクトを認識し、当該対象1のCGオブジェクトの位置とサイズの値を取得し(ステップ906)、該値を用いて各方向、各サイズを得られるカメラの位置、向き、及び、画角の値を算出する(ステップ907)。 Next, when a CG object is set in “target 2”, the CG objects of the target 1 and the target 2 selected by the user are recognized, and the position and size values of the CG objects of the target 1 and the target 2 are recognized. (Step 904), and using the values, the values of the camera position, orientation, and angle of view that can obtain each direction and each size are calculated (step 905). On the other hand, when the CG object is not set in “target 2”, the CG object of the target 1 selected by the user is recognized, and the position and size values of the CG object of the target 1 are acquired (step 906). Then, using these values, values of the camera position, orientation, and angle of view that can obtain each direction and each size are calculated (step 907).
次に、ステップ905又はステップ907で得られた各々のカメラの位置、向き、及び、画角の値から、各々の画像を生成し(ステップ908)、カメラショット画面を表示し、生成した画像を該画面に並べて表示する(ステップ909)。並べられた画像のいずれか一つが選択されたか否かを判定し(ステップ910)、画像が選択されなかった場合は、ステップ914に移行する。画像が選択された場合には、選択された画像のカメラの位置、向き、及び、画角の値を取得し(ステップ911)、OKボタンが選択されたか否かを判定する(ステップ912)。
ステップ912において、OKボタンが選択されなかった場合は、ステップ914に移行する。OKボタンが選択された場合は、取得したカメラの位置、向き、及び、画角の値をパラメータ設定画面300に反映させて表示し(ステップ913)、処理を終わる。また、ステップ914では、キャンセルボタンが選択された否かを判定し、キャンセルボタンが選択されなかった場合は、ステップ910に移行し、キャンセルボタンが選択された場合は、処理を終了する。Next, each image is generated from the position, orientation, and angle of view of each camera obtained in
If it is determined in
上記処理により、ユーザは、カメラショット画面に表示される複数の画像を見て、欲しい構図の画像を選択することで、該選択された画像を得ることのできるカメラの位置、向き、及び、画角を設定することができる。設定された値は、パラメータ設定画面300のカメラの位置、向き、及び、画角の数値や領域305、306に反映される。
なお、対象1が設定されている状態で、クローズアップボタン301を選択してカメラ設定する操作は、対象1が設定されている状態でショット選択ボタン307(又は308)を選択し、正面のクローズアップの画像を選択する操作に相当する。これは、カメラショット画面に表示される特定の1枚の画像の選択操作を、カメラワークのパラメータ設定画面300上のボタン操作で可能とすることで、操作を省力化したものとも言える。ツーショットボタン302についても、同様である。Through the above processing, the user views a plurality of images displayed on the camera shot screen and selects an image having a desired composition, whereby the position, orientation, and image of the camera from which the selected image can be obtained. The corner can be set. The set values are reflected in the camera position, orientation, and numerical value of the angle of view and
Note that the operation of selecting the close-up
次に、カメラワークのパラメータ設定画面300におけるユーザの操作方法で、特に、領域305、306において、ガイド設定ボタン304により「ガイドあり」が選択されて、ガイドが表示されている場合の操作方法について、図8を用いて説明する。
図8(a)は、領域305において、ガイドとして表示されている線分図形b上でカメラを移動する操作について示している。ユーザは、表示されているカメラを示す図形aの最後部にマウスを持っていくと、801のようなマウスポインタの図形に変更される。この状態で、例えば、マウスの左ボタンを押しながらマウスを動かすと、被写体とカメラを結んで延長して表示されているガイドの線分bの図形上をカメラを示す図形が動く。更に、連動してガイドの円形図形cも円の中心を固定したまま拡大縮小する。ユーザは、カメラを適切な位置に変更した後、マウスの左ボタンを離す。この操作は、被写体に対し向きを変えずに、離れたり近づいたりするカメラ操作に相当する。Next, a user operation method on the camera work
FIG. 8A shows an operation of moving the camera on a line segment graphic b displayed as a guide in the
図8(b)は、領域305において、ガイドとして表示されている円形図形c上でカメラを移動する操作例について示している。ユーザは、表示されているカメラを示す図形aの頭の部分にマウスを持っていくと、802のようなマウスポインタの図形に変更される。この状態で、例えば、マウスの左ボタンを押しながらマウスを動かすと、表示されているガイドの円形図形c上をカメラを示す図形が動く。ユーザは、カメラを適切な位置に変更した後、マウスの左ボタンを離す。この操作は、被写体に対し距離を変えずに、撮影する方向を変更するカメラ操作に相当する。
図8(c)は、領域305において、拘束無くカメラを移動する操作例について示している。ユーザは、表示されているカメラを示す図形aの上記以外の中間部分にマウスを持っていくと、803に示されるような通常のマウスポインタの図形のまま、例えばマウスの左ボタンを押しながらマウスを動かすと、カメラ位置をxz平面上で自由に移動することができる。ユーザは、カメラを適切な位置に変更した後、左ボタンを離す。ただし、カメラは常に選択されている対象1に向くように設定される。FIG. 8B shows an operation example of moving the camera on the circular figure c displayed as a guide in the
FIG. 8C illustrates an operation example in which the camera is moved without restriction in the
ここで、パラメータ設定画面300の領域305、306におけるカメラを示す図形の表示態様としては、図12に示すような態様が用いられてもよい。図12においては、カメラを示す図形を、頭の部分1201、中間部分1202、最後部1203の3つのブロックに分け、各ブロックそれぞれに、当該ブロックをマウス等で操作した場合に行うことが可能な操作の種類を示す情報が表示されている。図12に示した例では、頭の部分1201は上記図8(b)を用いて説明した操作を、中間部分1202は上記図8(c)を用いて説明した操作を、最後部1203は上記図8(a)を用いて説明した操作を行うことができることを示している。このように、例えば、カメラを示す図形をいくつかのブロックに分け、各ブロックに割り当てられている操作の種類を示す情報を予め各ブロック内に表示することにより、ユーザは希望する操作を行うにはどのブロックをマウスで指示すればよいかが視覚的にすぐわかるため、カメラ設定をより容易にすることができる。なお、操作の種類を示す情報は、上述した以外にも、各ブロック内毎に表示色を変える等、種々な態様を用いることも可能である。 Here, as a display form of the graphic indicating the camera in the
また、スクリプト画面201の上部にあるプルダウンメニューに、図12に示したような操作の種類を示す情報の非表示/表示を選択するためのメニューを追加するようにしても良い。これにより、例えば、カメラを示す図形の操作を熟知しているユーザであれば、上記メニューから非表示を選択することで上述した操作の種類を表わす情報を表示させないようにすることもでき、ユーザの好みに応じた表示態様の設定を行うことができる。ここで、図12に示した操作の種類を示す情報、例えば、矢印の形状等は、磁気記憶装置109に記憶されており、パラメータ設定画面300が表示する際に、磁気記憶装置109から読み出される。
なお、図8(a)〜(c)においては、カメラを示す図形aの最後部、最前部(頭)、中間部のいずれかをマウスで押した場合に、異なる操作を行えるようにしているが、上記以外の所定の箇所を押した場合に、それぞれ異なる操作を行えるようにしても良い。また、マウスで押した図形aの箇所により異なる操作を行えるという方法の他、例えば、マウスのボタンの種別や、キーボードのボタンの種別等に応じて異なる操作を行えるようにするといった種々な方法が用いられても良い。
また、ガイド自体をマウスで動かすことにより、カメラの位置を変更できるようにしても良い。例えば、ガイドの円形図形cを操作して円の中心を固定したまま半径を拡大縮小させたり、ガイドの線分bを操作したりして、カメラを示す図形aの位置を変えられるようにすることが可能である。Further, a menu for selecting non-display / display of information indicating the type of operation as shown in FIG. 12 may be added to the pull-down menu at the top of the script screen 201. Thus, for example, if the user is familiar with the operation of the graphic indicating the camera, the information indicating the type of operation described above can be prevented from being displayed by selecting the non-display from the menu. The display mode can be set according to the user's preference. Here, information indicating the type of operation shown in FIG. 12, for example, the shape of an arrow or the like, is stored in the
8A to 8C, different operations can be performed when any one of the last part, the foremost part (head), and the middle part of the figure a indicating the camera is pressed with the mouse. However, when a predetermined place other than the above is pressed, different operations may be performed. In addition to the method of performing different operations depending on the location of the figure a pressed with the mouse, for example, various methods of allowing different operations depending on the type of mouse button, the type of keyboard button, and the like. It may be used.
Further, the position of the camera may be changed by moving the guide itself with a mouse. For example, the position of the figure a indicating the camera can be changed by manipulating the circular figure c of the guide to enlarge / reduce the radius while fixing the center of the circle, or manipulate the line segment b of the guide. It is possible.
図8(d)は、領域306において、ガイドとして表示されている垂直線分図形f上でカメラを移動する操作例について示している。ユーザは、表示されているカメラを示す図形の頭の部分にマウスを持っていくと、804のようなマウスポインタの図形に変更される。この状態で、例えば、マウスの左ボタンを押しながらマウスを動かすと、表示されているガイドの線分f上でカメラを移動する。ユーザは、カメラを適切な位置に変更した後、左ボタンを離す。この操作は、カメラのxz平面状の位置を変えずに、高さの位置(y方向の位置)を変更するカメラ操作に相当する。
なお、ガイド設定ボタン304により「ガイドあり」が選択されていない場合には、ユーザは、カメラを示す図形を位置も向きも拘束無く自由に変更することができる(図8(e)、(f))。
画角を示す図形については、線分で表示され、該線分をマウスで選択すれば、カメラを示す図形に接続している点を中心に回転移動させることが可能である(図8(g))。また、視線方向を示す図形についても同様に回転移動させることが可能である。FIG. 8D shows an operation example of moving the camera on the vertical line segment graphic f displayed as a guide in the
Note that when “with guide” is not selected by the
The figure showing the angle of view is displayed as a line segment, and if the line segment is selected with the mouse, it can be rotated around the point connected to the figure showing the camera (FIG. 8 (g )). Similarly, the figure indicating the line-of-sight direction can also be rotated.
以上のような、図8で示した領域305、306における操作に連動して、パラメータ設定画面300におけるカメラの位置、向き、及び、画角の数値表示や、プレビュー画面203のプレビューの表示は変更され、ユーザはカメラの設定を容易に行うことができる。
なお、上述した実施例においては、ユーザがカメラを移動させる場合について説明したが、ユーザが被写体を移動させ被写体の位置等を設定することも可能である。例えば、カメラに対しての相対距離や相対向きを拘束して被写体の位置等を設定したり、カメラに対して拘束なしに被写体の位置等を設定したりするようなことも可能である。In conjunction with the operations in the
In the above-described embodiment, the case where the user moves the camera has been described. However, the user can also move the subject and set the position of the subject. For example, it is possible to set the position of the subject by restricting the relative distance and the relative direction with respect to the camera, or to set the position of the subject without restriction with respect to the camera.
ここで、本発明に係る映像情報制作装置の構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。なお、本発明は、例えば本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムなどとして提供することも可能であり、また、例えば映像情報制作装置などの種々な装置やシステムとして提供することも可能である。また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係る映像情報制作装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROMやDVD(Digital Versatile Disk)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。Here, the configuration of the video information production apparatus according to the present invention is not necessarily limited to the above-described configuration, and various configurations may be used. The present invention can also be provided as a method or method for executing the processing according to the present invention, a program for realizing such a method or method, and the like, for example, a video information production apparatus, etc. It can also be provided as various devices and systems. The application field of the present invention is not necessarily limited to the above-described fields, and the present invention can be applied to various fields.
In addition, as various kinds of processing performed in the video information production apparatus according to the present invention, for example, the processor executes a control program stored in a ROM (Read Only Memory) in hardware resources including a processor, a memory, and the like. May be used, and for example, each functional unit for executing the processing may be configured as an independent hardware circuit.
The present invention also relates to a computer-readable recording medium such as a floppy (registered trademark) disk, a CD (Compact Disc) -ROM, a DVD (Digital Versatile Disk) -ROM, etc., which stores the above control program, and the program itself. The processing according to the present invention can be performed by inputting the control program from a recording medium to a computer and causing the processor to execute the control program.
101:CPU、102:メモリ、103:CGアニメーション生成部、104:音声合成部、105:シーケンサー部、106:入力装置、107:モニタ、108:動画像生成部、109:磁気記憶装置、110:バス、201:スクリプト画面、202:パラメータ設定画面、203:プレビュー画面 101: CPU, 102: memory, 103: CG animation generation unit, 104: speech synthesis unit, 105: sequencer unit, 106: input device, 107: monitor, 108: moving image generation unit, 109: magnetic storage device, 110: Bus 201: Script screen 202: Parameter setting screen 203: Preview screen
Claims (5)
ユーザが選択した映像オブジェクトを認識し、該認識された映像オブジェクトを被写体として複数の構図で捉えた複数の画像を表示し、ユーザが入力手段を用いて前記複数の画像の少なくともいずれか1つを選択すると、該選択される画像に対応したカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定することを特徴とする映像情報制作方法。In a video information production method for setting camera work in a virtual reality space where video objects are arranged,
The user recognizes the video object selected by the user, displays a plurality of images captured in a plurality of compositions using the recognized video object as a subject, and the user uses the input means to display at least one of the plurality of images. When selected, at least one value of the position, orientation, and angle of view of the camera corresponding to the selected image is set.
映像オブジェクトを表わす図形と、カメラの位置、向き、及び、画角の少なくともいずれか1つを表わす図形とを平面図表示し、
ユーザが入力手段を用いて前記平面図表示される図形の少なくともいずれか1つを操作すると、該操作に基づいてカメラの位置、向き、及び、画角の少なくともいずれか1つの値を設定することを特徴とする映像情報制作方法。In a video information production method for setting camera work in a virtual reality space where video objects are arranged,
A figure representing a video object and a figure representing at least one of the position, orientation, and angle of view of the camera are displayed in a plan view.
When the user operates at least one of the figures displayed in the plan view using the input means, the camera position, orientation, and angle of view are set based on the operation. A video information production method characterized by
前記映像オブジェクトと前記カメラとの少なくとも向き、及び、距離のいずれか1つを拘束したまま、前記図形の少なくともいずれか1つを操作することができることを特徴とする映像情報制作方法。The video information production method according to claim 2,
A video information production method characterized in that at least one of the figures can be operated while at least one of the direction and distance between the video object and the camera is constrained.
前記入力手段によりユーザが指示した前記図形の部位により、前記映像オブジェクトと前記カメラとの少なくとも向き、及び、距離のいずれか1つを拘束することを特徴とする映像情報制作方法。The video information production method according to claim 3,
A video information production method, wherein at least one of a direction and a distance between the video object and the camera is constrained by a part of the graphic instructed by the user by the input means.
少なくとも「クローズアップ」を含むカメラワークを予め選択項目として備え、
ユーザが入力手段を用いて前記映像オブジェクト及び前記選択項目の少なくともいずれか1つを選択すると、前記選択された映像オブジェクトを前記選択された項目に対応するカメラワークで設定可能なカメラの位置、向き、及び、画角の少なくともいずれか1つの値を算出し、
該算出された値に基づき、前記選択された映像オブジェクトと、前記算出されたカメラの位置、向き、及び、画角の少なくともいずれか1つを平面図上に図形表示することを特徴とする映像情報制作方法。In a video information production method for setting camera work in a virtual reality space where video objects are arranged,
Camera work including at least “close-up” is provided as a selection item in advance,
When the user selects at least one of the video object and the selection item using an input unit, the position and orientation of the camera that can set the selected video object with the camera work corresponding to the selected item. And calculating at least one value of the angle of view,
A video image that displays at least one of the selected video object and the calculated camera position, orientation, and angle of view on a plan view based on the calculated value. Information production method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003436044A JP2005165991A (en) | 2003-11-28 | 2003-11-28 | Video information production method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003436044A JP2005165991A (en) | 2003-11-28 | 2003-11-28 | Video information production method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005165991A true JP2005165991A (en) | 2005-06-23 |
Family
ID=34736701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003436044A Pending JP2005165991A (en) | 2003-11-28 | 2003-11-28 | Video information production method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005165991A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272375A (en) * | 2006-03-30 | 2007-10-18 | Terumasa Aoki | Method and program for generating script |
JP2023011811A (en) * | 2020-08-11 | 2023-01-24 | コンテンツライツ合同会社 | Information processing device, information processing program and recording medium |
US12063432B2 (en) | 2020-12-17 | 2024-08-13 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
-
2003
- 2003-11-28 JP JP2003436044A patent/JP2005165991A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272375A (en) * | 2006-03-30 | 2007-10-18 | Terumasa Aoki | Method and program for generating script |
JP2023011811A (en) * | 2020-08-11 | 2023-01-24 | コンテンツライツ合同会社 | Information processing device, information processing program and recording medium |
US12063432B2 (en) | 2020-12-17 | 2024-08-13 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7433760B2 (en) | Camera and animation controller, systems and methods | |
JP3517639B2 (en) | Mixed reality presentation apparatus and method, and storage medium | |
US20030227453A1 (en) | Method, system and computer program product for automatically creating an animated 3-D scenario from human position and path data | |
JP7366611B2 (en) | Image processing device, image processing method, and program | |
US20210349620A1 (en) | Image display apparatus, control method and non-transitory computer-readable storage medium | |
KR20100084597A (en) | Immersive collaborative environment using motion capture, head mounted display, and cave | |
US20210014425A1 (en) | Information processing apparatus, setting method, and storage medium | |
US20210120224A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2010257081A (en) | Image procession method and image processing system | |
JP2001202531A (en) | Moving image editing method | |
JP2010092402A (en) | Simple animation creation apparatus | |
KR20230152589A (en) | Image processing system, image processing method, and storage medium | |
JP7664396B2 (en) | Information processing device, information processing method, and computer program | |
Sun et al. | Enabling participatory design of 3D virtual scenes on mobile devices | |
JP7664111B2 (en) | Information processing device, information processing method, and computer program | |
CN119383447A (en) | Image processing device, image processing method, system, computer program product, storage medium and computer-implemented method | |
JP2005165991A (en) | Video information production method | |
Balcisoy et al. | Interaction between real and virtual humans in augmented reality | |
JP7685900B2 (en) | Information processing device, information processing method, and computer program | |
JP3465892B2 (en) | Video data editing method and computer readable storage medium storing video data editing program | |
US20240233297A1 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JP4111727B2 (en) | Video data editing method and video data editing apparatus | |
JP2006073026A (en) | Video editing method | |
Fei et al. | TAPE: Tangible Augmented Previz Environment for Filmmaking | |
Zhou et al. | TimeTunnel Live: Recording and Editing Character Motion in Virtual Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070713 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070821 |