JPH04352076A - Method for offering moving image and method for machine moving image data - Google Patents
Method for offering moving image and method for machine moving image dataInfo
- Publication number
- JPH04352076A JPH04352076A JP3124359A JP12435991A JPH04352076A JP H04352076 A JPH04352076 A JP H04352076A JP 3124359 A JP3124359 A JP 3124359A JP 12435991 A JP12435991 A JP 12435991A JP H04352076 A JPH04352076 A JP H04352076A
- Authority
- JP
- Japan
- Prior art keywords
- time
- moving object
- moving
- movement
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013523 data management Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000007796 conventional method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】0001
【産業上の利用分野】本発明は、動画像を使用する情報
表現システムにおいて、動物体の動きに基づいた動画像
提示・検索方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for presenting and retrieving moving images based on the movement of moving objects in an information representation system using moving images.
【0002】0002
【従来の技術】従来、動画像は時間軸上のある区間(シ
ーンと呼ばれる)を切り出し、これを編集することで提
示される。また、動画像を用いた対話型アプリケーショ
ンにおけるユーザの操作対象は、提示されているシーン
全体、あるいは静止したアイコンに限られていた。2. Description of the Related Art Conventionally, moving images are presented by cutting out a certain section (called a scene) on the time axis and editing it. Furthermore, in interactive applications using moving images, the user's operations are limited to the entire presented scene or stationary icons.
【0003】またシーンの検索は、利用のための判断の
基準となり得る時間軸上のある一点の画像(フレームと
呼ばれる)を様々なユーザ・インターフェースを用いて
提示し対話的に行われていた。または、あらかじめ対話
的にシーンに付加されたキーワード情報をもとに行われ
ていた。[0003] Scene retrieval has been performed interactively by presenting an image (called a frame) at a certain point on the time axis, which can serve as a criterion for use, using various user interfaces. Alternatively, this was done based on keyword information that was added interactively to the scene in advance.
【0004】0004
【発明が解決しようとする課題】しかしながら、上に述
べたような時間軸上のみの利用方法は、次に述べるよう
な問題点がある。[Problems to be Solved by the Invention] However, the method of using information only on the time axis as described above has the following problems.
【0005】例えば、何人かの人が動き回っている風景
のシーンを考えてみる。ある人物Aを強調して提示する
ため、人物Aの動きに合わせて動く矢印を合成したい場
合、動画像自体は人物Aの位置情報を持たないため1フ
レームごとに手作業で矢印を書き込んでいかなければな
らない。また、矢印の形を変更する場合には、また1フ
レームごとに矢印を描き直す作業が必要になり非効率的
である。For example, consider a landscape scene in which several people are moving around. If you want to compose an arrow that moves according to the movement of person A in order to emphasize and present a certain person A, the video itself does not have position information of person A, so it is necessary to manually draw the arrow for each frame. There must be. Furthermore, when changing the shape of an arrow, it is necessary to redraw the arrow for each frame, which is inefficient.
【0006】さらに、このシーンを人物Aの動きにより
キーワード検索しようとしても、動きを表すキーワード
は人によってさまざまなために適切な問い合わせ処理が
実現できない。[0006]Furthermore, even if an attempt is made to search this scene using keywords based on the movement of person A, appropriate query processing cannot be realized because the keywords representing movement vary from person to person.
【0007】本発明の目的は、従来の時間軸に依存した
動画像の提示・検索方法だけではなく、画像上の位置お
よび形状と時間の情報を併せ持つ動物体の動きのデータ
管理方法を提示し、これに基づいた動画像提示・検索の
方法を提供することにある。An object of the present invention is to present not only a conventional method for presenting and retrieving moving images depending on the time axis, but also a method for managing data on movement of a moving body that includes information on position and shape on an image as well as time. , and to provide a method for presenting and searching moving images based on this.
【0008】[0008]
【課題を解決するための手段】第1の発明の動画像提示
方法は、あらかじめ時間ごとの動物体の位置を記録して
おくことによって、動物体の位置を時間の関数とし、こ
れを用いて各時間ごとに動物体の位置に合わせた処理を
行うことによって、動きに基づいた動物体の提示を特徴
とする。[Means for Solving the Problems] The moving image presentation method of the first invention records the position of a moving object at each time in advance, thereby making the position of the moving object a function of time, and using this. It is characterized by the presentation of moving objects based on movement by performing processing tailored to the position of the moving object at each time.
【0009】第2の発明の動画像データ管理方法は、画
面を表す2次元および時間を表す1次元の3次元からな
る時空間上において、動きの特徴を良く表す時間(参照
時間と呼ぶ)における動物体の位置を複数個与えること
によって得られる、これを近似した直線あるいは曲線、
またはこれらの組合せによって表現される動物体の動き
の軌跡をもって動物体の時空間情報とし、時間を与える
と物体の位置を返すことを特徴とする。[0009] The moving image data management method of the second invention is based on the method of managing motion image data at a time (referred to as reference time) that well represents the characteristics of motion in a space-time consisting of three dimensions, two dimensions representing the screen and one dimension representing time. A straight line or curve that approximates the position of the moving object, obtained by giving multiple positions of the moving object.
Alternatively, the trajectory of the movement of the moving object expressed by a combination of these is used as the spatiotemporal information of the moving object, and when time is given, the position of the object is returned.
【0010】第3の発明の動画像提示方法は、第1の発
明において、時間ごとの動物体の位置に加えて形状を記
録しておくことによって、動物体の位置並びに形状を時
間の関数とし、これを用いて各時間ごとに動物体の位置
並びに形状に合わせた処理を行うことによって、動き並
びに形状の変化に基づいた動物体の提示を特徴とする。The moving image presentation method of the third invention is based on the first invention, by recording the shape of the moving object in addition to the position of the moving object at each time, thereby making the position and shape of the moving object a function of time. , is used to perform processing tailored to the position and shape of the moving object at each time, thereby presenting the moving object based on changes in movement and shape.
【0011】第4の発明の動画像データ管理方法は、第
2の発明において、参照時間における動物体の形状を近
似した矩形を併せて持たせることによって、動物体の動
きの軌跡並びに参照時間における近似矩形を持って動物
体の時空間情報とし、時間を与えると物体の位置を返し
、加えて参照時間における近似矩形をもとに参照時間と
の相対時間を用いて算出される近似矩形を返すことを特
徴とする。[0011] In the moving image data management method of the fourth invention, in the second invention, by also providing a rectangle that approximates the shape of the moving object at the reference time, the trajectory of the movement of the moving object and the shape at the reference time are determined. An approximate rectangle is used as the spatio-temporal information of the moving object, and when time is given, the position of the object is returned, and in addition, an approximate rectangle calculated using the relative time to the reference time is returned based on the approximate rectangle at the reference time. It is characterized by
【0012】第5の発明の動画像検索方法は、第2ある
いは第4の発明の動画像データ管理方法から得られる動
物体の動きベクトル情報を検索キーとして扱い、動きに
基づいたシーン検索を行うことを特徴とする。[0012] The moving image retrieval method of the fifth invention uses the motion vector information of the moving object obtained from the moving image data management method of the second or fourth invention as a search key, and performs scene retrieval based on the movement. It is characterized by
【0013】[0013]
【作用】動画像は静止画像(フレーム)の周期的(NT
SC方式では毎秒30フレーム)な連続表示によって実
現されるため、動物体の動きに基づいた動画像提示のた
めには、各フレームにおける動物体の位置の特定という
作業が必要になる。また、物体の動きに形状変化が伴う
場合には、動物体の位置の特定に加えて形状の特定作業
が必要になる。この作業は人間が実際に目で見て行うか
、あるいは画像処理アルゴリズムを用いて行われるが、
前者はフレームの切替え時間内に処理を終えることは不
可能であり、また後者は技術的に解決されていない課題
がいまだ大変多く、一般的な利用には不適切である。そ
こで、あらかじめ位置を時間の関数とした時空間表現と
して記録し、これに基づいて動画像提示を行う方法が考
えられる。[Operation] A moving image is a periodic (NT) of still images (frames).
Since the SC method is realized by continuous display at 30 frames per second, in order to present a moving image based on the movement of a moving object, it is necessary to specify the position of the moving object in each frame. Furthermore, when the movement of an object is accompanied by a change in shape, it is necessary to specify the shape in addition to specifying the position of the moving object. This work can be done either visually by humans or by using image processing algorithms.
In the former, it is impossible to complete processing within the frame switching time, and in the latter, there are still many technical problems that have not been solved, making it inappropriate for general use. Therefore, a method can be considered in which the position is recorded in advance as a spatiotemporal representation as a function of time, and moving images are presented based on this.
【0014】請求項1記載の発明は、この動物体の時空
間情報を用いた動画像提示の方法を提供するものである
。これによってフレーム切替え時間内に動物体の位置を
特定でき、例えばCGとの合成を行うことにより、動物
体の動きに合わせてCGが移動していくといった動画像
提示が可能になる。また、動物体の位置を含むある領域
をハイパーテキストにおけるボタンととらえれば、動物
体をボタンとすることが可能となる。[0014] The invention according to claim 1 provides a method of presenting a moving image using the spatio-temporal information of the moving object. As a result, the position of the moving object can be specified within the frame switching time, and by compositing with CG, for example, it becomes possible to present a moving image in which the CG moves in accordance with the movement of the moving object. Furthermore, if a certain area including the position of a moving object is treated as a button in hypertext, it becomes possible to use the moving object as a button.
【0015】しかし、動物体の位置を時間ごとに細かく
記録していたのでは、記憶容量が膨大になり実用的では
ない。請求項2記載の発明は、動物体の時空間情報を提
供するものであり、記憶容量を削減する作用を有する。[0015] However, recording the position of a moving object in detail every time requires an enormous storage capacity, which is not practical. The invention according to claim 2 provides spatiotemporal information of a moving object, and has the effect of reducing storage capacity.
【0016】請求項1記載の発明がもたらす作用は、カ
メラワークのズーミングやパニングなどの操作による物
体の大きさの変化や、あるいは物体そのものの形状の変
化に基づいた提示には対応できない。そこで、位置に加
えて形状を時間の関数とした時空間情報として表現すれ
ば、前述の効果が得られる。The effect brought about by the invention described in claim 1 cannot be applied to presentations based on changes in the size of an object due to operations such as zooming or panning in camera work, or changes in the shape of the object itself. Therefore, the above-mentioned effect can be obtained by expressing the shape in addition to the position as spatiotemporal information as a function of time.
【0017】請求項3記載の発明は、この動物体の位置
と形状を含んだ時空間情報を提供するものである。これ
によってフレームの切替え時間内に動物体の位置および
形状を特定でき、カメラワークや形状の変化に合わせた
動物体とCGの合成や、動物体をハイパーテキストのボ
タンとすることが可能となる。The third aspect of the invention provides spatiotemporal information including the position and shape of the moving object. This allows the position and shape of the moving object to be specified within the frame switching time, making it possible to synthesize the moving object and CG in accordance with changes in camera work and shape, and to use the moving object as a hypertext button.
【0018】しかし、動物体の位置並びに形状を時間ご
とに細かく記録していたのでは、記憶容量が膨大になり
実用的ではない。請求項4記載の発明は、動物体の時空
間情報を提供するものであり、記憶容量を削減する作用
を有する。However, if the position and shape of a moving object were to be recorded in detail every time, the storage capacity would be enormous, which would be impractical. The invention according to claim 4 provides spatiotemporal information of a moving object, and has the effect of reducing storage capacity.
【0019】また、請求項2または4記載のデータ管理
方法は、数学的には3次元空間における軌跡と見なせる
ので、簡単な数学的処理によって、2次元平面上に動き
ベクトル情報として表現することが可能である。よって
、画面上でのグラフィック・ユーザ・インターフェース
を実現するのが容易となる。Furthermore, since the data management method according to claim 2 or 4 can be mathematically regarded as a trajectory in a three-dimensional space, it can be expressed as motion vector information on a two-dimensional plane by simple mathematical processing. It is possible. Therefore, it becomes easy to realize a graphic user interface on the screen.
【0020】請求項5記載の発明は、この2次元平面上
に表現された動きベクトル情報を検索キーとしてシーン
検索を行う方法を提供するものである。これによって動
物体の動きをポインティング・デバイス等で入力するこ
とで、シーン検索が可能となる。The invention as set forth in claim 5 provides a method for performing scene retrieval using motion vector information expressed on this two-dimensional plane as a retrieval key. This makes it possible to search for a scene by inputting the movement of a moving object using a pointing device or the like.
【0021】[0021]
【実施例】図1は、請求項1記載の発明におけるフロー
チャートを示すものである。ここで、図中のstep1
1〜17はフローチャートの各ステップを示す。DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a flowchart of the invention according to claim 1. Here, step 1 in the diagram
1 to 17 indicate each step of the flowchart.
【0022】本実施例の動画像提示処理は、例えば1フ
レームに一度あるいはnフレームに一度実行される。ビ
デオ等の動画像の再生中に、これと同期してstep1
1で処理を開始し、step12で現在のフレーム時間
Tfを動画像再生装置から読み出す。次に、step1
3であらかじめ作成されている時間から位置への関数F
(t)にフレーム時間Tfを与え、画面上の位置P(x
,y)を算出する。この結果を用いてstep14では
、P(x,y)をもとにユーザが所望する処理を加え、
step15でこの結果を画面出力する。step16
においては、次のフレームでも処理が要求されているか
を判定し、要求があればstep12以降を繰り返し、
なければstep17で終了となる。The moving image presentation process of this embodiment is executed, for example, once every frame or once every n frames. While playing a moving image such as a video, step 1 is synchronized with this.
The process is started in step 1, and the current frame time Tf is read out from the moving image reproduction device in step 12. Next, step 1
Function F from time to position created in advance in 3.
(t) is given a frame time Tf, and the position P(x
, y). Using this result, in step 14, the user adds the desired processing based on P(x,y),
In step 15, this result is output on the screen. step16
In this step, determine whether processing is requested for the next frame as well, and if there is a request, repeat step 12 and later,
If not, the process ends in step 17.
【0023】ここで、step14における処理がCG
の描き込みであれば、結果として動物体に連動してCG
が動く効果を得ることができる。また、あらかじめ行わ
れたマウス入力結果がP(x,y)あるいはP(x,y
)を含む領域に含まれるかどうかの判定を行えば、動物
体そのものをハイパーテキストのボタンとすることがで
き、動物体からのリンクづけが可能になる。[0023] Here, the processing in step 14 is performed using CG
If it is a drawing, the CG will be linked to the animal body as a result.
You can get the effect of moving. Also, if the mouse input result performed in advance is P(x, y) or P(x, y
), the moving object itself can be used as a hypertext button, and a link can be created from the moving object.
【0024】step14における処理はこの他にも考
えられるが、本動画像提示方法を用いる限りstep1
4で適用する処理によらず本発明の範疇である。[0024] Although other processes can be considered in step 14, as long as the main moving image presentation method is used, step 1
It is within the scope of the present invention regardless of the process applied in step 4.
【0025】図2は、請求項2記載の発明の一実施例を
説明するための図である。図示するように画面を意味す
るX−Y平面とフレーム時間Tを意味する時間軸によっ
て時空間1が構成されており、この空間内に動物体の動
きの軌跡2が描かれている。動物体の動きを含む時空間
を、開始時間T1による開始フレーム3、終了時間T4
における終了フレーム4、および適当な参照時間T2,
T3における参照フレーム5で分割し、これにより規定
される各区間の関数をそれぞれ直線あるいは曲線によっ
て近似した、時間に対する関数として表現している。FIG. 2 is a diagram for explaining an embodiment of the invention according to claim 2. As shown in the figure, a space-time 1 is constituted by an X-Y plane representing a screen and a time axis representing a frame time T, and a locus 2 of the movement of a moving object is drawn within this space. The time and space including the movement of the moving body are defined by the start frame 3 at the start time T1 and the end time T4.
end frame 4 at and an appropriate reference time T2,
It is divided by reference frame 5 at T3, and the function of each section defined thereby is expressed as a function with respect to time, which is approximated by a straight line or a curve.
【0026】本実施例においては、図3に示すように動
物体の動きの軌跡が表現されており、フレーム時間Tf
が与えられれば、その値に応じてf(t)またはg(t
)に代入して、画面上の動物体の位置P(x,y)を得
ることができる。In this embodiment, the movement locus of the moving object is expressed as shown in FIG. 3, and the frame time Tf
is given, f(t) or g(t
) to obtain the position P(x,y) of the moving object on the screen.
【0027】図4は、請求項3記載の発明におけるフロ
ーチャートを示すものである。ここで、図中のstep
21〜27はフローチャートの各ステップを示す。FIG. 4 shows a flowchart in the invention according to claim 3. Here, step in the figure
21 to 27 indicate each step of the flowchart.
【0028】本実施例の動画像提示処理は、例えば1フ
レームに一度あるいはnフレームに一度実行される。ビ
デオ等の動画像の再生中に、これと同期してstep2
1で処理を開始し、step22で現在のフレーム時間
Tfを動画像再生装置から読み出す。次に、step2
3であらかじめ作成されている時間から位置および形状
への関数G(t)にフレーム時間Tfを与え、画面上の
位置P(x,y)ならびに形状Figを算出する。この
結果を用いてstep24では、PおよびFigをもと
にユーザが所望する処理を加え、step25でこの結
果を画面出力する。step26においては、次のフレ
ームでも処理が要求されているかを判定し、要求があれ
ばstep22以降を繰り返し、なければstep27
で終了となる。The moving image presentation process of this embodiment is executed, for example, once every frame or once every n frames. While playing a moving image such as a video, synchronize with this and step 2.
The process is started in step 1, and the current frame time Tf is read out from the moving image reproduction device in step 22. Next, step 2
The frame time Tf is given to the function G(t) from time to position and shape created in advance in step 3, and the position P(x, y) on the screen and the shape Fig are calculated. Using this result, in step 24, processing desired by the user is added based on P and Fig, and in step 25, this result is output on the screen. In step 26, it is determined whether processing is requested for the next frame as well, and if there is a request, repeat step 22 and subsequent steps; otherwise, proceed to step 27.
It ends with.
【0029】ここで、step24における処理がCG
の描き込みであれば、結果として動物体に連動してCG
が動く効果を得ることができる。また、あらかじめ行わ
れたマウス入力結果がP(x,y)あるいはP(x,y
)を含む領域に含まれるかどうかの判定を行えば、動物
体そのものをハイパーテキストのボタンとすることがで
き、動物体からのリンクづけが可能になる。[0029] Here, the processing in step 24 is CG
If it is a drawing, the CG will be linked to the animal body as a result.
You can get the effect of moving. Also, if the mouse input result performed in advance is P(x, y) or P(x, y
), the moving object itself can be used as a hypertext button, and a link can be created from the moving object.
【0030】図5は、請求項4記載の発明を説明するた
めの図である。図2と同様な時空間6が構成されており
、この空間内に時間に対する動物体の位置と形状の軌跡
7が描かれている。動物体の動きを含む時空間を、開始
時間T1による開始フレーム8、終了時間T3による終
了フレーム10、および適当な参照時間T2による参照
フレーム9で分割し、これにより規定される各区間の時
間に対する位置の関数をそれぞれ直線あるいは曲線によ
って近似し、時間に対する位置の軌跡として表現してい
る。また、開始,終了,参照の各フレームごとに動物体
の形状を近似した矩形11の情報を持たせておく。これ
により、任意のフレームにおける動物体の近似矩形の算
出は、単純な計算を行うことで可能である。FIG. 5 is a diagram for explaining the invention according to claim 4. A space-time 6 similar to that shown in FIG. 2 is constructed, and a locus 7 of the position and shape of the moving object with respect to time is drawn within this space. The time and space including the movement of the moving body is divided into a start frame 8 with a start time T1, an end frame 10 with an end time T3, and a reference frame 9 with an appropriate reference time T2, and the time of each section defined by this is divided into Each position function is approximated by a straight line or a curve, and expressed as a locus of position relative to time. Furthermore, information on a rectangle 11 that approximates the shape of a moving object is provided for each of the start, end, and reference frames. Thereby, it is possible to calculate the approximate rectangle of the moving object in any frame by performing simple calculations.
【0031】図6は、請求項5記載の発明の一実施例を
説明するための図である。これは、時空間において動物
体の軌跡を表す式から、時間を消去することによって得
られるX−Y平面上の軌跡を、動物体の動きを示す検索
キー13,14,15,16として各シーンごとに用い
る。一方、動画像を見ているユーザの目には動物体の動
きは画面(X−Y平面)上での軌跡と映るため、ユーザ
の記憶している動物体の動きの軌跡12をポインティン
グデバイスによって入力し、前出の動きを示す検索キー
とマッチングをとることで動きに基づいたシーン検索が
可能である。FIG. 6 is a diagram for explaining an embodiment of the invention set forth in claim 5. This method uses the trajectory on the XY plane obtained by erasing time from the equation expressing the trajectory of the moving object in space and time as search keys 13, 14, 15, and 16 for each scene that indicate the movement of the moving object. Used every time. On the other hand, since the movement of the moving object appears as a trajectory on the screen (X-Y plane) to the eyes of the user viewing the moving image, the user uses the pointing device to trace the movement trajectory 12 of the moving object that the user has memorized. It is possible to search for a scene based on movement by inputting it and matching it with the search key that indicates movement.
【0032】本実施例においては、検索キー14が入力
した動きの軌跡とマッチングし、動き記述17を含むシ
ーンを検索している。In this embodiment, the search key 14 searches for a scene that matches the input motion locus and includes the motion description 17.
【0033】また、キーワードなどによる従来技術を用
いたシーンの検索方法と本実施例との併用が可能である
ことは自明であり、これも本発明の範囲内である。Furthermore, it is obvious that this embodiment can be used in combination with a scene search method using conventional techniques such as keywords, and this is also within the scope of the present invention.
【0034】[0034]
【発明の効果】以上説明した通りに、請求項1および3
記載の発明によれば、動物体の時空間記述を用いること
によって動きに基づいた画像の加工などの処理を自動化
できる。これにより、プレゼンテーションなどにおいて
動物体を強調して表示したい場合などに、プレゼンテー
ション準備にかかる時間を削減できる。また、動物体を
ハイパーテキストにおけるボタンとすることが可能にな
るので、動画像を用いたアプリケーションの応用範囲を
拡げることが可能になる。Effect of the invention As explained above, claims 1 and 3
According to the described invention, processing such as image processing based on movement can be automated by using the spatiotemporal description of a moving object. This makes it possible to reduce the time required to prepare a presentation when, for example, a moving object is to be displayed with emphasis during a presentation. Furthermore, since it becomes possible to use a moving object as a button in hypertext, it becomes possible to expand the range of applications that use moving images.
【0035】請求項2および4記載の発明は、動物体の
動きを時間から位置への関数とするデータ管理方法を提
供するもので、すべてのフレーム時間における動物体の
位置あるいは形状を保持する場合に比べて記憶容量を大
幅に削減することが可能である。The invention according to claims 2 and 4 provides a data management method in which the movement of a moving object is a function from time to position. It is possible to significantly reduce storage capacity compared to .
【0036】さらに、請求項5記載の発明によれば、従
来はキーボードからのキーワード入力による検索方法し
かなかった動画像検索を、動き検索という視覚的な方法
で可能にする。これは、ユーザの記憶が視覚的なものと
思われる動画像の検索手法として有効である。Furthermore, according to the invention as set forth in claim 5, it is possible to perform moving image retrieval using a visual method called motion retrieval, whereas conventionally the only retrieval method was by inputting keywords from a keyboard. This is an effective method for retrieving moving images in which the user's memory is likely to be visual.
【図1】請求項1記載の発明におけるフローチャートで
ある。FIG. 1 is a flowchart in the invention according to claim 1.
【図2】請求項2記載の発明にかかるデータ管理方法の
一実施例を示す図である。FIG. 2 is a diagram showing an embodiment of the data management method according to the invention as claimed in claim 2;
【図3】図2の実施例を説明するための図である。FIG. 3 is a diagram for explaining the embodiment of FIG. 2;
【図4】請求項3記載の発明におけるフローチャートで
ある。FIG. 4 is a flowchart in the invention according to claim 3.
【図5】請求項4記載の発明にかかるデータ管理方法の
一実施例を説明するための図である。FIG. 5 is a diagram for explaining an embodiment of the data management method according to the invention as set forth in claim 4;
【図6】請求項5記載の発明の動きに基づいた動画像検
索の一実施例を説明するための図である。FIG. 6 is a diagram for explaining an embodiment of a motion-based moving image search according to the invention;
1 時空間 2 軌跡 3 開始フレーム 4 終了フレーム 5 参照フレーム 6 時空間 7 軌跡 8 開始フレーム 9 参照フレーム 10 終了フレーム 11 近似矩形 12 動きの軌跡入力 1 Space-time 2 Trajectory 3 Start frame 4 End frame 5 Reference frame 6 Space-time 7 Trajectory 8 Start frame 9 Reference frame 10 End frame 11 Approximate rectangle 12 Motion trajectory input
Claims (5)
しておくことによって、動物体の位置を時間の関数とし
、これを用いて各時間ごとに動物体の位置に合わせた処
理を行うことによって、動きに基づいた動物体の提示を
特徴とする動画像提示方法。Claim 1: By recording the position of the moving object at each time in advance, the position of the moving object is made a function of time, and this is used to perform processing tailored to the position of the moving object at each time. A moving image presentation method characterized by presentation of moving objects based on movement.
の3次元からなる時空間上において、動きの特徴を良く
表す時間(参照時間と呼ぶ)における動物体の位置を複
数個与えることによって得られる、これを近似した直線
あるいは曲線、またはこれらの組合せによって表現され
る動物体の動きの軌跡をもって動物体の時空間情報とし
、時間を与えると物体の位置を返すことを特徴とする動
画像データ管理方法。[Claim 2] By providing a plurality of positions of the moving object at times (referred to as reference times) that well represent the characteristics of the movement on a three-dimensional space-time consisting of two dimensions representing the screen and one dimension representing time. A moving image characterized in that the trajectory of the movement of the moving object expressed by a straight line or curved line that approximates this, or a combination thereof, is used as spatiotemporal information of the moving object, and the position of the object is returned when time is given. Data management methods.
録しておくことによって、動物体の位置並びに形状を時
間の関数とし、これを用いて各時間ごとに動物体の位置
並びに形状に合わせた処理を行うことによって、動き並
びに形状の変化に基づいた動物体の提示を特徴とする請
求項1記載の動画像提示方法。Claim 3: By recording the shape as well as the position of the moving object at each time, the position and shape of the moving object are made a function of time, and this is used to record the position and shape of the moving object at each time. 2. The moving image presentation method according to claim 1, wherein the moving image presentation method is characterized in that the moving object is presented based on changes in movement and shape by performing processing tailored to the moving image.
矩形を併せて持たせることによって、動物体の動きの軌
跡並びに参照時間における近似矩形を持って動物体の時
空間情報とし、時間を与えると物体の位置を返し、加え
て参照時間における近似矩形をもとに参照時間との相対
時間を用いて算出される近似矩形を返すことを特徴とす
る請求項2記載の動画像データ管理方法。Claim 4: By also providing a rectangle that approximates the shape of the moving body at the reference time, the trajectory of the movement of the moving body and the approximate rectangle at the reference time are used as spatiotemporal information of the moving body, and the time is given. 3. The moving image data management method according to claim 2, further comprising returning an approximate rectangle calculated based on an approximate rectangle at a reference time using a time relative to the reference time.
理方法から得られる動物体の動きベクトル情報を検索キ
ーとして扱い、動きに基づいたシーン検索を行うことを
特徴とする動画像検索方法。5. A moving image search method, characterized in that motion vector information of a moving object obtained from the moving image data management method according to claim 2 or 4 is treated as a search key, and a scene search is performed based on movement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3124359A JP2765270B2 (en) | 1991-05-29 | 1991-05-29 | Video presentation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3124359A JP2765270B2 (en) | 1991-05-29 | 1991-05-29 | Video presentation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04352076A true JPH04352076A (en) | 1992-12-07 |
JP2765270B2 JP2765270B2 (en) | 1998-06-11 |
Family
ID=14883451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3124359A Expired - Lifetime JP2765270B2 (en) | 1991-05-29 | 1991-05-29 | Video presentation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2765270B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0855131A (en) * | 1994-08-12 | 1996-02-27 | Nippon Telegr & Teleph Corp <Ntt> | Method for identifying object in moving image and apparatus for identifying object in moving image |
JPH1027252A (en) * | 1996-07-09 | 1998-01-27 | Nec Corp | Moving image recognizing device |
JPH11120378A (en) * | 1994-01-07 | 1999-04-30 | Fujitsu Ltd | Video generator |
JP2003109013A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Method for processing spatio-temporal area information |
US7426286B2 (en) | 1999-01-28 | 2008-09-16 | Kabushiki Kaisha Toshiba | Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method |
JP2009081845A (en) * | 2007-08-22 | 2009-04-16 | Adobe Systems Inc | Bidirectional video frame search system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6464069A (en) * | 1982-07-30 | 1989-03-09 | Honeywell Inc | Linear and non-linear positional mapping for input pixel |
JPH01241679A (en) * | 1988-03-24 | 1989-09-26 | Matsushita Electric Ind Co Ltd | Animation editing device |
JPH02130682A (en) * | 1988-11-11 | 1990-05-18 | Nec Corp | Control system for animation graphic data |
JPH02312377A (en) * | 1989-05-29 | 1990-12-27 | Nippon Hoso Kyokai <Nhk> | Image filing system |
JPH0373999A (en) * | 1989-08-14 | 1991-03-28 | Nec Corp | Moving image display system |
-
1991
- 1991-05-29 JP JP3124359A patent/JP2765270B2/en not_active Expired - Lifetime
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6464069A (en) * | 1982-07-30 | 1989-03-09 | Honeywell Inc | Linear and non-linear positional mapping for input pixel |
JPH01241679A (en) * | 1988-03-24 | 1989-09-26 | Matsushita Electric Ind Co Ltd | Animation editing device |
JPH02130682A (en) * | 1988-11-11 | 1990-05-18 | Nec Corp | Control system for animation graphic data |
JPH02312377A (en) * | 1989-05-29 | 1990-12-27 | Nippon Hoso Kyokai <Nhk> | Image filing system |
JPH0373999A (en) * | 1989-08-14 | 1991-03-28 | Nec Corp | Moving image display system |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120378A (en) * | 1994-01-07 | 1999-04-30 | Fujitsu Ltd | Video generator |
JPH0855131A (en) * | 1994-08-12 | 1996-02-27 | Nippon Telegr & Teleph Corp <Ntt> | Method for identifying object in moving image and apparatus for identifying object in moving image |
JPH1027252A (en) * | 1996-07-09 | 1998-01-27 | Nec Corp | Moving image recognizing device |
US7426286B2 (en) | 1999-01-28 | 2008-09-16 | Kabushiki Kaisha Toshiba | Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method |
US7428316B2 (en) | 1999-01-28 | 2008-09-23 | Kabushiki Kaisha Toshiba | Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method |
US7428317B2 (en) | 1999-01-28 | 2008-09-23 | Kabushiki Kaisha Toshiba | Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method |
US7440588B2 (en) | 1999-01-28 | 2008-10-21 | Kabushiki Kaisha Toshiba | Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method |
JP2003109013A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Method for processing spatio-temporal area information |
JP2009081845A (en) * | 2007-08-22 | 2009-04-16 | Adobe Systems Inc | Bidirectional video frame search system and method |
US8588583B2 (en) | 2007-08-22 | 2013-11-19 | Adobe Systems Incorporated | Systems and methods for interactive video frame selection |
Also Published As
Publication number | Publication date |
---|---|
JP2765270B2 (en) | 1998-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3718472B2 (en) | Image display method and apparatus | |
US5010500A (en) | Gesture-modified diagram for retrieval of image resembling diagram, with parts selectable for further interactive retrieval | |
JP3171744B2 (en) | Voice and video search device | |
US6851091B1 (en) | Image display apparatus and method | |
US5353391A (en) | Method apparatus for transitioning between sequences of images | |
JP3979834B2 (en) | Image database apparatus and operation control method thereof | |
JP3927608B2 (en) | Moving image display device and moving image storage device | |
JPH06348762A (en) | Equipment and method for search of database | |
JP2002359777A (en) | Spatio-temporal domain information processing method and spatio-temporal domain information processing system | |
US7890866B2 (en) | Assistant editing display method for media clips | |
JP4124421B2 (en) | Image display control device | |
Jog et al. | Starfield visualization with interactive smooth zooming | |
US20090049083A1 (en) | Method and Apparatus for Accessing Data Using a Symbolic Representation Space | |
Teodosio et al. | Panoramic overviews for navigating real-world scenes | |
US5986660A (en) | Motion capture data system and display | |
JPH04352076A (en) | Method for offering moving image and method for machine moving image data | |
JP2008152584A (en) | Display image control device and display method thereof, and content display device and display method thereof | |
US6256401B1 (en) | System and method for storage, retrieval and display of information relating to marine specimens in public aquariums | |
GB2336061A (en) | Modifying image data | |
JP4137923B2 (en) | Image display method and apparatus | |
JP3599405B2 (en) | Data display method and system | |
JP2000172247A (en) | Device and method for displaying image | |
JP3041360B2 (en) | Generating moving images | |
JP2870819B2 (en) | Data editing method and device | |
JP3014209B2 (en) | Image information presentation device |