JPH10276388A - Device, method for processing and reproducing image and recording medium - Google Patents
Device, method for processing and reproducing image and recording mediumInfo
- Publication number
- JPH10276388A JPH10276388A JP9077285A JP7728597A JPH10276388A JP H10276388 A JPH10276388 A JP H10276388A JP 9077285 A JP9077285 A JP 9077285A JP 7728597 A JP7728597 A JP 7728597A JP H10276388 A JPH10276388 A JP H10276388A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- image
- album
- processing apparatus
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Landscapes
- Management Or Editing Of Information On Record Carriers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像処理装置およ
び画像処理方法、画像再生装置および画像再生方法、並
びに記録媒体に関し、特に、例えば、ビデオカメラなど
で撮影された動画像を、容易かつ効率的に編集すること
ができるようにする画像処理装置および画像処理方法、
画像再生装置および画像再生方法、並びに記録媒体に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, an image reproducing apparatus and an image reproducing method, and a recording medium. Image processing apparatus and image processing method capable of dynamic editing
The present invention relates to an image reproducing device, an image reproducing method, and a recording medium.
【0002】[0002]
【従来の技術】例えば、ビデオカメラなどで撮影された
動画像を編集する方法には、大別して、リニア編集とノ
ンリニア編集とがある。2. Description of the Related Art For example, a method of editing a moving image captured by a video camera or the like is roughly classified into linear editing and non-linear editing.
【0003】図26は、従来のリニア編集装置の一例の
構成を示している。FIG. 26 shows an example of the configuration of a conventional linear editing apparatus.
【0004】ビデオカメラ201においては、動画が撮
影され、その撮影された動画が再生されて、編集機20
2に供給される。編集機202に入力された画像はTV
(TeleVision)モニタ203に表示され、ユーザは、そ
の表示を見ながら編集機202を操作し、ビデオカメラ
201からの画像を編集する。編集後の画像は、例え
ば、VTR(Video Tape Recoder)204などの記録装
置に供給されて記録される。In the video camera 201, a moving image is photographed, and the photographed moving image is played back.
2 is supplied. The image input to the editing machine 202 is a TV
(TeleVision) Displayed on the monitor 203, the user operates the editing machine 202 while viewing the display to edit the image from the video camera 201. The edited image is supplied to a recording device such as a VTR (Video Tape Recorder) 204 and recorded.
【0005】以上のようなリニア編集装置では、ビデオ
カメラ201から再生された画像が、編集機202を介
して、VTR204で順次記録されていくため、VTR
204に記録された画像(編集済みの画像)の途中に、
新たに画像を挿入などしようとするときには、その挿入
部分から再度編集をやり直す必要があり、面倒で、また
時間を要する問題があった。In the above-described linear editing apparatus, images reproduced from the video camera 201 are sequentially recorded by the VTR 204 via the editing machine 202.
In the middle of the image (edited image) recorded in 204,
When trying to insert a new image, it is necessary to redo the editing from the inserted portion, which is troublesome and takes time.
【0006】そこで、最近では、コンピュータなどをベ
ースに構成されたノンリニア編集装置が急速に普及しつ
つある。Therefore, recently, non-linear editing apparatuses constructed based on a computer or the like are rapidly spreading.
【0007】図27は、ノンリニア編集装置の一例の構
成を示している。FIG. 27 shows an example of the configuration of a non-linear editing apparatus.
【0008】ノンリニア編集装置においては、まず最初
に、編集対象の画像が編集機222に取り込まれる。即
ち、ビデオカメラ211において撮影された動画が再生
されて、例えば、コンピュータをベースに構成された編
集機222に供給される。編集機222においては、ビ
デオカメラ222からの画像が、例えば、ハードディス
ク(図示せず)などのランダムアクセスが可能な補助記
憶装置に記録されていく。従って、編集機222への画
像の取り込みは、基本的に、ビデオカメラ211で画像
を再生する時間に等しい時間だけかかる。[0008] In the nonlinear editing apparatus, first, an image to be edited is taken into the editing machine 222. That is, a moving image captured by the video camera 211 is reproduced and supplied to, for example, an editing machine 222 based on a computer. In the editing device 222, images from the video camera 222 are recorded in an auxiliary storage device such as a hard disk (not shown) that can be accessed randomly. Therefore, taking the image into the editing machine 222 basically takes a time equal to the time required to reproduce the image with the video camera 211.
【0009】なお、画像がディジタル信号の場合は、専
用のインターフェイスを介して、アナログ信号の場合
(例えば、画像がNTSC方式やPAL方式の信号であ
る場合など)は、そのアナログの画像信号はA/D変換
器(図示せず)を介してディジタル信号とされて、ハー
ドディスクに記録される。When an image is a digital signal, an analog image signal (for example, when the image is a signal of the NTSC system or the PAL system) is transmitted via a dedicated interface. It is converted into a digital signal via a / D converter (not shown) and recorded on a hard disk.
【0010】ここで、画像をハードディスクに記録する
場合においては、その画像を、例えばモーションJPE
G(Joint Photographic coding Experts Group)やM
PEG(Moving Picture Experts Group)などの規格に
準拠して圧縮することができる。この場合、ハードディ
スクに記録する画像データのデータ量を飛躍的に少なく
することができ、ノンリニア編集装置の小型化および低
価格化を図ることができる。Here, when an image is recorded on a hard disk, the image is stored in a motion JPE, for example.
G (Joint Photographic coding Experts Group) or M
It can be compressed in accordance with standards such as PEG (Moving Picture Experts Group). In this case, the amount of image data to be recorded on the hard disk can be drastically reduced, and the size and cost of the nonlinear editing device can be reduced.
【0011】なお、画像を圧縮せずに記録する場合には
約20Mバイト/秒程度に、画像を圧縮して記録する場
合には約数100kバイト/秒乃至数Mバイト/秒程度
に、それぞれ画像の再生時間を乗じた容量のハードディ
スクが必要となる。従って、画像を圧縮せずに記録する
場合には、装置が大型化および高コスト化するが、高画
質を維持することができる。一方、画像を圧縮して記録
する場合には、上述のように、装置を小型化および低コ
スト化することができるが、画質が多少劣化する。When an image is recorded without compression, it is reduced to about 20 Mbytes / second, and when the image is compressed and recorded, it is reduced to about several hundred kbytes / second to several Mbytes / second. A hard disk with a capacity multiplied by the image playback time is required. Therefore, in the case of recording an image without compression, the size and cost of the apparatus are increased, but high image quality can be maintained. On the other hand, when an image is compressed and recorded, as described above, the apparatus can be reduced in size and cost, but the image quality is slightly degraded.
【0012】画像の取り込みが完了すると、その編集が
行われる。即ち、編集対象の画像がコンピュータディス
プレイ223の所定の領域やTVモニタ227に表示さ
れ、ユーザは、その表示を見ながら編集機222のキー
ボード224やマウス225などを操作し、取り込んだ
画像を編集する。これにより、編集機222では、画像
に付されているタイムスタンプを基準に、例えば、不必
要な部分のカット、画像や文字の挿入、画像のシーンの
入れ替えなどが行われ、また、特殊効果などが付され
る。そして、編集後の画像は、ハードディスクに記録さ
れる。When the capture of the image is completed, the image is edited. That is, the image to be edited is displayed on a predetermined area of the computer display 223 or on the TV monitor 227, and the user operates the keyboard 224 or the mouse 225 of the editing machine 222 while viewing the display to edit the captured image. . As a result, the editing machine 222 performs, for example, cutting of unnecessary parts, insertion of images and characters, replacement of image scenes, and the like, based on the time stamp attached to the image, and special effects. Is appended. Then, the edited image is recorded on the hard disk.
【0013】ハードディスクに記録された編集後の画像
は、編集機222からVTR226に供給されて記録さ
れたり、また、別の編集のための素材として使用され
る。The edited image recorded on the hard disk is supplied from the editor 222 to the VTR 226 and recorded, or used as a material for another editing.
【0014】なお、編集後の画像をディジタル信号のま
ま出力する場合には、その画像は専用のインターフェイ
スを介して、また、編集後の画像をアナログ信号として
出力する場合には、その画像はD/A変換器(図示せ
ず)を介して、それぞれ出力される。さらに、編集後の
画像が圧縮されている場合には、その圧縮されている画
像は伸張されてから出力される。When the edited image is output as a digital signal, the image is output through a dedicated interface. When the edited image is output as an analog signal, the image is output as a D signal. The signals are output via an A / A converter (not shown). Furthermore, if the edited image is compressed, the compressed image is output after being decompressed.
【0015】以上のように、ノンリニア編集装置では、
編集対象の画像をすべて編集機222に取り込んでから
編集が行われるので、既に編集が行われた部分に、新た
に画像などを挿入することなども、容易に行うことがで
きる。As described above, in the nonlinear editing device,
Since the editing is performed after all the images to be edited are imported to the editing device 222, it is possible to easily insert a new image or the like into the already edited portion.
【0016】[0016]
【発明が解決しようとする課題】ところで、ノンリニア
編集であっても、リニア編集と同様に、編集後の画像を
得ることが、その作業の目的であり、画像を取り込むだ
けでは意味がない。Incidentally, in the case of non-linear editing, as in the case of linear editing, obtaining an edited image is the purpose of the work, and it is not meaningful just to import the image.
【0017】そして、編集作業は、リニア編集であって
も、またノンリニア編集であっても、ユーザが、画像を
見てチェックし、編集に用いる画像を決めた後、編集機
202や222を操作することで行われるため、時間を
要する課題があった。Whether the editing operation is linear editing or non-linear editing, the user looks at the images, checks them, decides an image to be used for editing, and operates the editing machine 202 or 222. Therefore, there is a problem that takes time.
【0018】さらに、編集機202や222の操作は、
ある程度の熟練を要するため、初心者のユーザが編集を
行うことは困難であった。Further, the operations of the editing machines 202 and 222 are as follows.
Since it requires some skill, it is difficult for a novice user to edit.
【0019】また、例えば、画像を、一まとまりのシー
ンごとにカット編集などする場合に、従来においては、
例えば、特開平8−9328号公報に開示されているよ
うな、マニュアルで編集点を入力して、その編集点でシ
ーンをカットすると思われる装置はあったが、マニュア
ルで編集点を入力するのは面倒であった。For example, when an image is cut and edited for each set of scenes, conventionally,
For example, there is an apparatus disclosed in Japanese Patent Application Laid-Open No. H8-9328, in which an edit point is manually input and the scene is cut at the edit point. Was troublesome.
【0020】本発明は、このような状況に鑑みてなされ
たものであり、動画像の編集を、容易かつ短時間で行う
ことができるようにするものである。The present invention has been made in view of such a situation, and it is an object of the present invention to edit a moving image easily and in a short time.
【0021】[0021]
【課題を解決するための手段】請求項1に記載の画像処
理装置は、入力された動画像から、一まとまりのシーン
を検出するシーン検出手段と、シーンを代表する静止画
であるクリップ画面を生成するクリップ画面生成手段
と、クリップ画面を貼り付けた仮想的なアルバムを生成
するアルバム生成手段とを備えることを特徴とする。An image processing apparatus according to a first aspect of the present invention includes a scene detecting means for detecting a set of scenes from an input moving image, and a clip screen which is a still image representing the scene. It is characterized by comprising a clip screen generating means for generating, and an album generating means for generating a virtual album on which the clip screen is pasted.
【0022】請求項26に記載の画像処理方法は、入力
された動画像から、一まとまりのシーンを検出し、シー
ンを代表する静止画であるクリップ画面を生成し、クリ
ップ画面を貼り付けた仮想的なアルバムを生成すること
を特徴とする。According to the image processing method of the twenty-sixth aspect, a set of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A characteristic album is generated.
【0023】請求項27に記載の画像再生装置は、入力
された動画像から、一まとまりのシーンを検出し、シー
ンを代表する静止画であるクリップ画面を生成し、クリ
ップ画面を貼り付けた仮想的なアルバムを生成すること
により得られたシーンについての画像データのファイル
であるシーンファイルおよびアルバムを再生する再生手
段を備えることを特徴とする。The image reproducing apparatus according to the twenty-seventh aspect detects a set of scenes from an input moving image, generates a clip screen as a still image representing the scene, and pastes the clip screen. And a reproduction means for reproducing an album and a scene file which is a file of image data of a scene obtained by generating a typical album.
【0024】請求項30に記載の画像再生方法は、入力
された動画像から、一まとまりのシーンを検出し、シー
ンを代表する静止画であるクリップ画面を生成し、クリ
ップ画面を貼り付けた仮想的なアルバムを生成すること
により得られたシーンについての画像データのファイル
であるシーンファイルおよびアルバムを再生することを
特徴とする。According to an image reproducing method of the present invention, a set of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A scene file and an album, which are files of image data on scenes obtained by generating a typical album, are reproduced.
【0025】請求項31に記載の記録媒体は、入力され
た動画像から、一まとまりのシーンを検出し、シーンを
代表する静止画であるクリップ画面を生成し、クリップ
画面を貼り付けた仮想的なアルバムを生成することによ
り得られたシーンについての画像データのファイルであ
るシーンファイルおよびアルバムが記録されていること
を特徴とする。According to the recording medium of the present invention, a set of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A scene file and an album, which are files of image data on scenes obtained by generating a new album, are recorded.
【0026】請求項1に記載の画像処理装置において
は、シーン検出手段は、入力された動画像から、一まと
まりのシーンを検出し、クリップ画面生成手段は、シー
ンを代表する静止画であるクリップ画面を生成するよう
になされている。アルバム生成手段は、クリップ画面を
貼り付けた仮想的なアルバムを生成するようになされて
いる。In the image processing apparatus according to the first aspect, the scene detecting means detects a group of scenes from the input moving image, and the clip screen generating means determines whether the clip is a still image representing the scene. The screen has been adapted to generate. The album generating means generates a virtual album to which the clip screen is pasted.
【0027】請求項26に記載の画像処理方法において
は、入力された動画像から、一まとまりのシーンを検出
し、シーンを代表する静止画であるクリップ画面を生成
し、クリップ画面を貼り付けた仮想的なアルバムを生成
するようになされている。In the image processing method according to the twenty-sixth aspect, a group of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A virtual album is generated.
【0028】請求項27に記載の画像再生装置において
は、再生手段が、入力された動画像から、一まとまりの
シーンを検出し、シーンを代表する静止画であるクリッ
プ画面を生成し、クリップ画面を貼り付けた仮想的なア
ルバムを生成することにより得られたシーンについての
画像データのファイルであるシーンファイルおよびアル
バムを再生するようになされている。In the image reproducing apparatus according to the twenty-seventh aspect, the reproducing means detects a group of scenes from the input moving image, generates a clip screen as a still image representing the scene, and generates a clip screen. A scene file and an album, which are files of image data of a scene obtained by generating a virtual album with a tag attached thereto, are reproduced.
【0029】請求項30に記載の画像再生方法において
は、入力された動画像から、一まとまりのシーンを検出
し、シーンを代表する静止画であるクリップ画面を生成
し、クリップ画面を貼り付けた仮想的なアルバムを生成
することにより得られたシーンについての画像データの
ファイルであるシーンファイルおよびアルバムを再生す
るようになされている。According to the image reproducing method of the present invention, a set of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A scene file, which is a file of image data of a scene obtained by generating a virtual album, and an album are reproduced.
【0030】請求項31に記載の記録媒体には、入力さ
れた動画像から、一まとまりのシーンを検出し、シーン
を代表する静止画であるクリップ画面を生成し、クリッ
プ画面を貼り付けた仮想的なアルバムを生成することに
より得られたシーンについての画像データのファイルで
あるシーンファイルおよびアルバムが記録されている。In the recording medium according to the thirty-first aspect, a set of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A scene file, which is a file of image data of a scene obtained by generating a typical album, and an album are recorded.
【0031】[0031]
【発明の実施の形態】以下に、本発明の実施の形態を説
明するが、その前に、特許請求の範囲に記載の発明の各
手段と以下の実施の形態との対応関係を明らかにするた
めに、各手段の後の括弧内に、対応する実施の形態(但
し、一例)を付加して、本発明の特徴を記述すると、次
のようになる。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below, but before that, the correspondence between each means of the invention described in the claims and the following embodiments will be clarified. For this reason, the features of the present invention are described as follows by adding the corresponding embodiment (however, an example) in parentheses after each means.
【0032】即ち、請求項1に記載の画像処理装置は、
動画像を処理する画像処理装置であって、入力された動
画像から、一まとまりのシーンを検出するシーン検出手
段(例えば、図4に示すプログラムの処理ステップS1
9およびS20並びに図6に示すプログラムの処理ステ
ップS31乃至S38など)と、シーンを代表する静止
画であるクリップ画面を生成するクリップ画面生成手段
(例えば、図7に示すプログラムの処理ステップS43
など)と、クリップ画面を貼り付けた仮想的なアルバム
を生成するアルバム生成手段(例えば、図7に示すプロ
グラムの処理ステップS45など)とを備えることを特
徴とする。That is, the image processing apparatus according to claim 1 is
An image processing apparatus for processing a moving image, which is a scene detecting means (for example, processing step S1 of a program shown in FIG. 4) for detecting a group of scenes from an input moving image
9 and S20, and processing steps S31 to S38 of the program shown in FIG. 6) and a clip screen generating means for generating a clip screen which is a still image representing the scene (for example, processing step S43 of the program shown in FIG. 7)
) And an album generating means (for example, processing step S45 of the program shown in FIG. 7) for generating a virtual album with a clip screen pasted thereon.
【0033】請求項4に記載の画像処理装置は、動画像
から、ユーザが必要としないフレームである無効フレー
ムを検出する無効フレーム検出手段(例えば、図5に示
すプログラムの処理ステップS22や、S24,S26
など)と、シーンから、無効フレームを削除する無効フ
レーム削除手段(例えば、図5に示すプログラムの処理
ステップS23や、S25,S27など)とをさらに備
えることを特徴とする。An image processing apparatus according to a fourth aspect of the present invention provides an invalid frame detecting means (for example, processing steps S22 and S24 of the program shown in FIG. 5) for detecting an invalid frame which is not required by the user from a moving image. , S26
And the like, and invalid frame deleting means (for example, processing steps S23, S25, and S27 of the program shown in FIG. 5) for deleting invalid frames from the scene.
【0034】請求項9に記載の画像処理装置は、シーン
についての画像データをMPEG(Moving Picture Exp
erts Group)符号化する符号化手段(例えば、図1に示
す圧縮部13など)をさらに備え、クリップ画面生成手
段が、シーンのうちの最初のIピクチャを、クリップ画
面とすることを特徴とする。According to the ninth aspect of the present invention, the image processing apparatus converts the image data of the scene into an MPEG (Moving Picture Exposure).
(erts Group) encoding means (for example, the compression unit 13 shown in FIG. 1), and the clip screen generating means sets a first I picture in a scene as a clip screen. .
【0035】請求項10に記載の画像処理装置は、シー
ンについての画像データのファイルであるシーンファイ
ルおよびアルバムを記録する記録手段(例えば、図1に
示す補助記憶インターフェイス10やVTR16など)
をさらに備えることを特徴とする。The image processing apparatus according to the tenth aspect is a recording means (for example, an auxiliary storage interface 10 or a VTR 16 shown in FIG. 1) for recording a scene file and an album, which are files of image data of a scene.
Is further provided.
【0036】請求項11に記載の画像処理装置は、記録
手段により記録されたシーンファイルおよびアルバムを
再生する再生手段(例えば、図24に示すプログラムの
処理ステップS131乃至S137など)をさらに備え
ることを特徴とする。[0036] The image processing apparatus according to the eleventh aspect of the present invention further comprises a reproducing means (for example, processing steps S131 to S137 of a program shown in FIG. 24) for reproducing the scene file and the album recorded by the recording means. Features.
【0037】請求項14に記載の画像処理装置は、アル
バムに貼り付けられたクリップ画面を指定する指定手段
(例えば、図1に示すマウス9など)をさらに備え、再
生手段が、指定手段により指定されたクリップ画面に対
応するシーンファイルを再生することを特徴とする。The image processing apparatus according to the fourteenth aspect further comprises designation means (for example, a mouse 9 shown in FIG. 1) for designating the clip screen pasted on the album, and the reproduction means designates the clip screen by the designation means. A scene file corresponding to the selected clip screen.
【0038】請求項15に記載の画像処理装置は、画像
データを符号化する符号化手段(例えば、図1に示す圧
縮部13など)をさらに備え、記録手段が、符号化手段
により符号化された画像データを記録することを特徴と
する。The image processing apparatus according to the fifteenth aspect further includes an encoding unit (for example, the compression unit 13 shown in FIG. 1) for encoding the image data, and the recording unit is encoded by the encoding unit. Characterized in that the recorded image data is recorded.
【0039】請求項16に記載の画像処理装置は、符号
化手段により符号化された画像データを復号化する復号
化手段(例えば、図1に示す伸張部15など)をさらに
備えることを特徴とする。The image processing apparatus according to a sixteenth aspect further comprises a decoding unit (for example, the decompression unit 15 shown in FIG. 1) for decoding the image data encoded by the encoding unit. I do.
【0040】請求項17に記載の画像処理装置は、アル
バムを編集するアルバム編集手段(例えば、図9に示す
プログラムの処理ステップS51およびS52や、図1
1に示すプログラムの処理ステップS61乃至63、図
22に示すプログラムの処理ステップS121乃至S1
29など)をさらに備えることを特徴とする。An image processing apparatus according to a seventeenth aspect provides an album editing means for editing an album (for example, processing steps S51 and S52 of a program shown in FIG.
1 and the processing steps S121 to S1 of the program shown in FIG.
29).
【0041】請求項20に記載の画像処理装置は、シー
ンを編集するシーン編集手段(例えば、図13に示すプ
ログラムの処理ステップS71乃至S84など)をさら
に備えることを特徴とする。An image processing apparatus according to a twentieth aspect is characterized by further comprising a scene editing means (for example, processing steps S71 to S84 of a program shown in FIG. 13) for editing a scene.
【0042】請求項25に記載の画像処理装置は、入射
された光を光電変換し、動画像の信号を出力する光電変
換手段(例えば、図25に示すCCD(Charge Coupled
Device)102など)をさらに備えることを特徴とす
る。According to a twenty-fifth aspect of the present invention, there is provided an image processing apparatus for photoelectrically converting incident light and outputting a moving image signal (for example, a CCD (Charge Coupled Device) shown in FIG.
Device) 102).
【0043】請求項27に記載の画像再生装置は、動画
像を再生する画像再生装置であって、入力された動画像
から、一まとまりのシーンを検出し、シーンを代表する
静止画であるクリップ画面を生成し、クリップ画面を貼
り付けた仮想的なアルバムを生成することにより得られ
たシーンについての画像データのファイルであるシーン
ファイルおよびアルバムを再生する再生手段(例えば、
図24に示すプログラムの処理ステップS131乃至S
137など)を備えることを特徴とする。An image reproducing apparatus according to a twenty-seventh aspect is an image reproducing apparatus for reproducing a moving image, comprising detecting a group of scenes from an input moving image and displaying a clip as a still image representing the scene. A playback unit that plays back a scene file and an album that is a file of image data on a scene obtained by generating a screen and generating a virtual album to which a clip screen is pasted (for example,
Processing steps S131 to S131 of the program shown in FIG.
137 etc.).
【0044】請求項29に記載の画像再生装置は、アル
バムに貼り付けられたクリップ画面を指定する指定手段
(例えば、図1に示すマウス9など)をさらに備え、再
生手段が、指定手段により指定されたクリップ画面に対
応するシーンファイルを再生することを特徴とする。An image reproducing apparatus according to a twenty-ninth aspect further comprises a designating means (for example, a mouse 9 shown in FIG. 1) for designating a clip screen pasted on an album, wherein the reproducing means designates the clip screen by the designating means. A scene file corresponding to the selected clip screen.
【0045】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。Of course, this description does not mean that each means is limited to those described above.
【0046】図1は、本発明を適用したノンリニア編集
装置の一実施の形態の構成例を示している。FIG. 1 shows a configuration example of an embodiment of a non-linear editing apparatus to which the present invention is applied.
【0047】このノンリニア編集装置は、例えば、コン
ピュータをベースとして構成されている。即ち、マイク
ロプロセッサ1は、ハードディスク12に記録されたオ
ペレーティングシステムの制御の下、同じくハードディ
スク12に記録されたアプリケーションプログラムを実
行することで、画像や音声の編集処理や編集後の画像や
音声の再生処理などの所定の処理を行う。メインメモリ
2は、マイクロプロセッサ1が実行するプログラムや、
マイクロプロセッサ1の動作上必要なデータを記憶す
る。フレームバッファ3は、例えば、DRAM(Dynami
c Random AccessMemory)などで構成され、マイクロプ
ロセッサ1が生成した画像などを記憶する。バスブリッ
ジ4は、内部バスと、例えばPCI(Peripheral Compo
nent Interconnect)ローカルバスなどの拡張バスとの
間でのデータのやりとりを制御する。This non-linear editing apparatus is configured based on, for example, a computer. That is, the microprocessor 1 executes an application program also recorded on the hard disk 12 under the control of the operating system recorded on the hard disk 12, thereby performing image and audio editing processing and reproduction of the edited image and audio. A predetermined process such as a process is performed. The main memory 2 stores programs executed by the microprocessor 1,
Data necessary for the operation of the microprocessor 1 is stored. The frame buffer 3 is, for example, a DRAM (Dynami
c Random Access Memory) and stores an image generated by the microprocessor 1 and the like. The bus bridge 4 includes an internal bus and, for example, a PCI (Peripheral Compo
nent Interconnect) Controls the exchange of data with an extended bus such as a local bus.
【0048】以上のマイクロプロセッサ1、メインメモ
リ2、フレームバッファ3、およびバスブリッジ4は、
相互に、内部バスを介して接続されており、残りのブロ
ックは、拡張バスを介して相互に接続されている。な
お、バスブリッジ4は、内部バスと拡張バスとの両方に
接続されている。The above-described microprocessor 1, main memory 2, frame buffer 3, and bus bridge 4
The blocks are connected to each other via an internal bus, and the remaining blocks are connected to each other via an expansion bus. The bus bridge 4 is connected to both the internal bus and the expansion bus.
【0049】チューナ5は、例えば、地上波や衛星回
線、CATV網を利用して放送されているテレビジョン
放送信号を受信する。ここで、チューナ5において受信
した画像や音声なども編集の対象とすることができる。
モデム6は、電話回線を介しての通信を制御する。ここ
で、モデム6において、例えば、インターネットなどか
ら受信した画像や音声なども編集の対象とすることがで
きるし、また、編集した画像や音声などを、外部に送信
することもできる。The tuner 5 receives a television broadcast signal broadcast using, for example, a terrestrial wave, a satellite line, or a CATV network. Here, images and sounds received by the tuner 5 can also be edited.
The modem 6 controls communication via a telephone line. Here, in the modem 6, for example, images and sounds received from the Internet or the like can be edited, and the edited images and sounds can be transmitted to the outside.
【0050】I/O(Input/Output)インターフェイス
7は、キーボード8やマウス9の操作に対応した操作信
号を出力する。キーボード8は、所定のデータやコマン
ドを入力するときに、マウス9は、ディスプレイ(コン
ピュータディスプレイ)17に表示されるカーソルを移
動させたり、また、位置を指示したりするときなどに、
それぞれ操作される。The I / O (Input / Output) interface 7 outputs an operation signal corresponding to the operation of the keyboard 8 and the mouse 9. The keyboard 8 is used to input predetermined data or commands, and the mouse 9 is used to move a cursor displayed on a display (computer display) 17 or to indicate a position.
Each is operated.
【0051】補助記憶インターフェイス10は、CD−
R(Compact Disc Recodable)11やハードディスク
(HD(Hard Disk))12などに対するデータの読み
書きを制御する。CD−R11には、例えば、編集後の
画像や音声などが記録される。ハードディスク12に
は、オペレーティングシステムや、ノンリニア編集その
他処理をマイクロプロセッサ1に実行させるためのアプ
リケーションプログラムなどが記憶されている。さら
に、ハードディスク12には、編集対象の画像や音声、
編集後の画像や音声なども記録される。The auxiliary storage interface 10 is a CD-ROM.
It controls reading / writing of data from / to an R (Compact Disc Recodable) 11 and a hard disk (HD (Hard Disk)) 12. On the CD-R 11, for example, images and sounds after editing are recorded. The hard disk 12 stores an operating system, application programs for causing the microprocessor 1 to execute non-linear editing and other processes, and the like. Further, the hard disk 12 has images and sounds to be edited,
The edited image and sound are also recorded.
【0052】圧縮部13は、そこに入力される画像や音
声を、例えば、MPEGの規格に準拠して圧縮符号化す
る。なお、圧縮部13では、拡張バスを介して供給され
るデータや、伸張部15を介して供給されるデータ、さ
らには、外部の装置である、例えば、ビデオカメラ14
から供給されるデータなども圧縮することができるよう
になされている。The compression section 13 compresses and encodes the image and sound input thereto, for example, in accordance with the MPEG standard. In the compression unit 13, data supplied via an expansion bus, data supplied via an expansion unit 15, and an external device such as a video camera 14
It is also possible to compress data supplied from the Internet.
【0053】ビデオカメラ14では、例えば、編集対象
とする画像や音声が記録される。圧縮部13は、ビデオ
カメラ14とのインターフェイスを有しており、これに
より、ビデオカメラ14で記録された画像や音声は圧縮
部13に入力することができるようになされている。The video camera 14 records, for example, images and sounds to be edited. The compression unit 13 has an interface with the video camera 14, so that images and sounds recorded by the video camera 14 can be input to the compression unit 13.
【0054】伸張部15は、圧縮部13で符号化(圧
縮)されたデータを復号化(伸張)して出力する。な
お、伸張部15は、必要に応じて、フレームバッファ3
に記憶された画像に、復号化した画像をオーバレイして
出力する。ここで、フレームバッファ3から伸張部15
への画像データの供給は、図1の実施の形態では、それ
らの間で直接行われるようになされているが、その他、
内部バス、バスブリッジ4、および拡張バスを介して行
うことも可能である。但し、フレームバッファ3から伸
張部15への画像データの供給を、内部バス、バスブリ
ッジ4、および拡張バスを介して行う場合には、内部バ
スや拡張バスの能力が低いと、データが渋滞するおそれ
がある。The expansion unit 15 decodes (expands) the data encoded (compressed) by the compression unit 13 and outputs the data. Note that the decompression unit 15 is provided with the frame buffer 3 as necessary.
And overlays the decoded image on the image stored in. Here, the extension unit 15
In the embodiment of FIG. 1, the supply of image data to the image data is performed directly between them.
This can be performed via the internal bus, the bus bridge 4 and the extension bus. However, when the image data is supplied from the frame buffer 3 to the decompression unit 15 via the internal bus, the bus bridge 4, and the extension bus, if the capacity of the internal bus or the extension bus is low, the data is congested. There is a risk.
【0055】VTR16は、伸張部15が出力する画像
や音声を、必要に応じて記録する。ディスプレイ17
は、伸張部15が出力する画像を、必要に応じて表示す
る。なお、伸張部15が出力する画像の表示は、コンピ
ュータ用のディスプレイであるディスプレイ17の他、
TVモニタなどによっても行うことができるようになさ
れている。The VTR 16 records images and sounds output from the decompression unit 15 as necessary. Display 17
Displays the image output by the expansion unit 15 as necessary. The display of the image output by the decompression unit 15 includes a display 17 which is a display for a computer,
It can also be performed by a TV monitor or the like.
【0056】図2は、図1の圧縮部13の構成例を示し
ている。FIG. 2 shows an example of the configuration of the compression section 13 of FIG.
【0057】A/Dコンバータ21または22には、ア
ナログの画像信号または音声信号がそれぞれ入力される
ようになされており、それぞれでは、アナログの画像信
号または音声信号がA/D変換されることによりディジ
タル信号とされ、選択部23または24にそれぞれ供給
される。An analog image signal or an audio signal is input to the A / D converter 21 or 22, respectively. The analog image signal or the audio signal is converted into an analog signal or an analog signal, respectively. A digital signal is supplied to the selection unit 23 or 24.
【0058】選択部23には、A/Dコンバータ21の
出力、ディジタルの画像信号、および画像/音声挿入部
28の出力が供給されるようになされており、そこで
は、それらのうちの所定のものが選択され、画像圧縮部
25に供給される。選択部24には、A/Dコンバータ
22の出力、ディジタルの音声信号、および画像/音声
挿入部28の出力が供給されるようになされており、そ
こでは、やはり、それらのうちの所定のものが選択さ
れ、音声圧縮部26に供給される。The output of the A / D converter 21, the digital image signal, and the output of the image / sound insertion unit 28 are supplied to the selection unit 23, where a predetermined one of them is supplied. The image is selected and supplied to the image compression unit 25. The output of the A / D converter 22, the digital audio signal, and the output of the image / audio insertion unit 28 are supplied to the selection unit 24. Is selected and supplied to the audio compression unit 26.
【0059】なお、選択部23において、A/Dコンバ
ータ21の出力、ディジタルの画像信号、または画像/
音声挿入部28の出力が選択される場合には、選択部2
4においては、A/Dコンバータ22の出力、ディジタ
ルの音声信号、または画像/音声挿入部28の出力がそ
れぞれ選択されるようになされている。また、選択部2
3においてA/Dコンバータ21の出力が選択される場
合には、選択部24においては、そのA/Dコンバータ
21の出力であるディジタルの画像信号の同期信号に基
づきに、その画像信号と同期するように、A/Dコンバ
ータ22から供給されるディジタルの音声信号が出力さ
れる。従って、A/Dコンバータ22において音声信号
をA/D変換するためのサンプリングクロックは、A/
Dコンバータ21に入力されるアナログの画像信号の同
期信号に同期している必要がある。In the selection section 23, the output of the A / D converter 21, the digital image signal, or the image /
When the output of the voice inserting unit 28 is selected, the selecting unit 2
In 4, the output of the A / D converter 22, the digital audio signal, or the output of the image / audio insertion unit 28 is selected. Selector 2
When the output of the A / D converter 21 is selected in 3, the selector 24 synchronizes with the image signal based on the synchronization signal of the digital image signal output from the A / D converter 21. Thus, the digital audio signal supplied from the A / D converter 22 is output. Therefore, the sampling clock for A / D conversion of the audio signal in the A / D converter 22 is A / D
It is necessary to synchronize with the synchronizing signal of the analog image signal input to the D converter 21.
【0060】画像圧縮部25または音声圧縮部26で
は、選択部23または24からの画像または音声が、例
えば、MPEG(例えば、MPEG2など)の規格に準
拠して符号化(MPEG符号化)され、これにより、そ
の規格に規定されているエレメンタリストリームが出力
される。このエレメンタリストリームは、例えば、DM
A(Direct Memory Access)コントローラでもあるバス
インターフェイス27により、拡張バスを介して、DM
A転送される。In the image compression unit 25 or the audio compression unit 26, the image or the audio from the selection unit 23 or 24 is encoded (MPEG encoded) according to, for example, the MPEG (eg, MPEG2) standard. As a result, an elementary stream defined by the standard is output. This elementary stream is, for example, DM
A (Direct Memory Access) controller, a bus interface 27, and a DM
A is transferred.
【0061】また、バスインターフェイス27は、拡張
バスを介して転送されてくる画像や音声を、画像/音声
挿入部28に供給し、画像/音声挿入部28は、バスイ
ンターフェイス27からの画像または音声を、選択部2
3または24にそれぞれ出力するようになされている。The bus interface 27 supplies images and sounds transferred via the extension bus to the image / sound insertion unit 28, and the image / sound insertion unit 28 sends the images or sounds from the bus interface 27. To the selection unit 2
3 or 24 respectively.
【0062】なお、画像圧縮部25は、そこに入力され
る画像を符号化して出力する他、後述するような無効フ
ラグおよびシーンチェンジフラグも出力するようになさ
れており、バスインターフェイス27は、これらの無効
フラグおよびシーンチェンジフラグも、画像圧縮部25
が出力する、画像を圧縮した圧縮データとともにDMA
転送するようになされている。The image compression section 25 encodes and outputs an image input thereto, and also outputs an invalid flag and a scene change flag as described later. The invalid flag and scene change flag of
Is output along with the compressed data obtained by compressing the image.
The transfer has been made.
【0063】次に、図1のノンリニア編集装置の動作に
ついて説明する。Next, the operation of the nonlinear editing apparatus shown in FIG. 1 will be described.
【0064】例えば、ビデオカメラ14で記録された画
像および音声を編集する場合、ユーザは、その画像およ
び音声を、ノンリニア編集装置に取り込ませる。即ち、
ユーザは、例えば、ビデオカメラ14の図示せぬ再生ボ
タンを操作することにより、ビデオカメラ14に、画像
および音声を再生させる。For example, when editing an image and a sound recorded by the video camera 14, the user loads the image and the sound into the non-linear editing device. That is,
The user causes the video camera 14 to reproduce an image and a sound, for example, by operating a play button (not shown) of the video camera 14.
【0065】なお、ビデオカメラ14による画像および
音声の再生は、その他、例えば、キーボード8やマウス
9を操作することによっても行わせることができる。即
ち、キーボード8やマウス9が、ビデオカメラ14にお
ける再生を指示するように操作されると、その旨の操作
信号が、I/Oインターフェイス7およびバスブリッジ
4を介して、マイクロプロセッサ1で受信される。マイ
クロプロセッサ1は、この操作信号を受信すると、再生
を指示するコントロール信号を、バスブリッジ4および
圧縮部13を介して、ビデオカメラ14に送信する。ビ
デオカメラ1では、マイクロプロセッサ1からのコント
ロール信号にしたがって、画像および音声の再生が開始
される。The reproduction of images and sounds by the video camera 14 can also be performed by operating the keyboard 8 and the mouse 9, for example. That is, when the keyboard 8 and the mouse 9 are operated so as to instruct the video camera 14 to reproduce, an operation signal to that effect is received by the microprocessor 1 via the I / O interface 7 and the bus bridge 4. You. When receiving the operation signal, the microprocessor 1 transmits a control signal for instructing reproduction to the video camera 14 via the bus bridge 4 and the compression unit 13. In the video camera 1, reproduction of images and sounds is started according to a control signal from the microprocessor 1.
【0066】ビデオカメラ14での画像および音声の再
生が開始されると、ノンリニア編集装置では、その画像
および音声の取り込み処理が、例えば、図3に示すフロ
ーチャートにしたがって行われる。When the reproduction of the image and the sound by the video camera 14 is started, the image and the sound are fetched in the non-linear editing apparatus according to, for example, a flowchart shown in FIG.
【0067】即ち、まず最初に、ステップS1におい
て、ビデオカメラ14で再生された画像および音声がM
PEG符号化(圧縮)される。That is, first, in step S1, the image and sound reproduced by the video camera 14 are M
PEG encoded (compressed).
【0068】具体的には、ビデオカメラ14で再生され
た画像および音声は、圧縮部13に供給される。圧縮部
13(図2)では、ビデオカメラ14で再生された画像
または音声がディジタル信号のものであれば、それぞれ
が選択部23または24で選択され、画像圧縮部25ま
たは音声圧縮部26に供給される。また、ビデオカメラ
14で再生された画像または音声がアナログ信号のもの
であれば、それぞれは、A/Dコンバータ21または2
2を介することによりディジタル信号とされ、選択部2
3または24に供給される。この場合、選択部23また
は24では、A/Dコンバータ21または22が出力す
るディジタルの画像または音声が選択され、画像圧縮部
25または音声圧縮部26にそれぞれ供給される。Specifically, the image and the sound reproduced by the video camera 14 are supplied to the compression unit 13. In the compression unit 13 (FIG. 2), if the image or sound reproduced by the video camera 14 is a digital signal, the image or sound is selected by the selection unit 23 or 24 and supplied to the image compression unit 25 or the sound compression unit 26. Is done. If the image or sound reproduced by the video camera 14 is an analog signal, the A / D converter 21 or 2
2 is converted into a digital signal through the selector 2
3 or 24. In this case, the selector 23 or 24 selects a digital image or audio output from the A / D converter 21 or 22, and supplies the digital image or audio to the image compressor 25 or the audio compressor 26, respectively.
【0069】画像圧縮部25または音声圧縮部26で
は、ステップS1において、選択部23または24から
の画像または音声がそれぞれMPEG符号化され、バス
インターフェイス27に出力される。さらに、画像圧縮
部25においては、無効フラグおよびシーンチェンジフ
ラグも適宜出力され、バスインターフェイス27に出力
される。バスインターフェイス27は、画像圧縮部25
および音声圧縮部26の出力を補助記憶インターフェイ
ス10に供給してハードディスク12に記録させる。In the image compression unit 25 or the audio compression unit 26, the image or the audio from the selection unit 23 or 24 is MPEG-coded in step S 1, and is output to the bus interface 27. Further, in the image compression section 25, an invalid flag and a scene change flag are output as appropriate, and output to the bus interface 27. The bus interface 27 includes an image compression unit 25
The output of the audio compression unit 26 is supplied to the auxiliary storage interface 10 and recorded on the hard disk 12.
【0070】以上のようにハードディスク12へのデー
タの記録が開始されると、マイクロプロセッサ1は、ス
テップS2において、そのデータを読み出し、後述する
ようなシーンファイルを構成するシーンファイル化処理
を行う。さらに、マイクロプロセッサ1は、ステップS
3において、後述するような仮想的なアルバムを構成
し、ディスプレイ7に表示させて、画像および音声の取
り込み処理を終了する。When the recording of data on the hard disk 12 is started as described above, the microprocessor 1 reads the data in step S2, and performs a scene file conversion process for forming a scene file as described later. Further, the microprocessor 1 performs step S
In step 3, a virtual album as described later is formed and displayed on the display 7, and the image and audio capturing process ends.
【0071】次に、図2の画像圧縮部25は、上述の無
効フラグおよびシーンチェンジフラグを、次のような画
像分類情報検出処理を行うことで出力するようになされ
ている。Next, the image compression section 25 in FIG. 2 outputs the above-mentioned invalid flag and scene change flag by performing the following image classification information detection processing.
【0072】即ち、まず最初に、ステップS11におい
て、いま符号化の対象となっている1フレームの画像の
輝度値Yの総和S(Y)が算出される。具体的には、1
フレームの画像がN個の画素で構成されている場合にお
いて、そのn番目の画素の輝度値をYnと表すとき、ス
テップS11では、次式にしたがって、1フレームの画
像の輝度値の総和S(Y)が算出される。That is, first, in step S11, the total sum S (Y) of the luminance values Y of the image of one frame to be encoded now is calculated. Specifically, 1
In the case where the image frame is composed of N pixels, then the n-th luminance value of the pixel represented as Y n, in step S11, according to the following formula, the sum of luminance values of an image of one frame S (Y) is calculated.
【0073】S(Y)=ΣYn・・・(1) 但し、式(1)におけるΣは、nを1乃至Nに変えての
サメーションを意味する。S (Y) = ΣY n (1) where Σ in the equation (1) means a summation where n is changed from 1 to N.
【0074】その後、ステップS12に進み、ステップ
S11で算出された輝度値の総和S(Y)が、所定の閾
値ε1より小さいかどうかが判定される。ステップS1
2において、S(Y)がε1より小さいと判定された場
合、ステップS13に進み、その旨を示す第1の無効フ
ラグが出力され、ステップS14に進む。[0074] Then, the process proceeds to step S12, the total sum S of the brightness values calculated in step S11 (Y) is, whether the predetermined threshold epsilon 1 less is determined. Step S1
In 2, the case where S (Y) is determined to epsilon 1 smaller, the process proceeds to step S13, first invalid flag indicating that effect is output, the process proceeds to step S14.
【0075】また、ステップS12において、S(Y)
がε1より小さくないと判定された場合、ステップS1
3をスキップして、即ち、第1の無効フラグを出力せず
に、ステップS14に進み、1フレームについてのDC
T(Discrete Cosine Transform)係数のDC成分(直
流成分)すべてが所定の閾値ε2よりも大きいかどうか
が判定される。ここで、DCT係数は、画像圧縮部25
において画像がMPEG符号化されるときに、マクロブ
ロック(16×16画素のブロック)単位で求められる
ので、ステップS14における判定処理は、そのDC成
分に基づいて行われる。In step S12, S (Y)
If but that is judged not to be less than epsilon 1, step S1
3 is skipped, that is, without outputting the first invalid flag, the process proceeds to step S14, and the DC
All T (Discrete Cosine Transform) coefficient of a DC component (direct current component) whether greater than a predetermined threshold epsilon 2 is determined. Here, the DCT coefficient is calculated by the image compression unit 25.
When the image is MPEG-encoded in (1), since the image is obtained in units of macro blocks (blocks of 16 × 16 pixels), the determination processing in step S14 is performed based on the DC component.
【0076】ステップS14において、1フレームにつ
いてのDCT係数のDC成分すべてがε2より大きいと
判定された場合、ステップS15に進み、その旨を示す
第2の無効フラグが出力され、ステップS16に進む。[0076] In step S14, if all DC components of DCT coefficients for one frame is determined to be greater than epsilon 2, the process proceeds to step S15, a second invalid flag indicating that effect is output, the process proceeds to step S16 .
【0077】また、ステップS14において、1フレー
ムについてのDCT係数のDC成分がε2より大きくな
いと判定された場合、ステップS15をスキップして、
即ち、第2の無効フラグを出力せずに、ステップS16
に進み、いま符号化の対象となっているフレームと、そ
の1フレーム前のフレームとの間の相関(フレーム間相
関)Cが算出される。即ち、例えば、1フレームの画像
がN個の画素で構成されている場合において、第fフレ
ームのn番目の画素の輝度値をYf,nと表すとき、ステ
ップS16では、次式にしたがって、フレーム間相関C
が算出される。[0077] Further, in step S14, if the DC component of the DCT coefficients for one frame is not greater than epsilon 2, skips step S15,
That is, without outputting the second invalid flag, step S16
To calculate the correlation (inter-frame correlation) C between the frame to be encoded and the frame immediately before the current frame. That is, for example, in a case where an image of one frame is composed of N pixels and the luminance value of the n-th pixel of the f-th frame is represented as Y f, n , in step S16, Inter-frame correlation C
Is calculated.
【0078】C=Σ|Yf,n−Yf-1,n|・・・(2) 但し、式(2)におけるΣも、式(1)における場合と
同様に、nを1乃至Nに変えてのサメーションを意味す
る。C = {| Y f, n -Y f-1, n | (2) However, as in the case of the equation (1), Σ in the equation (2) also Means summation.
【0079】フレーム間相関Cを算出した後は、ステッ
プS17に進み、そのフレーム間相関Cが所定の閾値ε
3より大きいかどうかが判定される。ステップS17に
おいて、フレーム間相関Cがε3より大きいと判定され
た場合、ステップS18に進み、その旨を表す第3の無
効フラグが出力され、ステップS21に進む。After calculating the inter-frame correlation C, the process proceeds to step S17, where the inter-frame correlation C is set to a predetermined threshold ε.
It is determined whether it is greater than 3 . In step S17, if the inter-frame correlation C is determined to be greater than epsilon 3, the process proceeds to step S18, the third invalid flag that represents that fact is output, the process proceeds to step S21.
【0080】また、ステップS17において、フレーム
間相関Cがε3より大きくないと判定された場合、ステ
ップS19に進み、フレーム間相関Cが所定の閾値ε4
(但し、ε3>ε4)より小さいかどうかが判定される。
ステップS19において、フレーム間相関Cがε4より
小さいと判定された場合、ステップS20に進み、その
旨を表すシーンチェンジフラグが出力され、ステップS
21に進む。また、ステップS19において、フレーム
間相関Cがε4より小さくないと判定された場合、ステ
ップS20をスキップして、ステップS21に進み、ビ
デオカメラ21からの画像の入力がすべて終了したかど
うかが判定され、終了していないと判定された場合、ス
テップS11に戻り、次のフレームを対象に、同様の処
理が行われる。[0080] Further, in step S17, if the inter-frame correlation C is not greater than epsilon 3, the process proceeds to step S19, the inter-frame correlation C is the predetermined threshold epsilon 4
(However, it is determined whether it is smaller than ε 3 > ε 4 ).
In step S19, if the inter-frame correlation C is determined epsilon 4 smaller, the process proceeds to step S20, the scene change flag indicating that fact is output, the step S
Proceed to 21. Further, in step S19, if the inter-frame correlation C is determined to not less than epsilon 4, skips step S20, the process proceeds to step S21, whether the input image from the video camera 21 has been completed is determined If it is determined that the processing has not been completed, the process returns to step S11, and the same processing is performed on the next frame.
【0081】一方、ステップS21において、ビデオカ
メラ21からの画像の入力がすべて終了したと判定され
た場合、ビデオカメラ21からの画像を分類するための
情報としての無効フラグ(第1乃至第3の無効フラグ)
およびシーンチェンジフラグを検出する画像分類情報検
出処理を終了する。On the other hand, if it is determined in step S21 that the input of all the images from the video camera 21 has been completed, the invalid flag (first to third information) as information for classifying the images from the video camera 21 is determined. Invalid flag)
Then, the image classification information detection processing for detecting the scene change flag ends.
【0082】なお、バスインターフェイス27では、無
効フラグやシーンチェンジフラグは、各フラグが出力さ
れるときの画像分類情報検出処理の対象となっていたフ
レームの画像データを符号化したものに対応付けて出力
される。In the bus interface 27, the invalid flag and the scene change flag are associated with the encoded image data of the frame that was the target of the image classification information detection processing when each flag was output. Is output.
【0083】次に、マイクロプロセッサ1においては、
以上のような画像分類情報検出処理により得られる無効
フラグに基づいて、ユーザが必要としないフレームであ
る無効フレームを検出して削除する画像削除処理が、図
5に示すフローチャートにしたがって行われる。Next, in the microprocessor 1,
Based on the invalid flag obtained by the above-described image classification information detection processing, an image deletion processing of detecting and deleting an invalid frame that is not required by the user is performed according to the flowchart shown in FIG.
【0084】即ち、まず最初に、ステップS22におい
て、第1の無効フラグが、所定のフレーム数としての、
例えば、1GOP(Group Of Picture)などを構成する
フレーム数以上連続したかどうかが判定される。ステッ
プS22において、第1の無効フラグが1GOP分以上
連続したと判定された場合、ステップS23に進み、そ
の間の画像データを符号化したものがハードディスク1
2から削除され、ステップS24に進む。即ち、第1の
無効フラグは、1フレームの画像の輝度値の総和S
(Y)が閾値ε1より小さい場合に出力されるが、S
(Y)がε1より小さい場合というのは、何も録画がさ
れていないと考えられる。このようなフレームが、例え
ばIピクチャが出現する間隔である1GOP分以上連続
する部分は、ユーザが必要としない無効フレームと考え
られるため、ステップS23で削除される。That is, first, in step S22, the first invalid flag is set as a predetermined number of frames.
For example, it is determined whether or not the number of frames constituting one GOP (Group Of Picture) or the like is continuous. If it is determined in step S22 that the first invalid flag has continued for one GOP or more, the process proceeds to step S23, in which the encoded image data is stored in the hard disk 1
2 and the process proceeds to step S24. That is, the first invalid flag is the sum S of the luminance values of the image of one frame.
(Y) is output when the threshold epsilon 1 is smaller than but, S
(Y) is that when epsilon 1 less than, nothing is considered that recording that is not. For example, a portion where such a frame continues for one GOP or more, which is an interval at which I-pictures appear, is considered to be an invalid frame not required by the user, and is therefore deleted in step S23.
【0085】なお、第1の無効フラグが長時間連続する
場合は、ビデオカメラ14による録画が終了したと考え
られる。従って、図4のステップS21におけるビデオ
カメラ21からの画像の入力がすべて終了したかどうか
の判定は、この第1の無効フラグの出力が長時間連続し
たかどうかを判定ことで行うことができる。When the first invalid flag continues for a long time, it is considered that the recording by the video camera 14 has been completed. Accordingly, whether or not the input of all the images from the video camera 21 in step S21 in FIG. 4 has been completed can be determined by determining whether or not the output of the first invalid flag has continued for a long time.
【0086】一方、ステップS22において、第1の無
効フラグが1GOP分以上連続していないと判定された
場合、ステップS23をスキップして、ステップS24
に進み、第2の無効フラグが、例えば、数10秒以上連
続したかどうかが判定される。ステップS24におい
て、第2の無効フラグが数10秒以上連続したと判定さ
れた場合、ステップS25に進み、その間の画像データ
を符号化したものがハードディスク12から削除され、
ステップS26に進む。即ち、第2の無効フラグは、1
フレームについてのDCT係数のDC成分がすべて閾値
ε2より大きい場合に出力されるが、このようにDC成
分がε2より小さいフレームというのは、そのフレーム
全体が、ある単色で塗りつぶされたようなものとなって
いると考えられる。このようなフレームが、数10秒以
上連続する部分は、ユーザが必要としない無効フレーム
と考えられるため、ステップS25で削除される。On the other hand, if it is determined in step S22 that the first invalid flag is not continuous for one GOP or more, step S23 is skipped and step S24 is performed.
It is determined whether or not the second invalid flag has continued for several tens of seconds, for example. If it is determined in step S24 that the second invalid flag has continued for several tens of seconds or more, the process proceeds to step S25, in which the encoded image data is deleted from the hard disk 12, and
Proceed to step S26. That is, the second invalid flag is 1
While the DC component of the DCT coefficients for frames is output if all larger than the threshold epsilon 2, because in this way the DC component is epsilon 2 smaller frames, such as the entire frame is filled with a certain single color It is considered to be something. A portion where such a frame continues for several tens of seconds or more is considered to be an invalid frame that is not required by the user, and is therefore deleted in step S25.
【0087】なお、単色のフレームは、編集時におい
て、例えば、フェードをかけるときに使用される場合が
あるため、何も録画がされていないフレームの場合のよ
うに、1GOP分の時間のような短時間ではなく、上述
したように、数10秒などの長時間連続した場合に削除
される。Note that a single-color frame may be used at the time of editing, for example, when a fade is applied. Therefore, as in the case of a frame in which nothing is recorded, the time of one GOP is used. As described above, it is deleted not when it is short but when it is continuous for a long time such as several tens of seconds.
【0088】一方、ステップS24において、第2の無
効フラグが数10秒以上連続していないと判定された場
合、ステップS25をスキップして、ステップS26に
進み、第3の無効フラグが、例えば、数10秒以上連続
したかどうかが判定される。ステップS26において、
第3の無効フラグが数10秒以上連続したと判定された
場合、ステップS27に進み、その間の画像データを符
号化したものがハードディスク12から削除され、ステ
ップS22に戻る。即ち、第3の無効フラグは、フレー
ム間相関Cが閾値ε3より大きい場合に出力されるが、
このようにフレーム間相関Cがε3より大きいフレーム
(フレーム間相関が非常に大きいフレーム)というの
は、前のフレームと同一の画像になっていると考えられ
る。このようなフレームが、数10秒以上連続する部分
は、ユーザが必要としない無効フレームと考えられるた
め、ステップS27で削除される。On the other hand, if it is determined in step S24 that the second invalid flag is not continuous for more than several tens of seconds, step S25 is skipped, the process proceeds to step S26, and the third invalid flag is set to, for example, It is determined whether or not continuous for several tens of seconds or more. In step S26,
If it is determined that the third invalid flag has continued for several tens of seconds or more, the process proceeds to step S27, in which the encoded image data is deleted from the hard disk 12, and the process returns to step S22. That is, the third invalid flag is output when the inter-frame correlation C is larger than the threshold ε 3 ,
Thus, a frame in which the inter-frame correlation C is larger than ε 3 (a frame in which the inter-frame correlation is very large) is considered to be the same image as the previous frame. A portion where such a frame continues for several tens of seconds or more is considered to be an invalid frame not required by the user, and is therefore deleted in step S27.
【0089】ステップS27の処理後は、ステップS2
2に戻り、以下、同様の処理が繰り返される。After the processing in step S27, step S2
2, the same process is repeated.
【0090】なお、ステップS23,S25、およびS
27で画像を削除する場合、その画像に対応する音声も
削除される。Note that steps S23, S25, and S
When the image is deleted at 27, the sound corresponding to the image is also deleted.
【0091】また、上述の場合においては、ハードディ
スク12に記録された画像を削除するようにしたが、画
像の削除(音声についても同様)は、画像圧縮部25
に、画像を符号化する前に行わせる(音声については音
声圧縮部26に行わせる)ようにすることも可能であ
る。In the above case, the image recorded on the hard disk 12 is deleted. However, the deletion of the image (similarly for the sound) is performed by the image compression unit 25.
Alternatively, it may be performed before the image is encoded (for the audio, the audio compression unit 26 may be used).
【0092】ここで、図4の画像分類情報検出処理にお
ける閾値ε1乃至ε3は、上述したような無効フレームを
削除する観点に基づいて適切な値が設定されるようにな
されている。Here, the thresholds ε 1 to ε 3 in the image classification information detection processing of FIG. 4 are set to appropriate values based on the viewpoint of eliminating invalid frames as described above.
【0093】次に、図3のステップS2におけるシーン
ファイル化処理の詳細について、図6のフローチャート
を参照して説明する。Next, details of the scene file conversion process in step S2 of FIG. 3 will be described with reference to the flowchart of FIG.
【0094】シーンファイル化処理では、動画像から、
一まとまりのシーンが検出され、そのシーンごとの画像
データおよび音声データが1つのファイル(以下、適
宜、シーンファイル)とされる。In the scene file conversion process, a moving image is
A set of scenes is detected, and image data and audio data for each scene are made into one file (hereinafter, a scene file as appropriate).
【0095】即ち、まず最初に、ステップS31におい
て、シーンファイルを識別するためのユニークな番号と
してのシーン番号を表す変数iが、初期値としての、例
えば1に初期化され、ステップS32に進む。ステップ
S32では、シーン番号#iのシーンファイルがオープ
ンされ、ステップS33に進み、そのシーンファイル
に、ハードディスク12に記録された、画像および音声
をMPEG符号化したデータ(以下、適宜、圧縮データ
という)が記録される。即ち、シーンファイル化処理が
開始されると、ハードディスク12に記録された圧縮デ
ータが、その先頭から順次読み出され、その圧縮データ
が、ステップS32でオープンされたシーンファイルに
記録される。そして、ステップS34に進み、シーンチ
ェンジフラグを受信したかどうかが判定され、受信して
いないと判定された場合、ステップS33に戻り、シー
ン番号#iのシーンファイルへの圧縮データの記録が継
続される。That is, first, in step S31, a variable i representing a scene number as a unique number for identifying a scene file is initialized to, for example, 1 as an initial value, and the flow proceeds to step S32. In step S32, the scene file with the scene number #i is opened, and the process proceeds to step S33, in which the image and the sound recorded on the hard disk 12 are MPEG-encoded data (hereinafter, appropriately referred to as compressed data). Is recorded. That is, when the scene file creation process is started, the compressed data recorded on the hard disk 12 is sequentially read from its head, and the compressed data is recorded in the scene file opened in step S32. Then, the process proceeds to step S34, where it is determined whether a scene change flag has been received. If it is determined that the scene change flag has not been received, the process returns to step S33, and recording of the compressed data in the scene file of the scene number #i is continued. You.
【0096】一方、ステップS34において、シーンチ
ェンジフラグを受信したと判定された場合、ステップS
35に進み、シーン番号#iが、ステップS32でオー
プンされたシーンファイルに対応付けられ、ステップS
36に進む。ステップS36では、シーン番号#iのシ
ーンファイルがクローズされる。On the other hand, if it is determined in step S34 that the scene change flag has been received, the process proceeds to step S34.
35, the scene number #i is associated with the scene file opened in step S32,
Proceed to 36. In step S36, the scene file with the scene number #i is closed.
【0097】ここで、シーンチェンジフラグは、フレー
ム間相関Cが閾値ε4より小さい場合に出力されるが、
このようにフレーム間相関Cがε4より小さいフレーム
(フレーム間相関が非常に小さいフレーム)というの
は、あるシーンの録画を終了し、新たなシーンの録画を
開始したフレームになっていると考えられる。そこで、
ステップS33では、シーンチェンジフラグが検出され
るまでの圧縮データが、一まとまりのシーンを構成する
として、1のシーンファイルに記録される。[0097] Here, the scene change flag, but the inter-frame correlation C is output when the threshold epsilon 4 smaller,
Because thus inter-frame correlation C is epsilon 4 smaller frames (inter-frame is very small frame correlation), considered to be finished the recording of the scene, which is the frame start recording a new scene Can be Therefore,
In step S33, the compressed data until the scene change flag is detected is recorded in one scene file, assuming that the data constitutes a set of scenes.
【0098】シーン番号#iのシーンファイルがクロー
ズされた後は、ステップS37に進み、ハードディスク
12に記録された圧縮データの読み出しがすべて終了し
たかどうかが判定される。ステップS37において、圧
縮データの読み出しがすべて終了していないと判定され
た場合、ステップS38に進み、シーン番号#iが1だ
けインクリメントされ、ステップS32に戻る。即ち、
この場合、次のシーンについてのシーンファイルが構成
される。一方、ステップS37において、圧縮データの
読み出しがすべて終了したと判定された場合、シーンフ
ァイル化処理を終了する。After the scene file of the scene number #i is closed, the process proceeds to step S37, and it is determined whether or not reading of the compressed data recorded on the hard disk 12 has all been completed. If it is determined in step S37 that the reading of all the compressed data has not been completed, the process proceeds to step S38, where the scene number #i is incremented by 1, and the process returns to step S32. That is,
In this case, a scene file for the next scene is configured. On the other hand, if it is determined in step S37 that the reading of the compressed data has all been completed, the scene file conversion process ends.
【0099】以上のようにして、シーンごとに圧縮デー
タをファイルにしたシーンファイルの作成が終了した
後、ハードディスク12に記録された圧縮データは削除
される。As described above, after the creation of the scene file in which the compressed data is converted into a file for each scene is completed, the compressed data recorded on the hard disk 12 is deleted.
【0100】なお、上述の場合においては、画像削除処
理およびシーンファイル化処理を、圧縮部13で得られ
た圧縮データをハードディスク12に記録した後に行う
ようにしたが、その他、例えば、圧縮部13で得られた
圧縮データを、バスブリッジ4を介して、メインメモリ
2にDMA転送して記憶させ、このメインメモリ2に記
憶された圧縮データを対象に、画像削除処理およびシー
ンファイル化処理を行い、これにより得られるシーンフ
ァイルを、ハードディスク12に記録させるようにする
ことも可能である。In the above-described case, the image deletion processing and the scene file conversion processing are performed after the compressed data obtained by the compression unit 13 is recorded on the hard disk 12. Is transferred to the main memory 2 via the bus bridge 4 and DMA-stored. The compressed data stored in the main memory 2 is subjected to image deletion processing and scene file conversion processing. The resulting scene file can be recorded on the hard disk 12.
【0101】次に、図7および図8を参照して、図3の
ステップS3におけるアルバム表示処理の詳細について
説明する。Next, the details of the album display process in step S3 in FIG. 3 will be described with reference to FIGS.
【0102】アルバム表示処理では、まず最初に、ステ
ップS41において、シーン番号を表す変数iが、図6
のステップS31における場合と同様に、初期値である
1に初期化され、ステップS42に進み、シーン番号#
iのシーンファイル(以下、適宜、シーンファイル#i
と記述する)がオープンされる。そして、ステップS4
3に進み、そのシーンファイル#iに対応するシーンを
代表する静止画であるクリップ画面が生成される。In the album display processing, first, in step S41, the variable i representing the scene number is set to the value shown in FIG.
Is initialized to 1, which is the initial value, and the process proceeds to step S42, where the scene number #
i scene file (hereinafter, scene file #i
Is written) is opened. Then, step S4
Proceeding to No. 3, a clip screen which is a still image representing the scene corresponding to the scene file #i is generated.
【0103】即ち、ステップS43では、マイクロプロ
セッサ1において、シーンファイル#iに記録された画
像の圧縮データが読み出され、所定の復号化アルゴリズ
ム(伸張部15の処理に対応する復号化アルゴリズム)
にしたがって復号化(ソフトウェアで復号化)される。
そして、マイクロプロセッサ1は、例えば、最初に復号
化したGOPを構成するIピクチャを、例えば、その画
素数を間引くことにより縮小し、それを、クリップ画面
とする。このクリップ画面は、ステップS44におい
て、シーンファイル#iと対応付けられて、ハードディ
スク12に記録される。That is, in step S43, the microprocessor 1 reads out the compressed data of the image recorded in the scene file #i and performs a predetermined decoding algorithm (a decoding algorithm corresponding to the processing of the decompression unit 15).
(Decoded by software).
Then, for example, the microprocessor 1 reduces the I-picture constituting the GOP decoded first, for example, by thinning out the number of pixels, and sets it as a clip screen. This clip screen is recorded on the hard disk 12 in step S44 in association with the scene file #i.
【0104】そして、ステップS45に進み、マイクロ
プロセッサ1は、ディスプレイ17にあらかじめ表示さ
せておいた仮想的なアルバムに、ステップS45で生成
したクリップ画面を貼り付けるように表示させる。Then, the process proceeds to a step S45, in which the microprocessor 1 displays the clip screen generated in the step S45 so as to be pasted on the virtual album previously displayed on the display 17.
【0105】即ち、図3で説明したデータの取り込み処
理が開始されると、マイクロプロセッサ1は、例えば、
図8(A)に示すような仮想的なアルバム(アルバムの
画像)をフレームバッファ3に書き込み、これを伸長部
15を介してディスプレイ17に転送することで表示さ
せるようになされており、ステップS45では、このア
ルバムに、例えば、図8(B)に示すように、クリップ
画面が表示される。That is, when the data fetch process described with reference to FIG. 3 is started, the microprocessor 1
A virtual album (album image) as shown in FIG. 8A is written in the frame buffer 3 and transferred to the display 17 via the decompression unit 15 for display. Then, a clip screen is displayed in this album, for example, as shown in FIG.
【0106】その後、ステップS46に進み、ハードデ
ィスク12に記録されたシーンファイルすべてについて
クリップ画面を生成したかどうかが判定され、生成して
いないと判定された場合、ステップS47に進み、シー
ン番号を表す変数iが1だけインクリメントされ、ステ
ップS42に戻る。即ち、この場合、次のシーンファイ
ルについてのクリップ画面が生成され、アルバムに貼り
付けられる。Thereafter, the flow advances to step S46 to determine whether or not clip screens have been generated for all scene files recorded on the hard disk 12. If not, the flow advances to step S47 to indicate a scene number. The variable i is incremented by 1, and the process returns to step S42. That is, in this case, a clip screen for the next scene file is generated and pasted to the album.
【0107】一方、ステップS46において、ハードデ
ィスク12に記録されたシーンファイルすべてについて
クリップ画面を生成したと判定された場合、アルバム表
示処理を終了する。On the other hand, if it is determined in step S46 that clip screens have been generated for all scene files recorded on the hard disk 12, the album display processing ends.
【0108】以上のようにして、アルバム表示処理によ
れば、シーンファイルごとのクリップ画面が生成され
て、アルバムに貼り付けられる。As described above, according to the album display processing, a clip screen for each scene file is generated and pasted to the album.
【0109】ここで、図8(C)に、5つのシーンファ
イルについて、クリップ画面が生成され、アルバムに貼
り付けられた状態を示す。同図において、クリップ画面
の上部に付してある番号は、シーン番号を示している。Here, FIG. 8C shows a state where clip screens are generated for five scene files and pasted to an album. In the figure, the numbers attached to the upper part of the clip screen indicate scene numbers.
【0110】なお、アルバムにおいては、所定の位置を
原点として、クリップ画面が、それが生成される順番に
配置位置をずらして貼り付けられるようになされてい
る。また、マイクロプロセッサ1は、アルバムにクリッ
プ画面を貼り付けるスペースがなくなると、アルバムの
新たなページを開き、そのページにクリップ画面を貼り
付けるようになされている。In the album, a clip screen is pasted with its arrangement position shifted in the order in which the clip screen is generated, with a predetermined position as the origin. Further, when there is no more space for pasting a clip screen on the album, the microprocessor 1 opens a new page of the album and pastes the clip screen on the page.
【0111】以上のように、入力された動画像から、一
まとまりのシーンが検出され、各シーンについてのクリ
ップ画面が生成されて、アルバムに貼り付けられる。ま
た、各シーンからは、上述したように、無効フレーム
(およびそれに付随する音声)が削除される。従って、
ユーザは、そのような無効フレームを探して削除し、シ
ーンごとにカットするような編集の作業をせずに、編集
対象の画像および音声を取り込むための操作をするだけ
で、編集作業に熟練していなくても、無効なフレームが
削除され、かつシーンごとにカット編集されたデータ
を、容易に得ることができる。また、無効フレームが削
除されることから、ハードディスク12の記録容量を有
効に活用することができる。As described above, a group of scenes is detected from the input moving image, and a clip screen for each scene is generated and pasted to the album. As described above, invalid frames (and accompanying sounds) are deleted from each scene. Therefore,
The user is not required to search for and delete such invalid frames and perform editing operations such as cutting for each scene, but only to perform operations for capturing images and sounds to be edited. Even if it is not performed, invalid frames are deleted, and data edited and cut for each scene can be easily obtained. Further, since the invalid frame is deleted, the recording capacity of the hard disk 12 can be effectively used.
【0112】さらに、アルバムに貼り付けられたクリッ
プ画面を見ることで、各シーンを再生しなくても、その
内容を把握することができる。また、ディスプレイ17
上に表示されたアルバムは、実際に写真を貼り付けたア
ルバムと同様に利用することができる。Further, by looking at the clip screen pasted on the album, it is possible to grasp the contents without reproducing each scene. The display 17
The album displayed above can be used in the same manner as the album on which the pictures are actually pasted.
【0113】なお、上述の場合においては、画像および
音声を圧縮し、シーンファイル化を行った後に、クリッ
プ画面をアルバムに貼り付けるようにしたが、これらの
処理は同時に行う(並列に進める)ことが可能である。In the above-described case, the clip screen is pasted to the album after the image and the sound are compressed and converted into a scene file, but these processes are performed simultaneously (progress in parallel). Is possible.
【0114】即ち、画像および音声を圧縮し、シーンフ
ァイルを構成するとともに、画像の圧縮データを伸張部
15で復号化し、その縮小画像を、そのシーンファイル
のクリップ画面を貼り付けるアルバムの位置に表示させ
る。そして、ある1つのシーンについての圧縮およびシ
ーンファイル化の終了後に、そのシーンについてのクリ
ップ画面を生成し、いままで縮小画像を表示させていた
アルバムの位置に、そのクリップ画面を貼り付け、その
後、次のシーンについて、同様の処理を行うようにす
る。このようにした場合、圧縮している最中の画像がア
ルバムに表示され、そのシーンファイル化が終了する
と、アルバムには、そのクリップ画面が表示されるとと
もに、次のシーンについての画像(圧縮が開始された画
像)がアルバムに表示されるので、ユーザは、処理の進
行状況を把握することができるようになる。That is, the image and sound are compressed to form a scene file, and the compressed data of the image is decoded by the decompression unit 15 and the reduced image is displayed at the position of the album where the clip screen of the scene file is pasted. Let it. Then, after the compression and the creation of a scene file for a certain scene are completed, a clip screen for the scene is generated, and the clip screen is pasted at the position of the album where the reduced image was displayed, and thereafter, The same processing is performed for the next scene. In this case, the image being compressed is displayed on the album, and when the scene file is created, the clip screen is displayed on the album and the image of the next scene (compression is not performed). Since the (started image) is displayed in the album, the user can grasp the progress of the processing.
【0115】次に、以上のようにしてアルバムが構成さ
れた後は、後述するように、そのアルバムに貼り付けら
れたクリップ画面に対応するシーンファイルを、例え
ば、シーン番号順などに再生することができるので、そ
のような再生がなされれば充分であるユーザについて
は、その後の作業を行う必要はない。Next, after the album has been constructed as described above, the scene files corresponding to the clip screen pasted on the album are reproduced in the order of the scene numbers, for example, as described later. Therefore, there is no need to perform subsequent operations for a user who is satisfied with such reproduction.
【0116】しかしながら、シーンファイルの再生順序
を入れ替えたり、また、図3のデータ取り込み処理で作
成されたシーンファイルのうちの一部のシーンを削除し
たりすることが要望される場合がある。However, in some cases, it is required to change the order in which the scene files are reproduced, or to delete some scenes from the scene files created by the data import process of FIG.
【0117】そこで、図1のノンリニア編集装置では、
シーンの入れ替えや削除などを容易にすることができる
ようになされている。Therefore, in the nonlinear editing apparatus shown in FIG.
It is made possible to easily replace or delete scenes.
【0118】即ち、シーンの再生順序を変更する場合
(シーンの入れ替えを行う場合)においては、ユーザ
は、例えば、キーボード8を操作することによりコマン
ドを入力し(その他、例えば、図示せぬアイコンをマウ
ス9でクリックしても良い)、装置の動作モードを並び
替えモードとする。動作モードが並び替えモードとされ
ると、マイクロプロセッサ1では、図9のフローチャー
トにしたがった処理が行われる。即ち、ステップS51
において、アルバムに貼り付けられたクリップ画面が並
び替えられたかどうか(その並びが替わるように、クリ
ップ画面の位置が移動されたかどうか)が判定され、並
び替えられていないと判定された場合、ステップS51
に戻る。In other words, when changing the playback order of scenes (when replacing scenes), the user inputs a command by operating the keyboard 8, for example. (It may be clicked with the mouse 9), and the operation mode of the apparatus is set to the sorting mode. When the operation mode is set to the rearrangement mode, the microprocessor 1 performs processing according to the flowchart of FIG. That is, step S51
In, it is determined whether the clip screens pasted to the album have been rearranged (whether or not the position of the clip screen has been moved so that the rearrangement has been performed). S51
Return to
【0119】また、ステップS51において、アルバム
に貼り付けられたクリップ画面が並び替えられたと判定
された場合、ステップS52に進み、並び替えられたク
リップ画面の並びにしたがって、各クリップ画面に対応
するシーンファイルのシーン番号が付け替えられて、処
理を終了する。If it is determined in step S51 that the clip screens pasted on the album have been rearranged, the flow advances to step S52 to arrange the rearranged clip screens and, accordingly, the scene file corresponding to each clip screen. Are changed, and the process ends.
【0120】即ち、アルバムに貼り付けられたクリップ
画面は、例えば、マウス9でドラッグすることにより移
動させることができるようになされている。いま、例え
ば、図10(A)に示すように、アルバムにクリップ画
面が並んでいる場合において、シーン番号#3のクリッ
プ画面C1と、シーン番号#4のクリップ画面C2との位
置が、マウス9を操作することにより入れ替えられたと
する。この場合、同図(B)に示すように、クリップ画
面C1に対応するシーンファイルのシーン番号は4に、
クリップ画面C2に対応するシーンファイルのシーン番
号は3に、それぞれ付け替えられる。That is, the clip screen pasted on the album can be moved by dragging with the mouse 9, for example. Now, for example, as shown in FIG. 10 (A), in a case where a row of clips screen album, the Clip screen C 1 scene number # 3, the position of the clip window C 2 scene number # 4, It is assumed that the mouse 9 has been replaced by operating the mouse. In this case, as shown in FIG. (B), the scene number of the scene file corresponding to the clip screen C 1 to 4,
Scene number of the scene file corresponding to the clip screen C 2 to 3, are replaced respectively.
【0121】従って、ユーザは、シーンの再生順序を容
易に変更することができる。Accordingly, the user can easily change the reproduction order of the scene.
【0122】なお、クリップ画面は、そのクリップ画面
が貼り付けられているページの中だけでなく、他のペー
ジに移動させることも可能である。Note that the clip screen can be moved not only to the page on which the clip screen is pasted but also to another page.
【0123】次に、例えば、装置の動作モードが、上述
のような並び替えモードとされた場合や、後述するクリ
ップ画面編集モードとされた場合などにおいて、クリッ
プ画面がアルバムの外に移動されたときには、そのクリ
ップ画面に対応するシーンがカット(削除)されるよう
になされている。Next, for example, when the operation mode of the apparatus is set to the sort mode as described above, or when the clip mode is set to the clip screen edit mode described later, the clip screen is moved out of the album. Sometimes, the scene corresponding to the clip screen is cut (deleted).
【0124】即ち、上述したように、クリップ画面はド
ラッグすることで移動されることができるが、そのよう
にして、クリップ画面をアルバムの外に移動し、そのド
ラッグを解除した場合においては、例えば、図11のフ
ローチャートに示すように、ステップS61において、
そのクリップ画面についてのデータがハードディスク1
2から削除される。具体的には、そのクリップ画面の画
像データおよびそれに対応するシーンファイルが削除さ
れる。That is, as described above, the clip screen can be moved by dragging. In such a case, when the clip screen is moved out of the album and the drag is released, for example, As shown in the flowchart of FIG. 11, in step S61,
The data about the clip screen is stored on the hard disk 1
2 is deleted. Specifically, the image data of the clip screen and the scene file corresponding thereto are deleted.
【0125】そして、ステップS62において、クリッ
プ画面が並び替えられ、ステップS63に進み、ステッ
プS62で並び替えられたクリップ画面の並びにしたが
って、各クリップ画面に対応するシーンファイルのシー
ン番号が付け替えられ、処理を終了する。Then, in step S62, the clip screens are rearranged, and the flow advances to step S63 to arrange the clip screens rearranged in step S62, so that the scene numbers of the scene files corresponding to the respective clip screens are rearranged. To end.
【0126】即ち、例えば、図12(A)に示すよう
に、シーン番号#3のクリップ画面がドラッグされて、
アルバムの外に移動され、そのドラッグが解除された場
合には、シーン番号#3のクリップ画面が削除される。
そして、同図(B)に示すように、その削除された位置
の空白を詰めるように、シーン番号#4と#5のクリッ
プ画面が移動される。さらに、そのシーン番号#4と#
5のクリップ画面に対応するシーンファイルのシーン番
号が、#3と#4にそれぞれ付け替えられる。That is, for example, as shown in FIG. 12A, the clip screen of scene number # 3 is dragged,
If the clip is moved out of the album and the drag is released, the clip screen of scene number # 3 is deleted.
Then, as shown in FIG. 7B, the clip screens of scene numbers # 4 and # 5 are moved so as to fill the blank at the deleted position. Furthermore, the scene numbers # 4 and #
The scene numbers of the scene files corresponding to the clip screen No. 5 are changed to # 3 and # 4, respectively.
【0127】従って、ユーザは、シーンの削除を、容易
に行うことができる。Therefore, the user can easily delete a scene.
【0128】次に、ユーザが、各シーンの内容の編集を
することを希望する場合がある。この場合、ユーザは、
キーボード8やマウス9を操作することにより、装置の
動作モードをシーン編集モードとする。動作モードがシ
ーン編集モードとされると、マイクロプロセッサ1で
は、例えば、図13のフローチャートにしたがった処理
が行われる。Next, the user may want to edit the contents of each scene. In this case, the user
By operating the keyboard 8 and the mouse 9, the operation mode of the apparatus is set to the scene editing mode. When the operation mode is set to the scene editing mode, the microprocessor 1 performs, for example, processing according to the flowchart of FIG.
【0129】即ち、まず最初に、ステップS71におい
て、編集対象のシーンに対応するクリップ画面が選択さ
れたかどうかが判定され、選択されていないと判定され
た場合、ステップS71に戻る。また、ステップS71
において、編集対象のシーンに対応するクリップ画面が
選択されたと判定された場合、ステップS72に進み、
編集ウインドウがオープンされ、ディスプレイ17に表
示される。That is, first, in step S71, it is determined whether or not the clip screen corresponding to the scene to be edited is selected. If it is determined that the clip screen has not been selected, the process returns to step S71. Step S71
When it is determined that the clip screen corresponding to the scene to be edited is selected, the process proceeds to step S72,
An editing window is opened and displayed on the display 17.
【0130】具体的には、例えば、図14(A)に示す
ように、クリップ画面が貼り付けられたアルバムが表示
されている場合において、ユーザがマウス9をクリック
することにより、そのうちのいずれかが選択されたとす
る。この場合、例えば、同図(B)に示すような編集ウ
インドウがディスプレイ17に表示される。Specifically, for example, as shown in FIG. 14A, when an album on which a clip screen is pasted is displayed, the user clicks the mouse 9 to select one of the albums. Is selected. In this case, for example, an editing window as shown in FIG.
【0131】編集ウインドウには、選択されたクリップ
画面に対応するシーンを再生するための再生ボタン48
が設けられており、ステップS73では、この再生ボタ
ン48が、マウス9でクリックされたかどうかが判定さ
れ、クリックされていないと判定された場合、ステップ
S73に戻る。また、ステップS73において、再生ボ
タン48がクリックされたと判定された場合、ステップ
S74に進み、ステップS71で選択されたと判定され
たクリップ画面に対応するシーンファイルの再生が、所
定の再生速度で行われる。A play button 48 for playing back a scene corresponding to the selected clip screen is displayed in the edit window.
In step S73, it is determined whether the play button 48 has been clicked with the mouse 9, and if it is determined that the play button 48 has not been clicked, the process returns to step S73. If it is determined in step S73 that the play button 48 has been clicked, the process proceeds to step S74, and the scene file corresponding to the clip screen determined to be selected in step S71 is played at a predetermined playback speed. .
【0132】即ち、ステップS74では、そのシーンフ
ァイルがハードディスク12から読み出され、伸張部1
5に供給される。伸張部15では、シーンファイルにお
ける画像の圧縮データが復号化され、編集ウインドウが
有する表示窓41に表示される。具体的には、編集ウイ
ンドウの画像データは、マイクロプロセッサ1によって
フレームバッファ3に書き込まれており、伸張部15
は、この編集ウインドウの表示窓41の部分に、圧縮デ
ータを復号化した画像をオーバレイして、ディスプレイ
17に表示させる。That is, in step S74, the scene file is read from the hard disk 12, and the
5 is supplied. In the decompression unit 15, the compressed data of the image in the scene file is decoded and displayed on the display window 41 of the editing window. Specifically, the image data of the editing window is written in the frame buffer 3 by the microprocessor 1 and
Overlays the image obtained by decoding the compressed data on the display window 41 of the editing window and causes the display 17 to display the image.
【0133】ここで、表示窓41への動画の表示が開始
されると、図15(A)に示すように、編集ウインドウ
が有するタイムコード欄42に、表示窓41に表示され
ている画像に対応するタイムコード(タイムスタンプ)
が表示されるとともに、編集ウインドウが有する再生イ
ンジケータ44が、再生された画像のデータ量に対応し
て塗りつぶされていく。従って、ユーザは、タイムコー
ド欄42や再生インジケータ44を参照することで、画
像(シーン)の再生時間を把握することができる。Here, when the display of the moving image on the display window 41 is started, as shown in FIG. 15A, the image displayed on the display window 41 is displayed in the time code column 42 of the editing window. Corresponding time code (time stamp)
Is displayed, and the reproduction indicator 44 of the editing window is filled in in accordance with the data amount of the reproduced image. Therefore, the user can grasp the reproduction time of the image (scene) by referring to the time code column 42 and the reproduction indicator 44.
【0134】その後、ステップS75に進み、画像をカ
ットする開始点が指定されたかどうかが判定される。即
ち、表示窓41に表示された画像を見て、あるフレーム
からの画像のカットを開始したい場合、そのタイミング
で、例えば、再生インジケータ44をクリックすること
により開始点を指定することができるようになされてお
り、ステップS75では、この指定がなされたかどうか
が判定される。ステップS75において、開始点が指定
されていないと判定された場合、ステップS76に進
み、ステップS71で選択されたシーンファイルの再生
がすべて終了したかどうかが判定され、終了していない
と判定された場合、ステップS74に戻り、シーンファ
イルの再生が継続される。Thereafter, the flow advances to step S75 to determine whether a start point for cutting the image has been designated. That is, when the user wants to start cutting an image from a certain frame while looking at the image displayed on the display window 41, the start point can be designated at that timing by, for example, clicking the reproduction indicator 44. In step S75, it is determined whether this designation has been made. If it is determined in step S75 that the start point has not been specified, the process proceeds to step S76, in which it is determined whether or not all the reproduction of the scene file selected in step S71 has been completed. In this case, the process returns to step S74, and the reproduction of the scene file is continued.
【0135】また、ステップS76において、シーンフ
ァイルの再生がすべて終了したと判定された場合、ステ
ップS83に進み、その再生されたシーンの中に、開始
点と後述する終了点で挟まれる部分(以下、適宜、カッ
トシーンという)が存在するかどうかが判定される。ス
テップS83において、カットシーンが存在しないと判
定された場合、即ち、開始点の指定が一度も行われなか
った場合、ステップS84をスキップして、処理を終了
する。If it is determined in step S76 that the reproduction of the scene file has been completed, the process proceeds to step S83, and a portion sandwiched between the start point and an end point (described below) in the reproduced scene. , Or a cutscene, as appropriate). If it is determined in step S83 that no cut scene exists, that is, if no start point has been designated, step S84 is skipped and the process ends.
【0136】一方、ステップS75において、開始点が
指定されたと判定された場合、ステップS77に進み、
開始点が指定されたフレームを含むGOPの、例えば先
頭のフレームに開始点が設定され、ステップS78に進
む。On the other hand, if it is determined in step S75 that the start point has been designated, the process proceeds to step S77,
For example, the start point is set to the first frame of the GOP including the frame whose start point is specified, and the process proceeds to step S78.
【0137】ここで、ステップS77で開始点が設定さ
れると、例えば、図15(B)に示すように、その開始
点に対応する、再生インジケータ44の位置に、開始点
を表す表示が行われるようになされており、これによ
り、ユーザが、開始点が設定された位置を、容易に認識
することができるようになされている。When the start point is set in step S77, for example, as shown in FIG. 15B, a display indicating the start point is displayed at the position of the reproduction indicator 44 corresponding to the start point. This allows the user to easily recognize the position where the start point is set.
【0138】図13に戻り、ステップS78では、シー
ンファイルの再生が継続され、ステップS79に進み、
画像をカットする終了点が指定されたかどうかが判定さ
れる。即ち、開始点の設定後は、その開始点を指定する
のと同様にして、画像のカットを終了するフレームを指
定することができるようになされており、ステップS7
9では、この指定がなされたかどうかが判定される。ス
テップS79において、終了点が指定されたと判定され
た場合、ステップS80に進み、終了点が指定されたフ
レームを含むGOPの、例えば最後のフレームに終了点
が設定され、ステップS74に戻る。Returning to FIG. 13, in step S78, reproduction of the scene file is continued, and the flow advances to step S79.
It is determined whether an end point for cutting the image has been designated. That is, after the start point is set, a frame for ending the cut of the image can be specified in the same manner as specifying the start point.
At 9, it is determined whether or not this designation has been made. If it is determined in step S79 that the end point has been specified, the process proceeds to step S80, where the end point is set to, for example, the last frame of the GOP including the frame whose end point is specified, and the process returns to step S74.
【0139】ここで、ステップS80で終了点が設定さ
れると、例えば、図15(C)に示すように、その終了
点に対応する、再生インジケータ44の位置に、終了点
を表す表示が行われるようになされており、これによ
り、ユーザが、終了点が設定された位置を、容易に認識
することができるようになされている。さらに、終了点
が設定された場合においては、その終了点と、その直前
に設定された開始点との間に対応する再生インジケータ
44の部分、即ち、カットシーンに対応する部分が、同
図(C)に斜線を付して示すように、異なる色で塗りつ
ぶされるようになされており、これにより、ユーザがカ
ットシーンとされた部分を、容易に認識することができ
るようになされている。When the end point is set in step S80, for example, as shown in FIG. 15C, a display indicating the end point is displayed at the position of the reproduction indicator 44 corresponding to the end point. Thus, the user can easily recognize the position where the end point is set. Further, when an end point is set, the portion of the playback indicator 44 corresponding to the end point and the start point set immediately before the end point, that is, the portion corresponding to the cut scene is shown in FIG. C) is shaded in a different color as shown by diagonal lines, so that the user can easily recognize the cut scene.
【0140】再び、図13に戻り、ステップS79にお
いて、終了点が指定されていないと判定された場合、ス
テップS81に進み、ステップS71で選択されたシー
ンファイルの再生がすべて終了したかどうかが判定さ
れ、終了していないと判定された場合、ステップS78
に戻り、シーンファイルの再生が継続される。Returning to FIG. 13 again, if it is determined in step S79 that the end point has not been designated, the flow advances to step S81 to determine whether or not all the reproduction of the scene file selected in step S71 has been completed. If it is determined that the processing has not been completed, step S78
And the reproduction of the scene file is continued.
【0141】また、ステップS81において、シーンフ
ァイルの再生がすべて終了したと判定された場合、ステ
ップS82に進み、最後に再生されたフレームに終了点
が設定され、ステップS84に進む。If it is determined in step S81 that all the scene files have been reproduced, the flow advances to step S82 to set an end point for the last reproduced frame, and the flow advances to step S84.
【0142】ステップS84では、シーンファイルから
カットシーンを取り出し(カットし)、新たなシーンフ
ァイルとするカット編集処理が行われ、処理を終了す
る。In step S84, a cut scene is extracted (cut) from the scene file, cut edit processing for a new scene file is performed, and the processing ends.
【0143】次に、図13のステップS84におけるカ
ット編集処理の詳細について、図16のフローチャート
を参照して説明する。Next, details of the cut editing process in step S84 in FIG. 13 will be described with reference to the flowchart in FIG.
【0144】カット編集処理では、まず最初に、ステッ
プS91において、カットシーンが選択されたか否かが
判定される。即ち、ユーザは、再生インジケータ44に
表示されたカットシーンの部分(例えば、図15(C)
において斜線を付した部分)を、例えばマウス9でクリ
ックすることにより、そのカットシーンを、新たなシー
ンファイルを構成するシーンとして選択することができ
るようになされており、ステップS91では、この選択
が行われたか否かが判定される。In the cut editing process, first, in step S91, it is determined whether or not a cut scene has been selected. That is, the user operates the cut scene portion displayed on the reproduction indicator 44 (for example, FIG. 15C).
By clicking, for example, with a mouse 9, the cut scene can be selected as a scene constituting a new scene file. In step S91, this selection is made. It is determined whether the operation has been performed.
【0145】ステップS91において、カットシーンの
選択が行われていないと判定された場合、ステップS9
1に戻る。また、ステップS91において、カットシー
ンの選択が行われたと判定された場合、ステップS92
に進み、その選択されたカットシーンについて、新たに
シーンファイルが作成される。If it is determined in step S91 that a cut scene has not been selected, the process proceeds to step S9.
Return to 1. If it is determined in step S91 that a cut scene has been selected, the process proceeds to step S92.
And a new scene file is created for the selected cut scene.
【0146】即ち、選択されたカットシーンを構成する
画像および音声の圧縮データが記録されているシーンフ
ァイルから、そのカットシーンに相当する部分が読み出
され、新たなシーンファイルとされて、ハードディスク
12に記録される。That is, a portion corresponding to the cut scene is read out from the scene file in which the compressed data of the image and the sound constituting the selected cut scene is recorded, and is set as a new scene file. Will be recorded.
【0147】ここで、例えば、図17(A)に示すよう
に、3つのカットシーン#1,#2,#3が設定されて
いる場合において、そのうちの1つである、例えばカッ
トシーン#1が選択され、これにより、そのカットシー
ン#1について、新たなシーンファイルが作成された場
合、同図(B)に示すように、編集ウインドウが有する
タイムコード欄43に、新たなシーンファイルの再生時
間(この場合は、カットシーン#1の再生時間)が表示
されるとともに、編集ウインドウが有する編集インジケ
ータ45が、そのデータ量に対応して塗りつぶされる。
従って、ユーザは、タイムコード欄43や編集インジケ
ータ45を参照することで、新たなシーンファイルの再
生時間を把握することができる。Here, for example, as shown in FIG. 17A, when three cut scenes # 1, # 2, and # 3 are set, one of them, for example, cut scene # 1 Is selected, and when a new scene file is created for the cut scene # 1, the reproduction of the new scene file is performed in the time code column 43 of the editing window as shown in FIG. The time (in this case, the playback time of the cut scene # 1) is displayed, and the edit indicator 45 of the edit window is filled in according to the data amount.
Therefore, the user can grasp the reproduction time of a new scene file by referring to the time code column 43 and the edit indicator 45.
【0148】図16に戻り、新たなシーンファイルの作
成後は、ステップS93に進み、新たにカットシーンの
選択が行われたか否かが判定される。ステップS93に
おいて、カットシーンの選択が行われていないと判定さ
れた場合、ステップS94をスキップして、ステップS
95に進む。また、ステップS93において、カットシ
ーンの選択が新たに行われたと判定された場合、ステッ
プS94に進み、その新たに選択されたカットシーンに
対応する圧縮データが、ステップS92で作成されたシ
ーンファイルに追加され、ステップS94に進む。Returning to FIG. 16, after creating a new scene file, the flow advances to step S93 to determine whether or not a new cut scene has been selected. If it is determined in step S93 that no cut scene has been selected, step S94 is skipped and step S94 is skipped.
Go to 95. If it is determined in step S93 that a cut scene has been newly selected, the process proceeds to step S94, and the compressed data corresponding to the newly selected cut scene is added to the scene file created in step S92. The process is added, and the process proceeds to step S94.
【0149】即ち、例えば、図17(B)に示した場合
において、さらに、例えば、カットシーン#3が選択さ
れた場合、先に選択されたカットシーン#1について作
成された新たなシーンファイルに、カットシーン#3の
圧縮データが追加される。なお、この場合、同図(C)
に示すように、編集ウインドウが有するタイムコード欄
43に、カットシーン#3の圧縮データが追加されたシ
ーンファイルの再生時間(従って、カットシーン#1と
#3の再生時間を合わせた時間)が表示されるととも
に、編集ウインドウが有する編集インジケータ45も、
やはり、カットシーン#3の圧縮データが追加されたシ
ーンファイルのデータ量に対応して塗りつぶされる。従
って、ユーザは、タイムコード欄43や編集インジケー
タ45を参照することで、カットシーン#3が追加され
たシーンファイルの再生時間を把握することができる。That is, for example, in the case shown in FIG. 17B, when cut scene # 3 is selected, for example, a new scene file created for the previously selected cut scene # 1 is added to the new scene file. , Compressed data of cut scene # 3 is added. In this case, FIG.
As shown in the figure, in the time code column 43 of the editing window, the playback time of the scene file to which the compressed data of cut scene # 3 is added (accordingly, the total time of the playback times of cut scenes # 1 and # 3) is displayed. While being displayed, the edit indicator 45 of the edit window is also
Again, the compressed data of the cut scene # 3 is painted in accordance with the data amount of the added scene file. Therefore, the user can grasp the reproduction time of the scene file to which cut scene # 3 has been added by referring to the time code column 43 and the edit indicator 45.
【0150】再び、図16に戻り、ステップS95で
は、キーボード8やマウス9がカット編集処理を終了す
るように操作されたか否かが判定され、操作されていな
いと判定された場合、ステップS93に戻る。また、ス
テップS95において、カット編集処理を終了するよう
に操作がなされたと判定された場合、処理を終了する。Returning to FIG. 16 again, in step S95, it is determined whether or not the keyboard 8 or the mouse 9 has been operated so as to end the cut editing process. If it is determined that the keyboard 8 and the mouse 9 have not been operated, the process proceeds to step S93. Return. If it is determined in step S95 that an operation has been performed to end the cut editing process, the process ends.
【0151】ここで、図16および図17においては、
カットシーンを選択された順番に、新たなシーンファイ
ルに配置するようにしたが、カットシーンの配置順は変
更することが可能である。即ち、例えば、図18(A)
は、カットシーン#1,#2が順次選択され、そのよう
な順番で、新たなシーンファイルに配置された様子を示
している。このような場合において、例えば、カットシ
ーン#3を選択し、続けて、編集インジケータ45のカ
ットシーン#1と#2との境目部分を、マウス9でクリ
ックするなどして挿入位置を指定すると、選択されたカ
ットシーン#3は、同図(B)に示すように、カットシ
ーン#1と#2との間に配置される。Here, in FIG. 16 and FIG.
Although the cut scenes are arranged in the new scene file in the selected order, the arrangement order of the cut scenes can be changed. That is, for example, FIG.
Shows that cut scenes # 1 and # 2 are sequentially selected and arranged in a new scene file in such an order. In such a case, for example, if cut scene # 3 is selected and then the insertion position is specified by clicking the boundary between cut scenes # 1 and # 2 of edit indicator 45 with mouse 9, etc. The selected cut scene # 3 is arranged between cut scenes # 1 and # 2, as shown in FIG.
【0152】なお、編集ウインドウにおいて、逆再生ボ
タン46は、図13のステップS71で選択されたシー
ンファイルを逆再生するときに操作され、停止ボタン4
7は、そのシーンファイルの再生(順方向への再生)や
逆再生を停止するときに操作される。また、逆再生ボタ
ン49は、新たに作成されたシーンファイルを逆再生す
るときに、停止ボタン50は、新たに作成されたシーン
ファイルの再生や逆再生を停止するときに、再生ボタン
51は、新たに作成されたシーンファイルを再生すると
きに、それぞれ操作される。従って、ユーザは、例え
ば、再生ボタン51を操作することで、新たなシーンフ
ァイルの内容を確認することができる。In the editing window, the reverse playback button 46 is operated when playing back the scene file selected in step S71 in FIG.
Reference numeral 7 is used to stop reproduction (reproduction in the forward direction) or reverse reproduction of the scene file. The reverse playback button 49 is used to reversely play a newly created scene file, and the stop button 50 is used to stop playback or reverse playback of a newly created scene file. Each operation is performed when a newly created scene file is reproduced. Therefore, the user can confirm the contents of the new scene file by operating the play button 51, for example.
【0153】以上のように新たなシーンファイルが作成
されると、そのシーンファイルについてのクリップ画面
も生成され、アルバムに貼り付けられる。即ち、例え
ば、図19(A)に示すように、アルバムに、5つのシ
ーンファイルのクリップ画面が貼り付けられている場合
において、そのうちの1のシーンファイルが編集され、
新たなシーンファイルが作成されたときには、その新た
なシーンファイルのクリップ画面が生成され、例えば、
同図(B)に示すように、アルバムの最後に追加され
る。従って、ここでは、新たなシーンファイルのシーン
番号は、アルバムに既に貼り付けられているクリップ画
面の数に1を加算した値である6とされている。When a new scene file is created as described above, a clip screen for the scene file is also generated and pasted to an album. That is, for example, as shown in FIG. 19A, when clip screens of five scene files are pasted on an album, one of the scene files is edited,
When a new scene file is created, a clip screen of the new scene file is generated, for example,
As shown in FIG. 7B, the data is added to the end of the album. Therefore, here, the scene number of the new scene file is 6 which is a value obtained by adding 1 to the number of clip screens already pasted to the album.
【0154】以上のように、ユーザは、開始点および終
了点を指定することにより、カットシーンを設定し、そ
のカットシーンを選択するだけで、容易に、シーンファ
イルの編集を行うことができる。As described above, the user can easily edit a scene file simply by setting a cut scene by selecting a start point and an end point and selecting the cut scene.
【0155】なお、シーンファイルを編集し、新たなシ
ーンファイルを得た後、元のシーンファイルが不要な場
合には、上述したように、そのクリップ画面をアルバム
の外に出すことで、容易に削除することができる。ま
た、シーンの再生順序も、上述したように、クリップ画
面の並びを替えることで、容易に変更することができ
る。After the scene file is edited and a new scene file is obtained, if the original scene file is unnecessary, as described above, the clip screen is easily taken out of the album so that it can be easily obtained. Can be deleted. Also, the scene playback order can be easily changed by changing the arrangement of the clip screens as described above.
【0156】また、上述の場合においては、1のシーン
ファイルから、新たなシーンファイルを生成するように
したが、複数のシーンファイルから、新たなシーンファ
イルを生成することも可能である。In the above case, a new scene file is generated from one scene file. However, a new scene file can be generated from a plurality of scene files.
【0157】次に、シーンファイルには、例えば、チュ
ーナ5やモデム6で、外部から受信した画像や音声や、
マイクロプロセッサ1で作成した画像や音声のデータを
挿入すること(以下、適宜、挿入編集という)もでき
る。Next, the scene file includes, for example, images and sounds received from outside by the tuner 5 and the modem 6,
It is also possible to insert image and sound data created by the microprocessor 1 (hereinafter, appropriately referred to as insertion editing).
【0158】挿入編集が指示された場合、その挿入する
所定のフレーム数についての画像データおよび音声デー
タが圧縮部13に入力され、例えば、図20のフローチ
ャートにしたがった処理が行われる。When insertion and editing are instructed, image data and audio data for a predetermined number of frames to be inserted are input to the compression unit 13 and, for example, processing according to the flowchart of FIG. 20 is performed.
【0159】即ち、圧縮部13(図2)では、そこに入
力された画像データおよび音声データがバスインターフ
ェイス27で受信され、画像/音声挿入部28に転送さ
れる。画像/音声挿入部28では、バスインターフェイ
ス27からの画像データまたは音声データが選択部23
または24を介して、画像圧縮部25または音声圧縮部
26にそれぞれ供給される。画像圧縮部25または音声
圧縮部26では、ステップS101において、入力され
た画像データまたは音声データがそれぞれ符号化(圧
縮)され、その結果得られる圧縮データが、バスインタ
ーフェイス27に出力される。バスインターフェイス2
7は、画像圧縮部25および音声圧縮部26からの圧縮
データを、バスブリッジ4を介して、メインメモリ2に
DMA転送する。That is, in the compression section 13 (FIG. 2), the input image data and audio data are received by the bus interface 27 and transferred to the image / audio insertion section. In the image / audio insertion unit 28, the image data or the audio data from the bus interface 27 is selected by the selection unit 23.
Alternatively, the data is supplied to the image compression unit 25 or the audio compression unit 26 via the or. In the image compression unit 25 or the audio compression unit 26, the input image data or audio data is encoded (compressed) in step S101, and the resulting compressed data is output to the bus interface 27. Bus interface 2
Reference numeral 7 DMA-transfers the compressed data from the image compression unit 25 and the audio compression unit 26 to the main memory 2 via the bus bridge 4.
【0160】以上のようにして、メインメモリ2にシー
ンファイルに挿入する圧縮データが記憶されると、マイ
クロプロセッサ1は、ステップS102において、ハー
ドディスク12から、挿入編集対象のシーンファイルを
読み出し、そのシーンファイルに、メインメモリ2に記
憶されている圧縮データを挿入して、再び、ハードディ
スク12に記録させ、処理を終了する。なお、シーンフ
ァイルに、メインメモリ2に記憶されている圧縮データ
を挿入する位置は、上述の処理が行われる前に、あらか
じめユーザにより設定され、その位置に挿入される。When the compressed data to be inserted into the scene file is stored in the main memory 2 as described above, the microprocessor 1 reads the scene file to be inserted and edited from the hard disk 12 in step S102, and The compressed data stored in the main memory 2 is inserted into the file and recorded on the hard disk 12 again, and the process is terminated. The position at which the compressed data stored in the main memory 2 is inserted into the scene file is set in advance by the user before the above-described processing is performed, and is inserted at that position.
【0161】次に、例えば、チューナ5やモデム6で、
外部から受信した画像や音声や、マイクロプロセッサ1
で作成した画像や音声のデータは、シーンファイルに挿
入する他、シーンファイルの一部分に上書き(シーンフ
ァイルの一部分と置換)すること(以下、適宜、上書き
編集という)も可能である。Next, for example, with the tuner 5 or the modem 6,
Images and sounds received from outside, microprocessor 1
In addition to inserting the image and audio data created in step (1) into the scene file, it is also possible to overwrite (replace with a part of the scene file) a part of the scene file (hereinafter, appropriately referred to as overwrite editing).
【0162】上書き編集が指示された場合、その上書き
する所定のフレーム数についての画像データおよび音声
データ(以下、適宜、上書きデータともいう)、それら
を上書きする位置(例えば、それらを上書きするシーン
ファイルの先頭からのフレーム数など)、並びに上書き
する画像データのフレーム数(なお、上書きする位置と
フレーム数は、あらかじめユーザにより入力されている
ものとする)が圧縮部13に入力されるとともに、上書
き編集の対象であるシーンファイルがハードディスク1
2から読み出されて伸張部15に入力され、例えば、図
21のフローチャートにしたがった処理が行われる。When overwrite editing is instructed, image data and audio data for a predetermined number of frames to be overwritten (hereinafter, also referred to as overwrite data as appropriate), and the position where they are overwritten (for example, a scene file for overwriting them) And the number of frames of image data to be overwritten (the overwriting position and the number of frames are assumed to have been input by the user in advance). The scene file to be edited is hard disk 1
2 is input to the decompression unit 15 and, for example, processing according to the flowchart of FIG. 21 is performed.
【0163】即ち、伸張部15では、ステップS111
において、そこに入力されるシーンファイルが伸張さ
れ、その結果得られる画像データおよび音声データ(以
下、適宜、伸張データともいう)が圧縮部13に供給さ
れる。That is, in the decompression unit 15, step S111
In, the scene file input thereto is decompressed, and the resulting image data and audio data (hereinafter, also appropriately referred to as decompressed data) are supplied to the compression unit 13.
【0164】また、圧縮部13(図2)では、そこに入
力された上書きデータ、上書きデータを上書きする位
置、並びに上書きするフレーム数がバスインターフェイ
ス27で受信される。さらに、バスインターフェイス2
7では、伸張部15からの伸張データも受信される。In the compression section 13 (FIG. 2), the bus interface 27 receives the input overwrite data, the position at which the overwrite data is overwritten, and the number of frames to be overwritten. Furthermore, bus interface 2
In 7, the decompression data from the decompression unit 15 is also received.
【0165】そして、バスインターフェイス27では、
ステップS112において、受信した、上書きデータを
上書きする位置および上書きするフレーム数に基づい
て、上書きデータまたは伸張データのうちのいずれを出
力すべきタイミングであるかが判定される。ステップS
112において、伸張データを出力すべきタイミングで
あると判定された場合、ステップS113に進み、伸張
データが符号化される。In the bus interface 27,
In step S112, it is determined based on the received position where the overwrite data is to be overwritten and the number of frames to be overwritten which of the overwrite data and the decompressed data is to be output. Step S
If it is determined in step 112 that it is time to output the decompressed data, the process proceeds to step S113, where the decompressed data is encoded.
【0166】即ち、バスインターフェイス27は、伸張
データを、画像/音声挿入部28に転送し、画像/音声
挿入部28では、バスインターフェイス27からの伸張
データとしての画像データまたは音声データが選択部2
3または24を介して、画像圧縮部25または音声圧縮
部26にそれぞれ供給される。画像圧縮部25または音
声圧縮部26では、入力された画像データまたは音声デ
ータがそれぞれ符号化(圧縮)され、その結果得られる
圧縮データが、バスインターフェイス27に供給され
る。That is, the bus interface 27 transfers the decompressed data to the image / sound insertion unit 28, and the image / sound insertion unit 28 selects the image data or the sound data as the decompression data from the bus interface 27.
The data is supplied to the image compression unit 25 or the audio compression unit 26 via 3 or 24, respectively. The image compression unit 25 or the audio compression unit 26 encodes (compresses) the input image data or audio data, respectively, and supplies the resulting compressed data to the bus interface 27.
【0167】一方、ステップS112において、上書き
データを出力すべきタイミングであると判定された場
合、ステップS114に進み、上書きデータが符号化さ
れる。即ち、バスインターフェイス27は、上書きデー
タを、画像/音声挿入部28に転送し、画像/音声挿入
部28では、バスインターフェイス27からの上書きデ
ータとしての画像データまたは音声データが選択部23
または24を介して、画像圧縮部25または音声圧縮部
26にそれぞれ供給される。画像圧縮部25または音声
圧縮部26では、入力された画像データまたは音声デー
タがそれぞれ符号化され、その結果得られる圧縮データ
が、バスインターフェイス27に供給される。On the other hand, if it is determined in step S112 that it is time to output overwrite data, the flow advances to step S114 to encode the overwrite data. That is, the bus interface 27 transfers the overwrite data to the image / audio insertion unit 28, and the image / audio data as the overwrite data from the bus interface 27 is selected in the image / audio insertion unit 28.
Alternatively, the data is supplied to the image compression unit 25 or the audio compression unit 26 via the or. The image compression unit 25 or the audio compression unit 26 encodes the input image data or audio data, respectively, and supplies the resulting compressed data to the bus interface 27.
【0168】なお、バスインターフェイス27は、上書
きデータを、画像/音声挿入部28に出力している間に
伸張部15から受信した伸張データを破棄するようにな
されており、これにより、画像圧縮部25および音声圧
縮部26からバスインターフェイス27に対しては、所
定の部分の伸張データを、上書きデータに置換した圧縮
データが供給されるようになされている。The bus interface 27 discards the decompressed data received from the decompression unit 15 while outputting the overwrite data to the image / sound insertion unit 28, whereby the image compression unit The compressed data obtained by replacing the decompressed data of a predetermined portion with the overwrite data is supplied from the audio compression unit 25 and the audio compression unit 26 to the bus interface 27.
【0169】ステップS113およびS114の処理後
は、いずれもステップS115に進み、上書き編集の対
象のシーンファイルに記録された圧縮データを伸張した
伸張データの、伸張部15から圧縮部13への供給がす
べて終了したか否かが判定され、終了していないと判定
された場合、ステップS111に戻り、まだ伸張してい
ない圧縮データの伸張が行われる。また、伸張部15か
ら圧縮部13への伸張データの供給が終了したと判定さ
れた場合、ステップS116に進み、画像圧縮部25お
よび音声圧縮部26からバスインターフェイス27に供
給された圧縮データを記録したシーンファイルが作成さ
れ、上書き編集の対象とされたシーンファイルに代え
て、ハードディスク12に記録される。After the processing in steps S113 and S114, the flow advances to step S115 to supply the expanded data obtained by expanding the compressed data recorded in the scene file to be overwritten from the expansion unit 15 to the compression unit 13. It is determined whether or not all the processing has been completed. If it is determined that the processing has not been completed, the process returns to step S111, and the compressed data that has not been expanded is expanded. If it is determined that the supply of the decompressed data from the decompression unit 15 to the compression unit 13 has been completed, the process proceeds to step S116, where the compression data supplied from the image compression unit 25 and the audio compression unit 26 to the bus interface 27 is recorded. Is created and recorded on the hard disk 12 in place of the scene file targeted for overwrite editing.
【0170】なお、以上のような挿入編集や上書き編集
では、動画の他、静止画の挿入や上書きもすることが可
能である。従って、ユーザは、例えば、シーンのタイト
ル画面などとする静止画を作成し、そのタイトル画面
を、シーンに挿入したり、また、上書きすることができ
る。In the above-described insertion editing and overwriting editing, it is possible to insert and overwrite still images in addition to moving images. Therefore, the user can create, for example, a still image as a title screen of a scene, and insert or overwrite the title screen in the scene.
【0171】次に、図1のノンリニア編集装置では、シ
ーンの他、例えば、図8に示したように、アルバムやそ
こに貼り付けられたクリップ画面も編集することができ
るようになされている。Next, in the nonlinear editing apparatus shown in FIG. 1, in addition to the scene, for example, as shown in FIG. 8, an album and a clip screen pasted thereon can be edited.
【0172】即ち、例えば、キーボード8やマウス9が
所定操作され、装置の動作モードが、アルバムやクリッ
プ画面を編集するアルバム/クリップ画面編集モードと
されると、マイクロプロセッサ1では、例えば、図22
のフローチャートにしたがった処理が行われる。That is, for example, when the keyboard 8 and the mouse 9 are operated in a predetermined manner and the operation mode of the apparatus is set to an album / clip screen editing mode for editing an album or a clip screen, the microprocessor 1 executes, for example, as shown in FIG.
The processing according to the flowchart of FIG.
【0173】即ち、この場合、まず最初に、ステップS
121において、クリップ画面を移動させる操作が行わ
れたかどうかが判定される。ステップS121におい
て、クリップ画面を移動させる操作が行われたと判定さ
れた場合、ステップS122に進み、その操作に対応し
て、クリップ画面が移動され、ステップS123に進
む。上述したように、クリップ画面は、マウス9でドラ
ッグすることにより移動させることができ、ステップS
121およびS122では、そのような操作が行われた
ときに、クリップ画面が移動される。なお、クリップ画
面のドラッグが、アルバムの外で解除された場合、上述
したように、そのクリップ画面は、対応するシーンファ
イルとともに削除される。That is, in this case, first, step S
At 121, it is determined whether an operation to move the clip screen has been performed. If it is determined in step S121 that an operation to move the clip screen has been performed, the process proceeds to step S122, the clip screen is moved in response to the operation, and the process proceeds to step S123. As described above, the clip screen can be moved by dragging with the mouse 9, and the step S
In 121 and S122, when such an operation is performed, the clip screen is moved. When the drag of the clip screen is released outside the album, the clip screen is deleted together with the corresponding scene file as described above.
【0174】ここで、クリップ画面は、同一のページ内
だけでなく、上述したように、異なるページにも移動さ
せることができるようになされている。さらに、クリッ
プ画面は、新たなアルバムをオープンして、そのアルバ
ムに移動させることなどもできるようになされている。
なお、クリップ画面の移動後は、上述したように、必要
に応じて、そのシーン番号の付け替えも行われる。Here, the clip screen can be moved not only within the same page but also to a different page as described above. Further, the clip screen allows a new album to be opened and moved to that album.
After the clip screen is moved, the scene number is changed as necessary, as described above.
【0175】また、ステップS121において、クリッ
プ画面を移動させる操作が行われていないと判定された
場合、ステップS122をスキップして、ステップS1
23に進み、クリップ画面を拡大/縮小させる操作が行
われたかどうかが判定される。ステップS123におい
て、クリップ画面を拡大/縮小させる操作が行われたと
判定された場合、ステップS124に進み、その操作に
対応して、クリップ画面が拡大/縮小され、ステップS
125に進む。If it is determined in step S121 that the operation of moving the clip screen has not been performed, step S122 is skipped and step S1 is performed.
Proceeding to 23, it is determined whether an operation to enlarge / reduce the clip screen has been performed. If it is determined in step S123 that an operation for enlarging / reducing the clip screen has been performed, the process proceeds to step S124, and the clip screen is enlarged / reduced in response to the operation.
Go to 125.
【0176】即ち、クリップ画面は、例えば、その境界
部分をマウス9でドラッグして動かすことにより拡大/
縮小させることができるようになされており、このよう
な操作が行われた場合、ステップS124において、ク
リップ画面が拡大/縮小される。That is, the clip screen is enlarged / deleted by, for example, dragging and moving the boundary with the mouse 9.
The clip screen can be reduced. When such an operation is performed, the clip screen is enlarged / reduced in step S124.
【0177】一方、ステップS123において、クリッ
プ画面を拡大/縮小させる操作が行われていないと判定
された場合、ステップS124をスキップして、ステッ
プS125に進み、クリップ画面を変形する操作が行わ
れたかどうかが判定される。ステップS125におい
て、クリップ画面を変形する操作が行われたと判定され
た場合、ステップS126に進み、その操作に対応し
て、クリップ画面が変形される。On the other hand, if it is determined in step S123 that an operation for enlarging / reducing the clip screen has not been performed, step S124 is skipped, and the process proceeds to step S125 to determine whether an operation for deforming the clip screen has been performed. Is determined. If it is determined in step S125 that an operation to deform the clip screen has been performed, the process proceeds to step S126, and the clip screen is deformed according to the operation.
【0178】即ち、クリップ画面は、キーボード8やマ
ウス9を所定操作した後に、その境界部分をマウス9で
ドラッグして動かすことにより、その形状を変形させる
ことができるようになされており、このような操作が行
われた場合、ステップS126において、クリップ画面
が変形される。That is, the clip screen can be deformed by dragging and moving the boundary portion of the clip screen with the mouse 9 after operating the keyboard 8 and the mouse 9 in a predetermined manner. If any operation is performed, the clip screen is transformed in step S126.
【0179】また、ステップS125において、クリッ
プ画面を変形させる操作が行われていないと判定された
場合、ステップS127に進み、文字を入力する操作が
行われたかどうかが判定される。ステップS127にお
いて、文字を入力する操作が行われたと判定された場
合、ステップS128に進み、その操作により入力され
た文字が、アルバムに付加され、ステップS128に進
む。If it is determined in step S125 that an operation for deforming the clip screen has not been performed, the flow advances to step S127 to determine whether an operation for inputting a character has been performed. If it is determined in step S127 that an operation of inputting a character has been performed, the process proceeds to step S128, the character input by the operation is added to the album, and the process proceeds to step S128.
【0180】即ち、アルバムにおいては、クリップ画面
に重ねて、またはクリップ画面が貼り付けられていない
余白部分に、文字を付加することができるようになされ
ており、例えば、マウス9をクリックすることにより位
置が指定され、その後に、キーボード8を操作すること
により文字が入力された場合には、ステップS128に
おいて、マウス9により指定された位置に、キーボード
8により入力された文字が付加される。That is, in the album, characters can be added to the clip screen or to a blank portion where the clip screen is not pasted. If a position is specified and a character is input by operating the keyboard 8 thereafter, the character input by the keyboard 8 is added to the position specified by the mouse 9 in step S128.
【0181】一方、ステップS127において、文字を
入力する操作が行われていないと判定された場合、ステ
ップS128をスキップして、ステップS129に進
み、アルバムおよびクリップ画面の編集を終了する操作
が行われたかどうかが判定され、行われていないと判定
された場合、ステップS121に戻る。また、ステップ
S129において、アルバムおよびクリップ画面の編集
を終了する操作が行われたと判定された場合、処理を終
了する。On the other hand, if it is determined in step S127 that an operation for inputting a character has not been performed, step S128 is skipped, and the flow advances to step S129 to perform an operation for ending the editing of the album and clip screen. Is determined, and if it is determined that the determination has not been performed, the process returns to step S121. If it is determined in step S129 that an operation to end the editing of the album and clip screen has been performed, the process ends.
【0182】ここで、図23に、例えば、図8(C)に
示したアルバムを、上述のようにして編集した編集結果
の例を示す。Here, FIG. 23 shows an example of an editing result obtained by editing the album shown in FIG. 8C as described above, for example.
【0183】以上のように、ユーザは、実際に写真を貼
るアルバムと同様に、クリップ画面が貼り付けられたア
ルバムの編集を行うことができる。As described above, the user can edit the album to which the clip screen is pasted in the same manner as the album to which the picture is actually pasted.
【0184】なお、アルバムの編集結果についての情報
は、例えば、ハードディスク12に記録されるようにな
されている。[0184] Information on the result of editing the album is recorded on the hard disk 12, for example.
【0185】次に、シーンファイルの再生処理について
説明する。Next, a process of reproducing a scene file will be described.
【0186】例えば、キーボード8やマウス9が操作さ
れ、装置の動作モードが、シーンファイルの再生を行う
再生モードとされると、マイクロプロセッサ1では、例
えば、図24のフローチャートにしたがった処理が行わ
れる。For example, when the keyboard 8 and the mouse 9 are operated and the operation mode of the apparatus is set to the reproduction mode for reproducing the scene file, the microprocessor 1 executes, for example, the processing according to the flowchart of FIG. Will be
【0187】即ち、まず最初に、ステップS131にお
いて、再生対象のアルバムが指定されたかどうかが判定
される。具体的には、例えば、作成されたアルバムは、
アイコンの状態で、ディスプレイ17に表示されるよう
になされており、そのアイコンのうちのいずれかが、マ
ウス9によってクリックされたかどうかが、ステップS
131において判定される。ステップS131におい
て、再生対象のアルバムが指定されていないと判定され
た場合、ステップS131に戻る。That is, first, in step S131, it is determined whether an album to be reproduced has been designated. Specifically, for example, the created album is
The state of the icon is displayed on the display 17, and whether any of the icons is clicked with the mouse 9 is determined in step S.
It is determined at 131. If it is determined in step S131 that the album to be played has not been specified, the process returns to step S131.
【0188】また、ステップS131において、再生対
象のアルバムが指定されたと判定された場合、ステップ
S132に進み、そのアルバムが、例えば、図23に示
したように、ディスプレイ17に表示される。If it is determined in step S131 that the album to be reproduced has been designated, the flow advances to step S132, and the album is displayed on the display 17, for example, as shown in FIG.
【0189】その後、ステップS133において、例え
ば、キーボード8やマウス9が、アルバム全体を再生す
るように操作されたか否かが判定され、操作されたと判
定された場合、ステップ134に進み、そのアルバムに
貼り付けられているクリップ画面に対応するシーンファ
イルが、例えば、シーン番号の昇順で、順次再生され
る。即ち、再生対象のシーンファイルに記録された圧縮
データが、ハードディスク12から読み出され、伸張部
15に供給される。伸張部15では、圧縮データが復号
化され、その復号結果としての画像が、ディスプレイ1
7で表示される。なお、音声は、図示せぬスピーカから
出力される。アルバムに貼り付けられているクリップ画
面に対応するシーンファイルすべての再生がすべて終了
すると、ステップS137に進む。Thereafter, in step S133, for example, it is determined whether or not the keyboard 8 and the mouse 9 have been operated so as to reproduce the entire album. If it is determined that the operation has been performed, the process proceeds to step 134, where the album is reproduced. Scene files corresponding to the pasted clip screen are sequentially reproduced, for example, in ascending order of scene numbers. That is, the compressed data recorded in the scene file to be reproduced is read from the hard disk 12 and supplied to the decompression unit 15. In the decompression unit 15, the compressed data is decoded, and the image as the decoding result is displayed on the display 1.
7 is displayed. The sound is output from a speaker (not shown). When all the scene files corresponding to the clip screen pasted on the album have been completely reproduced, the process proceeds to step S137.
【0190】一方、ステップS133において、アルバ
ム全体の再生をするように操作がされていないと判定さ
れた場合、ステップS135に進み、アルバムに貼り付
けられたクリップ画面のうちのいずれかが、例えば、マ
ウス9でクリックされることにより選択されたかどうか
が判定される。ステップS135において、クリップ画
面が選択されていないと判定された場合、ステップS1
33に戻る。また、ステップS135において、クリッ
プ画面が選択されたと判定された場合、ステップS13
6に進み、その選択されたクリップ画面に対応するシー
ンファイルが、上述したように再生される。On the other hand, if it is determined in step S133 that the operation to reproduce the entire album has not been performed, the process proceeds to step S135, and one of the clip screens pasted on the album is displayed, for example, as follows. It is determined whether or not selection has been made by clicking with the mouse 9. If it is determined in step S135 that the clip screen has not been selected, step S1
Return to 33. If it is determined in step S135 that the clip screen has been selected, the process proceeds to step S13.
Proceeding to 6, the scene file corresponding to the selected clip screen is reproduced as described above.
【0191】そして、その再生の終了後、ステップS1
37に進み、例えば、キーボード8やマウス9が、再生
モードを終了するように操作されたかどうかが判定さ
れ、操作されていないと判定された場合、ステップS1
31に戻る。また、ステップS137において、再生モ
ードを終了するように操作がなされたと判定された場
合、処理を終了する。After the end of the reproduction, step S1
Proceeding to 37, for example, it is determined whether the keyboard 8 or the mouse 9 has been operated to end the playback mode, and if it is determined that the keyboard 8 or the mouse 9 has not been operated, the process proceeds to step S1.
Return to 31. If it is determined in step S137 that an operation has been performed to end the playback mode, the process ends.
【0192】なお、編集後のデータは、ハードディスク
12に記録しておく他、持ち運びに便利な、例えば、C
D−R11や、図示しないDVD(Digital Versatile
Disc)−Rなどの記録媒体にも記録することが可能であ
る。CD−R11などに編集後のデータを記録しておく
場合には、写真を貼るアルバムと同様に、動画を、簡単
に、整理、保存しておくことが可能となる。[0192] The edited data is recorded on the hard disk 12 and can be conveniently carried.
D-R11 or DVD (Digital Versatile not shown)
Disc) -R and the like. When the edited data is recorded on the CD-R 11 or the like, it becomes possible to easily organize and save the moving image, as in the case of the album to which the photo is pasted.
【0193】また、編集後のデータは、上述した再生モ
ードで再生して、例えば、VTR16によってビデオテ
ープに記録しておくことなども可能である。The edited data can be reproduced in the above-mentioned reproduction mode and recorded on a video tape by the VTR 16, for example.
【0194】次に、図25は、本発明を適用したMPE
Gビデオカメラの一実施の形態の構成例を示している。Next, FIG. 25 shows an MPE to which the present invention is applied.
1 shows a configuration example of an embodiment of a G video camera.
【0195】操作部112が操作され、これにより録画
が指令されると、レンズ101に入射した光は、CCD
102上に集光され、CCD102では、レンズ101
からの光が光電変換され、その結果得られる電気信号と
しての画像信号が、A/D変換器103に出力される。
A/D変換器103では、CCD102からの画像信号
がA/D変換されることによりディジタルの画像信号と
され、編集部106に供給される。When the operation unit 112 is operated and recording is instructed by the operation unit 112, the light incident on the lens 101 is changed to the CCD.
The light is condensed on the lens 102, and the CCD 102
Is photoelectrically converted, and the resulting image signal as an electric signal is output to the A / D converter 103.
The A / D converter 103 converts the image signal from the CCD 102 into a digital image signal by A / D conversion, and supplies the digital image signal to the editing unit 106.
【0196】一方、マイク(マイクロフォン)104に
入力された音声は、そこで電気信号としての音声信号と
され、A/D変換器105に供給される。A/D変換器
105では、マイク104からの音声信号がA/D変換
されることによりディジタルの音声信号とされ、編集部
106に供給される。On the other hand, the sound input to the microphone (microphone) 104 is converted into an audio signal as an electric signal there and supplied to the A / D converter 105. The A / D converter 105 converts the audio signal from the microphone 104 into a digital audio signal by A / D conversion, and supplies the digital audio signal to the editing unit 106.
【0197】編集部106では、A/D変換器103ま
たは105それぞれからの画像信号または音声信号がM
PEG符号化されるとともに、それらの画像信号および
音声信号に対して、上述した画像分類情報検出処理(図
4)、画像削除処理(図5)、およびシーンファイルか
処理(図6)が施される。そして、その結果得られるシ
ーンファイルがハードディスク(HD)107に記録さ
れる。In the editing unit 106, the image signal or the audio signal from the A / D converter 103 or 105 is
The image signal and the audio signal are subjected to the above-described image classification information detection processing (FIG. 4), image deletion processing (FIG. 5), and scene file processing (FIG. 6). You. Then, the resulting scene file is recorded on the hard disk (HD) 107.
【0198】ハードディスク107にシーンファイルが
記憶されると、アルバム化部108は、各シーンファイ
ルについてクリップ画面を生成し、それを仮想的なアル
バムに貼り付ける処理(以下、適宜、アルバム化処理と
いう)を行い、そのアルバム化処理の結果得られたデー
タ(以下、適宜、アルバムデータという)をハードディ
スク107に記録する。When the scene files are stored in the hard disk 107, the albuming section 108 generates a clip screen for each scene file and pastes it into a virtual album (hereinafter, referred to as albuming processing as appropriate). Is performed, and the data obtained as a result of the albuming process (hereinafter, appropriately referred to as album data) is recorded on the hard disk 107.
【0199】その後、操作部112が操作され、これに
より再生が指令されると、再生部109は、ハードディ
スク107からアルバムデータを再生し、例えば、液晶
ディスプレイなどで構成される表示部110に出力す
る。これにより、表示部110では、例えば、図8
(C)に示したような、クリップ画面が貼り付けられた
アルバムが表示される。そして、図24に示したような
再生モードの処理が行われる。After that, when the operation unit 112 is operated and the reproduction is instructed, the reproduction unit 109 reproduces the album data from the hard disk 107 and outputs it to the display unit 110 constituted by, for example, a liquid crystal display. . As a result, the display unit 110 displays, for example, FIG.
An album to which the clip screen is pasted as shown in (C) is displayed. Then, the processing in the reproduction mode as shown in FIG. 24 is performed.
【0200】即ち、操作部112が、アルバム全体を再
生するように操作された場合、アルバムに貼り付けられ
ているクリップ画面に対応するシーンファイルが、例え
ば、シーン番号の昇順で、順次再生される。つまり、シ
ーンファイルに記録された圧縮データが、ハードディス
ク107から読み出され、再生部109においてMPE
G復号化される。そして、その結果得られる画像または
音声が、表示部110で表示され、またはスピーカ11
1から出力される。以上の処理が、アルバムに貼り付け
られているクリップ画面に対応するシーンファイルにつ
いて繰り返される。That is, when the operation unit 112 is operated to reproduce the entire album, the scene files corresponding to the clip screens pasted on the album are sequentially reproduced, for example, in ascending order of the scene numbers. . That is, the compressed data recorded in the scene file is read from the hard disk 107 and
G decoding is performed. Then, the resulting image or sound is displayed on the display unit 110 or the speaker 11
1 is output. The above processing is repeated for the scene file corresponding to the clip screen pasted on the album.
【0201】また、操作部112が操作され、これによ
り、アルバムに貼り付けられたクリップ画面のうちのい
ずれかが選択された場合、その選択されたクリップ画面
に対応するシーンファイルが、上述したように再生され
る。When the operation unit 112 is operated to select one of the clip screens pasted on the album, the scene file corresponding to the selected clip screen is set as described above. Will be played.
【0202】従って、ユーザは、録画を行った後に、シ
ーンごとに分類したり、また、無効フレームを削除した
りする編集を行うことなく、所望のシーンを即座に得る
ことができる。Therefore, after recording, the user can immediately obtain a desired scene without performing editing for classifying each scene or deleting invalid frames.
【0203】以上、本発明を適用したリニア編集装置お
よびビデオカメラについて説明したが、本発明は、その
他、例えば、VTRなどの画像の記録を行う装置その他
などにも適用可能である。The linear editing apparatus and the video camera to which the present invention has been applied have been described above. However, the present invention can be applied to, for example, an apparatus for recording an image such as a VTR and the like.
【0204】なお、本実施の形態では、MPEG方式に
より、データを符号化/復号化するようにしたが、デー
タの符号化/復号化方式としては、MPEG方式の他、
例えば、モーションJPEG方式、DV方式その他を採
用することが可能である。さらに、データの符号化/復
号化は、必ずしも行う必要はない。In the present embodiment, the data is encoded / decoded by the MPEG method. However, the data encoding / decoding method is not only the MPEG method but also the MPEG method.
For example, it is possible to adopt a motion JPEG system, a DV system, or the like. Furthermore, data encoding / decoding does not always need to be performed.
【0205】また、本実施の形態では、フレーム間相関
に基づいてシーンチェンジを検出するようにしたが、シ
ーンチェンジの検出方法は、これに限定されるものでは
ない。なお、フレーム間相関に基づいてシーンチェンジ
を検出する場合においては、フレーム間相関が小さいフ
レームで、シーンが区切られるので、例えば、ビデオカ
メラによる撮影中にシーンを区切りたい場合には、ビデ
オカメラを高速でパンなどすることにより、シーンを区
切ることができる。In the present embodiment, the scene change is detected based on the inter-frame correlation. However, the method for detecting the scene change is not limited to this. When a scene change is detected based on the inter-frame correlation, the scene is separated by a frame having a small inter-frame correlation. Scenes can be separated by panning at high speed.
【0206】[0206]
【発明の効果】請求項1に記載の画像処理装置および請
求項26に記載の画像処理方法によれば、入力された動
画像から、一まとまりのシーンが検出され、シーンを代
表する静止画であるクリップ画面が生成される。そし
て、クリップ画面を貼り付けた仮想的なアルバムが生成
される。従って、動画像の編集を、容易かつ短時間で行
うことが可能となる。According to the image processing apparatus of the first aspect and the image processing method of the twenty-sixth aspect, a group of scenes is detected from an input moving image, and a still image representative of the scene is detected. A certain clip screen is generated. Then, a virtual album to which the clip screen is pasted is generated. Therefore, editing of a moving image can be performed easily and in a short time.
【0207】請求項27に記載の画像再生装置および請
求項30に記載の画像再生方法によれば、入力された動
画像から、一まとまりのシーンを検出し、シーンを代表
する静止画であるクリップ画面を生成し、クリップ画面
を貼り付けた仮想的なアルバムを生成することにより得
られたシーンについての画像データのファイルであるシ
ーンファイルおよびアルバムが再生される。従って、所
望するシーンを容易に得ることが可能となる。According to the image reproducing apparatus of the twenty-seventh aspect and the image reproducing method of the thirty-second aspect, a group of scenes is detected from an input moving image, and a clip which is a still image representative of the scene is detected. A scene file and an album, which are files of image data of a scene obtained by generating a screen and generating a virtual album to which a clip screen is pasted, are reproduced. Therefore, it is possible to easily obtain a desired scene.
【0208】請求項31に記載の記録媒体には、入力さ
れた動画像から、一まとまりのシーンを検出し、シーン
を代表する静止画であるクリップ画面を生成し、クリッ
プ画面を貼り付けた仮想的なアルバムを生成することに
より得られたシーンについての画像データのファイルで
あるシーンファイルおよびアルバムが記録されている。
従って、所望するシーンを容易に得ることが可能とな
る。[0208] In the recording medium according to the thirty-first aspect, a set of scenes is detected from an input moving image, a clip screen as a still image representing the scene is generated, and the clip screen is pasted. A scene file, which is a file of image data of a scene obtained by generating a typical album, and an album are recorded.
Therefore, it is possible to easily obtain a desired scene.
【図1】本発明を適用したノンリニア編集装置の一実施
の形態の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a non-linear editing apparatus according to an embodiment of the present invention;
【図2】図1の圧縮部13の構成例を示すブロック図で
ある。FIG. 2 is a block diagram illustrating a configuration example of a compression unit 13 in FIG.
【図3】図1のノンリニア編集装置の動作を説明するた
めのフローチャートである。FIG. 3 is a flowchart for explaining the operation of the nonlinear editing device of FIG. 1;
【図4】画像分類情報検出処理を説明するためのフロー
チャートである。FIG. 4 is a flowchart illustrating an image classification information detection process.
【図5】画像削除処理を説明するためのフローチャート
である。FIG. 5 is a flowchart illustrating an image deletion process.
【図6】図3のステップS2の処理の詳細を説明するた
めのフローチャートである。FIG. 6 is a flowchart illustrating details of a process in step S2 of FIG. 3;
【図7】図3のステップS3の処理の詳細を説明するた
めのフローチャートである。FIG. 7 is a flowchart illustrating details of a process in step S3 of FIG. 3;
【図8】アルバム表示処理を説明するための図である。FIG. 8 is a diagram for explaining album display processing.
【図9】並び替えモードの処理を説明するためのフロー
チャートである。FIG. 9 is a flowchart illustrating a process in a rearrangement mode.
【図10】並び替えモードの処理を説明するための図で
ある。FIG. 10 is a diagram for explaining processing in a rearrangement mode;
【図11】クリップ画面がアルバムから出された場合の
処理を説明するためのフローチャートである。FIG. 11 is a flowchart illustrating a process performed when a clip screen is output from an album.
【図12】クリップ画面がアルバムから出された場合の
処理を説明するための図である。FIG. 12 is a diagram for describing processing when a clip screen is output from an album.
【図13】シーン編集モードの処理を説明するためのフ
ローチャートである。FIG. 13 is a flowchart illustrating a process in a scene editing mode.
【図14】シーン編集モードの処理を説明するための図
である。FIG. 14 is a diagram for describing processing in a scene editing mode.
【図15】シーン編集モードの処理を説明するための図
である。FIG. 15 is a diagram for describing processing in a scene editing mode.
【図16】図13のステップS84の処理の詳細を説明
するためのフローチャートである。FIG. 16 is a flowchart illustrating details of a process in step S84 in FIG. 13;
【図17】カット編集処理を説明するための図である。FIG. 17 is a diagram for explaining cut editing processing.
【図18】カット編集処理を説明するための図である。FIG. 18 is a diagram for explaining cut editing processing.
【図19】カット編集処理を説明するための図である。FIG. 19 is a diagram for explaining cut editing processing.
【図20】挿入編集処理を説明するためのフローチャー
トである。FIG. 20 is a flowchart for explaining an insertion editing process.
【図21】上書き編集処理を説明するためのフローチャ
ートである。FIG. 21 is a flowchart illustrating an overwrite editing process.
【図22】クリップ画面編集モードの処理を説明するた
めのフローチャートである。FIG. 22 is a flowchart illustrating processing in a clip screen editing mode.
【図23】クリップ画面編集モードの処理結果を示す図
である。FIG. 23 is a diagram showing a processing result in a clip screen editing mode.
【図24】再生モードの処理を説明するためのフローチ
ャートである。FIG. 24 is a flowchart illustrating a process in a playback mode.
【図25】本発明を適用したビデオカメラの一実施の形
態の構成例を示すブロック図である。FIG. 25 is a block diagram illustrating a configuration example of an embodiment of a video camera to which the present invention has been applied.
【図26】従来のリニア編集装置の一例の構成を示す図
である。FIG. 26 is a diagram showing a configuration of an example of a conventional linear editing device.
【図27】従来のノンリニア編集装置の一例の構成を示
す図である。FIG. 27 is a diagram illustrating a configuration of an example of a conventional nonlinear editing device.
1 マイクロプロセッサ, 2 メインメモリ, 3
フレームバッファ,4 バスブリッジ, 5 チュー
ナ, 6 モデム, 7 I/Oインターフェイス,
8 キーボード, 9 マウス, 10 補助記憶イン
ターフェイス,11 CD−R, 12 ハードディス
ク, 13 圧縮部, 14 ビデオカメラ, 15
伸張部, 16 VTR, 17 コンピュータディス
プレイ, 21,22 A/Dコンバータ, 23,2
4 選択部, 25 画像圧縮部, 26 音声圧縮
部, 27 バスインターフェイス, 28 画像/音
声挿入部, 101 レンズ, 102 CCD, 1
03 A/D変換器, 104 マイク, 105 A
/D変換器, 106 編集部, 107 ハードディ
スク, 108 アルバム化部, 109 再生部,
110 表示部,111 スピーカ, 112 操作部1 microprocessor, 2 main memory, 3
Frame buffer, 4 bus bridge, 5 tuner, 6 modem, 7 I / O interface,
Reference Signs List 8 keyboard, 9 mouse, 10 auxiliary storage interface, 11 CD-R, 12 hard disk, 13 compression unit, 14 video camera, 15
Extension unit, 16 VTR, 17 computer display, 21, 22 A / D converter, 23, 2
4 selection unit, 25 image compression unit, 26 audio compression unit, 27 bus interface, 28 image / audio insertion unit, 101 lens, 102 CCD, 1
03 A / D converter, 104 microphone, 105 A
/ D converter, 106 editing unit, 107 hard disk, 108 albuming unit, 109 playback unit,
110 display unit, 111 speaker, 112 operation unit
Claims (31)
て、 入力された動画像から、一まとまりのシーンを検出する
シーン検出手段と、 前記シーンを代表する静止画であるクリップ画面を生成
するクリップ画面生成手段と、 前記クリップ画面を貼り付けた仮想的なアルバムを生成
するアルバム生成手段とを備えることを特徴とする画像
処理装置。1. An image processing apparatus for processing a moving image, comprising: a scene detecting unit that detects a group of scenes from an input moving image; and generating a clip screen as a still image representing the scene. An image processing apparatus comprising: a clip screen generating unit; and an album generating unit that generates a virtual album to which the clip screen is pasted.
ーンチェンジを検出し、前回のシーンチェンジから今回
のシーンチェンジまでの動画像を、1つのシーンとして
検出することを特徴とする請求項1に記載の画像処理装
置。2. The apparatus according to claim 1, wherein the scene detecting means detects a scene change of the moving image and detects a moving image from a previous scene change to a current scene change as one scene. An image processing apparatus according to claim 1.
レーム間の相関に基づいて、そのシーンチェンジを検出
することを特徴とする請求項2に記載の画像処理装置。3. The image processing apparatus according to claim 2, wherein the scene detecting unit detects the scene change based on a correlation between frames of the moving image.
フレームである無効フレームを検出する無効フレーム検
出手段と、 前記シーンから、前記無効フレームを削除する無効フレ
ーム削除手段とをさらに備えることを特徴とする請求項
1に記載の画像処理装置。4. The image processing apparatus according to claim 1, further comprising: an invalid frame detecting unit that detects an invalid frame that is not required by the user from the moving image; and an invalid frame deleting unit that deletes the invalid frame from the scene. The image processing apparatus according to claim 1.
像を構成するフレームの輝度値に基づいて、前記無効フ
レームを検出することを特徴とする請求項4に記載の画
像処理装置。5. The image processing apparatus according to claim 4, wherein the invalid frame detecting unit detects the invalid frame based on a luminance value of a frame forming the moving image.
像を構成するフレームをDCT(Discreate Cosine Tra
nsfer)して得られるDCT係数の直流成分に基づい
て、前記無効フレームを検出することを特徴とする請求
項4に記載の画像処理装置。6. The invalid frame detecting means converts a frame constituting the moving image into a DCT (Discreate Cosine Trajectory).
The image processing apparatus according to claim 4, wherein the invalid frame is detected based on a DC component of a DCT coefficient obtained by performing nsfer).
像のフレーム間の相関に基づいて、前記無効フレームを
検出することを特徴とする請求項4に記載の画像処理装
置。7. The image processing apparatus according to claim 4, wherein the invalid frame detection unit detects the invalid frame based on a correlation between frames of the moving image.
ンを構成する所定のフレームを、前記クリップ画面とす
ることを特徴とする請求項1に記載の画像処理装置。8. The image processing apparatus according to claim 1, wherein the clip screen generating unit sets a predetermined frame constituting the scene as the clip screen.
EG(Moving Picture Experts Group)符号化する符号
化手段をさらに備え、 前記クリップ画面生成手段は、前記シーンのうちの最初
のIピクチャを、前記クリップ画面とすることを特徴と
する請求項8に記載の画像処理装置。9. The image data of the scene is represented by MP
The encoding apparatus according to claim 8, further comprising an encoding unit that performs EG (Moving Picture Experts Group) encoding, wherein the clip screen generation unit sets the first I picture in the scene as the clip screen. Image processing device.
ァイルであるシーンファイルおよび前記アルバムを記録
する記録手段をさらに備えることを特徴とする請求項1
に記載の画像処理装置。10. The image processing apparatus according to claim 1, further comprising a recording unit that records the scene file, which is a file of image data of the scene, and the album.
An image processing apparatus according to claim 1.
ーンファイルおよびアルバムを再生する再生手段をさら
に備えることを特徴とする請求項10に記載の画像処理
装置。11. The image processing apparatus according to claim 10, further comprising a reproducing unit that reproduces the scene file and the album recorded by the recording unit.
付けられた前記クリップ画面に対応する前記シーンファ
イルを、所定の順番で再生することを特徴とする請求項
11に記載の画像処理装置。12. The image processing apparatus according to claim 11, wherein the reproducing unit reproduces the scene file corresponding to the clip screen pasted on the album in a predetermined order.
シーンファイルを再生することにより得られる画像も記
録することを特徴とする請求項11に記載の画像処理装
置。13. The image processing apparatus according to claim 11, wherein the recording unit also records an image obtained by the reproduction unit reproducing the scene file.
リップ画面を指定する指定手段をさらに備え、 前記再生手段は、前記指定手段により指定された前記ク
リップ画面に対応する前記シーンファイルを再生するこ
とを特徴とする請求項11に記載の画像処理装置。14. The apparatus according to claim 1, further comprising a designating unit for designating the clip screen pasted on the album, wherein the reproducing unit reproduces the scene file corresponding to the clip screen designated by the designating unit. The image processing apparatus according to claim 11, wherein:
段をさらに備え、 前記記録手段は、前記符号化手段により符号化された画
像データを記録することを特徴とする請求項10に記載
の画像処理装置。15. The image according to claim 10, further comprising encoding means for encoding the image data, wherein the recording means records the image data encoded by the encoding means. Processing equipment.
像データを復号化する復号化手段をさらに備えることを
特徴とする請求項15に記載の画像処理装置。16. The image processing apparatus according to claim 15, further comprising decoding means for decoding image data encoded by said encoding means.
手段をさらに備えることを特徴とする請求項1に記載の
画像処理装置。17. The image processing apparatus according to claim 1, further comprising an album editing unit that edits the album.
ムに貼り付けられた前記クリップ画面を削除、拡大、縮
小、変形、または移動することを特徴とする請求項17
に記載の画像処理装置。18. The image processing apparatus according to claim 17, wherein the album editing unit deletes, enlarges, reduces, transforms, or moves the clip screen pasted on the album.
An image processing apparatus according to claim 1.
ムに文字を付加することを特徴とする請求項17に記載
の画像処理装置。19. The image processing apparatus according to claim 17, wherein said album editing means adds characters to said album.
をさらに備えることを特徴とする請求項1に記載の画像
処理装置。20. The image processing apparatus according to claim 1, further comprising a scene editing unit for editing the scene.
構成する一部のフレームを削除することを特徴とする請
求項20に記載の画像処理装置。21. The image processing apparatus according to claim 20, wherein the scene editing unit deletes some frames constituting the scene.
構成する一部のフレームを、新たなシーンとすることを
特徴とする請求項20に記載の画像処理装置。22. The image processing apparatus according to claim 20, wherein the scene editing unit sets a part of frames constituting the scene as a new scene.
に、所定のフレームを挿入することを特徴とする請求項
20に記載の画像処理装置。23. The image processing apparatus according to claim 20, wherein the scene editing unit inserts a predetermined frame into the scene.
一部のフレームを、他のフレームに置き換えることを特
徴とする請求項20に記載の画像処理装置。24. The image processing apparatus according to claim 20, wherein the scene editing unit replaces some frames of the scene with other frames.
像の信号を出力する光電変換手段をさらに備えることを
特徴とする請求項1に記載の画像処理装置。25. The image processing apparatus according to claim 1, further comprising a photoelectric conversion unit that photoelectrically converts incident light and outputs a signal of the moving image.
て、 入力された動画像から、一まとまりのシーンを検出し、 前記シーンを代表する静止画であるクリップ画面を生成
し、 前記クリップ画面を貼り付けた仮想的なアルバムを生成
することを特徴とする画像処理方法。26. An image processing method for processing a moving image, comprising: detecting a group of scenes from an input moving image; generating a clip screen as a still image representing the scene; An image processing method characterized by generating a virtual album on which an image is pasted.
て、 入力された動画像から、一まとまりのシーンを検出し、 前記シーンを代表する静止画であるクリップ画面を生成
し、 前記クリップ画面を貼り付けた仮想的なアルバムを生成
することにより得られた前記シーンについての画像デー
タのファイルであるシーンファイルおよび前記アルバム
を再生する再生手段を備えることを特徴とする画像再生
装置。27. An image reproducing apparatus for reproducing a moving image, comprising: detecting a set of scenes from an input moving image; generating a clip screen as a still image representing the scene; An image reproducing apparatus, comprising: a scene file which is a file of image data on the scene obtained by generating a virtual album to which the image is pasted; and reproducing means for reproducing the album.
付けられた前記クリップ画面に対応する前記シーンファ
イルを、所定の順番で再生することを特徴とする請求項
27に記載の画像再生装置。28. The image reproducing apparatus according to claim 27, wherein said reproducing means reproduces the scene files corresponding to the clip screen pasted on the album in a predetermined order.
リップ画面を指定する指定手段をさらに備え、 前記再生手段は、前記指定手段により指定された前記ク
リップ画面に対応する前記シーンファイルを再生するこ
とを特徴とする請求項27に記載の画像再生装置。29. Designating means for designating the clip screen pasted on the album, wherein the reproducing means reproduces the scene file corresponding to the clip screen specified by the designating means. The image reproducing device according to claim 27, wherein the image reproducing device is an image reproducing device.
て、 入力された動画像から、一まとまりのシーンを検出し、 前記シーンを代表する静止画であるクリップ画面を生成
し、 前記クリップ画面を貼り付けた仮想的なアルバムを生成
することにより得られた前記シーンについての画像デー
タのファイルであるシーンファイルおよび前記アルバム
を再生することを特徴とする画像再生方法。30. An image reproducing method for reproducing a moving image, comprising: detecting a set of scenes from an input moving image; generating a clip screen as a still image representing the scene; And reproducing the album and a scene file, which is a file of image data of the scene obtained by generating a virtual album to which the image is pasted.
記録媒体であって、 入力された動画像から、一まとまりのシーンを検出し、 前記シーンを代表する静止画であるクリップ画面を生成
し、 前記クリップ画面を貼り付けた仮想的なアルバムを生成
することにより得られた前記シーンについての画像デー
タのファイルであるシーンファイルおよび前記アルバム
が記録されていることを特徴とする記録媒体。31. A recording medium on which data about a moving image is recorded, wherein a set of scenes is detected from the input moving image, and a clip screen which is a still image representing the scene is generated. A recording medium, wherein a scene file, which is a file of image data of the scene obtained by generating a virtual album to which the clip screen is pasted, and the album are recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9077285A JPH10276388A (en) | 1997-03-28 | 1997-03-28 | Device, method for processing and reproducing image and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9077285A JPH10276388A (en) | 1997-03-28 | 1997-03-28 | Device, method for processing and reproducing image and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10276388A true JPH10276388A (en) | 1998-10-13 |
Family
ID=13629606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9077285A Abandoned JPH10276388A (en) | 1997-03-28 | 1997-03-28 | Device, method for processing and reproducing image and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10276388A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001186447A (en) * | 1999-12-27 | 2001-07-06 | Sharp Corp | Recorder, reproducing device, and recording and reproducing device connecting them |
JP2004501574A (en) * | 2000-06-16 | 2004-01-15 | イエスビデオ,インコーポレイテッド | Video processing system |
US7177531B2 (en) | 2000-12-05 | 2007-02-13 | Matsushita Electric Industrial Co., Ltd. | Record and playback apparatus and record medium |
WO2007017970A1 (en) * | 2005-08-11 | 2007-02-15 | Mitsubishi Denki Kabushiki Kaisha | Video recorder, scene change extracting method, and video/audio recorder |
JP2007049516A (en) * | 2005-08-11 | 2007-02-22 | Mitsubishi Electric Corp | Video recording apparatus and scene change extracting method |
JP2008099009A (en) * | 2006-10-12 | 2008-04-24 | Sharp Corp | Program receiver having layout changing function of program selection mark and layout changing method in the same |
US7925105B2 (en) | 2006-03-14 | 2011-04-12 | Seiko Epson Corporation | Image transfer and motion picture clipping process using outline of image |
US7991810B2 (en) | 2003-02-18 | 2011-08-02 | Samsung Electronics Co., Ltd. | Media file management system and method for home media center |
US9148640B2 (en) | 2012-01-30 | 2015-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Image editing apparatus and thumbnail generating method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03292572A (en) * | 1990-04-11 | 1991-12-24 | Matsushita Electric Ind Co Ltd | Animation data display device |
JPH0530464A (en) * | 1991-07-19 | 1993-02-05 | Toshiba Corp | Moving image management device |
JPH07182366A (en) * | 1993-12-24 | 1995-07-21 | Hitachi Ltd | Method and device for still picture display |
JPH07303234A (en) * | 1994-05-09 | 1995-11-14 | Canon Inc | Picture editing device |
JPH08292965A (en) * | 1995-02-20 | 1996-11-05 | Hitachi Ltd | Video support system |
-
1997
- 1997-03-28 JP JP9077285A patent/JPH10276388A/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03292572A (en) * | 1990-04-11 | 1991-12-24 | Matsushita Electric Ind Co Ltd | Animation data display device |
JPH0530464A (en) * | 1991-07-19 | 1993-02-05 | Toshiba Corp | Moving image management device |
JPH07182366A (en) * | 1993-12-24 | 1995-07-21 | Hitachi Ltd | Method and device for still picture display |
JPH07303234A (en) * | 1994-05-09 | 1995-11-14 | Canon Inc | Picture editing device |
JPH08292965A (en) * | 1995-02-20 | 1996-11-05 | Hitachi Ltd | Video support system |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001186447A (en) * | 1999-12-27 | 2001-07-06 | Sharp Corp | Recorder, reproducing device, and recording and reproducing device connecting them |
US8630529B2 (en) | 2000-06-16 | 2014-01-14 | Yesvideo, Inc. | Video processing system |
JP2004501574A (en) * | 2000-06-16 | 2004-01-15 | イエスビデオ,インコーポレイテッド | Video processing system |
US9390755B2 (en) | 2000-06-16 | 2016-07-12 | Yesvideo, Inc. | Video processing system |
US8867894B2 (en) | 2000-06-16 | 2014-10-21 | Yesvideo, Inc. | Video processing system |
JP4942276B2 (en) * | 2000-06-16 | 2012-05-30 | イエスビデオ,インコーポレイテッド | Video processing system |
US7177531B2 (en) | 2000-12-05 | 2007-02-13 | Matsushita Electric Industrial Co., Ltd. | Record and playback apparatus and record medium |
US8806366B2 (en) | 2003-02-18 | 2014-08-12 | Samsung Electronics Co., Ltd. | Media file management system and method for home media center |
US7991810B2 (en) | 2003-02-18 | 2011-08-02 | Samsung Electronics Co., Ltd. | Media file management system and method for home media center |
WO2007017970A1 (en) * | 2005-08-11 | 2007-02-15 | Mitsubishi Denki Kabushiki Kaisha | Video recorder, scene change extracting method, and video/audio recorder |
US8886014B2 (en) | 2005-08-11 | 2014-11-11 | Mitsubishi Electric Corporation | Video recording apparatus, scene change extraction method, and video audio recording apparatus |
JP2007049516A (en) * | 2005-08-11 | 2007-02-22 | Mitsubishi Electric Corp | Video recording apparatus and scene change extracting method |
US7925105B2 (en) | 2006-03-14 | 2011-04-12 | Seiko Epson Corporation | Image transfer and motion picture clipping process using outline of image |
JP2008099009A (en) * | 2006-10-12 | 2008-04-24 | Sharp Corp | Program receiver having layout changing function of program selection mark and layout changing method in the same |
US9148640B2 (en) | 2012-01-30 | 2015-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Image editing apparatus and thumbnail generating method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3551181B2 (en) | Recording device and recording method | |
EP1111612B1 (en) | Method and device for managing multimedia file | |
US6683649B1 (en) | Method and apparatus for creating a multimedia presentation from heterogeneous media objects in a digital imaging device | |
US6560399B2 (en) | Image recording and reproducing device and a medium storing an image recording and reproducing program | |
EP1971134B1 (en) | Information processing apparatus, imaging apparatus, image display control method and computer program | |
JPH1066008A (en) | Moving image retrieving and editing device | |
CN1246196A (en) | Non-linear editing system for home entertainment environments | |
JP2008035394A (en) | Recorder, recording method, reproducing device, reproducing method, recording and reproducing device, recording and reproducing method, imaging and recording device and imaging and recording method | |
US20040240005A1 (en) | Editing apparatus and method using thumbnail image | |
JP2001078166A (en) | Program providing system | |
US8249425B2 (en) | Method and apparatus for controlling image display | |
JPH10276388A (en) | Device, method for processing and reproducing image and recording medium | |
JP4045651B2 (en) | Information processing apparatus, information processing method, and program recording medium | |
EP1351501A2 (en) | Method and system for accessing video data | |
JP3814565B2 (en) | Recording device | |
JP4066454B2 (en) | Signal processing apparatus with authoring function and signal processing method including authoring | |
JP4698961B2 (en) | Electronic camera and electronic camera control program | |
JP3683462B2 (en) | Movie display device | |
JP4973935B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
JP2006211324A (en) | Digital camera apparatus, method and program for reproducing image, and data structure | |
JP4016424B2 (en) | Moving picture editing apparatus and moving picture editing method | |
JP4443387B2 (en) | Video playback device | |
JPH1051734A (en) | Dynamic image compiling device/method | |
JP3985775B2 (en) | Edited image display control device, edited image display control method and program | |
JP3467998B2 (en) | Video signal recording and reproducing method, and video signal recording / reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050511 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20050629 |