JP2012065013A - Moving image file generation method - Google Patents
Moving image file generation method Download PDFInfo
- Publication number
- JP2012065013A JP2012065013A JP2010205532A JP2010205532A JP2012065013A JP 2012065013 A JP2012065013 A JP 2012065013A JP 2010205532 A JP2010205532 A JP 2010205532A JP 2010205532 A JP2010205532 A JP 2010205532A JP 2012065013 A JP2012065013 A JP 2012065013A
- Authority
- JP
- Japan
- Prior art keywords
- video signal
- smile
- moving image
- period
- image file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、笑顔度に応じた期間の動画ファイルを生成する方法に関する。 The present invention relates to a method of generating a moving image file having a period corresponding to a smile level.
近年、被写体の画像から特定のパターンを認識したことを利用した様々な技術が注目されている。中でも、人物の画像から笑顔であることを認識して、撮影するタイミングを決定するオートシャッタ機能を持ったデジタルカメラなどが広がりつつある。 In recent years, various techniques using the recognition of a specific pattern from a subject image have attracted attention. Among them, digital cameras having an auto shutter function for recognizing a smile from a person image and determining a shooting timing are spreading.
特許文献1では、笑顔ポイントを判定し、その結果を用いて画像を合成することで、ユーザーの満足度の高い画像を生成することが開示されている。
しかしながら、入力された映像信号から人物が笑顔のシーンの動画ファイルを生成しようとした場合、作業者に大きな負荷がかかることがあった。
例えば、作業者が、長時間の入力映像信号から人物が笑顔になっているシーンを切り取って動画ファイルを生成しようとすると、作業者に大きな負荷がかかってしまうことがあった。
However, when trying to generate a moving image file of a scene where a person is smiling from an input video signal, a heavy load may be imposed on the operator.
For example, when an operator tries to generate a moving image file by cutting a scene in which a person is smiling from an input video signal for a long time, a heavy load may be applied to the operator.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力された映像信号から人物が笑顔のシーンの動画ファイルを生成する際の作業者の負荷を低減しつつ、満足度が高い動画ファイルを生成することである。 The present invention has been made in view of the above-mentioned problems, and its object is to satisfy the operator while reducing the burden on the operator when generating a moving image file of a scene where a person is smiling from an input video signal. It is to generate a high-quality video file.
上記の目的を達成するために、本発明の処理装置は例えば、以下の構成を有する。すなわち、映像信号を入力する入力手段と、前記入力された映像信号から検出された人物の特徴量から笑顔度を判定する判定手段と、前記判定された笑顔度と閾値とを比較する比較手段と、前記入力された映像信号のうち前記判定された笑顔度が前記閾値よりも高い期間を含む期間の映像信号から動画ファイルを生成する生成手段とを有する。 In order to achieve the above object, the processing apparatus of the present invention has the following configuration, for example. That is, an input unit that inputs a video signal, a determination unit that determines a smile level from a feature amount of a person detected from the input video signal, and a comparison unit that compares the determined smile level and a threshold value Generating means for generating a moving image file from a video signal in a period including a period in which the determined smile level is higher than the threshold value in the input video signal.
本発明によれば、入力された映像信号から人物が笑顔のシーンの動画ファイルを生成する際の作業者の負荷を低減しつつ、満足度が高い動画ファイルを生成できるようになる。 According to the present invention, it is possible to generate a moving image file with a high degree of satisfaction while reducing the burden on the operator when generating a moving image file of a scene where a person is smiling from an input video signal.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<第1の実施形態>
図1は、本実施形態の画像処理装置100(以下処理装置100)を示すブロック構成図である。図1において、撮像部101はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子によって撮像された画像信号に信号処理などを施して得られたYUVのフォーマットの映像信号を色変換部102へ出力する。本形態の映像信号は、デジタル映像信号である。また本形態の撮像部101は、ユーザからの指示に応じて、時間的に連続した映像信号を入力する。撮像部101は、処理装置100とは別構成としても良い。この場合、撮像装置で得られた映像信号はHDMI(High−Definition Multimedia Interface)などの標準インターフェースによって処理装置100に入力される。
色変換部102は、撮像部101からのYUVの映像信号をRGBの映像信号に変換する。顔検出部103は、色変換部102からのRGBの映像信号に対して顔の有無及び顔の位置の検出処理を行なう。
<First Embodiment>
FIG. 1 is a block diagram showing an image processing apparatus 100 (hereinafter referred to as a processing apparatus 100) according to this embodiment. In FIG. 1, an
The
本形態の顔検出部103は、あらかじめ記憶した大量の顔画像(正解画像)と非顔画像(不正解画像)とを用いた学習に基づいて、映像信号から顔画像を検出する。より具体的には、顔検出部103は、顔画像(正解画像)と非顔画像(不正解画像)とを用いた学習に基づいて、映像信号から目や口や顔の位置を検出する。ただし、顔画像の検出方法はこの方法に限らない。
The
顔追尾部104は、顔検出部103により検出された顔画像を、オプティカルフロー等により画面内追尾する。
The
笑顔判定部105は、顔検出部103で検出され、顔追尾部104で追尾される顔画像の特徴量から笑顔度を判定する。本形態の笑顔判定部105は、顔画像から眉、眼、唇を抽出する。そして笑顔判定部105は、眉の外側の端が下がっているほど高い笑顔度であると判定する。また、笑顔判定部105は、眼の瞳孔が開いているほど高い笑顔度であると判定する。また、笑顔判定部105は、唇の両端が中央に対して上がっているほど高い笑顔度であると判定する。ただし笑顔度の判定方法は、上記の方法に限らない。
笑顔判定部105は、笑顔判定部105による笑顔度の判定結果に応じて、スイッチ部109へ制御信号を入力する。スイッチ部109は、笑顔判定部105からの制御信号に基づいて、撮像部101からのYUVの映像信号をファイル生成部110に渡すか否かを切り替える。すなわち、スイッチ部109は、顔画像の笑顔度が閾値よりも高いと判定された期間の映像信号がファイル生成部110に渡されるように、笑顔判定部105からの入力に応じて、撮像部101からの映像信号をファイル生成部110に渡すか否かを切り替える。
The
The
フレーム特定部106は、動画ファイルの期間のフレームのうち、笑顔判定部105で最高の笑顔度と判定された顔画像が含まれるフレームを特定する。すなわち、フレーム特定部106は、笑顔判定部105から笑顔度と、当該笑顔度が判定されたフレームの特定情報とを受信する。そして、フレーム特定部106は、笑顔判定部105から受信された笑顔度が、動画ファイルの期間が開始してから受信された他の笑顔度よりも高い場合、当該笑顔度が判定されたフレームの特定情報をフレーム切り出し部107に出力する。例えば、フレーム特定部106は、動画ファイルの期間の開始直後は、1番目のフレームの特定情報をフレーム切り出し部107に出力する。そして、2番目のフレームの笑顔度が、1番目のフレームの笑顔度より高いと判定された場合、フレーム特定部106は、2番目のフレームの特定情報を出力する。一方、2番目のフレームの笑顔度が、1番目のフレームの笑顔度よりも低いと判定された場合、フレーム特定部106は、2番目のフレームの特定情報をフレーム切り出し部107に出力しない。また、フレーム特定部106は、動画ファイルの期間が終了すると、そのことをフレーム切り出し部107に通知する。
The
フレーム切り出し部107は、フレーム特定部106で特定されたフレームを、撮像部101からのYUVの映像信号から切り出して一時的に保持する。例えば、フレーム切り出し部107は、動画ファイルの期間の開始直後は、1番目のフレームの映像信号を一時的に保持する。また、例えば2番目のフレームの笑顔度が1番目のフレームの笑顔度よりも高い場合、1番目のフレームの映像信号の代わりに、2番目のフレームの映像信号を一時的に保持する。
The
このとき、処理装置100は、色変換部102からフレーム特定部106で行う処理にかかる遅延時間を考慮したバッファを持つことで、フレーム切り出し部107は、フレーム特定部106により特定されたフレームを保持することができる。動画ファイルの期間が終了すると、フレーム切り出し部107は、保持しているフレームの映像信号をサムネイル生成部108に出力する。このときにフレーム切り出し部107が出力する映像信号は、動画ファイルの期間のフレームのうち、笑顔判定部105により判定された笑顔度が最も高いフレームの映像信号となる。
At this time, the
サムネイル生成部108は、フレーム切り出し部107により出力された映像信号から動画ファイルのサムネイル画像を生成する。このような構成により、サムネイル生成部108は、動画ファイルの期間の第1の動画フレーム(1番目のフレーム)の第1の笑顔度よりも高い第2の笑顔度の第2の動画フレームに基づいて、動画ファイルのサムネイルを生成する。
The
ファイル生成部110は、撮像部101からの映像信号をスイッチ部109を介して受け取り、例えば、AVCHD(Advanced Video Codec High Definition)などのフォーマットに基づいて動画ファイルを生成する。すなわち、ファイル生成部110は、入力された映像信号のうち、判定された笑顔度が閾値よりも高い期間を含む期間の映像信号から動画ファイルを生成する。
The
次に本形態の処理装置100の動作について、図3のフローチャートを用いて説明する。なお、本形態では、処理装置100の各部の処理が専用のハードウェアにより行われる例について説明するが、各部の処理の少なくとも一部を、処理装置100が有するCPUが、ROMやHDDからプログラムを読み出して実行することも可能である。本形態では、図3の処理を、笑顔ファイルの生成モードが選択されたことにより開始される。ただし、例えば通常の動画撮影モードなどで開始するようにしても良い。
図3のS301(入力手順)において、撮像部101は撮像を行い、得られた映像信号を入力する。なお、撮像部101を処理装置100とは別の撮像装置とすることも可能である。この場合、S301では撮像装置からの映像信号が入力される。
Next, the operation of the
In S301 (input procedure) of FIG. 3, the
S302において、処理装置100の制御部(不図示)は、動画撮影の終了が指示されたか否かを判定する。動画撮影の終了が指示されていないと判定された場合はS303へ進み、動画撮影の終了が指示されたと判定された場合は、図3の処理を終了する。
In S302, the control unit (not shown) of the
S303において、色変換部102は、撮像部101の撮像により得られたYUVの映像信号から、RGBの映像信号へ色変換する。RGBの映像信号は、顔検出部103へ出力される。なお本形態において、YUVの映像信号、及びRGBの映像信号は、共にデジタル映像信号である。また、本形態で入力される映像信号は、時間的に連続した映像信号である。
In step S <b> 303, the
S304において、顔検出部103は、RGBの映像信号から人物の顔画像の検出を行う。本形態の顔検出部103は、あらかじめ記憶した大量の顔画像(正解画像)と非顔画像(不正解画像)とを用いた学習に基づいて、映像信号から顔画像を検出する。顔検出部103は、検出された顔画像の領域に対応する矩形の4つの頂点の座標データとRGBの映像信号を顔追尾部104へ出力する。3つの顔画像が検出された場合の各顔画像の領域の例を図4に示す。
In step S304, the
また、S304において、顔追尾部104は、顔検出部103からの座標データに基づいて、顔検出部103で検出された顔画像の追尾処理をする。顔検出部103の追尾処理により、直前のフレームと現在のフレームとでそれぞれ検出された顔画像のうち、同一人物の顔画像が対応付けられる。また、顔追尾部104は、対応付けた顔画像のサイズがフレーム毎に大きく変化しないように時間軸方向にスムージング処理をする。すなわち、顔追尾部104は、顔検出部103により出力された顔画像の座標データを修正する。さらに、顔追尾部104は、スムージング処理の結果を、顔画像のIDと対応付けて笑顔判定部105へ出力する。例えば、図4に示すように、3人の人物の顔画像(人物1、2、3)が顔検出部103により検出された場合、顔追尾部104は、人物1のIDと、人物1の矩形領域のスムージング処理後の座標データとを対応付けて出力する。同様に、顔追尾部104は、人物2のIDと、人物2の矩形領域のスムージング処理後の座標データとを対応付けると共に、人物3のIDと、人物3の矩形領域のスムージング処理後の座標データとを対応付けて出力する。
In step S <b> 304, the
このように、人物をIDで管理することにより、例えば、ユーザにより指定された1人又は複数の人物が笑顔になっている期間の動画ファイルを生成することや、撮影されている期間が長い人物が笑顔になっている期間の動画ファイルを生成するなどが可能になる。ユーザにより指定された人物が笑顔になっている期間の動画ファイルを生成する場合、処理装置100が備える入力部や処理装置とネットワークを介して接続される端末装置からの指定情報に基づいて、人物を指定することが可能である。すなわち、処理装置100は、検出された複数の人物から、笑顔度の判定に用いる人物を指定する指定部(不図示)を有する。また、IDによって人物を分別することにより、笑顔の合成写真を作ることや、各人物の笑顔のアイコンを作るなども可能になる。
In this way, by managing a person by ID, for example, it is possible to generate a video file during a period when one or more persons specified by the user are smiling, or a person who has been photographed for a long time. For example, you can create a video file for the period when you are smiling. When generating a moving image file during a period in which the person designated by the user is smiling, the person is based on designation information from an input unit included in the
また、S304(判定手順)において、笑顔判定部105は、顔追尾部104から出力された顔画像のIDと、座標データと、映像信号とに基づいて、各顔画像の笑顔度の判定を行う。本形態の笑顔判定部105は、座標データにより特定された顔画像から眉、眼、唇を抽出する。そして笑顔判定部105は、眉の外側の端が下がっているほど高い笑顔度であると判定する。また、笑顔判定部105は、眼の瞳孔が開いているほど高い笑顔度であると判定する。また、笑顔判定部105は、唇の両端が中央に対して上がっているほど高い笑顔度であると判定する。笑顔判定部105は、眉、眼、唇の状態に応じて、各顔画像の笑顔度を0〜1.4の範囲で判定する。笑顔判定部105による笑顔度の判定が完了すると、S305に進む。
In S304 (determination procedure), the
また、S305(比較手順)において、笑顔判定部105は、S304で判定された笑顔度と閾値との比較を行う。この比較により、笑顔度が閾値よりも高いと判定された場合、S306へ進み、動画ファイルの生成が開始され、笑顔度が閾値よりも高い状態が継続すると、動画ファイルイの生成も継続される。一方、笑顔度が閾値よりも高くないと判定された場合、S309へ進み、動画ファイルの生成中であった場合は動画ファイルの生成を終了してS311へ進み、動画亜フィルの生成中でなかった場合はS301に戻る。
ここで、笑顔度と動画ファイルの期間の関係について説明する。
In S305 (comparison procedure), the
Here, the relationship between the smile level and the period of the moving image file will be described.
まず第1のモードは、複数人の顔画像のそれぞれに対して笑顔度を判定し、判定された笑顔度の少なくとも1つが閾値を超えている期間の動画ファイルを生成するモードである。図2は、第1のモードにおいて、3人の顔画像が検出された場合の各顔画像の笑顔度の変化と、動画ファイルの期間の関係を示している。本形態では、顔画像の笑顔度と比較する閾値を0.6とする。図2に示すように、3人の人物のうちの1人(人物2)の笑顔度が0.6を超えたタイミングから動画ファイルの記録が開始され、すべての人物の笑顔度が0.6よりも低くなったタイミングで動画ファイルの記録を終了する。 First, the first mode is a mode in which a smile level is determined for each of a plurality of face images, and a moving image file in a period in which at least one of the determined smile levels exceeds a threshold value is generated. FIG. 2 shows the relationship between the change in the smile level of each face image and the period of the moving image file when three face images are detected in the first mode. In this embodiment, the threshold value to be compared with the smile level of the face image is set to 0.6. As shown in FIG. 2, recording of a moving image file is started from the timing when the smile degree of one of the three persons (person 2) exceeds 0.6, and the smile degrees of all persons are 0.6. The video file recording ends at a lower timing.
すなわち、スイッチ部109は、少なくとも1人の笑顔度が0.6を超えている期間のYUVの映像信号をファイル生成部110へ渡し、どの人物の笑顔度も0.6を超えていない期間の映像信号をファイル生成部へ渡さない。このように、スイッチ部109は、笑顔判定部105からの笑顔度と閾値との比較結果に応じた制御信号に基づいて、撮像部101からのYUVの映像信号の記録を制御する。言い換えると、笑顔判定部105は、映像信号から検出された複数の人物(例えば第1の人物、第2の人物)のうち、笑顔度が高い第1の人物の笑顔度と閾値とを比較する。そして、スイッチ部109は、笑顔度が高い第1の人物の笑顔度が閾値よりも高い期間の映像信号をファイル生成部110へ渡す。また、例えば、所定のサイズよりも大きい顔画像のうち、最も笑顔度の高い顔画像と閾値を比較するようにしても良い。
That is, the
第2のモードは、複数人の顔画像のそれぞれに対して笑顔度を判定し、判定された笑顔度の合計値が閾値を超えている期間の動画ファイルを生成するモードである。すなわち、笑顔判定部105は、検出された複数の人物の笑顔度の合計値と閾値とを比較する。そして、スイッチ部109は、複数の人物の笑顔度の合計値が閾値よりも高い期間の映像信号をファイル生成部110へ渡す。また、第2のモードにおいては、閾値の設定方法を、さらに2つに分けることができる。すなわち、顔画像の数に応じて閾値を変化させるモードと、顔画像の数に関わらず閾値を一定にするモードである。第2のモードによれば、第1のモードよりも全体の笑顔度を考慮した動画ファイルの期間の決定ができる。
The second mode is a mode in which a smile level is determined for each of a plurality of face images, and a moving image file is generated during a period in which the total value of the determined smile levels exceeds a threshold value. That is, the
また、第3のモードは、複数人の顔画像のそれぞれに対して笑顔度を判定し、判定された笑顔度の平均値が閾値を超えている期間の動画ファイルを生成するモードである。すなわち、笑顔判定部105は、検出された複数の人物の笑顔度の平均値と閾値とを比較する。そして、スイッチ部109は、複数の人物の笑顔度の平均値が閾値よりも高い期間の映像信号をファイル生成部110に渡す。第3のモードによれば、顔画像の数に応じて閾値を変動させるよりも、簡単な処理で動画ファイルの期間を決定できる。顔画像の数や、取得したい動画ファイルに応じて、上記の各モードをユーザが選択できるようにすることで、より満足度の高い動画ファイルを生成できるようになる。
The third mode is a mode in which a smile level is determined for each of a plurality of face images, and a moving image file is generated during a period in which the average value of the determined smile levels exceeds a threshold value. That is, the
また、上記の実施形態では、笑顔度が閾値を上回ってから動画ファイルの期間を開始する例を説明しているが、例えば、笑顔度が閾値を上回ったタイミングよりも前のタイミングから動画ファイルの期間が開始するようにしても良い。このようにすることで、笑顔度が上がった原因を含む動画ファイルを生成できる可能性が向上する。 In the above embodiment, an example is described in which the period of the video file is started after the smile level exceeds the threshold value. For example, the video file is started from a timing before the timing when the smile level exceeds the threshold level. The period may start. By doing so, the possibility of generating a moving image file including the cause of the increased smile level is improved.
また、上記の実施形態では、笑顔度が閾値を下回ると、ただちに動画ファイルの期間を終了する例を説明しているが、例えば、笑顔度が閾値を下回ってから所定時間が経過してから動画ファイルの期間を終了するようにしてもよい。このようにすることで、笑顔度が短期間だけ低くなってから、またすぐに笑顔度が高くなった場合に、複数の動画ファイルに分割されてしまう可能性を低減できる。 Further, in the above embodiment, an example is described in which the period of the video file is immediately ended when the smile level falls below the threshold value. For example, the video is moved after a predetermined time elapses after the smile level falls below the threshold level. The file period may be terminated. By doing so, it is possible to reduce the possibility of being divided into a plurality of moving image files when the smile level is lowered for a short period of time and then the smile level is increased immediately.
また、例えば、動画ファイルの期間が開始された後に、人物が横を向いたり、下を向いたりしたことによって、顔画像の特徴量の取得が中断されることにより、笑顔度が判定できなくなる場合が考えられる。このような場合、本形態の笑顔判定部105は、顔追尾によって画面内には存在することがわかっているにも関わらず、特徴量の取得が中断されている人物が存在する間は、動画ファイルの期間を終了しない。
In addition, for example, when the moving image file period is started and the person turns sideways or faces down, the face image feature amount acquisition is interrupted, so that the smile level cannot be determined. Can be considered. In such a case, the
すなわち、笑顔判定部105は、人物の笑顔度に応じて動画ファイルの期間が開始してから、検出中の当該人物の笑顔度を判定するための特徴量の取得が中断した場合、当該中断中の期間の映像信号を含む動画ファイルが生成されるように制御信号の送信を制御する。このようにすることで、実際には笑顔が続いているにも関わらず動画ファイルの期間が終了してしまうといった可能性を低減できる。また、例えば、複数の人物が検出されている場合、特徴量の取得が中断されている人物の笑顔度を、他の人物の笑顔度の平均値としても良い。 In other words, when the acquisition of the feature amount for determining the smile level of the detected person is interrupted after the period of the moving image file starts according to the smile level of the person, The transmission of the control signal is controlled so that a moving image file including the video signal of the period is generated. By doing so, it is possible to reduce the possibility that the period of the moving image file ends even though the smile is actually continued. Further, for example, when a plurality of persons are detected, the smile level of the person whose feature amount acquisition is interrupted may be set as the average value of smile levels of other persons.
また、上記の実施形態では、笑顔度と比較する閾値は、動画ファイルの期間の開始と終了とで同じ値(0.6)の例を説明しているが、例えば、動画ファイルの開始を決める閾値のほうが、動画ファイルの終了を決める閾値よりも高くなるようにしても良い。このようにすれば、笑顔になった原因を動画ファイルの期間に含められる可能性が向上する。また、例えば、動画ファイルの開始を決める閾値のほうが、動画ファイルの終了を決める閾値よりも低くなるようにしても良い。このようにすれば、笑顔が短期間だけ低くなってから、またすぐに笑顔度が高くなった場合に、複数の動画ファイルに分割されてしまう可能性を低減できる。 In the above embodiment, the threshold value to be compared with the smile degree is described as an example of the same value (0.6) at the start and end of the period of the video file. For example, the start of the video file is determined. The threshold value may be higher than the threshold value that determines the end of the moving image file. This improves the possibility that the cause of the smile can be included in the period of the moving image file. Further, for example, the threshold value for determining the start of the moving image file may be set lower than the threshold value for determining the end of the moving image file. In this way, the possibility of being divided into a plurality of moving image files can be reduced when the smile level decreases for a short period of time and then the smile level increases immediately.
すなわち、笑顔判定部105は、動画ファイルの期間を、笑顔度が第1の閾値に達したことに応じて開始させ、笑顔度が第1の閾値とは異なる第2の閾値に達したことに応じて終了させる。また、ファイル生成部110は、映像信号から検出された人物の笑顔度が第1の閾値に達してから、人物の笑顔度が第1の閾値とは異なる第2の閾値に達するまでの期間の映像信号から動画ファイルを生成する。このように、動画ファイルの期間の開始を決定するための閾値と、動画ファイルの期間の終了を決定するための閾値とを異なる値にすることで、笑顔度の数値のヒステリシスも考慮した動作が可能となる。
That is, the
図3のS307において、フレーム特定部106は、S306で記録された現在のフレームの笑顔度が、動画ファイルの期間の開始以降の他のフレームの笑顔度よりも高いか否かを判定する。そして、フレーム特定部106は、現在のフレームの笑顔度が、動画ファイルの開始以降のフレームの笑顔度の最高値よりも高いと判定した場合、当該フレームの特定情報をフレーム切り出し部107へ出力する。
In S307 of FIG. 3, the
S308において、フレーム特定部106から特定情報を受信したフレーム切り出し部107は、当該特定情報に対応するフレームのYUVのデジタル映像信号を撮像部101から取得して一時記憶する。
In S <b> 308, the
S305において、笑顔判定部105は、笑顔度が閾値よりも高くないと判定した場合、S309に進み、現在動画記録中であるか否かを判定する。動画記録中でないと判定された場合、S301に戻り、動画記録中であると判定された場合、S310に進む。
If the
S310において、笑顔判定部105は、スイッチ部109に動画ファイルの期間の終了を示す制御信号を出力し、スイッチ部109は、映像信号のファイル生成部110への出力を終了する。
In S310, the
S311において、フレーム切り出し部107は、フレーム特定部106から出力されたフレームの特定情報に対応するフレームのYUVの映像信号を、サムネイル生成部108に渡す。そして、サムネイル生成部108は、フレーム切り出し部107から渡されたフレームの映像信号から、例えば、JPEGなどのフォーマットに従ってサムネイル画像を生成する。サムネイル生成部108は、生成したサムネイル画像をファイル生成部110に出力する。
In step S <b> 311, the
なお、図2に示すように、動画ファイルの期間の各フレームのうち、人物2が1.2の笑顔度と判定されているフレームが、最も笑顔度が高いフレームとして特定されている。本形態のサムネイル生成部108は、人物2が1.2の笑顔度であると判定されたフレームの映像信号からサムネイル画像を生成する。ただし、例えば複数人物の笑顔度の合計値や平均値が最も高いフレームからサムネイル画像を生成してもよい。
As shown in FIG. 2, the frame in which the person 2 is determined to have a smile level of 1.2 among the frames of the moving image file period is identified as the frame with the highest smile level. The
S312(生成手順)において、ファイル生成部110は、スイッチ部109から渡された映像信号に基づく動画ファイルを生成する。例えば、ファイル生成部110は、スイッチ部109からのYUVの映像信号をH.264へ、音声信号をDolby(登録商標)で圧縮処理し、多重化することにより、AVCHDフォーマットの動画ファイルを生成する。ファイル生成部110は、生成した動画ファイルと、サムネイル生成部108で生成されたサムネイル画像とを関連付けて出力する。
In S 312 (generation procedure), the
以上説明したように、本形態の処理装置100は、映像信号から検出された顔画像の笑顔度が閾値よりも高い期間を含む期間の映像信号から動画ファイルを生成する。このようにすることで、動画ファイルの作成者の負荷を低減しつつ、満足度の高い動画ファイルを生成できるようになる。
As described above, the
なお、上記の実施形態では、笑顔度が閾値よりも高いと判定されたタイミングから、閾値以下になったと判定されたタイミングまでの期間を含む映像信号から動画ファイルを生成する例を中心に説明したが、この例に限らない。たとえば、笑顔度が閾値よりも高いと判定されたタイミングから、所定時間後(たとえば5秒後)までの期間の映像信号から動画ファイルを生成するようにしてもよい。この場合、ファイル生成部110は、判定された笑顔度が閾値よりも高くなってから所定時間後までの期間の映像信号から動画ファイルを生成する。
In the above-described embodiment, the description has focused on an example in which a moving image file is generated from a video signal including a period from a timing at which the smile degree is determined to be higher than the threshold to a timing at which the smile is determined to be lower than the threshold. However, it is not limited to this example. For example, a moving image file may be generated from a video signal in a period from a timing when it is determined that the smile level is higher than a threshold to a predetermined time (for example, after 5 seconds). In this case, the
また、図3のS306で動画記録が開始されてからS302で動画撮影終了と判定された場合、動画ファイルを生成してから処理を終了するようにしてもよい。この場合、サムネイルも生成される。 In addition, when it is determined in S302 that moving image recording has ended after moving image recording is started in S306 of FIG. 3, the processing may be ended after generating a moving image file. In this case, a thumbnail is also generated.
図5は、本実施形態の処理装置100をホームネットワーク400に接続した場合のネットワーク接続構成図である。図5では、処理装置100をデジタルビデオカメラで実現する例について説明するが、これに限らず、動画を撮影可能なデジタルカメラ、ネットワークカメラ、携帯機器などでも実現可能である。また、本形態の処理装置100は、無線LANでホームネットワーク400に接続する例を説明するが、有線接続であっても良い。メディアプレーヤー200は、処理装置100から配信された動画ファイルを受信し、復号化してテレビモニタ201へ出力する。ディスプレイ装置202は、メディアプレーヤー機能を搭載したディスプレイ装置で、例えば、デジタルフォトフレームである。ルーター300は、無線アクセスポイント付きルーターで、処理装置100との間で無線通信を行ない、ホームネットワーク400との接続を仲介する。ルーター300は、インターネット401へのゲートウエイの機能をも持つ。これら、処理装置100、メディアプレーヤー200、テレビモニタ201、ディスプレイ装置202の数は、図5の例のように限定されるものではなく、多数存在してもかまわない。また、ホームネットワーク400に関しても、パケットデータを通すのに十分な帯域があるインターネットやイントラネットなどのネットワークでも良い。ホームネットワーク400への物理的な接続形態として有線だけでなく無線の場合もありうるが、プロトコル的に接続されていれば、物理的な形態にこだわるものではない。また、メディアプレーヤー200、テレビモニタ201、ディスプレイ装置202は同一の装置で実現することも可能である。
FIG. 5 is a network connection configuration diagram when the
上記の構成の場合、処理装置100のファイル生成部110は、生成した動画ファイルのメタデータとして、サムネイル生成部108が生成したサムネイル画像を記録する。また、処理装置100のファイル生成部110は、顔画像の人物認識の機能を持たせることで、動画ファイルのメタデータに、検出された顔画像に対応する人物名等を記録することも可能である。このようにすれば、メディアプレーヤー200で再生する動画ファイルをより簡単に選択できるようになる。
In the case of the above configuration, the
例えば、処理装置100は、UPnP−AV(Universal Plug and Play Audio Visual)の機能であるコンテントディレクトリサービス(CDS:ContentDirectory Service)を利用することにより、例えば、“○○くんの笑顔映像”などのようなタイトルを含めたプレイリストを、予めメディアプレーヤー200へ送信する。これにより、メディアプレーヤー200のユーザは、ホームネットワーク400を介して接続される処理装置100に記録されている動画ファイルの内容を把握できる。
For example, the
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (12)
前記入力された映像信号から検出された人物の特徴量から笑顔度を判定する判定手段と、
前記判定された笑顔度と閾値とを比較する比較手段と、
前記入力された映像信号のうち前記判定された笑顔度が前記閾値よりも高い期間を含む期間の映像信号から動画ファイルを生成する生成手段と
を有することを特徴とする処理装置。 An input means for inputting a video signal;
Determination means for determining a smile degree from a feature amount of a person detected from the input video signal;
A comparing means for comparing the determined smile level with a threshold;
A processing apparatus comprising: generating means for generating a moving image file from a video signal in a period including a period in which the determined smile level is higher than the threshold among the input video signals.
前記生成手段は、前記複数の人物の笑顔度の合計値が前記閾値よりも高い期間を含む期間の映像信号から動画ファイルを生成することを特徴とする請求項1に記載の処理装置。 The comparing means compares a total value of smile levels of a plurality of persons detected from the input video signal with the threshold;
The processing apparatus according to claim 1, wherein the generation unit generates a moving image file from a video signal in a period including a period in which a total value of smile levels of the plurality of persons is higher than the threshold value.
前記生成手段は、前記複数の人物の笑顔度の平均値が前記閾値よりも高い期間の映像信号を含む動画ファイルを生成することを特徴とする請求項1に記載の処理装置。 The comparing means compares an average value of smile levels of a plurality of persons detected from the input video signal with the threshold value,
The processing device according to claim 1, wherein the generation unit generates a moving image file including a video signal of a period in which an average value of smile levels of the plurality of persons is higher than the threshold value.
前記比較手段は、前記指定手段により指定された人物の笑顔度と前記閾値とを比較することを特徴とする請求項1に記載の処理装置。 Designating means for designating a person from a plurality of persons detected from the input video signal;
The processing apparatus according to claim 1, wherein the comparison unit compares a smile level of the person designated by the designation unit with the threshold value.
映像信号を入力する入力工程と、
前記入力された映像信号から検出された人物の特徴量から笑顔度を判定する判定工程と、
前記判定された笑顔度と閾値とを比較する比較工程と、
前記入力された映像信号のうち前記判定された笑顔度が前記閾値よりも高い期間を含む期間の映像信号から動画ファイルを生成する生成工程とを有することを特徴とする動画ファイルの生成方法。 A method of generating a video file performed by a processing device,
An input process for inputting a video signal;
A determination step of determining a smile level from a feature amount of a person detected from the input video signal;
A comparison step of comparing the determined smile level with a threshold;
And a generating step of generating a moving image file from a video signal in a period including a period in which the determined smile level is higher than the threshold value in the input video signal.
映像信号を入力する入力手順と、
前記入力された映像信号から検出された人物の特徴量から笑顔度を判定する判定手順と、
前記判定された笑顔度と閾値とを比較する比較手順と、
前記入力された映像信号のうち前記判定された笑顔度が前記閾値よりも高い期間を含む期間の映像信号からから動画ファイルを生成する生成手順とを実行させることを特徴とするプログラム。 On the computer,
Input procedure for inputting video signal,
A determination procedure for determining a smile degree from a feature amount of a person detected from the input video signal;
A comparison procedure for comparing the determined smile level with a threshold;
A program for executing a generation procedure for generating a moving image file from a video signal in a period including a period in which the determined smile level is higher than the threshold among the input video signals.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010205532A JP2012065013A (en) | 2010-09-14 | 2010-09-14 | Moving image file generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010205532A JP2012065013A (en) | 2010-09-14 | 2010-09-14 | Moving image file generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012065013A true JP2012065013A (en) | 2012-03-29 |
Family
ID=46060310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010205532A Pending JP2012065013A (en) | 2010-09-14 | 2010-09-14 | Moving image file generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012065013A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212008A (en) * | 2017-08-11 | 2017-11-30 | 国立大学法人 千葉大学 | Laughing promotion program and laughing promotion device |
JP2023524411A (en) * | 2020-05-11 | 2023-06-12 | 株式会社ソニー・インタラクティブエンタテインメント | Dynamic vision sensor for visual audio processing |
-
2010
- 2010-09-14 JP JP2010205532A patent/JP2012065013A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212008A (en) * | 2017-08-11 | 2017-11-30 | 国立大学法人 千葉大学 | Laughing promotion program and laughing promotion device |
JP2023524411A (en) * | 2020-05-11 | 2023-06-12 | 株式会社ソニー・インタラクティブエンタテインメント | Dynamic vision sensor for visual audio processing |
JP7634558B2 (en) | 2020-05-11 | 2025-02-21 | 株式会社ソニー・インタラクティブエンタテインメント | Visual audio processing assembly, system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8064656B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
JP4973098B2 (en) | Image processing apparatus, image processing method, and program | |
US9495578B2 (en) | Face detection device, imaging apparatus and face detection method | |
EP1646235B1 (en) | Moving picture recording and reproducing apparatus and method | |
JP5685732B2 (en) | Video extraction device, program, and recording medium | |
US20140153900A1 (en) | Video processing apparatus and method | |
US20080050022A1 (en) | Face detection device, imaging apparatus, and face detection method | |
JP4881210B2 (en) | Imaging apparatus, image processing apparatus, and control method thereof | |
US9591210B2 (en) | Image processing face detection apparatus, method for controlling the same, and program | |
WO2009113280A1 (en) | Image processing device and imaging device equipped with same | |
US8085997B2 (en) | Imaging apparatus and imaging method | |
WO2014100946A1 (en) | Dynamic adjustment device for recording resolution and dynamic adjustment method and terminal | |
JP2014209707A (en) | Device and method for video reproduction | |
CN105744179A (en) | Image Capture Apparatus Capable of Processing Photographed Images | |
JP2008092174A (en) | Imaging apparatus | |
JP2009290318A (en) | Image capturing apparatus and zooming adjustment method | |
US11601582B2 (en) | Image transmission apparatus and image transmission method | |
JP2012065013A (en) | Moving image file generation method | |
JP5839065B2 (en) | Imaging apparatus, imaging method, and program | |
JP2015179969A (en) | Imaging apparatus, imaging method, and program | |
JP2011130378A (en) | Image recording apparatus and image recording method | |
JP6512208B2 (en) | Image processing apparatus, image processing method and program | |
JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
CN116076083A (en) | Imaging device, information processing device, information processing method and program | |
JP2011160329A (en) | Imaging apparatus, moving picture imaging method, and, program |