[go: up one dir, main page]

JP2020074055A - 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム - Google Patents

画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム Download PDF

Info

Publication number
JP2020074055A
JP2020074055A JP2018239678A JP2018239678A JP2020074055A JP 2020074055 A JP2020074055 A JP 2020074055A JP 2018239678 A JP2018239678 A JP 2018239678A JP 2018239678 A JP2018239678 A JP 2018239678A JP 2020074055 A JP2020074055 A JP 2020074055A
Authority
JP
Japan
Prior art keywords
image
specific person
person
video
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018239678A
Other languages
English (en)
Other versions
JP7122243B2 (ja
Inventor
佐藤 誠
Makoto Sato
佐藤  誠
正斗 神崎
Masato Kanzaki
正斗 神崎
寿晃 鈴木
Hisaaki Suzuki
寿晃 鈴木
貴之 篠田
Takayuki Shinoda
貴之 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Publication of JP2020074055A publication Critical patent/JP2020074055A/ja
Application granted granted Critical
Publication of JP7122243B2 publication Critical patent/JP7122243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】映像から精度よく識別対象を識別できる技術を提供すること。【解決手段】映像から特定の特定人物を識別する画像識別装置であって、映像から人物を認識し、認識された人物の映像上の位置を参照し、映像上の特定人物の向きを推定する向き推定部と、特定人物の向き毎に、特定人物を識別するための学習が行われた複数の特定人物識別部と、向き推定部により推定された特定人物の向きに対応する特定人物識別部を選択し、選択した特定人物識別部により、映像から特定人物を識別させる制御部とを有する画像識別装置である。【選択図】図6

Description

本発明は、画像識別装置、分類システム、制作支援システム、それらの方法及びプログラムに関する。
近年、画像認識の技術が発達し、競技の映像から選手を識別する技術が提案されている(例えば、特許文献1)。この技術は、映像中の選手が誰であるかの情報を取得するため、選手の顔、ユニフォームの色、背番号、番組用のスーパー(テロップ)などの特徴を認識に使用している。
特開2002−236913号公報
ところで、映像の人物を識別する際、識別しようとする人物はかならずしも正面を向いているとは限らず、色々な方向を向いているのが通常である。
このような状況において、映像から特定の人物を、高精度で識別できる技術が求められていた。
そこで、本発明は、映像から特定の人物を高精度で識別できる画像識別装置、分類システム、制作支援システム、それらの方法及びプログラムを提供することにある。
本発明の一態様は、映像から特定の特定人物を識別する画像識別装置であって、映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、前記特定人物の向き毎に、前記特定人物を識別するための学習が行われた複数の特定人物識別部と、前記向き推定部により推定された前記特定人物の向きに対応する前記特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させる制御部とを有する画像識別装置である。
本発明の一態様は、映像から特定の特定人物を識別する画像識別装置の教師データを分類する分類システムであって、映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、前記向き推定部により推定された前記特定人物の向きに対応する格納部に、前記特定人物の向きを推定した映像を格納する格納部とを有する分類システムである。
本発明の一態様は、カメラが積載された中継車と、カメラの映像から特定の特定人物を識別する画像識別装置と、特定人物の所定ポイントを通過したことを報告する報告システムとを備えた制作支援システムであって、前記中継車は、中継車のコース上の位置情報を取得する位置情報取得部を有し、前記画像識別装置は、前記中継車に積載されたカメラの映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、前記特定人物の向き毎に、前記特定人物を識別するための学習が行われた複数の特定人物識別部と、前記向き推定部により推定された前記特定人物の向きに対応する前記特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させる制御部とを有し、前記特定人物識別部は、前記向き推定部により推定された前記特定人物の向きを参照し、前記特定人物の位置関係を特定し、前記報告システムは、前記報告の結果を集計する集計部を有し、前記制作支援システムは、前記中継車の位置情報と、前記画像識別装置が中継車に積載されたカメラの映像から識別した前記特定人物の位置関係と、前記報告システムの集計結果とを用いて、前記中継車及び前記特定人物の位置関係を視覚的に表現した画面を生成する画面生成部を有する制作支援システムである。
本発明の一態様は、映像から特定の特定人物を識別する画像識別方法であって、映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定し、前記推定された前記特定人物の向きに対応する特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させ、前記特定人物識別部は、前記特定人物の向き毎に、前記特定人物を識別するための学習が行われたものである画像識別方法である。
本発明の一態様は、映像から特定の特定人物を識別する画像識別装置の教師データを分類する分類方法であって、映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定し、前記推定された前記特定人物の向きに対応する格納部に、前記特定人物の向きを推定した映像を格納する分類方法である。
本発明の一態様は、映像から特定の特定人物を識別する情報処理装置のプログラムであって、映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、前記特定人物の向き毎に、前記特定人物を識別するための学習が行われた複数の特定人物識別部と、前記向き推定部により推定された前記特定人物の向きに対応する前記特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させる制御部として情報処理装置を機能させるプログラムである。
本発明の一態様は、映像から特定の特定人物を識別する画像識別装置の教師データを分類する情報処理装置のプログラムであって、映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、前記向き推定部により推定された前記特定人物の向きに対応する格納部に、前記特定人物の向きを推定した映像を格納する格納部として情報処理装置を機能させるプログラムである。
本発明は、精度良く、映像から特定の人物を識別できる。
図1は第1の実施の形態における映像制作システムの構成例を示すブロック図である。 図2は第1の実施の形態を説明するための図である。 図3は第1の実施の形態を説明するための図である。 図4は第1の実施の形態を説明するための図である。 図5は第1の実施の形態を説明するための図である。 図6は第1の実施の形態における画像識別装置2の構成例を示すブロック図である。 図7は時刻tにおける画像フレームの画像内に存在する人物を検出した場合の概念図である。 図8は時刻t+1における画像フレームの画像内に存在する人物を検出した場合の概念図である。 図9は時刻tにおける画像フレームの画像内に存在する人物を検出した場合の概念図である。 図10は時刻t+1における画像フレームの画像内に存在する人物を検出した場合の概念図である。 図11は注目領域を説明するための図である。 図12は算出された識別対象(クラス)毎の尤度の一例を示した図である。 図13は第1の実施の形態を説明するための図である。 図14は第2の実施の形態における画像識別装置の構成例を示すブロック図である。 図15は第2の実施の形態を説明するための図である。 図16は第2の実施の形態を説明するための図である。 図17は第3の実施の形態における分類システムのブロック図である。 図18は第4の実施の形態のブロック図である。 図19はメタデータの一例を示す図である。 図20は第4の実施の形態を説明するための図である。 図21は第5の実施の形態のブロック図である。 図22は第5の実施の形態を説明するための図である。 図23は第1の実施の形態の変形例2における映像制作システムの構成例を示すブロック図である。 図24は第1の実施の形態の変形例2を説明するための図である。 図25は第5の実施の形態の他の例を説明するための図である。
<第1の実施の形態>
以下、図面を参照して、本発明の第1の実施の形態における画像識別装置及びプログラムを含む映像制作システムを説明する。
本発明の第1の実施の形態では、映像から特定の特定人物を識別する例として、多くの観客(人物)が存在する映像から駅伝の競技中の選手(特定人物)を識別する例を説明する。但し、あくまでも例であり、本発明は本例に限定されるものではない。
図1は、本実施形態における映像制作システムの構成例を示すブロック図である。映像制作システムは、複数のカメラ1a〜1dと、画像識別装置2とを備える。
カメラ1a〜1dは、駅伝の競技中の選手の映像を撮影するカメラである。図1中では、4台のカメラを示している。
ここで、カメラ1aは、図2に示す如く、選手の顔を正面から捉える撮影角度から選手を撮影するカメラである。すなわち、映像上の選手の向きが正面となる映像を撮影するカメラである。カメラ1bは、図3に示す如く、選手を背面から捉える撮影角度から選手を撮影するカメラである。すなわち、映像上の選手の向きが背面となる映像を撮影するカメラである。カメラ1cは、図4に示す如く、選手の顔を左側から捉える撮影角度から選手を撮影するカメラである。すなわち、映像上の選手の向きが左向きとなる映像を撮影するカメラである。カメラ1dは、図5に示す如く、選手の顔を右側から捉える撮影角度から選手を撮影するカメラである。すなわち、映像上の選手の向きが右向きとなる映像を撮影するカメラである。但し、1台のカメラで、選手を様々な撮影角度から撮影するようにしても良い。
図6は、本実施形態における画像識別装置2の構成例を示すブロック図である。画像識別装置2は、向き推定部21と、制御部22と、画像識別部23a〜23dとを備える。
向き推定部21には、カメラ1a〜1dのいずれか一つの映像が入力される。向き推定部21は、入力された映像から人物を認識し、認識された人物の映像上の位置を参照し、映像上の選手(特定人物)の向きを推定する。
ここで、映像上の人物の認識であるが、人物であることが認識できればよく、個々の人物の属性等まで認識できる必要はない。すなわち、映像中の木や車等の存在物と人物とが区別できるような認識ができれば良い。そして、認識した人物の個人を特定するような属性(氏名や、属するチーム等)まで、識別する必要はない。
向き推定部21による向きの推定の具体的な一例を説明すると、向き推定部21は、入力された映像の時刻tにおける画像フレームの画像中から人物を検出する。図7は、時刻tにおける画像フレームの画像内に存在する人物を検出した場合の概念図である。図7、8では、四角で囲んだものが人物であると検出されたものであり、選手、観客にかかわらず、人物であると識別できるものを全て検出している。これらの映像上の人物の認識は、従来の画像認識技術を用いることができる。
次に、向き推定部21の映像上の選手(特定人物)の向きの推定であるが、認識した人物の映像上の位置から特定する。推定する方法のひとつとして、認識された人物の映像上の位置の時間的変化を参照して、映像上の選手(特定人物)の向きを推定する。例えば、マラソンや駅伝等のスポーツでは、選手を一定の大きさで映るように、カメラは選手と一定の距離を保ちながら移動するケースが多い。この場合、選手はカメラと共に移動するが、観客はその場に留まる傾向が高い。
例えば、選手の顔が見える正面方向から撮影した映像において、特定の観客に着目して考えると、時刻tの画像フレームの映像が図7に示すような場合、時刻t+1の画像フレームの映像では、その特定の観客はその場に留まり、図8に示すような映像になる。つまり、選手とカメラとの位置は時刻が進んでも維持されるが、その特定の観客とカメラとの距離は離れるため、その特定の観客は、映像上後方に移動することになる。このような映像では、選手の向きは正面であると推定することができる。
一方、選手の背面方向から撮影した映像において、特定の観客に着目して考えると、時刻tの画像フレームの映像が図9に示すような場合、時刻t+1の画像フレームの映像では、その特定の観客はその場に留まり、図10に示すような映像になる。つまり、選手とカメラとの位置は時刻が進んでも維持されるが、その特定の観客とカメラとの距離は近づくため、その特定の観客は、映像上前方に移動することになる。このような映像では、選手の向きは後ろを向いている(背面)であると推定することができる。
このように、異なる時刻で得られるフレーム画像中の人物に関して同一人物を対応付ける追跡処理を行うことにより、各人物のカメラとの相対的な移動ベクトルを推定することができる。そして、この移動ベクトルを用いることで、選手の向きを推定することができる。移動ベクトルは、対応付けられた異なる時刻に得られた画像内の人物の座標位置の差分ベクトルで表す。
具体的には、ある映像において、少数の人物の移動ベクトルの移動量が小さく、多数の人物の移動ベクトルの方向が映像上後方(遠ざかる方向)であり、その多数の人物の移動ベクトルの移動量が予め定めた閾値よりも移動量が大きい場合は、選手の顔が見える正面方向から撮影した映像であることが推定される。すなわち、選手の向きが正面であると推定される。
一方、ある映像において、少数の人物の移動ベクトルの移動量が小さく、多数の人物の移動ベクトルの方向が映像上前方(近づく方向)であり、その多数の人物の移動ベクトルの移動量が予め定めた閾値よりも移動量が大きい場合は、選手の背面から撮影した映像であることが推定される。すなわち、選手の向きが背面であると推定される。
このような移動ベクトルを用いて、選手の向きの推定を行う。
上述の例は、選手の向きが正面と背面との場合を説明したが、選手の向きが左向き、又は右向きの場合も同様の手法により推定することができる。例えば、選手の向きが左向きの場合は、選手以外の観客は、時間的な移動ベクトルが右方向に大きくなる。一方、選手の向きが右向きの場合は、選手以外の観客は、時間的な移動ベクトルが左方向に大きくなる。このようにして、選手の左右の向きを推定することができる。
また、上述の選手(特定人物)の向きの推定方法は一例であり、映像の種類によって適切な方法を選択する。例えば、バレーボールやサッカーなどのフィールド競技の映像では、上述したマラソンや駅伝等のスポーツとは逆に、選手は移動する一方、観客等のその場に留まる(例えば、観客席に座っている)映像が多い。このような競技では、移動量の大きい移動ベクトルの方向を用いることで、選手の向きを推定することができる。
また、移動ベクトルを用いず、識別した人物の映像上の配置から選手の向きを推定するようにしても良い。例えば、バレーボール等において、ネットが映る正面側から撮影した映像では、ネット越しに、前衛(ネットに近い側)として3人の選手(左からフロントレフト(FL)、フロントセンター(FC)、フロントライト(FR))が立ち、後衛(ネットから遠い側)として3人の選手(左からバックレフト(BL)、バックセンター(BC)、バックライト(BR))が立つ、特徴的な人物の配置パターンが検出される。このような場合は、選手の向きが正面であると推定することができる。一方、ネットを背面にした映像では、ネットを背面にし、前衛(ネットに近い側)として3人の選手(左からフロントレフト(FL)、フロントセンター(FC)、フロントライト(FR))が立ち、後衛(ネットから遠い側)として3人の選手(左からバックレフト(BL)、バックセンター(BC)、バックライト(BR))が立つ人物の配置パターンが検出される。このような場合は、選手の向きが背面であると推定することができる。
このように、選手(特定人物)の向きの推定方法は一例であり、映像の種類によって適切な方法を選択する。
制御部22は、向き推定部21の推定結果を受け、推定された選手の向きに対応する画像識別部23a〜dのいずれかを選択し、選択した画像識別部23a〜dに映像を出力する。
画像識別部23a〜dは、選手の向き毎に、選手を識別するための学習が行われた画像識別部である。
第1の実施の形態では、画像識別部23aは、選手を正面から撮影した映像を用いて、選手を識別するための学習が行われた画像識別部である。別の言い方をすると、選手が映像上で正面を向いている(選手の顔が見える向き)映像を教師データとして学習され、選手が映像上で正面を向いている(選手の顔が見える向き)映像から選手を識別するために用いられる画像識別部である。尚、教師データは、選手が映像上で真正面を向いている(選手の顔が見える向き)映像のみを教師データとするものではなく、選手が正面に近い左右方向を向いている(例えば、左右45度)映像を教師データに加えても良い。
また、画像識別部23bは、選手を背面から撮影した映像を用いて、選手を識別するための学習が行われた画像識別部である。別の言い方をすると、選手が映像上で後ろを向いている(選手の顔が見えない向き)映像を教師データとして学習され、選手が映像上で後ろを向いている(選手の顔が見えない向き)映像から選手を識別するために用いられる画像識別部である。尚、教師データは、選手が映像上で背面を向いている(選手の顔が見えない向き)映像のみを教師データとするものではなく、選手が背面に近い左右方向を向いている(例えば、左右45度)映像を教師データに加えても良い。
また、画像識別部23cは、選手の左横側から撮影した映像を用いて、選手を識別するための学習が行われた画像識別部である。別の言い方をすると、選手が映像上で左方向を向いている(選手の左顔が見える向き)映像を教師データとして学習され、選手が映像上で左方向を向いている(選手の左顔が見える向き)映像から選手を識別するために用いられる画像識別部である。尚、選手が映像上で左方向を向いている(選手の左顔が見える向き)映像のみを教師データとするものではなく、選手が左方向に近い左右方向を向いている(例えば、左右45度)映像を教師データに加えても良い。
また、画像識別部23dは、選手の右横側から撮影した映像を用いて、選手を識別するための学習が行われた画像識別部である。別の言い方をすると、選手が映像上で右方向を向いている(選手の右顔が見える向き)映像を教師データとして学習され、選手が映像上で右方向を向いている(選手の右顔が見える向き)映像から選手を識別するために用いられる画像識別部である。尚、選手が映像上で右方向を向いている(選手の右顔が見える向き)映像のみを教師データとするものではなく、選手が右方向に近い左右方向を向いている(例えば、左右45度)映像を教師データに加えても良い。
画像識別部23a〜dの学習方法としては、パターンマッチングや、ディープラーニング等の手法を用いた機械学習などがある。
ここで、画像識別部23a〜dが識別する識別対象は、例えば、映像中の選手(特定人物)及びその選手の属性である。選手の属性とは、選手個々の氏名や年齢のみならず、例えば、選手の属するチームや大学、役割(野球の場合には投手や野手等、サッカーの場合には、オフェンスやディフェンス)等である。尚、以下の説明では、便宜的に、識別対象をクラスと記載する場合がある。また、カテゴリーとは、選手及びその選手の属性を識別するために用いられる特徴量の種類である。代表的なカテゴリーとしては、例えば、選手の顔、選手が着ているユニフォーム、背番号、タスキ及びゼッケンに記載されている文字等である。
多数の人物が存在する映像から正しく選手及びその選手の属性を識別するためには、どのカテゴリーに着目して識別するかが重要である。例えば、映像中の選手の位置や選手の属するチームを識別するには、ユニフォームの色や模様、タスキ及びゼッケンに記載されている文字等が重要なカテゴリーとなる。一方、個々の選手(氏名等)まで特定したいのならば、各選手の顔のカテゴリーは重要である。更に、どのようなカテゴリーを用い、そのカテゴリーにどのような重みをかけるかは、競技毎に異なる。例えば、競技がマラソン、駅伝である場合、映像中に選手以外の観客等の人物が多数存在しており、選手が履いているシューズ等の特徴量に重点を置いて用いても、類似するシューズを履いている観客がおり、精度よく識別することはできない。一方、競技が野球やサッカー等の場合、映像中に存在する観客等の位置がほぼ決まっているので、観客等を識別前に識別対象から除くことは比較的容易であり、識別自体は主に選手が着ているユニフォームに着目すれば良い。
上記の理由から、画像識別部23a〜dは、競技毎又は識別する選手毎に各カテゴリーに対して異なる重みのパラメータを記憶するように構成しても良い。
上述した画像識別装置2は、例えば、CPU(Central Processing Unit)等のプロセッサと、一時記憶としてのメモリと、不揮発性の記憶装置(EEPROMやハードディスク)とを含み構成される。記憶装置に記憶されたプログラムをメモリに読み出して実行することにより、CPU等のプロセッサが、向き推定部21、制御部22及び画像識別部23a〜dとして機能する。
次に、本発明の実施の形態における画像識別装置及びプログラムを含む映像制作システムの動作を説明する。尚、以下の説明では、競技が駅伝であり、識別する特定人物が選手であり、識別対象が選手の位置及びその選手が所属する大学名である例を説明する。
まず、カメラ1a〜1dは、観客及び選手を含む映像を撮影する。本例では、カメラ1aは、選手の顔を正面から捉える撮影角度から選手を撮影するカメラである。カメラ1bは、選手を背面から捉える撮影角度から選手を撮影するカメラである。カメラ1cは、選手の顔を左側から捉える撮影角度から選手を撮影するカメラである。カメラ1dは、選手の顔を右側から捉える撮影角度から選手を撮影するカメラである。
これらのカメラ1a〜1dのうち、例えば、放送用にいずれかのひとつが選択されて使用される。ここでは、最初に、カメラ1aの映像が使用されるものとする。従って、向き推定部21に入力される映像は、カメラ1aの映像である。
向き推定部21は、カメラ1aの映像を入力し、映像上の選手の向きを推定する。本例では、カメラ1aの映像の時刻tの画像フレームの映像が図7に示すものとする。そして、カメラ1aの映像の時刻t+1の画像フレームの映像が図8に示すものとする。すると、上述したように、特定の観客に着目して考えると、選手とカメラとの位置は時刻が進んでも維持されるが、その特定の観客とカメラとの距離は離れるため、その特定の観客は、映像上後方に移動することになる。このような映像では、選手の向きは正面であると推定される。推定された結果(選手の向きが正面)は、制御部22に出力される。
制御部22は、向き推定部21の推定結果(選手の向きが正面)を受信し、選手及びその選手の属性を識別させる画像識別部を、画像識別部23a〜dのいずれかから選択する。本例では、向き推定部21の推定結果は選手の向きが正面であるので、選手の向きが正面用の画像識別部23aを選択する。そして、カメラ1aの映像を、画像識別部23aに出力する。
画像識別部23aは、カメラ1aの映像から、選手及びその選手の属性を識別する。まず、画像識別部23aは、フレームの画像中から人物を検出する。人物を検出する方法は限定するものではない。図7では、四角で囲んだものが人物であると検出されたものであり、選手、観客にかかわらず、人物であると識別できるものを検出している。尚、向き推定部21により、映像における人物の識別は済んでいるので、これらの人物の識別は向き推定部21の処理を引き継ぎ、人物の識別自体は行わなくても良いように構成することもできる。
次に、画像識別部23aは、検出した人物に関して、図11に示す如く、頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向の位置にL×2Lの大きさの注目領域を設定する。そして、検出された人物が予め学習した識別対象(クラス)、すなわち特定の選手に属する尤度(信頼度)を算出する。画像識別部23aは、算出された尤度が予め定められた閾値より越え、最も尤度が高い人物をそのクラス(特定の選手)に属する人物と判定する。
図12は、算出された識別対象(クラス)毎の尤度を、一例を示した図である。尚、図12の例では、識別した選手の大学名以外にも精度を高めるために、白バイと観客のクラスを設けている。図12の例では、人物Aは観客である確からしさが最も高く、人物Bは大学Yの選手である確からしさが最も高く、人物Cは大学Xの選手である確からしさが最も高く、人物Dは大学Zの選手である確からしさが最も高い。ここで、閾値を0.7とすると、画像識別部23aは、人物Aは観客のクラスに属し、人物Bは大学Yのクラスに属し、人物Cは大学Xのクラスに属し、人物Dは大学Zのクラスに属すると判定する。そして、人物Bの映像上の位置情報(例えば、注目領域を特定する座標情報)と大学名Yとを出力する。同様に、人物Cの映像上の位置情報(例えば、注目領域を特定する座標情報)と大学名Xとを出力する。同様に、人物Dの映像上の位置情報(例えば、注目領域を特定する座標情報)と大学名Zとを出力する。尚、人物Aについては、選手ではないので、出力対象から除外するが、出力することを妨げるものではない。
本例では、選手の向きが正面の場合の識別に特化した画像識別部23aを用いて、選手の顔を正面から捉える撮影角度で選手を撮影した映像から、選手(クラス)を識別しているので、選手の向きを考慮しない画像認識に比較して、高精度に選手(特定人物)を識別することができる。
このようにして、映像から選手及び選手の属性を識別する。識別された選手の位置情報及びその選手の属性(上述した例では大学名)は、映像の加工に用いることができる。例えば、図13に示されるように、識別された選手の大学名の画像をコンピュータグラフィックにより、各識別された選手の上に重畳するようにする。このような形態を取れば、映像制作は、映像を目視により確認して選手を識別する必要がなく、映像制作の自動化を図ることができる。
更に、駅伝では、区間ごとに走者が決まっているので、区間ごとにその区間を走る選手を識別するためのクラスに限定することもできる。更に、識別した選手の大学名が識別できれば、その区間を走る選手名も特定することもでき、その特定した選手名を、映像上の選手の上に表示することもできる。
続いて、時間が経過し、放送用の映像がカメラ1bの映像に切り替えられたものとする。この場合、向き推定部21に入力される映像は、カメラ1bの映像である。
向き推定部21は、カメラ1bの映像を入力し、映像上の選手の向きを推定する。本例では、カメラ1bの映像の時刻tの画像フレームの映像が図9に示すものとする。そして、カメラ1bの映像の時刻t+1の画像フレームの映像が図10に示すものとする。すると、上述したように、特定の観客に着目して考えると、選手とカメラとの位置は時刻が進んでも維持されるが、その特定の観客とカメラとの距離は近づくため、その特定の観客は、映像上前方に移動することになる。このような映像では、選手の向きは後ろを向いている(背面)であると推定される。推定された結果(選手の向きが背面)は、制御部22に出力される。
制御部22は、向き推定部21の推定結果(選手の向きが背面)を受信し、選手及びその選手の属性を識別させる画像識別部を、画像識別部23a〜dのいずれかから選択する。本例では、向き推定部21の推定結果は選手の向きが背面であるので、選手の向きが背面用の画像識別部23bを選択する。そして、カメラ1bの映像を、画像識別部23bに出力する。
画像識別部23bは、カメラ1bの映像から、選手及びその選手の属性を識別する。まず、画像識別部23bは、フレームの画像中から人物を検出する。人物を検出する方法は限定するものではない。図9は、時刻tにおける画像フレームの画像内に存在する人物を検出した場合の概念図である。図9では、四角で囲んだものが人物であると検出されたものであり、選手、観客にかかわらず、人物であると識別できるものを検出している。
画像識別部23bは、上述したと同様に、検出した人物に関して、図11に示す如く、頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向の位置にL×2Lの大きさの注目領域を設定する。そして、検出された人物が予め学習した識別対象(クラス)に属する尤度(信頼度)を算出する。画像識別部23bは、算出された尤度が予め定められた閾値より越え、最も尤度が高い人物をそのクラスに属する人物と判定する。
本例では、選手の向きが背面の場合の識別に特化した画像識別部23bを用いて、選手を背面から捉える撮影角度で選手を撮影した映像から、選手(クラス)を識別しているので、選手の向きを考慮しない画像認識に比較して、高精度に選手(特定人物)を識別することができる。
尚、向き推定部21の向きの判定によっては、選手(特定人物)の向きが確定することができない場合がある。例えば、選手が真正面を向いておらず、多少左方向を向いている場合等である。この場合、向き推定部21は、選手の向きが正面であるとの判定結果と、選手の向きが左方向であるとの判定結果が出力される可能性がある。このような場合、制御部22は、正面用の画像識別部23aと左方向の画像識別部23cとの双方を選択し、画像識別部23aと画像識別部23cとに画像識別を行わせるようにしても良い。
更に、向き推定部21が選手(特定人物)の向きの確からしさ(例えば、正面の向きの確からしさ=0.7、左向きの確からしさ=0.3等)に基づいて、確からしさが高い向き用の画像識別部を選択するようにしても良い。
第1の実施の形態では、入力される映像から映像中の選手(特定人物)の向きを推定し、各選手(特定人物)の向きの識別に特化した画像認識部により、その映像から選手(特定人物)を識別しているので、選手(特定人物)の向きを考慮しない画像認識に比較して、高精度に選手(特定人物)を識別することができる。
<第1の実施の形態の変形例1>
次に、上述した第1の実施の形態の変形例1を説明する。
上述した第1の実施の形態では、向き推定部21が選手の向きを推定する際に、認識された人物の移動ベクトルとの相違から、選手の向きを推定している。
そこで、第1の実施の形態の変形例1では、認識された人物の移動ベクトルを用いて、観客(人物)と選手(特定人物)とを区別する。
具体的には、向き推定部21は、移動ベクトルの移動量と、各フレーム単位で算出された人物とを関連付けて記憶していく。そして、移動ベクトルの移動量と各フレーム単位で算出された人物とが関連付けられた情報を、制御部22に出力する。
制御部22では、向き推定部21の向きの推定結果を受信し、選手及びその選手の属性を識別させる画像識別部を、画像識別部23a〜dのいずれかから選択する。そして、選択した画像識別部23a〜dに、映像とともに、移動ベクトルの移動量と各フレーム単位で算出された人物とが関連付けられた情報を出力する。
画像識別部23a〜dは、移動ベクトルの移動量と各フレーム単位で算出された人物とが関連付けられた情報に基づいて、移動ベクトルの移動量が予め定めた値以上である人物を観客とし、その人物を識別対象(特定人物)の候補から除外し、残った人物を識別対象(特定人物)として識別する。
このようにすれば、観客(人物)と選手(特定人物)とを精度よく識別可能であり、結果として、識別対象の選手(特定人物)を高精度で識別することができる。
<第1の実施の形態の変形例2>
次に、上述した第1の実施の形態の変形例2を説明する。
上述した第1の実施の形態では、各カメラ1a〜1dは、基本的に、選手とともに移動するカメラとして説明した。しかし、カメラの中には選手とともに移動せず、固定されたカメラもある(例えば、定点カメラ)。そこで、第1の実施の形態の変形例2では、カメラが選手とともに移動しない定点カメラの場合を説明する。
図23は第1の実施の形態の変形例2における映像制作システムの構成例を示すブロック図である。第1の実施の形態の変形例2における映像制作システムは、カメラ100と、向き推定部101と、制御部22と、画像識別部23a〜23dとを備える。
第1の実施の形態の変形例2が第1の実施の形態と異なる点は、カメラ100がある場所に設置されて撮影方向も固定された定点カメラであることと、向き推定部101による向き推定の方法が向き推定部21と異なる点である。
ここで、カメラ100は道がU字にカーブする道のU字の頂点に相当する位置に設置され、カメラ100の撮影方向の中心はU字の頂点からU字の中心方向であり、カメラ100の画角はU字の道の全体を撮影できるものとする。
すると、カメラ100は、例えば、図24のような映像を撮影することができる。具体的には、U字にカーブの左上方向の位置(地点A)から選手が地点Bに移動し、U字にカーブの頂点である地点Cに到達する映像である。更に、地点Cから右上方向の地点Dに移動し、最後に右上方向の地点Eに到達する映像である。
このような映像の場合、定点カメラであるカメラ100は選手と共に移動しないので、上述した第1の実施の形態とは逆の状況が起きる。すなわち、カメラ100が撮影した映像では、選手は移動するが、観客はその場に留まるため、時刻が異なるフレーム間で選手の移動が検出でき、観客の移動は検出できない。更に、移動が検出できる人物において、その移動の方向(移動ベクトル)も異なる。
図24を用いて具体的に説明すると、地点Aでは観客の移動は検出できず、選手の画面下方向の移動ベクトルが検出できる。また、地点Bでは観客の移動は検出できず、選手の画面右下方向の移動ベクトルが検出できる。また、地点Cでは観客の移動は検出できず、選手の画面右方向の移動ベクトルが検出できる。また、地点Dでは観客の移動は検出できず、選手の画面右上方向の移動ベクトルが検出できる。また、地点Eでは観客の移動は検出できず、選手の画面上方向の移動ベクトルが検出できる。
このように、カメラ100の映像の特殊性に鑑みて、向き推定部101はカメラ100が撮影した映像の選手の向きを推定する。
具体的には、向き推定部101は、選手が地点Aに存在している映像では、選手の画面下方向の移動ベクトルを検出することにより、選手の向きは正面であると推定する。
また、向き推定部101は、選手が地点Bに存在している映像では、選手の画面右下方向の移動ベクトルを検出し、そのベクトルの方向と所定の閾値とを比較する。そして、所定の閾値と比較して、ベクトルの方向が下方向に近いならば、選手の向きは正面であると推定する。一方、所定の閾値と比較して、ベクトルの方向が右方向に近いならば、選手の向きは右横方向であると推定する。
また、向き推定部101は、選手が地点Cに存在している映像では、選手の画面右方向の移動ベクトルを検出し、選手の向きは右方向(右向き)であると推定する。
また、向き推定部101は、選手が地点Dに存在している映像では、選手の画面右上方向の移動ベクトルを検出し、そのベクトルの方向と所定の閾値とを比較する。そして、所定の閾値と比較して、ベクトルの方向が上方向に近いならば、選手の向きは背面であると推定する。一方、所定の閾値と比較して、ベクトルの方向が右方向に近いならば、選手の向きは右横方向であると推定する。
また、向き推定部101は、選手が地点Eに存在している映像では、選手の画面上方向の移動ベクトルを検出し、選手の向きは背面であると推定する。
そして、制御部22は、向き推定部21の推定結果を受け、推定された選手の向きに対応する画像識別部23a〜dのいずれかを選択し、選択した画像識別部23a〜dに、カメラ100の映像を出力する。
尚、向き推定部101の移動ベクトルの検出は、映像の所定フレーム分、例えば、5フレーム毎に検出を行う。
このようにすれば、設置位置及び撮影方向が固定されたカメラの映像であっても、精度よく人物の向きを推定することができる。
更に、本第1の実施の形態の変形例2の説明では、正面用の画像識別部23aと、背面用の画像識別部23bと、左横側用の画像識別部23cと、右横側用の画像識別部23dとを用いたが、これらに加えて、正面と右横側との間の45度方向を向いている人物の映像を教師データで学習した画像識別部と、背面と右横側との間の45度方向を向いている人物の映像を教師データで学習した画像識別部とを用意し、選手が地点B、地点Dに存在している映像は、それらの画像識別部に識別させても良い。このようにすれば、更なる認識精度を得ることができる。
また、上述した第1の実施の形態の変形例1と同様に、認識された人物の移動ベクトルを用いて、観客(人物)と選手(特定人物)とを区別することも可能である。
上述したように、定点カメラで撮影された映像では、所定フレーム間の映像で、移動が検出できる人物が選手であり、移動を検出できない人物が観客である。このような性質を利用し、画像識別部23a〜dは、移動ベクトルの移動量と各フレーム単位で算出された人物とが関連付けられた情報に基づいて、移動ベクトルの移動量が予め定めた値以下である人物を観客とし、その人物を識別対象(特定人物)の候補から除外し、残った人物を識別対象(特定人物)として識別する。
このようにすれば、観客(人物)と選手(特定人物)とを精度よく識別可能であり、結果として、識別対象の選手(特定人物)を高精度で識別することができる。
<第2の実施の形態>
第2の実施の形態は、識別された識別対象の映像上の大きさによって、識別対象の位置関係を識別する画像識別装置及びプログラムを含む映像制作システムを説明する。
2次元の映像では、手前にあるものが大きく映り、遠方にあるものほど小さく映る。これは競技を撮影している場合も同様である。例えば、マラソンや駅伝では、選手を正面から撮影する場合が多い。この場合、手前を走る選手ほど映像上で大きく映り、後方の選手ほど映像上で小さく映る。
第2の実施の形態では、このような性質を利用し、識別した識別対象の位置関係を識別する。
図14は、第2の実施形態における画像識別装置2の構成例を示すブロック図である。第2の実施形態における画像識別装置2は、第1の実施の形態における画像識別装置2に加えて、位置関係識別部24を備える。
位置関係識別部24は、識別した識別対象の映像上の大きさから各識別対象の位置関係を識別する。上述した第1の実施の形態では、識別対象の識別のため、検出した人物に関して、図11に示す如く、頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向にL×2Lの注目領域を設定した。
位置関係識別部24は、識別した識別対象の映像上の大きさの指標として、この注目領域の大きさに着目する。
更に、位置関係識別部24は、注目領域の大きさに加えて、向き推定部21が推定した選手の向き(特定人物)も着目する。
例えば、図15の例は、選手の向きが正面の場合の映像である。そして、本映像では、人物Dの注目領域が最も大きく、人物Cの注目領域が最も小さい。従って、選手の順位は、人物D(大学Zの選手)、人物B(大学Yの選手)、人物C(大学Xの選手)の順であり、その順番で走行していることが識別できる。一方、図16に示すように、選手の向きが背面の場合の映像である場合、図15と同様な人物の位置状況であっても、注目領域が小さい程、選手の順位が高いことになり、選手の順位は、人物C(大学Xの選手)、人物B(大学Yの選手)、人物D(大学Zの選手)の順であり、その順番で走行していることが識別できる。
このように、識別された選手の映像上の大きさと、識別された選手の向きとを考慮することにより、撮影方向に関係なく、識別した選手の映像上の位置関係を識別することができる。
尚、上述した例では、識別した選手の注目領域に着目して位置関係を識別したが、これに限られない。例えば、選手自体の映像内での選手の大きさでも良い。また、他の方法として、各選手が共通して装着している装着具に着目する方法がある。例えば、ゼッケン等は、選手間で共通の大きさなので、好適である。
更に、本例の応用例として、位置関係を識別するに用いた大きさから、相対的な距離も求めることが可能である。競技の撮影に用いられカメラには撮影した映像とともに、画角などの撮影情報を取得することができる。従って、画角などに対応付けて位置関係を識別するに用いた大きさと距離との関係を、予め学習しておけば、選手(識別対象)間の距離も算出することが可能である。
更に、求められた選手間の距離を用いて、選手の位置関係の変化を予測することも可能である。例えば、選手間の距離が時間とともに小さくなる場合は、後方の選手が先行する選手を追い抜く可能性がある。このような場合、警告を発することにより、制作側に選手の位置関係の変化を知らせることができる。
<第3の実施の形態>
第3の実施の形態を説明する。
第3の実施の形態は、上述した第1の実施の形態における画像識別部23a〜dを学習させるための教師データの分類システムである。
上述した向き推定部21は、入力された映像から人物を認識し、認識された人物の映像上の位置を参照し、映像上の選手(特定人物)の向きを推定するものである。この向き推定部21を用いることにより、画像識別部23a〜dに学習させる映像の教師データを、選手の向き毎に分類することができる。
図17は、第3の実施の形態における分類システムのブロック図である。
向き推定部21は、上述した第1の実施の形態で説明した向き推定部21と同様な動作を行う。本例では、上述した第1の実施の形態と同様に、映像から選手(特定人物)の向きとして、正面、背面、左向き及び右向きのいずれかを推定する。
格納部30は、向き推定部21の推定結果を受信し、正面、背面、左向き及び右向きのいずれかの教師データ格納フォルダ31a〜31dに、その映像を格納する。
このようにすることにより、画像識別部23a〜dを学習させるための教師データを、自動的に分類することができる。
<第4の実施の形態>
第4の実施の形態を説明する。
図18は第4の実施の形態のブロック図である。
第4の実施の形態は、第1及び第2の実施の形態に加えて、メタデータ生成部40と、メタデータ格納部41と、シーン検索部42とを備える。
メタデータ生成部40は、各画像識別部23a〜dの識別結果(選手(特定人物)の属性、選手(特定人物)の映像上の位置等)、及び位置関係識別部24の識別結果(選手(特定人物)の位置関係等)と、カメラ1a〜1dの映像とを関連付けたメタデータを生成する。
各画像識別部23a〜d及び位置関係識別部24は、所定の時間間隔(例えば、1秒間隔)で、識別結果を出力している。そこで、メタデータ生成部40は、所定の時間間隔で受け取った識別結果と、識別を行った映像を識別する映像識別情報、識別結果に対応する映像のタイムコードとを関連付けてメタデータ格納部41に格納する。メタデータ格納部41は、メタデータのみならず、そのメタデータに対応する各映像も格納するようにしても良い。
具体的に説明すると、各画像識別部23a〜dは、図12に示したような各選手(特定人物)に対する識別結果を出力している。更に、注目領域を設定する際に、認識した選手(特定人物)の首元(首中点)の座標及び顔の長さ(L)を算出しているので、これらの情報も出力可能である。また、位置関係識別部24は、認識した各選手(特定人物)の位置関係が出力できる。そこで、メタデータ生成部40は、識別した各選手(特定人物)が各大学に属する信頼度と、識別した各選手(特定人物)の首元(首中点)の座標及び顔の長さ(L)と、その選手の順位と、識別を行った映像の映像識別情報と、その映像のタイムコードとを関連付けてメタデータ格納部41に格納する。尚、識別した各選手(特定人物)が各大学に属する信頼度と、識別した各選手(特定人物)の首元(首中点)の座標及び顔の長さ(L)と、その選手の順位と、その識別の対象となった映像の映像識別情報と、映像のタイムコードとを、以下、メタデータの各インデックスと記載する。
図19はメタデータの一例を示す図である。図19の例では、インデックスとして、識別した各選手(特定人物)が各大学に属する信頼度と、識別した各選手(特定人物)の首元(首中点)の座標及び顔の長さ(L)と、その選手の順位と、その識別の対象となった映像の映像識別情報と、そのタイムコードとがあり、識別した各選手(特定人物)が各大学に属する信頼度と、識別した各選手(特定人物)の首元(首中点)の座標及び顔の長さ(L)と、その選手の順位と、識別を行った映像の映像識別情報と、その映像のタイムコードとが関連付けられ、メタデータが構成されている例である。例えば、人物Bでは、各大学に属する信頼度(大学X=0.2、大学Y=0.9、大学Z=0.1、・・・)と、首元の座標(=(781,450))と、顔の長さ(L)(=5)と、順位(=2)と、映像識別情報(カメラ1)と、タイムコード(=02:10:01)とが関連付けられ、メタデータが構成されている。尚、図19の例では、識別された人物のうち、選手以外の観客等は除外している。
シーン検索部42は、所定の検索条件に該当するシーンを、メタデータ格納部41に格納されているメタデータを用いて検索する。検索条件は、メタデータの各インデックスから検索することができる条件であれば良い。
例えば、検索条件として、「大学X、大学Yの選手が映っているシーン」がシーン検索部42に設定された場合、シーン検索部42はメタデータ格納部41に格納されているメタデータのインデックスのうち、映像識別情報が同一であり、「大学X」及び「大学Y」の信頼度が所定の閾値(例えば、0,7)よりも大きい条件に該当するタイムコードを検索する。そして、該当する映像識別情報のタイムコードに対応する映像のシーンを抽出する。図19の例において、「大学X、大学Yの選手が映っているシーン」の条件に該当するシーンは、図20に示すように、「カメラ1の映像」のタイムコード「02:10:01」のシーンである。そこで、「カメラ1の映像」のタイムコード「02:10:01」のシーンを、「カメラ1の映像」から抽出し、そのシーンを表示する。尚、図20の例は、「大学X、大学Yの選手が映っているシーン」を条件としているので、大学X及び大学Yの選手が映っていれば、他の大学の選手も映っても良い例を示している。しかし、検索条件を「大学X、大学Yの選手のみが映っているシーン」とすれば、大学X及び大学Yの選手のみが映っているシーンを検索することも可能である。
また、検索条件として、「大学Zの選手が大学Yの選手を追い抜くシーン」等の条件も設定することが可能である。この場合、上述のインデックに加えて、順位のインデックスを参照し、大学Zの信頼度が高い人物の順位と大学Yの信頼度が高い人物の順位とが入れ替わるタイムコードの前後のシーンを検索すれば良い。
第4の実施の形態は、識別結果を映像のメタデータ化することにより、特定の条件に該当する映像のシーンを検索することができる。
<第5の実施の形態>
第5の実施の形態を説明する。
第5の実施の形態は、第2の実施の形態における識別対象の位置関係を識別する画像識別装置と、距離計システムと、マラソン速報オンラインシステムとを利用した制作支援システムについて説明する。
まず、距離計システムとマラソン速報オンラインシステムとを説明する。
カメラが積載された中継車には、距離計が設けられている。この距離計は、中継車に設けられているセンサにより計測された走行距離と、GPSを用いた測位システムから得られる中継車の位置とを用いて、中継車のマラソンのコース上の距離を得ることが出来る。
一方、マラソン速報オンラインシステムは、マラソンのコース上の所定のポイントに人員を配置し、その人員がそのポイントを通過する選手(大学名)を確認し、集計システムに報告する。集計システムでは、各ポイントから報告される選手(大学名)の通過状況を集計し、各選手(大学名)が存在するおよその位置と順位とを推定する。このようなマラソン速報オンラインシステムは、従来から利用されていいたものである。
図21は、第5の実施の形態のブロック図である。
図21中、51はカメラ1aを積載した1号中継車であり、52はカメラ1bを積載した2号中継車であり、53はカメラ1cを積載した3号中継車であり、54はカメラ1dを積載した4号中継車であり、55は画像識別装置、56はマラソン速報オンラインシステムであり、57は位置関係特定部であり、58はディスプレイである。
中継車51から中継車54には、上述した距離計が設けられている。この距離計は、中継車に設けられているセンサにより計測された走行距離と、GPSを用いた測位システムから得られる中継車の位置とを用いて、中継車のマラソンのコース上の距離を算出し、位置関係特定部57に出力する。また、中継車51から中継車54に積載されたカメラ1aからカメラ1dの撮影映像は、画像識別装置55に出力される。
画像識別装置55は、第2の実施の形態において説明した画像識別装置である。映像の識別結果及び位置関係は、位置関係特定部57に出力される。
マラソン速報オンラインシステム56は、マラソンのコース上の所定のポイントに配置された人員から報告される選手(大学名)の通過状況を集計システムが集計し、その結果を位置関係特定部57に出力する。
次に、第5の実施の形態の動作を、具体例を用いて説明する。
まず、本動作例では、AA大学からJJ大学までの合計12校の選手が走行する駅伝を想定する。そして、現在、AA大学からJJ大学の選手は、区間が20kmの6区を走行しており、各中継車51から中継車54は、6区を走行しているものとする。
中継車51(1号車)は、距離計より、6区の19.5kmを走行している。そして、中継車51(1号車)に積載されているカメラ1aは、先頭を走行する選手を撮影している。中継車52(2号車)は、距離計より、6区の19.2kmを走行している。そして、中継車52(2号車)に積載されているカメラ1bは、走行する選手を撮影している。中継車53(3号車)は、距離計より、6区の18.6kmを走行している。そして、中継車53(3号車)に積載されているカメラ1cは、走行する選手を撮影している。中継車54(4号車)は、距離計より、6区の17.8kmを走行している。そして、中継車54(4号車)に積載されているカメラ1dは、走行する選手を撮影している。、距離計より得られた各中継車51から54が位置する距離は、位置関係特定部57に出力される。また、各中継車51から54のカメラ1aからカメラ1dにより撮影された映像は、画像識別装置55に出力される。
画像識別装置55は、カメラ1aで撮影された映像から、選手とその選手の映像上の位置関係を識別する。ここで識別された選手は、AA大学の選手のみであるとする。この識別結果は、位置関係特定部57に出力される。
画像識別装置55は、カメラ1bで撮影された映像から、選手とその選手の映像上の位置関係を識別する。ここで識別された選手はEE大学の選手及びCC大学の選手であり、その位置関係は、EE大学の選手が先頭であり、次順位がCC大学の選手であるものとする。この識別結果は、位置関係特定部57に出力される。
画像識別装置55は、カメラ1cで撮影された映像から、選手とその選手の映像上の位置関係を識別する。ここで識別された選手は、BB大学の選手、II大学の選手及びGG大学の選手であり、その位置関係は、BB大学の選手(先頭)、II大学の選手、GG大学の選手の順であるものとする。この識別結果は、位置関係特定部57に出力される。
画像識別装置55は、カメラ1dで撮影された映像から、選手とその選手の映像上の位置関係を識別する。ここで識別された選手は、FF大学の選手のみであるとする。この識別結果は、位置関係特定部57に出力される。
マラソン速報オンラインシステム56では、各ポイントから以下の報告を受けているものとする。尚、選手の記載順序は、各ポイントの通過順序を示している。
(1)19.5km地点
AA大学の選手の通過
(2)19.0km地点
AA大学の選手、EE大学の選手、CC大学の選手の通過
(3)18.5km地点
AA大学の選手、EE大学の選手、CC大学の選手、KK大学の選手、BB大学の選手、II大学の選手、GG大学の選手の通過
(4)18.0km地点
AA大学の選手、EE大学の選手、CC大学の選手、KK大学の選手、BB大学の選手、II大学の選手、GG大学の選手、DD大学の選手、LL大学の選手、HH大学の選手の通過
(5)17.5km地点
AA大学の選手、EE大学の選手、CC大学の選手、KK大学の選手、BB大学の選手、II大学の選手、GG大学の選手、DD大学の選手、LL大学の選手、HH大学の選手、FF大学の選手、JJ大学の選手の通過
位置関係特定部57は、各中継車51から54が位置する距離と、画像識別装置55が識別した大学の選手及び位置関係(順位)と、マラソン速報オンラインシステム56からの集計結果とを受け、ディスプレイ58に表示する選手走行位置画面を生成する。
位置関係特定部57は、まず、各中継車51から54の距離計より、各中継車が以下の位置を走行していることを判別する。
(1)中継車51(1号車) 6区の19.5kmを走行
(2)中継車52(2号車) 6区の19.2kmを走行
(3)中継車53(3号車) 6区の18.6kmを走行
(4)中継車54(4号車) 6区の17.8kmを走行
以上から、各中継車の位置関係が判別できる。
(1)先頭の中継車が中継車51(1号車)であること
(2)中継車52(2号車)は2番目を走行しており、中継車51(1号車)と中継車52(2号車)との距離が30mであること
(3)中継車53(3号車)は3番目を走行しており、中継車52(2号車)と中継車53(3号車)との距離が600mであること
(4)中継車54(4号車)は4番目を走行しており、中継車53(3号車)と中継車54(4号車)との距離が800mであること
更に、カメラ1aから1dの映像から、画像識別装置55が識別した結果は、以下の通りのものであるとする。
(1)カメラ1aの映像からの識別結果
AA大学の選手
(2)カメラ1bの映像からの識別結果
EE大学の選手、CC大学の選手(順位は記載順)
(3)カメラ1cの映像からの識別結果
BB大学の選手、II大学の選手、GG大学の選手(順位は記載順)
(4)カメラ1dの映像からの識別結果
FF大学の選手
以上の結果より、図22で示される選手走行位置画面のうち、距離計システム及び画像識別装置の結果を生成することができる。
図22の選手走行位置画面のうち距離計システムの部分では、中継車51(1号車)、中継車52(2号車)、中継車53(3号車)及び中継車54(4号車)の区間内での距離と、各中継車間の距離と、トップ(中継車51(1号車))との差とを表示している。
また、図22の選手走行位置画面のうち画像識別装置55が識別した各カメラの映像の識別結果が表示されている。尚、画像識別装置の結果の画面の選手の大学名は、上から順位順に表示している。
続いて、マラソン速報オンラインシステムの部分の画面であるが、画像識別装置55により検出できなかった大学の選手を、位置関係特定部57は選別する。ここでは、画像識別装置55により検出できなかった大学の選手は、KK大学の選手、DD大学の選手、LL大学の選手、HH大学の選手、JJ大学の選手である。これらの選手の位置は、マラソン速報オンラインシステムの集計結果より、以下のように推定できる。
(1)KK大学の選手
19.0km地点と18.5km地点との間を走行中
(2)DD大学の選手
18.5km地点と18.0km地点との間を走行中
(3)LL大学の選手
18.5km地点と18.0km地点との間を走行中
(4)HH大学の選手、
18.5km地点と18.0km地点との間を走行中
(5)JJ大学の選手
18.0km地点と17.5km地点との間を走行中
以上の結果より、以下のことがわかる。
(1)中継車51(1号車)と中継車52(2号車)との間に位置する選手
なし
(2)中継車52(2号車)と中継車53(3号車)との間に位置する選手
KK大学の選手
(3)中継車53(3号車)と中継車54(4号車)との間に位置する選手
DD大学の選手、LL大学の選手、HH大学の選手
(4)中継車54(4号車)より後ろに位置する選手
JJ大学の選手
以上より、図22の選手走行位置画面のうちマラソン速報オンラインシステムの部分の画面を作成することができる。尚、マラソン速報オンラインシステムの画面の選手の大学名は、上から順位順に表示している。
尚、図22の例では、マラソン速報オンラインシステムの部分を、中継車の存在する位置にあわせて表示するようにした。しかし、図25のように、マラソン速報オンラインシステムで得られる全大学の順位を表示するようにしても良い。
更に、ディスプレイ58に表示する選手走行位置画面を、Web上に公開し、関係者が見られるようにしても良い。この際、チャット機能を設け、各関係者がコミュニケーションを取れるようにしても良い。図25の例では、選手走行位置画面の下にチャット画面を設け、各関係者の発言を表示できるようにしている。例えば、映像を選択するXXXがDDD大学の選手の映像がほしい場合、4号車に対して移動を伝える。4号車では、選手走行位置画面見て、FF大学の選手の後ろに位置するDD大学の選手の位置まで移動することができ、その移動の了解を伝えることができる。
第5の実施の形態によれば、各中継車の距離情報と、画像識別装置の識別結果及び位置関係と、マラソン速報オンラインシステムの集計結果とを連携することにより、中継車や参加選手の位置関係を視覚的に把握することができ、マラソン等を中継する製作者にとって有益な情報を提供することができる。
以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1a〜1d カメラ
2 画像識別装置
21 向き推定部
22 制御部
23a〜23d 画像識別部
24 位置関係識別部
30 格納部
31a〜31d 教師データ格納フォルダ
40 メタデータ生成部
41 メタデータ格納部
42 シーン検索部
51〜54 中継車
55 画像識別装置
56 マラソン速報オンラインシステム
57 位置関係特定部
58 ディスプレイ
100 カメラ
101 向き推定部

Claims (14)

  1. 映像から特定の特定人物を識別する画像識別装置であって、
    映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、
    前記特定人物の向き毎に、前記特定人物を識別するための学習が行われた複数の特定人物識別部と、
    前記向き推定部により推定された前記特定人物の向きに対応する前記特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させる制御部と
    を有する画像識別装置。
  2. 前記向き推定部は、認識された人物の前記映像上の位置の時間的変化を参照し、前記映像上の前記特定人物の向きを推定する
    請求項1に記載の画像識別装置。
  3. 前記向き推定部は、前記映像を撮影するカメラの移動可否に応じて、認識された人物の前記映像上の位置の時間的変化を参照し、前記映像上の前記特定人物の向きを推定する
    請求項2に記載の画像識別装置。
  4. 前記特定人物識別部は、前記向き推定部による、認識された人物の前記映像上の位置を参照し、認識された人物を、前記特定人物と、前記特定人物以外の人物とを区別する
    請求項1から請求項3のいずれかに記載の画像識別装置。
  5. 前記特定人物識別部は、前記向き推定部により推定された前記特定人物の向きを参照し、前記特定人物の位置関係を特定する
    請求項1から請求項4のいずれかに記載の画像識別装置。
  6. 前記向き推定部は、前記特定人物の向きとして、正面、背面、左右のいずれかを推定する
    請求項1から請求項5のいずれかに記載の画像識別装置。
  7. 前記特定人物識別部の識別結果と、前記識別結果の識別を行った映像の時刻情報とを、関連付け、前記映像のメタデータを生成するメタデータ生成部を有する
    請求項1から請求項6のいずれかに記載の画像識別装置。
  8. 前記メタデータを参照し、所定の検索条件に合致する映像のシーンを検索するシーン検索部を有する
    請求項1から請求項7のいずれかに記載の画像識別装置。
  9. 映像から特定の特定人物を識別する画像識別装置の教師データを分類する分類システムであって、
    映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、
    前記向き推定部により推定された前記特定人物の向きに対応する格納部に、前記特定人物の向きを推定した映像を格納する格納部と
    を有する分類システム。
  10. カメラが積載された中継車と、カメラの映像から特定の特定人物を識別する画像識別装置と、特定人物の所定ポイントを通過したことを報告する報告システムとを備えた制作支援システムであって、
    前記中継車は、
    中継車のコース上の位置情報を取得する位置情報取得部を有し、
    前記画像識別装置は、
    前記中継車に積載されたカメラの映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、前記特定人物の向き毎に、前記特定人物を識別するための学習が行われた複数の特定人物識別部と、前記向き推定部により推定された前記特定人物の向きに対応する前記特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させる制御部とを有し、前記特定人物識別部は、前記向き推定部により推定された前記特定人物の向きを参照し、前記特定人物の位置関係を特定し、
    前記報告システムは、前記報告の結果を集計する集計部を有し、
    前記制作支援システムは、前記中継車の位置情報と、前記画像識別装置が中継車に積載されたカメラの映像から識別した前記特定人物の位置関係と、前記報告システムの集計結果とを用いて、前記中継車及び前記特定人物の位置関係を視覚的に表現した画面を生成する画面生成部を
    有する制作支援システム。
  11. 映像から特定の特定人物を識別する画像識別方法であって、
    映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定し、
    前記推定された前記特定人物の向きに対応する特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させ、
    前記特定人物識別部は、前記特定人物の向き毎に、前記特定人物を識別するための学習が行われたものである
    画像識別方法。
  12. 映像から特定の特定人物を識別する画像識別装置の教師データを分類する分類方法であって、
    映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定し、
    前記推定された前記特定人物の向きに対応する格納部に、前記特定人物の向きを推定した映像を格納する
    分類方法。
  13. 映像から特定の特定人物を識別する情報処理装置のプログラムであって、
    映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、
    前記特定人物の向き毎に、前記特定人物を識別するための学習が行われた複数の特定人物識別部と、
    前記向き推定部により推定された前記特定人物の向きに対応する前記特定人物識別部を選択し、選択した特定人物識別部により、前記映像から前記特定人物を識別させる制御部
    として情報処理装置を機能させるプログラム。
  14. 映像から特定の特定人物を識別する画像識別装置の教師データを分類する情報処理装置のプログラムであって、
    映像から人物を認識し、認識された人物の前記映像上の位置を参照し、前記映像上の前記特定人物の向きを推定する向き推定部と、
    前記向き推定部により推定された前記特定人物の向きに対応する格納部に、前記特定人物の向きを推定した映像を格納する格納部
    として情報処理装置を機能させるプログラム。
JP2018239678A 2018-03-05 2018-12-21 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム Active JP7122243B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018038868 2018-03-05
JP2018038868 2018-03-05
JP2018208445 2018-11-05
JP2018208445 2018-11-05

Publications (2)

Publication Number Publication Date
JP2020074055A true JP2020074055A (ja) 2020-05-14
JP7122243B2 JP7122243B2 (ja) 2022-08-19

Family

ID=70610146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018239678A Active JP7122243B2 (ja) 2018-03-05 2018-12-21 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7122243B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236913A (ja) * 2001-02-07 2002-08-23 Nippon Hoso Kyokai <Nhk> 自動人物特定装置
JP2008040781A (ja) * 2006-08-07 2008-02-21 Matsushita Electric Ind Co Ltd 被写体照合装置および被写体照合方法
JP2017085519A (ja) * 2015-10-30 2017-05-18 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
WO2017154655A1 (ja) * 2016-03-07 2017-09-14 日本電気株式会社 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体
JP2018022416A (ja) * 2016-08-05 2018-02-08 日本放送協会 顔方向推定装置及びそのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236913A (ja) * 2001-02-07 2002-08-23 Nippon Hoso Kyokai <Nhk> 自動人物特定装置
JP2008040781A (ja) * 2006-08-07 2008-02-21 Matsushita Electric Ind Co Ltd 被写体照合装置および被写体照合方法
JP2017085519A (ja) * 2015-10-30 2017-05-18 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
WO2017154655A1 (ja) * 2016-03-07 2017-09-14 日本電気株式会社 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体
JP2018022416A (ja) * 2016-08-05 2018-02-08 日本放送協会 顔方向推定装置及びそのプログラム

Also Published As

Publication number Publication date
JP7122243B2 (ja) 2022-08-19

Similar Documents

Publication Publication Date Title
Hu et al. Joint monocular 3D vehicle detection and tracking
Shao et al. Crowdhuman: A benchmark for detecting human in a crowd
Zhu et al. Vision meets drones: A challenge
Yu et al. The unmanned aerial vehicle benchmark: Object detection, tracking and baseline
Milan et al. MOT16: A benchmark for multi-object tracking
Li et al. Line-cnn: End-to-end traffic line detection with line proposal unit
Kohl et al. The mta dataset for multi-target multi-camera pedestrian tracking by weighted distance aggregation
Du et al. The unmanned aerial vehicle benchmark: Object detection and tracking
Tan et al. Multi-camera vehicle tracking and re-identification based on visual and spatial-temporal features.
Porikli Trajectory distance metric using hidden markov model based representation
CN102073851B (zh) 一种城市交通事故自动识别方法和系统
JP6148480B2 (ja) 画像処理装置、画像処理方法
TWI508003B (zh) 用於追蹤、索引及搜尋之物件匹配
Khurana et al. Detecting invisible people
Ren et al. Tracking the soccer ball using multiple fixed cameras
Giannakeris et al. Speed estimation and abnormality detection from surveillance cameras
Liu et al. Robust movement-specific vehicle counting at crowded intersections
Fu et al. Multiple player tracking in basketball court videos
Chang et al. Ai city challenge 2020-computer vision for smart transportation applications
Wang et al. You only need two detectors to achieve multi-modal 3d multi-object tracking
Singh et al. Vehicle detection and accident prediction in sand/dust storms
Kocamaz et al. Vision-based counting of pedestrians and cyclists
JP2009163639A (ja) オブジェクト軌道識別装置、オブジェクト軌道識別方法、及びオブジェクト軌道識別プログラム
JP2020109556A (ja) 距離推定装置、距離推定方法及びプログラム
Scott et al. Teamtrack: A dataset for multi-sport multi-object tracking in full-pitch videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7122243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150