JP6077655B2 - 撮影システム - Google Patents
撮影システム Download PDFInfo
- Publication number
- JP6077655B2 JP6077655B2 JP2015522681A JP2015522681A JP6077655B2 JP 6077655 B2 JP6077655 B2 JP 6077655B2 JP 2015522681 A JP2015522681 A JP 2015522681A JP 2015522681 A JP2015522681 A JP 2015522681A JP 6077655 B2 JP6077655 B2 JP 6077655B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- person
- unit
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 51
- 238000004364 calculation method Methods 0.000 claims description 27
- 239000000284 extract Substances 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 88
- 230000008921 facial expression Effects 0.000 description 48
- 238000000034 method Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 19
- 210000000887 face Anatomy 0.000 description 17
- 230000010365 information processing Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 239000011521 glass Substances 0.000 description 8
- 238000009434 installation Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、複数台のカメラによって被写体を撮影する撮影技術に関する。
従来、複数台のカメラによって被写体を撮影するシステムとして、店舗やテーマパークなどの施設内に複数台のカメラを設置し、その様子を撮影し保存、あるいは表示装置に表示する事で、防犯等に利用する監視カメラシステムが提案されている。また、老人や子供の日々の状況を確認する見守りを目的として、老人ホームや保育園に複数台のカメラを設置するシステムもある。
これらのシステムにおいて、カメラは長時間にわたって画像の取得や記録を行う為、その全ての画像を確認する事は非常に多くの時間を費やすため困難であり、何も事象が発生していない、つまり変化の生じていない画像の確認を行わずに、特定のタイミングの画像だけを確認したいという要望がある。例えば、監視カメラにおいては犯罪等が発生した前後の画像であり、見守りであれば特定の人物が動作している状況を撮影している画像である。また、子供の見守り等であれば、保護者が子供の様子を見たいという要望があるが、笑顔で映っている画像や泣いている画像など、何らかのイベントが発生した時点の画像に対するニーズが高い。
このように、長時間や多くの画像の中から特定のタイミングの画像を抽出したいという要望に対して、以下のような様々な機能が提案されている。
下記特許文献1では、1つ以上の撮影装置によって記録された録画画像から、目的とする人物・物体の活動状況を把握するための短時間の画像を自動作成するダイジェスト画像生成装置が提案されている。人物・物体に無線タグを装着し、無線タグ受信機から人物・物体の大まかな位置を把握し、当該人物・物体がどの時間帯にどの撮影装置によって撮影されていたかを判断する事で、複数の撮影装置の画像から当該人物・物体が撮影されている画像を取り出す。そして、取り出した画像を一定の単位時間ごとに区切った単位画像ごとに、画像の特徴量を計算してどのような事象(出来事)が起きているかを識別することで、ダイジェスト画像を生成している。
また、下記特許文献2では、複数の人物の顔認識結果の相互関係に基づいて好適な撮影制御を行なう画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラムが提案されている。各々の被写体から、笑顔度、画像フレーム内での位置、検出顔の傾き、性別などの被写体の属性といった、複数の顔認識パラメータを検出し、検出されたこれらの顔認識パラメータの相互の関係に基づいて、シャッターのタイミング決定やセルフ・タイマーの設定などの撮影制御を行なう。これにより、複数の人物の顔認識結果の相互関係に基づいてユーザにとって好適な画像を取得することを可能としている。
また、下記特許文献3では、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面を的確に抽出することができる画像処理装置および画像処理プログラムが提案されている。複数の人物の目線を推定すると共に、目線を推定した複数の人物までの距離算出し、目線の推定結果および距離の算出結果を用いることによって、複数の人物の目線が交差しているか否かを判定する。この判定結果を元に、大多数の人物が同じ対象物を注視している場面を的確に抽出している。
このように、画像の中から特定のタイミングの画像を抽出したいという要望に対して、様々な機能が提案されているが、以下のような課題が存在する。
特許文献1に記載の装置にあっては、無線タグを使用して特定の人物・物体を抽出し、一定時間毎にどのような事象が起きているかを識別し、ダイジェスト画像を生成しているが、複数のカメラから人物・物体が映った1つのカメラ画像のみを抽出、事象分析している。そのため、食事、睡眠、遊び、集団行動といった事象を分析する事が出来るが、そのような事象の中で、園児が何に興味を持っているか、といった詳細な事象については、カメラの角度や位置によっては人物が注目している対象については画像として保存する事ができていないため、判断する事が出来ない可能性がある。
また、特許文献2に記載の装置にあっては、顔認識パラメータの相互の関係に基づいて、シャッターのタイミング決定やセルフ・タイマーの設定などの撮影制御を行っているが、被写体となる人物が笑顔になっているタイミングで撮影を行ったとしても、人物が何に注目して笑顔になっているかを正確に把握する事は出来ない。
同様に、特許文献3に記載の装置においても、複数の人物を被写体として含む画像中で大多数の人物が同じ対象物を注視している場面の画像を抽出する事はできるが、何を注視しているかを後から画像を見て判断する事が出来ない。
本発明は、以上のような課題を解決するためになされたものであって、画像を撮影した時点の状況・事象をより詳細に認知可能とする撮影技術を提供することを目的とする。
本発明の一観点によれば、撮影方向の異なるカメラを少なくとも3台と、前記カメラによって撮影された画像から被写体の特徴点を検出する特徴点検出部と、前記カメラによって撮影された画像を保存する画像記憶部と、を有する撮影システムであって、前記特徴点検出部で検出した前記特徴点から被写体の特徴量を検出する特徴量検出部と、前記特徴点検出部で検出した特徴点の方向を推定する特徴点方向推定部と、前記画像記憶部に保存するカメラ画像を決定する保存カメラ画像決定部と、を更に備え、前記特徴量検出部によって検出された特徴量があらかじめ設定した特定の特徴量との差が一定以下になった場合に、保存カメラ画像決定部は、前記複数の前記特徴点検出部により特徴点を検出した画像を第1保存画像として決定すると共に、前記第1保存画像において検出した特徴点から前記特徴点方向推定部により推定した特徴点方向に従ってカメラを特定して第2保存画像を決定することを特徴とする撮影システムが提供される。
撮影方向の異なるカメラを少なくとも3台配置するとは、異なる方向を撮影可能なカメラを3台配置するということである。同じ方向のみを撮影するカメラを何台設置しても、被写体の正面を向いた方向と被写体が注視している方向とを同時に撮影することができないからである。
本明細書は本願の優先権の基礎である日本国特許出願2013−122548号の明細書および/または図面に記載される内容を包含する。
本発明によれば、後から画像を確認する際に、当該人物が何を見て表情を変化させたかを把握する事ができ、撮影した時点の状況・事象をより詳細に認知できる。
以下、添付図面を参照して本発明の実施形態について説明する。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
(第1の実施形態)
本発明の第1の実施形態について、図面を参照しながら説明する。なお、各図面における各部の大きさ等は理解を容易にするため大小関係を誇張して描いており、実際の大きさとは異なる。
本発明の第1の実施形態について、図面を参照しながら説明する。なお、各図面における各部の大きさ等は理解を容易にするため大小関係を誇張して描いており、実際の大きさとは異なる。
図1は、本発明の第1の実施形態における撮影システムの構成図を示すブロック図である。撮影システム100は、例えば、第一カメラ101と第二カメラ102と第三カメラ103の3台のカメラと情報処理装置104とで構成される。情報処理装置104は、第一カメラ101と第二カメラ102と第三カメラ103とによって撮像される画像を取得する画像取得部110と、画像取得部110によって取得された画像から人間の顔を検出する顔検出部111と、顔検出部111によって検出された顔から複数の特徴点を抽出する特徴点抽出部112と、特徴点抽出部112によって抽出された複数の特徴点から求めた特徴量から顔の表情を検出する表情検出部113と、表情検出部113で表情が検出された顔に対して、特徴点抽出部112によって抽出された複数の特徴点から求めた特徴量から顔の方向を推定する顔方向推定部114と、第一カメラ101、第二カメラ102、第三カメラ103の位置関係を示すパラメータ情報が記憶されているパラメータ情報記憶部116と、表情検出部113で表情を検出した画像と顔方向推定部114とによって推定された顔方向に応じて、パラメータ情報記憶部116に記録されているパラメータ情報を参照して選択した画像を保存カメラ画像として決定する保存カメラ画像決定部115と、保存カメラ画像決定部115によって決定された画像を記憶する画像記憶部117と、を有している。
パラメータ情報記憶部116および画像記憶部117は、HDD(Hard Disk Drive)やフラッシュメモリ、あるいはDRAM(Dynamic Random Access Memory)といった半導体記憶装置や磁気記憶装置で構成可能である。本例では、表情検出部113および顔方向推定部114は、特徴点抽出部112で抽出した複数の特徴点から、それぞれ、表情又は顔方向に関する特徴量を算出する、特徴量算出部113a・114aを含んでいる。
本撮影システムの使用環境の一例として図2に示す環境を例にして詳細を説明する。図2では、撮影システムが部屋120に設置されており、情報処理装置104は、LAN124(Local Area Network)を通じてそれぞれ天井に設置されている第一カメラ101と第二カメラ102と第三カメラ103に接続されている。部屋120内には、人物122とここでは動物である対象物123が居り、人物122と対象物123の間にはガラス板121が設置されている。ガラス板121は透明であり、人物122と対象物123は互いの姿が見えるようになっている。第一カメラ101はガラス板121を挟んで人物122がいるAの方向を撮影しており、第二カメラと第三カメラは対象物123がいるそれぞれ方向B、方向Cを撮影している。
図3は、部屋120の側面図であり、図4は部屋120の俯瞰図である。第一カメラ101と第二カメラ102と第三カメラ103とは、部屋120の天井に対していずれも下に傾く方向を撮影するように設置されている。なお、第二カメラ102は第三カメラ103とほぼ同じ高さの位置に設置されているため、図3では、結果として第三カメラ103の奥側に隠れるよう配置されている。第一カメラ101は、上述したように人物122がいる方向Aを撮影しており、同様にして第二カメラ102と第三カメラ103とはそれぞれ対象物123がいる方向B、方向Cを撮影している。第一カメラ101は部屋120の壁の長辺に対してほぼ平行に設置されており、第二カメラ102と第三カメラ103とは、互いに内側を向くように設置されており、方向Bと方向Cとの光軸が長辺の途中の位置で交わっている。
ここでは、人物122がガラス板121越しに対象物123の様子を方向Sの向きで見ている状況を想定している。
図5は、本撮影システムにおける処理の流れを示すフローチャートであり、これに従って各部機能の詳細について説明する。
第一カメラ101と第二カメラ102と第三カメラ103は撮影を行っており、撮影した画像はLAN124を通じて画像取得部110に送信される。画像取得部110は、送信された画像を取得し(ステップS10)、メモリ上に一時的に保持する。図6は図2の環境において第一カメラ101で撮影されたカメラ画像130の例を示す図である。画像取得部110で取得された画像はそれぞれ顔検出部111に送られる。顔検出部111は、カメラ画像130から顔検出処理を行う(ステップS11)。顔検出処理は、顔検出を行う画像に対して探索窓(例えば8ピクセル×8ピクセルのような判定領域)を左上から走査して順番に動かし、探索窓の領域毎に顔と認識できる特徴点を持つ領域があるか否かを判定することによって検出する。この顔検出の方法としては、Viola−Jones法となど、様々なアルゴリズムが提案されている。本実施の形態では、顔検出を行う画像を第一カメラで撮影した画像としており、第二カメラおよび第三カメラの画像には顔検出処理を行っていないものとする。顔検出処理によって検出した結果が、図6に点線で示す矩形領域131に示されている。検出した顔領域である矩形領域131に対して、特徴点抽出部112は顔の特徴点である鼻や目、口の位置を抽出する特徴点抽出処理により特徴点が抽出されたか否かを判定する(ステップS12)。
ここで特徴点とは、鼻の頂点や目端点、口端点の座標のことを指し、後述する特徴量とは、特徴点そのものの座標とこれらの座標を基に算出した各座標間の距離、各座標の相対的な位置関係、座標間で囲まれる領域の面積、輝度等を指す。また、上述した複数の特徴量を組み合わせ、それを特徴量として扱ってもよいし、後述するデータベースに予め設定しておいた特定の特徴点と検出した顔の位置のずれ量を算出した値を特徴量としてもよい。
表情検出部113は特徴点抽出部112によって抽出された複数の特徴点から特徴点間の距離や特徴点で囲まれる面積、輝度分布の特徴量を求め、予め複数人の顔から取得しておいた表情に対応した特徴点抽出結果の特徴量を集約したデータベースを参照することで笑顔を検出する(ステップS13)。
例えば、表情が笑顔なら口元が吊りあがる、口が開く、頬に影ができる等の傾向がある。このような理由から、目端点と口端点との距離が近くなり、左右の口端点と上唇、下唇で囲まれる画素の面積が大きくなり、頬領域の輝度値が笑顔ではない他の表情と比べ全体的に低下することが分かる。
データベースの特徴量を参照する場合、求めた特徴量とデータベースに予め設定しておいた特定の特徴量との差が一定以下になった、例えば10%以下であった場合、特定の表情を検出したこととし、検出したとみなす特徴量の差は、本システム100を使用するユーザが自由に設定できるものとする。
ここでは表情検出部113で検出する表情を笑顔としているが、本発明において表情とは、笑顔、泣く、困る、怒る等といった人間の特徴的な顔のことを指し、表情検出部113ではこれらのいずれかの表情を検出する。また、どのような表情を設定するかは、本撮影システム100を使用するユーザが自由に設定できるものとする。
図6において検出された顔の表情が笑顔などの特定の表情として検出された場合、ステップS14に移行し、笑顔が検出されなかった場合は、ステップS10に戻る。
このように笑顔になったとき(特定の表情になったとき)のみ撮影することによって、余計な撮影を削減することができ、全体の撮影画像の容量を削減することができる。
次に、顔方向推定部114は、特徴点抽出部112によって抽出された特徴点の位置から求めた特徴量から、検出した顔が左右方向の何度の方向に向いているか角度を推定する(ステップS14)。特徴量については、表情検出部113で説明したものと同様である。顔方向の推定には、表情検出部113と同様、予め複数人の顔から取得しておいた特徴点抽出結果の特徴量を集約したデータベースを参照することで、検出された顔方向を推定する。ここで、推定される角度は、正面顔をカメラから見た左右方向0°の角度としてそれぞれ左向きを負の角度右向きを正の角度としてそれぞれ60°の角度範囲まで推定出来るものとする。これら顔検出方法や表情検出方法および顔方向推定方法については、公知の技術であるため、これ以上の説明は割愛する。
保存カメラ画像決定部115は、表情検出部113で検出したカメラ画像と顔方向推定部114で推定された顔方向からパラメータ情報記憶部116に記憶されている第二カメラと第三カメラとの位置関係を基に作成した顔方向と撮影カメラの対応を示すパラメータ情報を参照して決定したカメラ画像の2枚を保存カメラ画像として決定する(ステップS15)。以後、表情検出部113で検出したカメラ画像を第一保存画像とし、パラメータ情報を参照して決定したカメラ画像を第二保存画像と呼ぶ。
パラメータ情報は、表1に示すように顔方向に対応する保存撮影カメラの対応関係が分かるようになっている。パラメータ情報は、部屋の大きさと第一カメラ101と第二カメラ102と第三カメラ103との位置に基づいて決定されるものであり、本例では、図7に示すカメラ配置から作成した。図7に示すように、部屋120は、縦2.0m、横3.4mの部屋であり、第一カメラ101は右端から0.85mの位置となり、壁の長辺とほぼ平行になるように設置している。また、第二カメラ102と第三カメラ103とはそれぞれ壁の長辺に対して30°内向きになるように設置してあるとする。この時、第一カメラ101が撮影している方向に人物122の顔が正対した時の顔方向を0°とした場合、人物122の顔方向Sと第二カメラ102の向いている方向と成す角度と、顔方向Sと第三カメラ103の向いている方向と成す角度を比較して角度差が小さくなるカメラ画像を保存カメラ画像とするように対応関係をとる。以上のようにしてパラメータ情報を作成する。
保存カメラ画像決定方法については、第一カメラ101で撮影された顔画像において顔方向推定部114で推定された顔方向が30°であった場合、表1に示すパラメータ情報を参照して第三カメラ103を保存カメラ画像として決定する。図8に、この時決定された保存カメラ画像132を示す。また、第一カメラ101で撮影された顔画像において顔方向推定部114で推定された顔方向が−60°であった場合、同様にして表1より第二カメラ102を保存カメラ画像として決定する。ここで、表1に記載されていない顔方向(角度)であった場合は、記載されている顔方向のうち、最も近い顔方向とする。
ステップS15で決定された結果に従って、画像取得部110内のメモリに一時的に保持されている第一カメラ101と第二カメラ102と第三カメラ103とで撮影された3枚の画像の内、決定された2枚の画像を画像記憶部117に転送して記憶する(ステップS16)。
つまりここでは、第一カメラ101で撮影したカメラ画像130が第一保存画像となり、第三カメラ103で撮影した笑顔の対象が映っているカメラ画像132が第二保存画像となる。以上のように、人物の表情が笑顔になった時点の画像とともに、顔方向を特定し、当該人物の向いている方向を映すカメラで撮影した画像を保存カメラ画像とすることで、後から画像を確認する際に、当該人物が何を見て笑顔になったかを把握する事ができ、撮影した時点の状況・事象をより詳細に認知できる。
本実施の形態によれば、被写体となる人物の表情が変化した時点の画像とともに、該当人物の向いている方向を映すカメラで撮影した画像を記録することで、後から画像を確認する際に、当該人物が何を見て表情を変化させたかを把握することができ、撮影した時点の状況・事象をより詳細に認知できる。
本実施の形態における上記の例では、ステップS13において表情が笑顔となった場合のみステップS14に移行する場合について説明しているが、必ずしも表情が笑顔になった場合のみでなく、他の表情になった場合でも移行するようにしても良い。
また、撮影のトリガーとして表情を例にして説明したが、被写体の特徴量として求めることができるものであれば、顔の角度やジェスチャーなどを特徴量として抽出し、これをトリガーにすることもできる。
(第2の実施形態)
本発明の第2の実施形態について、図面を参照しながら説明する。図9は、本発明の第2の実施形態における撮影システムの構成を示す機能ブロック図である。
本発明の第2の実施形態について、図面を参照しながら説明する。図9は、本発明の第2の実施形態における撮影システムの構成を示す機能ブロック図である。
図9に示すように、撮影システム200は、第一カメラ201と第二カメラ202と第三カメラ203と第四カメラ204と第五カメラ205と第六カメラ206の6台のカメラと、情報処理装置207とで構成される。情報処理装置207は、第一カメラ201から第六カメラ206までの6台のカメラによって撮像される画像を取得する画像取得部210と、画像取得部210によって取得された画像から人間の顔を検出する顔検出部211と、顔検出部211によって検出された顔から複数の特徴点を抽出する特徴点抽出部212と、特徴点抽出部212によって抽出された複数の特徴点から特徴量を求め、顔の表情を検出する表情検出部213と、表情検出部213で表情が検出された顔に対して、特徴点抽出部212によって抽出された複数の特徴点から特徴量を求めて、顔方向を推定する顔方向推定部214と、顔方向推定部214で推定された複数人の顔方向から同一の対象に対して注目している人物がいるか判定し、人物と対象物との距離を算出する距離算出部215と、前記表情検出部213で検出したカメラ画像と、距離算出部215で算出された距離と、顔方向推定部214で推定された顔方向と、パラメータ情報記憶部217に記憶されている第一カメラ201から第六カメラ206までの6台のカメラの位置関係を基に作成した顔方向と撮影カメラの対応を示すパラメータ情報を参照して求めたカメラ画像を、保存カメラ画像として決定する保存カメラ画像決定部216と、保存カメラ画像決定部216によって決定された画像を記憶する画像記憶部218によって構成される。本撮影システムの使用環境の一例を図10に示す。
図10では、撮影システムが部屋220に設置されており、情報処理装置207は、第1の実施形態と同様にLAN208(Local Area Network)を通じてそれぞれ天井に設置されている第一カメラ201と第二カメラ202と第三カメラ203と第四カメラ204と第五カメラ205と第六カメラ206とに接続されている。また、各カメラは、天井に対していずれも下に傾くように設置されている。部屋220内には、第1の人物221、第2の人物222、第3の人物223、第4の人物224が居り、第1の人物221は、第2の人物222、第3の人物223、第4の人物224からそれぞれ顔方向P1、顔方向P2、顔方向P3向きに注目されている状況である。
図11は本撮影システムにおける処理の流れを示すフローチャートであり、これに従って各部機能の詳細について説明する。
第一カメラ201から第六カメラ206までの6台は撮影を行っており、撮影された画像は、LAN208を通じて画像取得部210に送信される。画像取得部210は、送信された画像を取得し(ステップS20)、メモリ上に一時的に保持する。図12は、図10の環境において第六カメラ206で撮影されたカメラ画像230を示している。画像取得部210で取得された画像はそれぞれ顔検出部211に送られる。顔検出部211は、カメラ画像230から顔検出処理を行う(ステップS21)。顔検出処理については第1の実施形態と同様の方法で行うため、ここでの説明は省略する。図12において、点線で示す第1の矩形領域231、第2の矩形領域232、第3の矩形領域233が、それぞれ第2の人物222、第3の人物223、第4の人物224の顔に対して行った顔検出結果を示す。
本実施の形態では、想定している人物の位置関係から顔検出を行う画像を第六カメラで撮影した画像(図12)として説明する、第一カメラ201から第五カメラ205の画像に対しても第六カメラ206と同様に顔検出処理を行っているものとし、人物の位置関係に応じて顔検出を行うカメラ画像が変わるとする。
検出した顔領域である第1の矩形領域231、第2の矩形領域232、第3の矩形領域233に対して、特徴点抽出部212は顔の特徴点である鼻や目、口の位置を抽出する特徴点抽出処理により抽出されたか否かを判定する(ステップS22)。表情検出部213は特徴点抽出部212によって抽出された複数の特徴点から特徴量を求め、その顔の表情が笑顔か否かを検出する(ステップS23)。ここで、図12で検出された複数の顔のうち、笑顔として検出された顔の数をカウントし、例えば、2人以上いる場合、ステップS25に移行し、2人未満の場合は、ステップS20に戻る(ステップS24)。
顔方向推定部214では、表情検出部213で笑顔として検出された顔に対して、特徴点抽出部212によって抽出された特徴点から特徴量を求め、顔方向が水平方向何度に向いているか角度を推定する(ステップS25)。表情検出および顔方向推定方法に関しては、第1の実施形態と同様に公知の技術であるため、説明は割愛する。
距離算出部215では、顔方向推定部214で2人以上の顔方向が推定された場合、その2人が同一対象に注目しているか否かを、それぞれ推定された顔方向から推定する(ステップS26)。以下では、図12のようなカメラ画像230が得られた場合について、同一対象に注目しているか否かを推定する方法について述べる。
ここで、顔方向は正面方向を0°とし、カメラから見て左方向を正、右方向を負として扱い、それぞれ60°範囲まで推定出来るものとする。
同一対象に注目しているかは、人物の顔が検出された位置関係とそれぞれの顔方向から、人物間で顔方向が交差するか否かを判定することで推定できる。
例えば、画像の右端に位置する人物の顔方向を基準として、左に隣接する人物の顔方向が基準となる人物の顔方向と比較して角度が小さくなれば2人の顔方向は交差することが分かる。また、以下の説明では、基準とする人物を画像の右端に位置する人物としているが、他の位置にいる人物を基準にした場合でも、角度の大小関係は変わるものの同様のことが言える。この要領で、複数の人物の組み合わせで交差するか判定を行うことで、同一対象に注目しているか否か推定する。
以下で具体例をあげて説明する。カメラ画像230には第2の人物222と第3の人物223と第4の人物224の顔が映っており、右から第2の人物222、第3の人物223、第4の人物224が並んでいる。それぞれ推定された顔方向P1が30°、顔方向P2が10°、顔方向P3が−30°とすると、第2の人物222の顔方向を基準にして、第2の人物222の顔方向と第3の人物223、第4の人物224の顔方向が交わるためには、それぞれ顔方向が30°より小さくなる必要がある。ここでは、第3の人物223の顔方向P2が10°、第4の人物224の顔方向P3が−30°と30°より小さくなるためそれぞれ3人の顔方向は交差し、同一の対象を見ていると判断できる。
また推定された顔方向P1が40°、顔方向P2が20°、顔方向P3が50°とした場合、第2の人物222の顔方向を基準にして、第2の人物222の顔方向と第3の人物223、第4の人物224の顔方向が交わるためには、それぞれ顔方向が40°未満である必要があるが、第4の人物224の顔方向P3が50°であるため、第2の人物222の顔方向と第4の人物224の顔方向は交差しない。従って、第2の人物222は第3の人物223と同じ対象を見ており、第4の人物224は異なる対象を見ていると判断できる。
この場合、次のステップS26では、第4の人物224の顔方向は除外する。推定された顔方向P1が10°、顔方向P2が20°、顔方向P3が30°とした場合、いずれの人物の顔方向も交差しない。この場合、注目する対象がそれぞれ異なると判定し、次ステップS27に移行せず、ステップS20に戻る。
距離算出部215では、複数の人物が同一の対象を見ていると判定した場合、パラメータ情報記憶部217から撮影解像度、画角のカメラ情報および顔矩形サイズと距離対応関係を示すパラメータ情報を読み込み、各人物から注目している対象までの距離を三角測量の原理により算出する(ステップS27)。ここで顔矩形サイズとは、顔検出部211で検出された顔を囲む矩形領域での横幅と縦幅の画素面積を指す。顔矩形サイズと距離対応関係を示すパラメータ情報については後述する。
以下において、距離の算出方法について具体的な例を用いて説明する。
まず、距離算出部215は、距離算出に必要となる撮影解像度、画角のカメラ情報、顔矩形サイズと距離対応関係を示すパラメータ情報を217から読み込む。図12に示すように顔検出部211で検出した第2の人物222、第3の人物223、第4の人物224の顔の第1の矩形領域231、第2の矩形領域232、第3の矩形領域233から中心座標234、235、236をそれぞれ算出する。距離の算出には三角測量の原理より少なくとも2点の座標が分かれば良いので、ここでは中心座標234、中心座標236の2点から算出する。
次に、パラメータ情報記憶部217から読み込んだ撮影解像度、画角等のカメラ情報からカメラからそれぞれ中心座標234、中心座標236までの角度を算出する。例えば解像度がフルHD(1920×1080)であり、カメラの水平画角が60°、中心座標234(1620、540)、中心座標236(160、540)であった場合、それぞれカメラから見た中心座標の角度は、21°、−25°となる。次に顔矩形サイズと距離対応関係を示すパラメータ情報から顔矩形231、顔矩形233からカメラと各人物までの距離を求める。
表2に、顔矩形サイズと距離との対応関係を示すパラメータ情報を示す。パラメータ情報は、顔の矩形領域の横幅と縦幅の画素面積である顔矩形サイズ(pix)237と、それに対応する距離(m)238との対応関係が分かるようになっている。また、パラメータ情報は撮影解像度やカメラの画角を基に算出されている。
例えば、顔矩形231が80×80画素であった場合、表2左の矩形サイズ237を参照する。表2右を見ると、対応する距離は2.0mとなり、顔矩形233が90×90画素であった場合1.5mとなる。
図13に示すように、第六のカメラ206から第1の人物221までの距離をDとし、カメラから第2の人物222までの距離をDA、カメラから第4の人物224までの距離をDB、第2の人物222が第1の人物221を見ている方向をθ、第4の人物224が第1の人物221を見ている方向をφ、カメラから見た対象222の角度をp、カメラから見た対象224の角度をqとした場合以下の式が成り立つ。
式(1)より、カメラから第1の人物221までの距離を算出することができる。
第2の人物222、第4の人物224の顔方向を−30°、30°とした場合、カメラから第1の人物221までの距離は0.61mとなる。
また、第2の人物222と対象までの距離は、カメラから第4の人物224までの距離からカメラから対象までの距離の差であり、1.89mとなる。同様に第3の人物223、第4の人物224についても算出する。以上、個々の人物と対象物までの距離を算出し、算出した結果を、保存カメラ画像決定部216に送る。
保存カメラ画像決定部216では、2枚の画像を保存カメラ画像として決定する。まず、笑顔が検出された第六カメラ206で撮影したカメラ画像230を第一保存画像として決定する。次に、距離算出部215で算出された注目対象までの距離と検出された人物の顔方向、顔検出処理を行ったカメラから、パメラータ情報記憶部217に記憶されている撮影システムで使用している第一カメラ201から第六カメラ206までの6台のカメラの位置関係を基に作成した顔方向と撮影カメラとの対応を示すパラメータ情報を参照して第二保存画像を決定する(ステップS28)。以下で第二保存画像の決定方法について述べる。
距離算出部215でそれぞれ第2の人物222、第3の人物223、第4の人物224と注目対象である第1の人物221までの距離を読み込み、パメラータ情報記憶部217に記憶されている表3に示すパラメータ情報を参照する。表3のパラメータ情報は、第一カメラ201から第六カメラ206までの6台のカメラの位置関係を基に作成したもので、顔検出したカメラ項目240とお互い向い合う位置に配置されている3台のカメラが撮影カメラ候補項目241となるように対応付けされている。また、顔検出したカメラ項目240は、検出対象の顔方向項目242にも対応付けされている。
例えば、図10の環境のように第六カメラ206の撮影画像で顔検出がされた場合、表3のように、撮影カメラ候補となるのは向い合っている第二カメラ202、第三カメラ203、第四カメラ204で撮影された画像のいずれかが選択されるようになっている。それぞれのカメラにより検出された第2の人物222、第3の人物223、第4の人物224の顔方向を30°、10°、−30°とした場合、表3より顔方向が合致する、すなわち対応するカメラは、それぞれ第四カメラ204、第三カメラ203、第二カメラ202となる。
この場合、距離算出部215で算出した第2の人物222と第1の人物221までの距離と、第3の人物223と第1の人物221までの距離と、第4の人物224と第1の人物221までの距離を比較し、最も注目対象との距離が遠い人物の顔方向に対応したカメラ画像を選択する。
例えば、第2の人物222と第1の人物221までの距離が1.89m、第3の人物223と第1の人物221までの距離が1.81m、第4の人物224と第1の人物221までの距離が1.41mと算出された場合、最も遠い位置にいるのは第2の人物222であることがわかる。第2の人物222の顔方向に対応するカメラは第二カメラ202となるので、最終的に第二カメラ画像を保存カメラ画像の第二保存画像として決定する。
このように、最も距離の遠い位置にいる人物に対応するカメラ画像を選択することで、注目対象とそれを見ている人物との距離が近いのが原因で注目対象が重なってしまっている画像を選択することを避けることができる。
また、複数人の顔方向がある注目対象に集まって向いている場合において、個々で撮影を行わず、代表の1枚を撮影することで、余計な撮影画像を省くことができ、データ量の削減につながるという利点がある。
保存カメラ画像決定部216で決定された結果に従って、画像取得部210内のメモリに一時的に保持されている第一カメラ201と第二カメラ202と第三カメラ203と第四カメラ204と第五カメラ205と第六カメラ206で撮影された6枚の画像の内、決定された2枚の画像を画像記憶部217に転送して記憶する(ステップS29)。
ステップS24に関して、ここでは表情が笑顔であると検出された顔が2人以上見つかった場合のみ次ステップに進むように設定しているが、少なくとも2人以上であれば良く、必ずしも2人に限定されるものではない。
ステップS27において、距離算出部215では、パラメータ情報記憶部217から撮影解像度、画角のカメラ情報および顔矩形サイズと距離対応関係を示すパラメータ情報を基に距離を算出しているが、必ずしも人物毎に厳密に距離を算出する必要はなく、顔検出された際の矩形サイズから大まかな距離関係が分かるため、これを基に保存カメラ画像を決定しても良い。
本実施形態では、2人以上の顔方向から注目対象までの距離を算出する場合について説明したが、1人の場合でも、垂直方向の顔方向を推定することで、注目対象までの大まかな距離を求めることができる。例えば、顔方向が地面と平行になっている状態を垂直方向0°の顔方向として、顔から注目対象までの距離を大きくしていった場合、近くに注目対象がある時と比較して、遠くに注目対象がある場合は顔角度が小さくなる。これを利用して保存カメラ画像を決定しても良い。
本実施の形態では、6台のカメラを使用した例で説明したが、これはあくまで一例であり、使用環境に応じて使用するカメラの台数を変えても良い。
また、本実施の形態では、カメラを第一カメラ、第二カメラ、第三カメラ、第四カメラ、第五カメラ、第六カメラの6台使用して、第六カメラで撮影した映像に対して顔検出を行う場合について説明したが、複数のカメラ画像において顔検出する際に、同一人物が検出されてしまうことがある。その場合には、特徴点を取得する段階で、他のカメラで同じような特徴量を持つ顔がないかどうかの認識処理を行うことで、同一人物が他のカメラで検出されているかを判定することができ、顔方向を推定する段階で同一人物の顔のそれぞれ顔方向結果を比較し、顔方向が正面0°に近いほうのカメラ画像を第一保存画像として採用するようにすれば良い。
このようにすることで、1人の人物に対して複数の撮影を行うことを防ぐことができ、余計な撮影画像を省くことができる。
(第3の実施形態)
以下、本発明の第3の実施形態について、図面を参照しながら説明する。図14は、本発明の第3の実施形態における撮影システムの構成を示すブロック図である。
以下、本発明の第3の実施形態について、図面を参照しながら説明する。図14は、本発明の第3の実施形態における撮影システムの構成を示すブロック図である。
撮影システム300は、第一カメラ301と第二カメラ302と第三カメラ303と第四カメラ304と、画角が上記第一カメラ301から第四カメラ304までの4台のカメラよりも広い第五カメラ305の計5台のカメラと、情報処理装置306と、を有している。
情報処理装置306は、第一カメラ301から第五カメラ305までの5台のカメラによって撮像される画像を取得する画像取得部310と、画像取得部310によって取得された画像のうち、第五カメラ305以外で撮影された画像から人間の顔を検出する顔検出部311と、顔検出部311によって検出された顔から複数の特徴点を抽出する特徴点抽出部312と、特徴点抽出部312によって抽出された複数の特徴点の位置から特徴量を求め、顔の表情を検出する表情検出部313と、表情検出部313で表情が検出された顔に対して、特徴点抽出部312によって抽出された複数の特徴点の位置から特徴量を求め、顔方向を推定する顔方向推定部314と、顔方向推定部314で推定された複数人の顔方向から人物と対象物との距離を算出する距離算出部315と、距離算出部315で算出された距離と、顔方向推定部314で推定された顔方向と、パラメータ情報記憶部317に記憶されている第一カメラ301から第五カメラ305までの5台のカメラの位置関係を基に作成した第五カメラ305画像の切り出し範囲との対応を示すパラメータ情報を参照し、第五カメラ305画像の切り出し範囲を決定する切出し範囲決定部316と、表情検出部313で検出したカメラ画像と、切出し範囲決定部316によって決定された切り出し範囲に従って第5カメラ画像から切り出した画像の2枚を保存カメラ画像として決定する保存カメラ画像決定部318と、保存カメラ画像決定部318によって決定された画像を記憶する画像記憶部319と、を有している。本実施の形態による撮影システムの使用環境の一例を図15に示す。
図15では、図14の撮影システム300が部屋320に設置されており、情報処理装置306は、第1、第2の実施形態と同様に、例えばLAN307を通じてそれぞれ天井に設置されている第一カメラ301と第二カメラ302と第三カメラ303と第四カメラ304と第五カメラ305とに接続されている。第五カメラ305以外のカメラは、部屋320の天井に対していずれも下に傾くように設置されており、第五カメラ305は部屋320の天井中央に下向きに設置されている。第五カメラ305は第一カメラ301から第四カメラ304までのカメラと比較して画角が広く、第五カメラ305で撮影される画像は、例えば図16に示すように部屋320のほぼ全体を映している。例えば、第一カメラ301から第四カメラ304までの画角は60°である。また、第五カメラ305は画角170°の円の中心からの距離が入射角に比例している等距離射影方式を採用している魚眼カメラである。
部屋320内には、第2の実施形態と同様に、第1の人物321、第2の人物322、第3の人物323、第4の人物324が居り、第1の人物321は、第2の人物322、第3の人物323、第4の人物324から、それぞれ顔方向P1、顔方向P2、顔方向P3向きに注目されている状況である。このような状況を想定して以下説明する。
図17は、本実施の形態による撮影システムにおける処理の流れを示すフローチャートであり、これに従って各部機能の詳細について説明する。
第一カメラ301から第五カメラ305までの5台が撮影を行っており、第2の実施形態と同様に撮影された画像は、LAN307を通じて画像取得部310に送信される。画像取得部310は、送信された画像を取得し(ステップS30)、メモリ上に一時的に保持する。画像取得部310で取得された第五カメラ画像以外の画像は、それぞれ顔検出部311に送られる。顔検出部311は、画像取得部310から送信された画像全てに対して顔検出処理を行う(ステップS31)。本実施の形態のような使用環境では、第四カメラ304に、第2の人物322、第3の人物323、第4の人物324の顔が映るので、以下では、第四カメラ304の画像で顔検出処理を行った場合を想定して説明する。
ステップS32において第2の人物322、第3の人物323、第4の人物324の顔に対して顔検出処理を行った結果を基に特徴点抽出部312は顔の特徴点である鼻や目、口の位置等を抽出する特徴点抽出処理により抽出されたか否かを判定する(ステップS32)。表情検出部313は、特徴点抽出部312によって抽出された複数の特徴点の位置から特徴量を求め、表情が笑顔であるかを検出する(ステップS33)。ここで、検出された複数の顔の内、表情が例えば笑顔と推定される顔の数をカウントし(ステップS34)、2人以上いる場合、ステップS35に移行し、2人未満の場合は、ステップS30に戻る。顔方向推定部314では、表情検出部313で笑顔と推定された顔に対して、特徴点抽出部312によって抽出された特徴点の位置から特徴量を求め、顔方向が水平方向何度に向いているか角度を推定する(ステップS35)。距離算出部315では、顔方向推定部314で2人以上の顔方向が推定された場合、その2人が同一対象に注目しているか否かを、それぞれ推定された顔方向から推定する(ステップS36)。また、距離算出部315では、複数の人物(ここでは2人以上とする)が同一の対象を見ていると判定した場合、パラメータ情報記憶部317から撮影解像度、画角のカメラ情報および顔矩形サイズと距離対応関係を示すパラメータ情報を読み込み、その対象までの距離を三角測量の原理により算出する(ステップS37)。
ここで顔矩形サイズとは、顔検出部311で検出された顔を囲む矩形領域での横幅と縦幅の画素面積を指す。ステップS31からステップS37までの処理の詳細については、第2の実施形態で説明したものと同様であるため省略する。切り出し範囲決定部316では、距離算出部315で算出されたカメラから注目対象までの距離と検出された人物の顔方向からパメラータ情報記憶部317に記憶されている撮影システムで使用している第一カメラ301から第五カメラ305までの5台のカメラの位置関係を基に作成した人物の位置と距離の対応関係を示すパラメータ情報を参照して第五カメラ305で撮影した画像の切り出し範囲を決定する(ステップS38)。以下、第五カメラ305で撮影した画像の切り出し範囲の決定方法について詳しく述べる。
距離算出部315で算出された第四カメラ304から各人物324、人物323、人物322、注目対象の人物321までの距離をそれぞれ、2.5m、2.3m、2.0m、0.61mとし、第四カメラ304から見た各人物のいる角度を、−21°、15°、25°、注目対象の人物がいる角度を20°、第五カメラの解像度をフルHD(1920×1080)とした場合、表4に示す対応表をパラメータ情報記憶部317から参照する。表4は上記対応表の一部であるが、パラメータ記憶部317には、第一カメラ301から第四カメラ304までのカメラ毎に対応表が用意されており、全ての角度と距離の組み合わせから第五カメラ305の対応座標を求めることが出来る。この対応表より、第四カメラ304から人物までの距離330と第四カメラ304から見た人物の角度331から第五カメラ305の対応座標332を求めると、第四カメラ304から見た人物324の角度を−21°、距離2.5mとした場合、第五カメラ305での対応点は座標(1666,457)となり、第四カメラ304から見た人物322までの角度25°、距離2.0mとした場合、座標(270,354)となる。また、注目対象の人物321の対応座標は同様にして対応表から求めると座標(824,296)となる。この対応表は、第一カメラ301から第四カメラ304までのカメラと第五カメラ305のカメラ配置から決定される。
上記で求めた3点の座標より座標(270,296)から座標(1666,457)で囲まれる矩形を基準に上下左右に50画素拡大した座標(320,346)から座標(1710,507)で囲まれる矩形を第5カメラ305の画像の切り出し範囲として決定する。
保存カメラ画像決定部318では、2枚の画像を保存カメラ画像として決定する。まず、笑顔が検出された第四カメラ304で撮影したカメラ画像を第一保存画像として決定する。次に切出し範囲決定部316で決定した切出し範囲を第五カメラ305で撮影したカメラ画像から切り出しを行った画像を第二保存画像として決定する(ステップS38)。決定された結果に従って、画像取得部310内のメモリに一時的に保持されている第一カメラ301と第二カメラ302と第三カメラ303と第四カメラ304と第五カメラ305で撮影された5枚の画像のうち、決定された第四カメラ304のカメラ画像と第五カメラ305のカメラ画像(切出し後)の2枚を画像記憶部319に転送して記憶する(ステップS39)。
本実施の形態において記憶される画像2枚の画像(第一保存画像、第二保存画像)340、341は図18に示す通りである。第2から第4までの人物322−324の正面画像が第一の保存画像であり、第二の保存画像には、第1の人物321の正面画像と、後ろ向きの第2から第4までの人物322−324の画像が写っている。
以上のように、同一の注目対象を見ている人と注目対象がいる位置を見て魚眼カメラの画像から切出し範囲を決定することによって、注目対象を見ている人と注目対象が両方含まれた画像を撮影することができる。
ステップS38では、切り出し範囲として上下左右に50画素拡大した範囲を最終的な切出し範囲として決定しているが、拡大する画素数は必ずしも50画素である必要はなく、本実施の形態による撮影システム300を使用するユーザが自由に設定できるものとする。
(第4の実施形態)
以下、本発明の第4の実施形態について、図面を参照しながら説明する。図19は、本発明の第4実施形態における撮影システムの構成を示すブロック図である。
以下、本発明の第4の実施形態について、図面を参照しながら説明する。図19は、本発明の第4実施形態における撮影システムの構成を示すブロック図である。
上記の実施の形態では、被写体となる人物の表情が変化したタイミングで第1保存画像を決定し、被写体の人物の向いている方向に従ってカメラを特定して第2保存画像を決定する。このタイミングは、被写体の表情の変化以外に、例えば、カメラの撮像画像から検出できる身体(手足等)や顔の位置や向きの変化を検出し、また、被写体全体の向いている方向の代わりに、顔の向きを求め、顔の向きなどから距離を特定して、カメラの選択やカメラの撮影方向の制御を行うようにしても良い。検出する特徴量の変化としては、その他、周辺の明るさなどの環境の変化も含めることができる。
以下では、ジェスチャーとして、人間の手によるジェスチャー動作の変化を特徴量の変化の例とし、ジェスチャーが向いている方向を推定する例について説明する。
撮影システム400は、第一カメラ401と第二カメラ402と第三カメラ403の3台のカメラと情報処理装置404とを有している。情報処理装置404は、第一カメラ401と第二カメラ402と第三カメラ403とによって撮像される画像を取得する画像取得部410と、画像取得部410によって取得された画像から人間の手を検出する手検出部411と、手検出部411によって検出された手から複数の特徴点を抽出する特徴点抽出部412と、特徴点抽出部412によって抽出された複数の特徴点から求めた特徴量から手のジェスチャーを検出するジェスチャー検出部413と、ジェスチャー検出部413でジェスチャーが検出された手に対して、特徴点抽出部412によって抽出された複数の特徴点から求めた特徴量からジェスチャーが向いている方向を推定するジェスチャー方向推定部414と、第一カメラ401、第二カメラ402、第三カメラ403の位置関係を示すパラメータ情報が記憶されているパラメータ情報記憶部416と、ジェスチャー検出部413でジェスチャーを検出した画像とジェスチャー方向推定部414とによって推定されたジェスチャー方向に応じて、パラメータ情報記憶部416に記録されているパラメータ情報を参照して選択した画像を保存カメラ画像として決定する保存カメラ画像決定部415と、保存カメラ画像決定部415によって決定された画像を記憶する画像記憶部417と、を有している。
本実施形態では、ジェスチャー検出部413およびジェスチャー方向推定部414は、特徴点抽出部412で抽出した複数の特徴点から、それぞれ特徴量を算出する、特徴量算出部を含んでいる(図1と同様である)。
本撮影システムの使用環境の一例として、図20に示すように第一の実施形態と同様の環境を例にして詳細を説明する。図20では、撮影システムが部屋420に設置されており、情報処理装置404は、LAN424(Local Area Network)を通じてそれぞれ天井に設置されている第一カメラ401と第二カメラ402と第三カメラ403に接続されている。部屋420内には、人物422とここでは動物である対象物423が居り、人物422と対象物423の間にはガラス板421が設置されている。ガラス板421は透明であり、人物422と対象物423は互いの姿が見えるようになっている。第一カメラ401はガラス板421を挟んで人物422がいるAの方向を撮影しており、第二カメラと第三カメラは対象物423がいるそれぞれ方向B、方向Cを撮影している。
図21は、部屋420の側面図であり、図22は部屋420の俯瞰図である。第一カメラ401と第二カメラ402と第三カメラ403とは、部屋420の天井に対していずれも下に傾く方向を撮影するように設置されている。なお、第二カメラ402は第三カメラ403とほぼ同じ高さの位置に設置されているため、図21では、結果として第三カメラ403の奥側に隠れるよう配置されている。第一カメラ401は、上述したように人物422がいる方向Aを撮影しており、同様にして第二カメラ402と第三カメラ403とはそれぞれ対象物423がいる方向B、方向Cを撮影している。第一カメラ401は部屋420の壁の長辺に対してほぼ平行に設置されており、第二カメラ402と第三カメラ403とは、互いに内側を向くように設置されており、方向Bと方向Cとの光軸が長辺の途中の位置で交わっている。
ここでは、人物422がガラス板421越しに対象物423の様子を方向Sの向き指さしている状況を想定している。
図23は、本撮影システムにおける処理の流れを示すフローチャートであり、これに従って各部機能の詳細について説明する。
第一カメラ401と第二カメラ402と第三カメラ403は撮影を行っており、撮影した画像はLAN424を通じて画像取得部410に送信される。画像取得部410は、送信された画像を取得し(ステップS40)、メモリ上に一時的に保持する。
図24は、図20の環境において第一カメラ401で撮影されたカメラ画像430の例を示す図である。画像取得部410で取得された画像はそれぞれ手検出部411に送られる。手検出部411は、カメラ画像430から手検出処理を行う(ステップS41)。手検出処理は手検出を行う画像に対して、人間の皮膚の特徴的な色である肌色領域だけを抽出し、指の輪郭に沿ったエッジがあるかどうか判別することで検出する。
本実施の形態では、手検出を行う画像を第一カメラで撮影した画像としており、第二カメラおよび第三カメラの画像には手検出処理を行っていないものとする。手検出処理によって検出した結果が、図24に点線で示す矩形領域431に示されている。検出した手領域である矩形領域431に対して、特徴点抽出部412は手の特徴点である指の先端や指の間等の位置を抽出する特徴点抽出処理により特徴点が抽出されたか否かを判定する(ステップS42)。
ジェスチャー検出部413は特徴点抽出部412によって抽出された複数の特徴点から特徴点間の距離や3つの特徴点で囲まれる面積、輝度分布の特徴量を求め、予め複数人の手から取得しておいたジェスチャーに対応した特徴点抽出結果の特徴量を集約したデータベースを参照することでジェスチャーを検出する(ステップS43)。ここではジェスチャー検出部413で検出するジェスチャーを指さし(人差し指だけを立てて注目対象に向けるジェスチャー)としているが、本発明においてジェスチャーとは、指さし、パー(五本の指を離して広げる)、グー(五本の指を全て握る)等といった特徴的な手形状のことを指し、ジェスチャー検出部413ではこれらのいずれかのジェスチャーを検出する。また、どのようなジェスチャーを設定するかは、本撮影システム400を使用するユーザが自由に設定できるものとする。
図24において検出されたジェスチャーが指さしなどの特定のジェスチャーとして検出された場合、ステップS44に移行し、指さしなどの特定のジェスチャーが検出されなかった場合は、ステップS40に戻る。
特定のジェスチャーになったときのみ撮影することによって、全体の撮影画像の容量を削減することができる。
次に、ジェスチャー方向推定部414は、特徴点抽出部412によって抽出された特徴点の位置から求めた特徴量から、検出したジェスチャーが左右方向の何度の方向に向いているか角度を推定する(ステップS44)。ここで、ジェスチャー方向とは、ジェスチャー検出部で検出されたジェスチャーが向いている方向のことを指し、指さしなら、指が指し示す方向であり、パーやグーのジェスチャーなら腕が向いている方向のことである。
特徴量については、ジェスチャー検出部413で説明したものと同様である。ジェスチャー方向の推定には、予め複数人の手から取得しておいた特徴点抽出結果の手形状等の特徴量を集約したデータベースを参照することで、検出されたジェスチャーが向いている方向を推定する。また、顔を検出しておき、検出された手との位置関係に基づき、ジェスチャーが向いている方向を推定しても良い。
ここで、推定される角度は、正面をカメラから見た左右方向0°の角度としてそれぞれ左向きを負の角度右向きを正の角度としてそれぞれ60°の角度範囲まで推定出来るものとする。これら手検出方法やジェスチャー検出方法およびジェスチャー方向推定方法については、公知の技術であるため、これ以上の説明は割愛する。
保存カメラ画像決定部415は、ジェスチャー検出部413で検出したカメラ画像とジェスチャー方向推定部414で推定されたジェスチャー方向からパラメータ情報記憶部416に記憶されている第二カメラと第三カメラとの位置関係を基に作成したジェスチャー方向と撮影カメラの対応を示すパラメータ情報を参照して決定したカメラ画像の2枚を保存カメラ画像として決定する(ステップS45)。以後、ジェスチャー検出部413で検出したカメラ画像を第一保存画像とし、パラメータ情報を参照して決定したカメラ画像を第二保存画像と呼ぶ。
パラメータ情報は、表5に示すようにジェスチャー方向に対応する保存撮影カメラの対応関係が分かるようになっている。パラメータ情報は、部屋の大きさと第一カメラ401と第二カメラ402と第三カメラ403との位置に基づいて決定されるものであり、本例では、第一の実施形態と同様図カメラ配置から作成した。図25に示すように、部屋420は、縦2.0m、横3.4mの部屋であり、第一カメラ401は右端から0.85mの位置となり、壁の長辺とほぼ平行になるように設置している。また、第二カメラ402と第三カメラ403とはそれぞれ壁の長辺に対して30°内向きになるように設置してあるとする。この時、第一カメラ401が撮影している方向に人物422が行ったジェスチャー方向が正対した時の方向を0°とした場合、人物422のジェスチャー方向Sと第二カメラ402の向いている方向と成す角度と、ジェスチャー方向Sと第三カメラ403の向いている方向と成す角度を比較して角度差が小さくなるカメラ画像を保存カメラ画像とするように対応関係をとる。以上のようにしてパラメータ情報を作成する。
保存カメラ画像決定方法については、第一カメラ401で撮影されたジェスチャー画像においてジェスチャー方向推定部414で推定されたジェスチャー方向が30°であった場合、表5に示すパラメータ情報を参照して第三カメラ403を保存カメラ画像として決定する。図26に、この時決定された保存カメラ画像432を示す。また、第一カメラ401で撮影されたジェスチャー画像においてジェスチャー方向推定部414で推定されたジェスチャー方向が−60°であった場合、同様にして表5より第二カメラ402を保存カメラ画像として決定する。ここで、表5に記載されていないジェスチャー方向(角度)であった場合は、記載されているジェスチャー方向のうち、最も近いジェスチャー方向とする。
ステップS45で決定された結果に従って、画像取得部410内のメモリに一時的に保持されている第一カメラ401と第二カメラ402と第三カメラ403とで撮影された3枚の画像の内、決定された2枚の画像を画像記憶部417に転送して記憶する(ステップS46)。
つまりここでは、第一カメラ401で撮影したカメラ画像430が第一保存画像となり、第三カメラ403で撮影したジェスチャーで指した対象が映っているカメラ画像432が第二保存画像となる。以上のように、人物が特定のジェスチャーを行った時点の画像とともに、ジェスチャーの方向を特定し、当該人物が指し示している方向を映すカメラで撮影した画像を保存カメラ画像とすることで、後から画像を確認する際に、当該人物が何を指さしたのかを把握する事ができ、撮影した時点の状況・事象をより詳細に認知できる。
本実施の形態によれば、被写体となる人物がジェスチャーを行った時点の画像とともに、該当人物が行ったジェスチャーが示す方向を映すカメラで撮影した画像を記録することで、後から画像を確認する際に、当該人物が何を指したのかを把握することができ、撮影した時点の状況・事象をより詳細に認知できる。
本実施の形態における上記の例では、ステップS43においてジェスチャーが指さしとなった場合のみステップS44に移行する場合について説明しているが、必ずしもジェスチャーが指さしになった場合のみでなく、他のジェスチャーになった場合でも移行するようにしても良い。
尚、本発明は、上述した実施の形態によって限定的に解釈されるものではなく、特許請求の範囲に記載した事項の範囲内で、種々の変更が可能であり本発明の技術的範囲に含まれる。
また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。機能の少なくとも一部は、集積回路などのハードウェアで実現しても良い。
(付記)
本発明は、以下の開示を含む。
本発明は、以下の開示を含む。
(1)
撮影方向の異なるカメラを少なくとも3台と、前記カメラによって撮影された画像から被写体の特徴点を抽出する特徴点抽出部と、前記カメラによって撮影された画像を保存する画像記憶部と、を有する撮影システムであって、
前記 特徴点抽出部で抽出した前記特徴点から被写体の特徴量を算出する特徴量算出検出部と、
前記特徴点抽出部で抽出した特徴点から被写体が向いている方向を推定する方向推定部と、
前記画像記憶部に保存するカメラ画像を決定する保存カメラ画像決定部と、を更に備え、
前記特徴量算出部によって算出された特徴量 があらかじめ 設定した特定の特徴量との差が一定以下になった場合に、保存カメラ画像決定部は、前記複数の前記特徴点抽出部により特徴点を抽出した画像を第1保存画像として決定すると共に、
前記第1保存画像において抽出した特徴点から前記方向推定部により推定した被写体が向いている方向に従ってカメラを特定して第2保存画像を決定することを特徴とする撮影システム。
撮影方向の異なるカメラを少なくとも3台と、前記カメラによって撮影された画像から被写体の特徴点を抽出する特徴点抽出部と、前記カメラによって撮影された画像を保存する画像記憶部と、を有する撮影システムであって、
前記 特徴点抽出部で抽出した前記特徴点から被写体の特徴量を算出する特徴量算出検出部と、
前記特徴点抽出部で抽出した特徴点から被写体が向いている方向を推定する方向推定部と、
前記画像記憶部に保存するカメラ画像を決定する保存カメラ画像決定部と、を更に備え、
前記特徴量算出部によって算出された特徴量 があらかじめ 設定した特定の特徴量との差が一定以下になった場合に、保存カメラ画像決定部は、前記複数の前記特徴点抽出部により特徴点を抽出した画像を第1保存画像として決定すると共に、
前記第1保存画像において抽出した特徴点から前記方向推定部により推定した被写体が向いている方向に従ってカメラを特定して第2保存画像を決定することを特徴とする撮影システム。
前記3台のカメラは、被写体を撮影する方向と、被写体が見ている第1の方向とそれとは異なる第3の方向とを撮影する方向と、を撮影できるようになっている。被写体の特徴量変化を検出した際に、写体が見ている第1の方向とそれとは異なる第3の方向とをのうち、少なくとも被写体の特緒量を検出しやすい方のカメラを利用して、何に注目したかを知ることができる。
上記によれば、特定の特徴量変化が検知して、そのタイミングで、何に注視しているかを知ることができる。
(2)
前記保存カメラ画像決定部は、前記特徴点抽出部によって複数のカメラ画像において特徴点が抽出された場合には、前記方向推定部によって推定された被写体が向いている方向が、正面に近い画像を第1保存画像として決定することを特徴とする(1)に記載の撮影システム。
前記保存カメラ画像決定部は、前記特徴点抽出部によって複数のカメラ画像において特徴点が抽出された場合には、前記方向推定部によって推定された被写体が向いている方向が、正面に近い画像を第1保存画像として決定することを特徴とする(1)に記載の撮影システム。
(3)
前記保存カメラ決定部は、前記方向推定部により推定された被写体が向いている方向と、前記各カメラの光軸の方向を比較し、2つの方向のなす角が最も小さくなるカメラの画像を第2保存画像として決定する前記保存カメラ決定部は、前記特徴点方向推定部により推定された特徴点方向と、前記各カメラの光軸の方向を比較し、2つの方向のなす角が最も小さくなるカメラの画像を第2保存画像として決定する事を特徴とする(1)又は(2)に記載の撮影システム。
前記保存カメラ決定部は、前記方向推定部により推定された被写体が向いている方向と、前記各カメラの光軸の方向を比較し、2つの方向のなす角が最も小さくなるカメラの画像を第2保存画像として決定する前記保存カメラ決定部は、前記特徴点方向推定部により推定された特徴点方向と、前記各カメラの光軸の方向を比較し、2つの方向のなす角が最も小さくなるカメラの画像を第2保存画像として決定する事を特徴とする(1)又は(2)に記載の撮影システム。
これにより、より正確に、注目対象を知ることができる。
(4)
前記カメラによって撮影される画像に複数の被写体が映っている場合に、前記方向推定部によって推定された結果に基づいて同一の注目対象を見ているか判断し、各被写体と注目対象までの距離を算出する距離算出部を更に備え、
前記距離算出部によって算出される各被写体と注目対象までの距離が最も遠い被写体が向いている方向に従って第2保存画像を決定することを特徴とする(1)から(3)までのいずれか1に記載の撮影システム。
前記カメラによって撮影される画像に複数の被写体が映っている場合に、前記方向推定部によって推定された結果に基づいて同一の注目対象を見ているか判断し、各被写体と注目対象までの距離を算出する距離算出部を更に備え、
前記距離算出部によって算出される各被写体と注目対象までの距離が最も遠い被写体が向いている方向に従って第2保存画像を決定することを特徴とする(1)から(3)までのいずれか1に記載の撮影システム。
これにより、より正確に、注目対象を知ることができる。
(5)
前記画像を撮影するカメラのうち、少なくとも1台は他のカメラより画角が広い広角カメラであり、
前記保存カメラ画像決定部は、前記第1保存画像において抽出した特徴点から前記方向推定部により推定した被写体の向いている方向に従って、前記広角カメラによる撮影画像の一部を前記第2保存画像として決定することを特徴とする(1)に記載の撮影システム。
前記画像を撮影するカメラのうち、少なくとも1台は他のカメラより画角が広い広角カメラであり、
前記保存カメラ画像決定部は、前記第1保存画像において抽出した特徴点から前記方向推定部により推定した被写体の向いている方向に従って、前記広角カメラによる撮影画像の一部を前記第2保存画像として決定することを特徴とする(1)に記載の撮影システム。
(6)
撮影方向の異なるカメラを少なくとも3台と、前記カメラによって撮影された画像から被写体の特徴点を抽出する特徴点抽出部と、前記カメラによって撮影された画像を保存する画像記憶部と、を有する撮影システムを用いた情報処理方法であって、
前記特徴点抽出部で抽出した前記特徴点から被写体の特徴量を算出する特徴量算出検出ステップと、
前記特徴点抽出ステップで抽出した特徴点から被写体が向いている方向を推定する方向推定ステップと、
前記画像記憶部に保存するカメラ画像を決定する保存カメラ画像決定ステップと、を更に有し、
前記特徴量算出ステップによって算出された特徴量があらかじめ 設定した特定の特徴量との差が一定以下になった場合に、保存カメラ画像決定ステップは、前記複数の前記特徴点抽出ステップにより特徴点を抽出した画像を第1保存画像として決定すると共に、
前記第1保存画像において抽出した特徴点から前記方向推定ステップにより推定した被写体が向いている方向に従ってカメラを特定して第2保存画像を決定することを特徴とする情報処理方法。
撮影方向の異なるカメラを少なくとも3台と、前記カメラによって撮影された画像から被写体の特徴点を抽出する特徴点抽出部と、前記カメラによって撮影された画像を保存する画像記憶部と、を有する撮影システムを用いた情報処理方法であって、
前記特徴点抽出部で抽出した前記特徴点から被写体の特徴量を算出する特徴量算出検出ステップと、
前記特徴点抽出ステップで抽出した特徴点から被写体が向いている方向を推定する方向推定ステップと、
前記画像記憶部に保存するカメラ画像を決定する保存カメラ画像決定ステップと、を更に有し、
前記特徴量算出ステップによって算出された特徴量があらかじめ 設定した特定の特徴量との差が一定以下になった場合に、保存カメラ画像決定ステップは、前記複数の前記特徴点抽出ステップにより特徴点を抽出した画像を第1保存画像として決定すると共に、
前記第1保存画像において抽出した特徴点から前記方向推定ステップにより推定した被写体が向いている方向に従ってカメラを特定して第2保存画像を決定することを特徴とする情報処理方法。
(7)
コンピュータに、(6)に記載の情報処理方法を実行させるためのプログラム。
コンピュータに、(6)に記載の情報処理方法を実行させるためのプログラム。
(8)
撮影方向の異なる第1から第3までの画像から検出された被写体の特徴点から被写体の特徴量を抽出する特徴量抽出部と、
前記特徴点抽出部で検出した特徴点の方向を推定する方向推定部と、
前記特徴量抽出部によって抽出された特徴量があらかじめ設定した特定の特徴量との差が一定以下になった場合に、前記複数の前記特徴点抽出部により特徴点を抽出した画像を第1の画像として決定すると共に、前記第1保存画像において抽出した特徴点から前記方向推定部により推定した特徴点方向に従って撮影された画像を特定して第2の画像を決定することを特徴とする情報処理装置。
撮影方向の異なる第1から第3までの画像から検出された被写体の特徴点から被写体の特徴量を抽出する特徴量抽出部と、
前記特徴点抽出部で検出した特徴点の方向を推定する方向推定部と、
前記特徴量抽出部によって抽出された特徴量があらかじめ設定した特定の特徴量との差が一定以下になった場合に、前記複数の前記特徴点抽出部により特徴点を抽出した画像を第1の画像として決定すると共に、前記第1保存画像において抽出した特徴点から前記方向推定部により推定した特徴点方向に従って撮影された画像を特定して第2の画像を決定することを特徴とする情報処理装置。
本発明は、撮影システムに利用可能である。
100…撮影システム、101…第一カメラ、102…第二カメラ、103…第三カメラ、110…画像取得部、111…顔検出部と、112…特徴点抽出部、113…表情検出部、114…顔方向推定部、115…保存カメラ画像決定部、116…パラメータ情報記憶部、117…画像記憶部。
本明細書で引用した全ての刊行物、特許および特許出願をそのまま参考として本明細書にとり入れるものとする。
Claims (5)
- 異なる位置に設けられ撮影方向の異なるカメラを少なくとも3台と、前記カメラによって撮影された画像から被写体の特徴点を抽出する特徴点抽出部と、前記カメラによって撮影された画像を保存する画像記憶部と、を有する撮影システムであって、
前記特徴点抽出部で抽出した前記特徴点から被写体の特徴量を算出する特徴量算出部と、
前記特徴点抽出部で抽出した特徴点から被写体が向いている方向を推定する方向推定部と、
前記画像記憶部に保存するカメラ画像を決定する保存カメラ画像決定部と、を更に備え、
複数の前記画像において、前記特徴量算出部によって算出された特徴量があらかじめ設定した特定の特徴量との差が一定以下になった場合に、前記保存カメラ画像決定部は、前記特定の特徴量との差が一定以下になった画像を第1保存画像として決定すると共に、
前記第1保存画像において抽出した特徴点から前記方向推定部により推定した被写体が向いている方向に従って、第2保存画像を決定することを特徴とする撮影システム。 - 前記保存カメラ画像決定部は、前記第2保存画像を決定する際に、前記第1保存画像を撮影したカメラ以外のカメラの位置関係を基に作成した顔方向と撮影カメラの対応を示すパラメータ情報を参照することを特徴とする請求項1に記載の撮影システム。
- 前記保存カメラ画像決定部は、前記方向推定部により推定された被写体が向いている方向と、前記各カメラの光軸の方向を比較し、2つの方向のなす角が最も小さくなるカメラの画像を第2保存画像として決定する事を特徴とする請求項1又は2に記載の撮影システム。
- 前記カメラによって撮影される画像に複数の被写体が映っている場合に、前記方向推定部によって推定された結果に基づいて同一の注目対象を見ているか判断し、各被写体と注目対象までの距離を算出する距離算出部を更に備え、
前記距離算出部によって算出される各被写体と注目対象までの距離が最も遠い被写体が向いている方向に従って第2保存画像を決定することを特徴とする請求項1から3までのいずれか1項に記載の撮影システム。 - 前記画像を撮影するカメラのうち、少なくとも1台は他のカメラより画角が広い広角カメラであり、
前記保存カメラ画像決定部は、前記第1保存画像において抽出した特徴点から前記方向推定部により推定した被写体の向いている方向に従って、前記広角カメラによる撮影画像の一部を前記第2保存画像として決定することを特徴とする請求項1に記載の撮影システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013122548 | 2013-06-11 | ||
JP2013122548 | 2013-06-11 | ||
PCT/JP2014/063273 WO2014199786A1 (ja) | 2013-06-11 | 2014-05-20 | 撮影システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6077655B2 true JP6077655B2 (ja) | 2017-02-08 |
JPWO2014199786A1 JPWO2014199786A1 (ja) | 2017-02-23 |
Family
ID=52022087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015522681A Expired - Fee Related JP6077655B2 (ja) | 2013-06-11 | 2014-05-20 | 撮影システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20160127657A1 (ja) |
JP (1) | JP6077655B2 (ja) |
CN (1) | CN105165004B (ja) |
WO (1) | WO2014199786A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6624878B2 (ja) * | 2015-10-15 | 2019-12-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6707926B2 (ja) * | 2016-03-16 | 2020-06-10 | 凸版印刷株式会社 | 識別システム、識別方法及びプログラム |
JP6817804B2 (ja) * | 2016-12-16 | 2021-01-20 | クラリオン株式会社 | 区画線認識装置 |
US10009550B1 (en) * | 2016-12-22 | 2018-06-26 | X Development Llc | Synthetic imaging |
MY184063A (en) * | 2017-03-14 | 2021-03-17 | Mitsubishi Electric Corp | Image processing device, image processing method, and image processing program |
JP6824838B2 (ja) * | 2017-07-07 | 2021-02-03 | 株式会社日立製作所 | 作業データ管理システム及び作業データ管理方法 |
JP6956574B2 (ja) * | 2017-09-08 | 2021-11-02 | キヤノン株式会社 | 画像処理装置、プログラムおよび方法 |
WO2019058496A1 (ja) * | 2017-09-22 | 2019-03-28 | 株式会社電通 | 表情記録システム |
JP2019086310A (ja) * | 2017-11-02 | 2019-06-06 | 株式会社日立製作所 | 距離画像カメラ、距離画像カメラシステム、及びそれらの制御方法 |
CN109523548B (zh) * | 2018-12-21 | 2023-05-05 | 哈尔滨工业大学 | 一种基于临界阈值的窄间隙焊缝特征点提取方法 |
US10813195B2 (en) | 2019-02-19 | 2020-10-20 | Signify Holding B.V. | Intelligent lighting device and system |
JP2020197550A (ja) * | 2019-05-30 | 2020-12-10 | パナソニックi−PROセンシングソリューションズ株式会社 | マルチポジショニングカメラシステムおよびカメラシステム |
JP6815667B1 (ja) * | 2019-11-15 | 2021-01-20 | 株式会社Patic Trust | 情報処理装置、情報処理方法、プログラム及びカメラシステム |
US11915571B2 (en) * | 2020-06-02 | 2024-02-27 | Joshua UPDIKE | Systems and methods for dynamically monitoring distancing using a spatial monitoring platform |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260731A (ja) * | 2004-03-12 | 2005-09-22 | Ntt Docomo Inc | カメラ選択装置、及びカメラ選択方法 |
JP2007235399A (ja) * | 2006-02-28 | 2007-09-13 | Matsushita Electric Ind Co Ltd | 自動撮影装置 |
JP2008005208A (ja) * | 2006-06-22 | 2008-01-10 | Nec Corp | スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム |
JP2010081260A (ja) * | 2008-09-25 | 2010-04-08 | Casio Computer Co Ltd | 撮像装置及びそのプログラム |
JP2011217202A (ja) * | 2010-03-31 | 2011-10-27 | Saxa Inc | 画像取得装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8406479B2 (en) * | 2006-07-14 | 2013-03-26 | Panasonic Corporation | Visual axis direction detection device and visual line direction detection method |
JP5239625B2 (ja) * | 2008-08-22 | 2013-07-17 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
-
2014
- 2014-05-20 JP JP2015522681A patent/JP6077655B2/ja not_active Expired - Fee Related
- 2014-05-20 WO PCT/JP2014/063273 patent/WO2014199786A1/ja active Application Filing
- 2014-05-20 CN CN201480024071.3A patent/CN105165004B/zh not_active Expired - Fee Related
- 2014-05-20 US US14/895,259 patent/US20160127657A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005260731A (ja) * | 2004-03-12 | 2005-09-22 | Ntt Docomo Inc | カメラ選択装置、及びカメラ選択方法 |
JP2007235399A (ja) * | 2006-02-28 | 2007-09-13 | Matsushita Electric Ind Co Ltd | 自動撮影装置 |
JP2008005208A (ja) * | 2006-06-22 | 2008-01-10 | Nec Corp | スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム |
JP2010081260A (ja) * | 2008-09-25 | 2010-04-08 | Casio Computer Co Ltd | 撮像装置及びそのプログラム |
JP2011217202A (ja) * | 2010-03-31 | 2011-10-27 | Saxa Inc | 画像取得装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2014199786A1 (ja) | 2014-12-18 |
CN105165004B (zh) | 2019-01-22 |
JPWO2014199786A1 (ja) | 2017-02-23 |
US20160127657A1 (en) | 2016-05-05 |
CN105165004A (zh) | 2015-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6077655B2 (ja) | 撮影システム | |
JP6532217B2 (ja) | 画像処理装置、画像処理方法、及び画像処理システム | |
CN105705993B (zh) | 利用面部检测来控制摄像机 | |
JP5213105B2 (ja) | 映像ネットワークシステム及び映像データ管理方法 | |
WO2014171258A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20050084179A1 (en) | Method and apparatus for performing iris recognition from an image | |
US20080199054A1 (en) | Iris recognition for a secure facility | |
US20160217326A1 (en) | Fall detection device, fall detection method, fall detection camera and computer program | |
JP5484184B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
EP2991027B1 (en) | Image processing program, image processing method and information terminal | |
CN107438173A (zh) | 视频处理装置、视频处理方法和存储介质 | |
KR20150032630A (ko) | 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP5477777B2 (ja) | 画像取得装置 | |
WO2008132741A2 (en) | Apparatus and method for tracking human objects and determining attention metrics | |
WO2020032254A1 (ja) | 注意対象推定装置及び注意対象推定方法 | |
CN110633648A (zh) | 一种自然行走状态下的人脸识别方法和系统 | |
JP6073474B2 (ja) | 位置検出装置 | |
JP5370380B2 (ja) | 映像表示方法および映像表示装置 | |
CN112261281B (zh) | 视野调整方法及电子设备、存储装置 | |
TW201205449A (en) | Video camera and a controlling method thereof | |
JP2024521292A (ja) | ビデオ会議エンドポイント | |
US11568550B2 (en) | Method, processing device, and system for object tracking | |
CN111582243B (zh) | 逆流检测方法、装置、电子设备和存储介质 | |
US20230410417A1 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6077655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |