[go: up one dir, main page]

JP6646361B2 - 画像処理装置、撮像装置、画像処理方法およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6646361B2
JP6646361B2 JP2015089983A JP2015089983A JP6646361B2 JP 6646361 B2 JP6646361 B2 JP 6646361B2 JP 2015089983 A JP2015089983 A JP 2015089983A JP 2015089983 A JP2015089983 A JP 2015089983A JP 6646361 B2 JP6646361 B2 JP 6646361B2
Authority
JP
Japan
Prior art keywords
unit
eye
image
object detection
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015089983A
Other languages
English (en)
Other versions
JP2016208380A5 (ja
JP2016208380A (ja
Inventor
大石 剛士
剛士 大石
山本 一幸
一幸 山本
佐藤 修三
修三 佐藤
隆之 芦ヶ原
隆之 芦ヶ原
村山 淳
淳 村山
健 西田
健 西田
山田 和弘
和弘 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015089983A priority Critical patent/JP6646361B2/ja
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to EP16724979.6A priority patent/EP3289564A1/en
Priority to PCT/JP2016/002161 priority patent/WO2016174858A1/en
Priority to US15/554,179 priority patent/US11089289B2/en
Priority to KR1020177029454A priority patent/KR102657198B1/ko
Priority to CN201680023673.6A priority patent/CN107533761B/zh
Publication of JP2016208380A publication Critical patent/JP2016208380A/ja
Publication of JP2016208380A5 publication Critical patent/JP2016208380A5/ja
Application granted granted Critical
Publication of JP6646361B2 publication Critical patent/JP6646361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本技術は、画像処理装置、撮像装置、画像処理方法およびプログラムに関する。詳しくは、物体を検出する画像処理装置、撮像装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるためのプログラムに関する。
近年、身に着けて持ち歩くことができる情報端末、いわゆるウェアラブル端末が注目を集め、開発や販売が行われている。一例として、カメラと透過型のディスプレイとを設けた眼鏡型のウェアラブル端末が提案されている(例えば、特許文献1参照。)。このウェアラブル端末は、カメラが撮像した画像において、人物を検出する処理などの画像処理を行って、ディスプレイ上の人物の少ない領域に字幕などを表示させている。
特開2012−108793号公報
しかしながら、上述の従来技術では、カメラが撮像した画像が高解像度であるほど、また、フレームレートが高いほど、人物検出などの画像処理の処理量が多くなってしまうという問題がある。画像処理量を少なくするには、解像度やフレームレートを低下させることが考えられるが、これらを低下させると、人物検出の精度も低下してしまう。このため、画像処理量を低減することが困難である。
本技術はこのような状況に鑑みて生み出されたものであり、画像処理を行う装置において画像処理量を低減することを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、主画像を結像するレンズの光軸方向における奥行きを上記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、上記光軸方向における所定範囲内の上記奥行きに対応する上記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部とを具備する画像処理装置、および、当該装置における画像処理方法、ならびに、当該方法をコンピュータに実行させるためのプログラムである。これにより、所定範囲内の奥行きに対応する画素からなる検出領域に対して物体検出処理が実行されるという作用をもたらす。
また、この第1の側面において、上記奥行き取得部は、撮像範囲の少なくとも一部が上記主画像と重複する一対の視差画像の視差から上記奥行きを取得してもよい。これにより、一対の視差画像の視差から奥行きが取得されるという作用をもたらす。
また、この第1の側面において、上記特定の物体の検出が指示された場合には上記奥行き取得部は上記奥行きを上記主画像内の画素のそれぞれに対応付けて取得し、上記物体検出処理は上記検出領域に対して上記物体検出処理を実行し、上記奥行きの取得が指示された場合には上記物体検出部は上記主画像全体に対して上記物体検出処理を実行し、上記奥行き取得部は、上記主画像のうち上記特定の物体が検出された領域内の上記画素のそれぞれに対応づけて上記奥行きを取得してもよい。これにより、特定の物体が検出された領域内の画素のそれぞれに対応づけて奥行きが取得されるという作用をもたらす。
また、この第1の側面において、左目および右目の少なくとも一方を撮像した目画像に基づいて上記左目および上記右目の少なくとも一方の視線方向を検出する視線検出部をさらに具備し、上記物体検出部は、上記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を上記所定範囲として上記物体検出処理を実行してもよい。これにより、視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を所定範囲として物体検出処理が実行されるという作用をもたらす。
また、この第1の側面において、上記目画像に基づいて上記左目および上記右目の一方を利き目として選択する利き目選択部をさらに具備し、上記視線検出部は、上記利き目を優先して上記視線方向を検出してもよい。これにより、利き目を優先して視線方向が検出されるという作用をもたらす。
また、この第1の側面において、上記目画像に基づいて上記左目および上記右目の少なくとも一方の虹彩パターンを検出する虹彩パターン検出部と、上記検出された虹彩パターンごとに当該虹彩パターンの人物について選択された上記利き目を記憶する虹彩パターン記憶部とをさらに具備し、上記視線検出部は、上記検出された虹彩パターンに対応する上記利き目を上記虹彩パターン記憶部から読み出してもよい。これにより、虹彩パターンに対応する利き目が読み出されるという作用をもたらす。
また、この第1の側面において、上記主画像において上記画素の座標のそれぞれの所定の基準座標からのズレを補正して上記物体検出部に供給する上記補正部をさらに具備してもよい。これにより、基準座標からの座標のズレが補正されるという作用をもたらす。
また、この第1の側面において、上記補正部は、上記座標のズレを補正する前の補正前座標と補正した後の補正後座標とを上記画素のうち一部の代表点ごとに対応付けて保持する歪補正テーブルと、上記代表点に該当しない上記画素の周囲の4つの上記補正前座標のそれぞれに対応する上記補正後座標から補間した座標を上記座標のズレを補正した座標として求める補間部とを備えてもよい。これにより、代表点に該当しない画素の周囲の4つの補正前座標のそれぞれに対応する上記補正後座標から補間した座標が座標のズレを補正した座標として求められるという作用をもたらす。
また、本技術の第2の側面は、主画像を結像するレンズにより主画像を撮像する主画像撮像部と、上記光軸方向における奥行きを上記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、上記光軸方向における所定範囲内の上記奥行きに対応する上記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部とを具備する撮像装置である。これにより、特定の物体が検出された領域内の画素のそれぞれに対応づけて奥行きが取得されるという作用をもたらす。
また、この第2の側面において、撮像範囲の少なくとも一部が上記主画像と重複する一対の視差画像を撮像する視差画像撮像部をさらに具備し、上記奥行き取得部は、上記一対の視差画像の視差から上記奥行きを取得してもよい。これにより、一対の視差画像の視差から奥行きが取得されるという作用をもたらす。
また、この第2の側面において、上記主画像撮像部は、第1の周波数の第1の同期信号に同期して上記主画像を撮像し、上記視差画像撮像部は、第2の周波数の第2の同期信号に同期して上記一対の視差画像を撮像し、上記第1の周波数と上記第2の周波数との比は整数比であってもよい。これにより、第1の同期信号に同期して主画像が撮像され、第2の同期信号に同期して一対の視差画像が撮像されるという作用をもたらす。
また、この第2の側面において、上記主画像撮像部および上記視差画像撮像部のそれぞれの露光期間を同一の値に制御する露光制御部をさらに具備してもよい。これにより、主画像撮像部および視差画像撮像部のそれぞれの露光期間が同一の値に制御されるという作用をもたらす。
また、この第2の側面において、左目および右目の少なくとも一方の画像を目画像として撮像する目画像撮像部と、上記目画像に基づいて上記左目および上記右目の少なくとも一方の視線方向を上記目画像に基づいて検出する視線検出部とをさらに具備し、上記物体検出部は、上記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を上記所定範囲として上記物体検出処理を実行してもよい。
また、この第2の側面において、赤外光を発光する赤外線投光器と、上記赤外線投光器を制御して上記赤外光を発光させる発光制御部とをさらに具備し、上記目画像撮像部は、上記赤外光を光電変換して上記目画像を撮像してもよい。これにより、赤外光の光電変換によって目画像が撮像されるという作用をもたらす。
また、この第2の側面において、上記撮像装置の加速度を検出する加速度センサをさらに具備し、上記主画像撮像部は、上記加速度が大きいほど高い周波数の同期信号に同期して上記主画像を撮像してもよい。これにより、加速度が大きいほど高い周波数の同期信号に同期して主画像が撮像されるという作用をもたらす。
また、本技術の第3の側面は、主画像に対して特定の物体を検出する物体検出処理を実行する物体検出部と、上記特定の物体が検出された領域内の画素のそれぞれに対応付けて上記主画像を結像するレンズの光軸方向における奥行きを、撮像範囲の少なくとも一部が上記主画像と重複する一対の視差画像の視差から取得する奥行き取得部とを具備する画像処理装置である。これにより、特定の物体が検出された領域内の画素のそれぞれに対応付けて奥行きが取得されるという作用をもたらす。
また、本技術の第4の側面は、上記左目および上記右目の少なくとも一方を撮像した目画像に基づいて左目および右目の少なくとも一方の視線方向を検出する視線方向検出部と、主画像のうち上記視線方向に沿った直線上に位置する被写体が撮像された検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部とを具備する画像処理装置である。これにより、視線方向に沿った直線上に位置する被写体が撮像された検出領域に対して物体検出処理が実行されるという作用をもたらす。
本技術によれば、画像処理を行う装置において画像処理量を低減することができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
第1の実施の形態における眼鏡型ウェアラブル端末の斜視図の一例である。 第1の実施の形態における主カメラ、右側カメラおよび左側カメラの撮像範囲の一例を示す図である。 第1の実施の形態における眼鏡型ウェアラブル端末の一構成例を示すブロック図である。 第1の実施の形態におけるカメラ部および信号処理部の一構成例を示すブロック図である。 第1の実施の形態における主カメラの一構成例を示すブロック図である。 第1の実施の形態における画像処理部および表示部の一構成例を示すブロック図である。 第1の実施の形態における補正部の一構成例を示すブロック図である。 第1の実施の形態における眼鏡型ウェアラブル端末の動作の一例を示すフローチャートである。 第1の実施の形態における補正設定処理を示すフローチャートである。 第1の実施の形態における物体検出処理を示すフローチャートである。 第1の実施の形態における主画像データおよび表示データの一例を示す図である。 第1の実施の形態の第1の変形例におけるテスト用紙および主画像データの一例を示す図である。 第1の実施の形態の第1の変形例における座標変換部の一構成例を示すブロック図である。 第1の実施の形態の第1の変形例における補正方法を説明するための図である。 第1の実施の形態の第2の変形例における眼鏡型ウェアラブル端末の一構成例を示すブロック図である。 第1の実施の形態の第3の変形例における眼鏡型ウェアラブル端末の一構成例を示すブロック図である。 第1の実施の形態の第3の変形例におけるカメラ部の一例を示すブロック図である。 第1の実施の形態の第3の変形例における垂直同期信号の一例を示すタイミングチャートである。 第1の実施の形態の第4の変形例におけるカメラ部および信号処理部の一構成例を示すブロック図である。 第2の実施の形態における画像処理部の一構成例を示すブロック図である。 第2の実施の形態における眼鏡型ウェアラブル端末の動作の一例を示すフローチャートである。 第2の実施の形態における測距処理を示すフローチャートである。 第2の実施の形態における主画像データおよび表示データの一例を示す図である。 第3の実施の形態における眼鏡型ウェアラブル端末の斜視図の一例である。 第3の実施の形態における眼鏡型ウェアラブル端末の上面図の一例である。 第3の実施の形態における眼鏡型ウェアラブル端末の一構成例を示すブロック図である。 第3の実施の形態におけるカメラ部および信号処理部の一構成例を示すブロック図である。 第3の実施の形態における画像処理部の一構成例を示すブロック図である。 第3の実施の形態における補正部の一構成例を示すブロック図である。 第3の実施の形態における右目画像データおよび左目画像データの一例を示す図である。 第3の実施の形態における検出範囲の設定方法を説明するための図である。 第3の実施の形態における物体検出処理を示すフローチャートである。 第3の実施の形態の第1の変形例における画像処理部の一構成例を示すブロック図である。 第3の実施の形態の第1の変形例における虹彩パターン情報ごとの利き目情報の一例を示す図である。 第3の実施の形態の第1の変形例における物体検出処理を示すフローチャートである。 第3の実施の形態の第1の変形例における視線検出処理を示すフローチャートである。 第3の実施の形態の第2の変形例における画像処理部の一構成例を示すブロック図である。 第3の実施の形態の第2の変形例における立体画像の表示位置の一例を示す図である。 第3の実施の形態の第3の変形例における眼鏡型ウェアラブル端末の一構成例を示すブロック図である。 第3の実施の形態の第3の変形例における眼鏡型ウェアラブル端末の動作の一例を示すタイミングチャートである。 第3の実施の形態の第4の変形例における眼鏡型ウェアラブル端末の動作の一例を示すタイミングチャートである。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(所定範囲の奥行きの領域で物体を検出する例)
2.第2の実施の形態(物体を検出した領域の奥行きを求めるか、所定範囲の奥行きの領域で物体を検出する例)
3.第3の実施の形態(視線方向を検出し、所定範囲の奥行きの領域で物体を検出する例)
<1.第1の実施の形態>
[眼鏡型ウェアラブル端末の構成例]
図1は、第1の実施の形態における眼鏡型ウェアラブル端末100の斜視図の一例である。この眼鏡型ウェアラブル端末100は、リム101および102と、主カメラ111と、右側カメラ115と、左側カメラ116と、右側透過型ディスプレイ151と、左側透過型ディスプレイ152とを備える。
眼鏡型ウェアラブル端末100の全体の形状は、眼鏡と類似しており、眼鏡のレンズの代わりに右側透過型ディスプレイ151および左側透過型ディスプレイ152が設けられる。右側透過型ディスプレイ151は、眼鏡型ウェアラブル端末100を装着したユーザの右目に対向する位置に取り付けられ、左側透過型ディスプレイ152は、ユーザの左目に対向する位置に取り付けられる。
リム101は、右側透過型ディスプレイ151が取り付けられる部材であり、リム102は、左側透過型ディスプレイ152が取り付けられる部材である。主カメラ111および右側カメラ115は、リム101に設けられ、左側カメラ116はリム102に設けられる。また、ユーザの顔が向く方向を前方(矢印の方向)として、主カメラ111、右側カメラ115および左側カメラ116は、リム101および102の前方に向いた面に取り付けられる。
なお、主カメラ111をリム101に設ける構成としているが、右側カメラ115および左側カメラ116と撮像範囲の少なくとも一部が重複する位置であれば、リム102など、リム101以外の個所に設けてもよい。
図2は、第1の実施の形態における主カメラ111、右側カメラ115および左側カメラ116の撮像範囲の一例を示す図である。同図において、実線で囲まれた領域は、ユーザの頭頂部への方向を上方として、上方から見た主カメラ111の撮像範囲を示す。また、一点鎖線で囲まれた領域は、上方から見た右側カメラ115の撮像範囲を示し、点線で囲まれた領域は、上方から見た左側カメラ116の撮像範囲を示す。主カメラ111、右側カメラ115および左側カメラ116は、いずれも眼鏡型ウェアラブル端末100の前面に取り付けられているため、これらのカメラの撮像範囲は、その少なくとも一部が重複する。同図において斜線の部分は、撮像範囲の重複部分である。
図3は、第1の実施の形態における眼鏡型ウェアラブル端末100の一構成例を示すブロック図である。この眼鏡型ウェアラブル端末100は、カメラ部110、信号処理部130、画像処理部200、基準信号発生部120、露光制御部140、および、表示部150を備える。なお、眼鏡型ウェアラブル端末100は、特許請求の範囲に記載の撮像装置および画像処理装置の一例である。
基準信号発生部120は、撮像を行うタイミングを示す基準信号として垂直同期信号VSYNCを発生するものである。この基準信号発生部120は、垂直同期信号VSYNCをカメラ部110に信号線129を介して供給する。
カメラ部110は、垂直同期信号VSYNCに同期して画像データを撮像するものである。このカメラ部110は、撮像した画像データを信号処理部130に信号線119を介して供給する。
信号処理部130は、画像データに対してホワイトバランス処理やノイズ除去処理などの各種の信号処理を行うものである。信号処理部130は、処理後の画像データを信号線139を介して露光制御部140および画像処理部200に供給する。また、信号処理部130は、画像データから光量を測光して測光量を信号線138を介して露光制御部140に供給する。
画像処理部200は、画像データに対して所定の画像処理を実行するものである。この画像処理は、顔や人物などの特定の物体を検出する処理を含む。画像処理部200は、物体を検出した結果を示す表示データを生成し、信号線209を介して表示部150に供給する。例えば、検出した物体の位置、形状や名称などを表示するためのデータが表示データとして生成される。
露光制御部140は、測光量に基づいて、カメラ部110の露光量を制御するものである。露光制御部140は、絞りや露光時間を制御するための露光制御信号を信号線149を介してカメラ部110に供給する。表示部150は、表示データを表示するものである。
なお、眼鏡型ウェアラブル端末100は、外部の機器と通信を行う外部インターフェースをさらに備え、主画像データや表示データを外部に送信してもよい。また、カメラ部110、信号処理部130、画像処理部200、基準信号発生部120、露光制御部140、および、表示部150を同一の機器に設ける構成としているが、これを別々の装置や機器に分散して設けてもよい。例えば、カメラ部、信号処理部130、露光制御部140、および、表示部150を眼鏡型ウェアラブル端末100に設け、画像処理部200を外部のサーバ等に設ける構成であってもよい。また、カメラ部110等を眼鏡型ウェアラブル端末100に設ける構成としているが、タブレット端末やスマートフォンなど、眼鏡型ウェアラブル端末以外の装置や機器に設けてもよい。
[カメラ部および信号処理部の構成例]
図4は、第1の実施の形態におけるカメラ部110および信号処理部130の一構成例を示すブロック図である。カメラ部110は、主カメラ111、右側カメラ115および左側カメラ116を備える。信号処理部130は、信号処理回路131、132および133を備える。
主カメラ111は、眼鏡型ウェアラブル端末100を撮像したユーザの視野を撮像するものである。この主カメラ111は、撮像した画像データを主画像データとして信号処理回路131に供給する。なお、主カメラ111は、特許請求の範囲に記載の主画像撮像部の一例である。
右側カメラ115および左側カメラ116は、少なくとも一部が主カメラ111と重複する撮像範囲を撮像するものである。右側カメラ115および左側カメラ116により、それらのカメラの取り付け位置間の距離に応じた視差の一対の視差画像データが撮像される。一対の視差画像のそれぞれの解像度は同一である。右側カメラ115は、それらの視差画像データの一方を右側画像データとして信号処理回路132に供給し、左側カメラ116は、視差画像データの他方を左側画像データとして信号処理回路133に供給する。なお、右側カメラ115および左側カメラ116を含むモジュールは、特許請求の範囲に記載の視差画像撮像部の一例である。
ここで、一対の視差画像データの解像度は、主画像データよりも低いことが望ましい。視差画像データの解像度を低くすることにより、後述する測距の演算量を削減し、消費電力を低減することができる。また、一対の視差画像データ内の画素データは色情報を含まず、主画像データ内の画素データは色情報を含むことが望ましい。視差画像をモノクロ画像とする方が、カラー画像とするよりも撮像素子の感度を高くすることができ、また、撮像素子の画素数を有効に活用する面でも有利である。一方、主画像データをカラー画像とする方が、モノクロ画像とするよりも物体の検出精度を高くすることができる。
また、右側カメラ115および左側カメラ116の光学系は、同一であることが望ましい。これらの光学系が揃っていないと、光学歪みなどのキャリブレーションが困難となるためである。
なお、主カメラ111、右側カメラ115および左側カメラ116を同一の機器(眼鏡型ウェアラブル端末100)に設けているが、この構成に限定されない。各カメラにより、少なくとも一部が重複する撮像範囲を撮影することができるのであれば、それらのカメラを別々の機器に分散して設けてもよい。ただし、複数の機器に分散して設ける場合には、いずれかの機器が移動した際に、主画像の座標と視差画像の座標とを対応させるためのキャリブレーションを行う必要がある。このようなキャリブレーションの頻度を低減する観点から、主カメラ111、右側カメラ115および左側カメラ116を同一の機器に設けることが望ましい。
また、露光制御部140は、主画像および視差画像のそれぞれの撮像時の露光開始タイミングおよび露光終了タイミングを制御して露光期間を同一にすることが望ましい。露光期間を揃えることにより、撮影条件の差を補正する演算を無くすことができ、また、測距物体検出の精度を向上させることができる。
信号処理回路131は、主画像データに対して所定の信号処理を行うものである。信号処理回路132は、右側画像データに対して所定の信号処理を行うものである。また、信号処理回路133は、左側画像データに対して所定の信号処理を行うものである。信号処理回路131、132および133は、処理後の画像データを画像処理部200に供給する。また、信号処理回路131、132および133は、対応する画像データから光量を測光して測光量を露光制御部140に供給する。
[主カメラの構成例]
図5は、第1の実施の形態における主カメラ111の一構成例を示すブロック図である。この主カメラ111は、撮像レンズ112、絞り113および撮像素子114を備える。なお、右側カメラ115および左側カメラ116の構成は、主カメラ111と同様である。ただし、主カメラ111は可変焦点のカメラで、右側カメラ115および左側カメラ116は固定焦点のカメラであることが望ましい。また、右側カメラ115および左側カメラ116は、同じ焦点距離で、解像度がピークとなるように調整されていることが望ましい。右側カメラ115および左側カメラ116を固定焦点とすることにより、容易に測距制精度を向上させることができる。
撮像レンズ112は、被写体からの光を集光して撮像素子114に導くものである。絞り113は、露光制御信号に従って通過する光の量を調整するものである。撮像素子114は、垂直同期信号VSYNCに同期して、光を電気信号に変換して主画像データを生成するものである。また、撮像素子114は、露光制御信号に従って、撮像素子114の画素内のトランジスタを制御することにより露光時間を変更する。このように、画素内のトランジスタを制御することにより露光時間を変更する方式は、電子シャッター方式と呼ばれる。
なお、主カメラ111は、電子シャッター方式により露光時間を変更しているが、メカニカルシャッターをさらに備え、そのメカニカルシャッターを制御することにより露光時間を変更してもよい。右側カメラ115および左側カメラ116についても同様である。
また、右側カメラ115および左側カメラ116を固定焦点のカメラとしているが、可変焦点のカメラとしてもよい。この場合には、これらのカメラの焦点距離は同一に制御されることが望ましい。また、主カメラ111を可変焦点のカメラとしているが、固定焦点であってもよい。
[画像処理部および表示部の構成例]
図6は、第1の実施の形態における画像処理部200および表示部150の一構成例を示すブロック図である。この画像処理部200は、補正部210、物体検出部240および奥行き取得部250を備える。また、表示部150は、右側透過型ディスプレイ151および左側透過型ディスプレイ152を備える。
ここで、画像処理部200には、物体検出モードであるか、補正設定モードであるかを示すモード信号が入力される。この物体検出モードは、特定の物体の検出を行うモードである。補正設定モードは、画像データにおける座標のズレを補正するための補正データを設定するモードである。この補正データは、例えば、画像データにおける座標ズレの補正を行う範囲や、全画素について補正前後の座標などを含む。
補正部210は、カメラの取り付け位置の位置ズレや、撮像レンズ112の光学歪みによる、所定の基準座標からの座標のズレを画素毎に補正するものである。物体検出モードにおいて補正部210は、主画像データにおいて、主カメラ111の位置ズレおよび光学歪みの少なくとも一方による座標ズレを補正して物体検出部240に供給する。また、補正部210は、右側画像データにおいても同様に、右側カメラ115の位置ズレ等による座標ズレを補正して奥行き取得部250に供給する。さらに、補正部210は、左側画像データにおいても同様に、左側カメラ116の位置ズレ等による座標ズレを補正して奥行き取得部250に供給する。
一方、補正設定モードにおいて補正部210は、主画像データ、右側画像データおよび左側画像データのそれぞれについて、座標ズレを補正するための補正データを設定する。例えば、補正部210は、画像データのそれぞれの特徴点を検出し、それらの特徴点の座標を、座標ずれのない仮想の統一座標系における座標に正規化する。そして、補正部210は、正規化された特徴点の座標のマッチングをとることにより、座標ズレを補正する。このように、正規化された座標を処理することにより、ずれのない理想的な座標系で演算することができ、マッチング処理などを大幅に軽減することができる。また、特徴点のマッチングを行うことで、画像全体でマッチングを行うよりも高い精度で効率的に補正を行うことができる。
なお、眼鏡型ウェアラブル端末100自体が、補正データを生成して設定する構成としているが、眼鏡型ウェアラブル端末100の外部の装置が、補正データを生成して眼鏡型ウェアラブル端末100に設定する構成としてもよい。
奥行き取得部250は、右側画像データおよび左側画像データの視差から、主画像データ内の画素ごとの奥行きを取得するものである。ここで、奥行きは、撮像レンズ112の光軸方向における、基準位置から(画像データの結像面の位置など)から被写体までの距離を示す。前述したように、主画像データと、右側画像データおよび左側画像データとのそれぞれの撮像範囲は一部が重複するため、奥行きの取得は、その重複した範囲内の画素についてのみ実行される。奥行き取得部250は、画素毎の奥行きを示すデプスマップを物体検出部240に供給する。
物体検出部240は、主画像データに対し、特定の物体を検出する物体検出処理を実行するものである。この物体検出部240は、デプスマップを用いて、光軸方向における所定の設定範囲内の奥行きに対応する画素からなる主画像データ内の領域を検出領域として求める。物体検出部240には、デプスマップ内の画素の座標と、主画像データ内の画素の座標との対応関係が予め保持されているものとする。また、光軸方向における設定範囲には、例えば、主画像の結像面からの距離Dn乃至Dfの範囲が設定される。Dn乃至Dfには、特定の物体の検出精度が十分に高くなる値が予め設定される。Dn乃至Dfの単位は、例えばメートルである。物体として人物などを検出する場合、例えば、2乃至15メートル程度の範囲で十分な検出精度が得られるのであれば、Dnに2が設定され、Dfに15が設定される。そして、物体検出部240は、設定範囲内の奥行きが得られた、主画像データ内の検出領域に対して物体検出処理を実行する。物体検出部240は、検出結果を示す表示データを生成して表示部150に供給する。
右側透過型ディスプレイ151および左側透過型ディスプレイ152は、物体が検出された位置に、画像処理部200からの表示データを表示させる。
[補正部の構成例]
図7は、第1の実施の形態における補正部210の一構成例を示すブロック図である。この補正部210は、座標ズレ算出部211と座標変換部220、212および213とを備える。
座標ズレ算出部211は、補正設定モードにおいて主画像データ、右側画像データおよび左側画像データのそれぞれについて、座標ズレを算出するものである。この座標ズレ算出部211は、算出した座標ズレを補正するための補正データを生成して、座標変換部220、212および213に供給する。
座標変換部220は、補正データを使用して、主画像データの補正前の座標を補正後の座標に変換するものである。この座標変換部220は、補正設定モードにおいて生成された補正データを保持しておく。そして、座標変換部220は、物体検出モードにおいて、補正データを用いて座標を変換し、変換後の主画像データを物体検出部240に供給する。
座標変換部212は、補正データを使用して、右側画像データの補正前の座標を補正後の座標に変換するものである。座標変換部213は、補正データを使用して、左側画像データの補正前の座標を補正後の座標に変換するものである。
図8は、第1の実施の形態における眼鏡型ウェアラブル端末100の動作の一例を示すフローチャートである。この動作は、例えば、電源が投入されたときや、所定のアプリケーションが実行されたときに開始する。
眼鏡型ウェアラブル端末100は、物体検出モードに設定されたか否かを判断する(ステップS901)。補正設定モードに設定された場合に(ステップS901:No)、眼鏡型ウェアラブル端末100は、補正データを設定する補正設定処理を実行する(ステップS910)。一方、物体検出モードに設定された場合に(ステップS901:Yes)、眼鏡型ウェアラブル端末100は、特定の物体を検出する物体検出処理を実行する(ステップS920)。ステップS910またはS920の後、眼鏡型ウェアラブル端末100は、補正設定処理または物体検出処理が終了したか否かを判断する(ステップS902)。それらの処理が終了していない場合には(ステップS902:No)、眼鏡型ウェアラブル端末100は、ステップS901以降を繰り返す。一方、処理が終了した場合には(ステップS902:Yes)、眼鏡型ウェアラブル端末100は、動作を終了する。
図9は、第1の実施の形態における補正設定処理を示すフローチャートである。眼鏡型ウェアラブル端末100は、主画像データを撮像し(ステップS911)、また、一対の視差画像データを撮像する(ステップS912)。そして、眼鏡型ウェアラブル端末100は、それらの画像を比較して、座標ズレを算出し(ステップS913)、補正データを設定する(ステップS914)。ステップS914の後、眼鏡型ウェアラブル端末100は、補正設定処理を終了する。
図10は、第1の実施の形態における物体検出処理を示すフローチャートである。眼鏡型ウェアラブル端末100は、主画像データを撮像し(ステップS921)、また、一対の視差画像データを撮像する(ステップS922)。そして、眼鏡型ウェアラブル端末100は、各画像データの座標ズレを補正し(ステップS923)、一対の視差画像データからデプスマップを生成する(ステップS924)。また、眼鏡型ウェアラブル端末100は、所定範囲内の奥行きの検出領域において、特定の物体を検出し(ステップS925)、検出結果を表示する(ステップS926)。ステップS926の後、眼鏡型ウェアラブル端末100は、物体検出処理を終了する。
図11は、第1の実施の形態における主画像データおよび表示データの一例を示す図である。同図におけるaは、主画像データ500の一例を示す図であり、同図におけるbは、表示データ510の一例を示す図である。
主画像データ500は、人物501および502などの被写体を含む。この人物501は、眼鏡型ウェアラブル端末100から十分に離れた、距離d1の位置に立っているため、全身が写っている。このため、距離d1では、眼鏡型ウェアラブル端末100は、人物を正確に検出することができる。一方、人物502は、端末に非常に近い、距離d2の位置に立っており、顔の一部だけが写っている。このように距離d2では、距離が近すぎて眼鏡型ウェアラブル端末100が人物を正確に検出することができないおそれがある。
この場合、d1を含み、d2を含まない範囲を検出範囲に設定しておけば、眼鏡型ウェアラブル端末100は、d1の領域のみに対して物体検出処理を行い、人物を効率的に検出することができる。人物を検出することができないd2の領域には物体検出処理が行われないため、物体検出処理の処理量を低減することができる。処理量の低減により、眼鏡型ウェアラブル端末100は、比較的低い消費電力で、物体を効率的に検出することができる。
また、表示データ510は、検出された人物501の輪郭を示す検出結果511を含む。なお、眼鏡型ウェアラブル端末100は、物体の輪郭を表示しているが、この構成に限定されない。例えば、眼鏡型ウェアラブル端末100は、物体を囲む矩形や楕円の枠など、輪郭以外の検出結果を表示してもよい。また、眼鏡型ウェアラブル端末100は、検出した現実の物体と重なる位置に、仮想の物体を表示してもよい。このように、現実の物体に仮想の物体を重ねて表示させる技術は、AR(Augmented Reality)技術と呼ばれる。
このように、本技術の第1の実施の形態によれば、眼鏡型ウェアラブル端末100が所定範囲内の奥行きに対応する画素からなる検出領域に限定して物体検出処理を実行するため、その所定範囲外の奥行きの領域に対する処理量を削減することができる。これにより、眼鏡型ウェアラブル端末100の消費電力を低減することができる。
[第1の変形例]
上述の第1の実施の形態では、眼鏡型ウェアラブル端末100は、全画素について補正前後の座標を対応付けたテーブルを用いて、座標ズレを補正していた。しかし、画像データの解像度が増大してテーブルのサイズが大きくなると、そのテーブルを保持するメモリの容量が不足するおそれがある。第1の実施の形態の第1の変形例の眼鏡型ウェアラブル端末100補正前後の座標を保持するテーブルのサイズを削減する点において第1の実施の形態と異なる。
図12は、第1の実施の形態の第1の変形例におけるテスト用紙および主画像データの一例を示す図である。同図におけるaは、テスト用紙515の一例である。同図におけるbは、テスト用紙515を主カメラ111が撮像した際の主画像データ516の一例を示す図である。
テスト用紙515として、一定の間隔を空けて二次元格子状に複数の黒丸が配列された画像を印刷したものが用いられる。これらの黒丸が代表点として用いられる。
工場出荷前や修理時などにおいて、作業者は、眼鏡型ウェアラブル端末100に補正設定モードを設定し、テスト用紙515を所定の位置に配置する。そして、作業者は、眼鏡型ウェアラブル端末100を操作してテスト用紙515を撮像させる。眼鏡型ウェアラブル端末100の主カメラ111は、テスト用紙515を撮像して主画像データ516を生成する。
ここで、主カメラ111の撮像レンズ112に光学歪みがあると、主画像データ516の代表点の座標が基準座標からずれてしまう。ここで、基準座標は、テスト用紙515の代表点に対応する、主画像データ516における設計上の座標である。また、製造ばらつきにより主カメラ111の取り付け位置がずれていると、主画像データ516の代表点の座標が基準座標からずれてしまう。例えば、テスト用紙515において左上の領域が歪んでいるのは、光学歪みの影響による。また、テスト用紙515の代表点が主画像データ510と比較して、全体的に右側にずれているのは、取り付け位置の位置ずれの影響による。
眼鏡型ウェアラブル端末100は、主画像データ516の代表点のそれぞれの座標ズレを算出し、代表点ごとに補正前後の座標を対応づけたテーブルを作成する。右側画像データおよび左側画像データについても同様の処理が行われる。
図13は、第1の実施の形態の第1の変形例における座標変換部220の一構成例を示すブロック図である。この座標変換部220は、補正範囲記憶部221、リードアドレスカウンタ222、ライトアドレスカウンタ223、リードアドレスデコーダ224、ライトアドレスデコーダ225および歪補正テーブル226を備える。また、座標変換部220は、歪補正アドレス生成部227、遅延調整部228、歪補正アドレスデコーダ229、ライト制御部230、リード制御部231、画像メモリ232および補間処理部233を備える。なお、第1の変形例の座標変換部212および213の構成は、座標変換部220と同様である。
補正範囲記憶部221は、座標ズレの補正を行う補正範囲を記憶するものである。例えば、無効画素を除く、有効画素の水平座標および垂直座標のそれぞれの範囲が補正範囲として設定される。また、補正範囲は、座標ズレ算出部211により設定される。
ライトアドレスカウンタ223は、垂直同期周波数および水平同期周波数などのタイミング信号に同期して計数値を計数するものである。このライトアドレスカウンタ223は、垂直座標の補正範囲内で垂直同期信号に同期して計数を行い、また、水平座標の補正範囲内で水平同期信号に同期して計数して計数を行う。垂直同期信号に同期して計数された計数値は、垂直ライトアドレスを示し、水平同期信号に同期して計数された計数値は、水平ライトアドレスを示す。ライトアドレスカウンタ223は、垂直ライトアドレスおよび水平ライトアドレスからなるライトアドレスをライトアドレスデコーダ225およびリードアドレスカウンタ222に供給する。また、ライトアドレスカウンタ223は、補正範囲に対応する垂直ライトアドレスおよび水平ライトアドレスの範囲をライト範囲としてライトアドレスデコーダ225およびリードアドレスカウンタ222に供給する。
リードアドレスカウンタ222は、ライトアドレスの出力タイミングに同期して計数値を計数するものである。このリードアドレスカウンタ222は、垂直ライトアドレスの出力タイミングに同期してライト範囲内で計数値を計数して垂直リードアドレスを生成する。また、リードアドレスカウンタ222は、水平ライトアドレスの出力タイミングに同期してライト範囲内で計数値を計数して垂直リードアドレスを生成する。リードアドレスカウンタ222は、垂直リードアドレスおよび水平リードアドレスからなるリードアドレスRをリードアドレスデコーダ224に供給する。また、リードアドレスカウンタ222は、ライト範囲に対応する垂直リードアドレスおよび水平リードアドレスの範囲をリード範囲としてリードアドレスデコーダ224に供給する。
歪補正テーブル226は、補正前テーブルアドレスと補正後テーブルアドレスとを対応付けて記憶するものである。ここで、補正前テーブルアドレスは、補正前の代表点のアドレスであり、補正後テーブルアドレスは、対応する補正前テーブルアドレスの座標ズレを補正したアドレスである。これらのアドレスは、座標ズレ算出部211により設定される。
リードアドレスデコーダ224は、代表点に該当しないリードアドレスRのそれぞれについて、補間係数を算出するものである。まず、リードアドレスデコーダ224は、歪補正テーブル226を参照してリードアドレスRが、補正前テーブルアドレス(すなわち、代表点のアドレス)であるか否かを判断する。リードアドレスRが代表点のアドレスであれば、リードアドレスデコーダ224は、リードアドレスRをそのまま歪補正アドレス生成部227に供給する。
一方、リードアドレスRが代表点のアドレスでない場合にリードアドレスデコーダ224は、そのアドレスの周囲の4つの補正前テーブルアドレスA、B、CおよびDを歪補正テーブル226から読み出し、それらのアドレスから補間係数を求める。ここで、補正前テーブルアドレスA、B、CおよびDのそれぞれの座標を(H、V)、(H、V)、(Hc、Vc)、(H、V)とし、H>H、V>V、V>VおよびH>Hの関係が成り立つものとする。この場合、リードアドレスデコーダ224は、AおよびCを通る直線ACと、BおよびDを通る直線BDとの間で線形補間を行ってリードアドレスRを通る直線を補間直線として求める。例えば、直線ACの傾きおよび切片を(a、b)とし、直線BDの傾きおよび切片を(a2、b2)とし、リードアドレスRを(H、V)として、次の式により、補間直線の傾きおよび切片(a、b)が算出される。
(a−a)/(a−a)=(b−b)/(b−b) ・・・式1
=a×H+b ・・・式2
リードアドレスデコーダ224は、算出した補間直線とAおよびBを結ぶ直線ABとの交点Mの座標(H、V)を算出し、補間直線とCおよびDを結ぶ直線CDとの交点Nの座標(H、V)を算出する。リードアドレスデコーダ224は、例えば、次の式により、MおよびNを結ぶ線分MNをリードアドレスRにより内分する内分比mを求める。
(H−H):(H−H)=m:(1−m) ・・・式3
また、リードアドレスデコーダ224は、直線ABと直線CDとの間で線形補間を行ってリードアドレスRを通る補間直線を求める。例えば、ABの傾きおよび切片を(a、b)とし、CDの傾きおよび切片を(a、b)として、式1および式2により、補間直線の傾きおよび切片(a、b)が算出される。
リードアドレスデコーダ224は、算出した補間直線と直線ACとの交点Oの座標(H、V)を算出し、補間直線と直線BDとの交点Pの座標(H、V)を算出する。歪補正アドレス生成部227は、例えば、次の式により、線分OPをリードアドレスRにより内分する内分比nを求める。
(H−H):(H−H)=n:(1−n) ・・・式4
そして、リードアドレスデコーダ224は、算出した補間係数mおよびnと、リードアドレスRと、補正前テーブルアドレスA、B、CおよびDとを歪補正アドレス生成部227に供給する。また、リードアドレスデコーダ224は、補間係数mおよびnと、リードアドレスRとを補間処理部233に供給する。
歪補正アドレス生成部227は、リードアドレスRから、歪みを補正した歪補正アドレスR’を生成するものである。この歪補正アドレス生成部227は、リードアドレスRのみをリードアドレスデコーダ224から受け取った場合に、そのリードアドレスRに対応する補正後テーブルアドレスを歪補正テーブル226から読み出す。そして、歪補正アドレス生成部227は、読み出したアドレスを歪補正アドレスR’として歪補正アドレスデコーダ229に供給する。
一方、補間係数等をリードアドレスRとともに受けとった場合に歪補正アドレス生成部227は、歪補正テーブル226から、補正前テーブルアドレスA、B、CおよびDに対応する補正後テーブルアドレスA’、B’、C’およびD’を読み出す。また、歪補正アドレス生成部227は、補間係数mおよびnを歪補正後補間係数m’およびn’に変換する。ここで、歪補正後補間係数m’およびn’は、所定の係数群のうち、補間係数mおよびnに最も近い係数である。この係数群は、A’およびB’を結ぶ線分の画素数に応じた係数からなる群である。例えば、A’からB’までの線分A’B’の画素数が4画素である場合、その線分を内分する内分比は、0、1/4、2/4、3/4および1のいずれかである。この場合、0、1/4、2/4、3/4および1からなる係数群のうち、補間係数mおよびnに最も近い係数が歪補正後補間係数m’およびn’として選択される。
歪補正アドレス生成部227は、補正後テーブルアドレスA’、B’、C’およびD’と歪補正後補間係数m’およびn’とから、リードアドレスRに対応する歪補正アドレスR’を求める。例えば、A’、B’、C’およびD’のそれぞれの座標を(H’、V’)、(H’、V’)、(Hc’、Vc’)、(H’、V’)とし、次の式により、R’の座標(H’、V’)が算出される。
(H’−H’):(H’−H’)=m’:(1−m’) ・・・式5
(V’−V’):(V’−V’)=n’:(1−n’) ・・・式6
歪補正アドレス生成部227は、上式により求めた歪補正アドレスR’を歪補正アドレスデコーダ229に供給する。また、歪補正アドレス生成部227は、歪補正後補間係数を補間処理部233に供給する。なお、歪補正アドレス生成部227は、特許請求の範囲に記載の補間部の一例である。
歪補正アドレスデコーダ229は、歪補正アドレスR’を、画像メモリ232上のアドレスに変換するものである。歪補正アドレスデコーダ229は、変換したアドレスをリードメモリアドレスとしてリード制御部231に供給する。
ライトアドレスデコーダ225は、ライトアドレスを、画像メモリ232上のアドレスに変換するものである。ライトアドレスデコーダ225は、変換したアドレスをライトメモリアドレスとしてライト制御部230に供給する。
遅延調整部228は、主画像データ内の画素データのそれぞれを一定時間遅延させてライト制御部230に順に供給するものである。
ライト制御部230は、ライトメモリアドレスを指定したライトコマンドを発行して画像メモリ232に供給し、画素データをライトメモリアドレスに書き込むものである。画像メモリ232は、主画像データを記憶するものである。リード制御部231は、リードメモリアドレスを指定したリードコマンドを発行して画像メモリ232に供給し、画素データを読み出すものである。このリード制御部231は、読み出した画素データを補間処理部233に供給する。
補間処理部233は、画像メモリ232から読み出された主画像データにおいて足りない画素を補間するものである。例えば、補正前のA、B、CおよびDで囲まれる領域内の画素数が15画素で、補正後のA’、B’、C’およびD’で囲まれる領域内の画素数が16画素の場合、1画素を補間する必要がある。補間処理部233は、補間係数、歪補正後補間係数およびリードアドレスRと画像メモリから読み出した画素データとに基づいて、必要な画素データを補間する。補間処理部233は、補間後の画像データを歪補正した主画像データとして物体検出部240に供給する。
図14は、第1の実施の形態の第1の変形例における補正方法を説明するための図である。同図におけるaは、補正前テーブルアドレスA、B、CおよびDとリードアドレスRとを示す図である。同図におけるbは、補正後テーブルアドレスA’、B’、C’およびD’と歪補正アドレスR’とを示す図である。
リードアドレスRが代表点のアドレスでない場合にリードアドレスデコーダ224は、Rの周囲の4つの代表点のアドレス、すなわち補正前リードアドレスA、B、CおよびDを歪補正テーブル226から読み出す。
リードアドレスデコーダ224は、式1および式2により、直線ACと直線BDとの間において線形補間を行ってリードアドレスRを通る直線を補間直線として求める。歪補正アドレス生成部227は、その補間直線と直線ABとの交点Mの座標を算出し、補間直線と直線CDとの交点Nの座標を算出する。そして、リードアドレスデコーダ224は、例えば、線分MNをリードアドレスRにより内分する内分比mを求める。
また、リードアドレスデコーダ224は、直線ABと直線CDとの間において線形補間を行ってリードアドレスRを通る直線を補間直線として求める。歪補正アドレス生成部227は、その補間直線と直線ACとの交点Oの座標を算出し、補間直線と直線BDとの交点Pの座標を算出する。そして、リードアドレスデコーダ224は、例えば、線分OPをリードアドレスRにより内分する内分比nを求める。
歪補正アドレス生成部227は、歪補正テーブル226から、補正前テーブルアドレスA、B、CおよびDに対応する補正後テーブルアドレスA’、B’、C’およびD’を読み出す。また、歪補正アドレス生成部227は、補正係数mおよびnから歪補正後補正係数m’およびn’を求める。そして、図14におけるbに例示するように、歪補正アドレス生成部227は、求めたm’およびn’と補正後テーブルアドレスA’、B’、C’およびD’とから、式5および式6によりリードアドレスRに対応する歪補正アドレスR’を求める。
このように、歪補正アドレス生成部227は、4つの代表点の座標から、代表点に該当しない点の座標を補間するため、歪補正テーブル226には代表点のみについて補正前後の座標を保持しておけばよい。したがって、全画素について補正前後の座標を保持する構成と比較して、歪補正テーブル226のサイズを小さくすることができる。
このように本技術の第1の実施の形態の第1の変形例によれば、眼鏡型ウェアラブル端末100は、代表点以外の座標を代表点の座標から補間するため、歪補正テーブル226のサイズを削減することができる。
[第2の変形例]
上述の第1の実施の形態では、眼鏡型ウェアラブル端末100は、ユーザが頭部を動かした場合であっても同じフレームレートで撮像を行っていた。しかし、頭部に動きがあった場合には画像データ内の物体の位置も大きく変化するため、物体を正確に検出することができなくなるおそれがある。第1の実施の形態の第2の変形例における眼鏡型ウェアラブル端末100は、頭部の動きがあっても物体を正確に検出することができるように主カメラ111等を制御する点において第1の実施の形態と異なる。
図15は、第1の実施の形態の第2の変形例における眼鏡型ウェアラブル端末100の一構成例を示すブロック図である。第1の実施の形態の第2の変形例における眼鏡型ウェアラブル端末100は、加速度センサ160をさらに備える点において第1の実施の形態と異なる。
加速度センサ160は、一定のサンプリングレートにより眼鏡型ウェアラブル端末100の加速度を検出するものである。加速度センサ160は、検出した加速度の値を基準信号発生部120および露光制御部140に供給する。また、加速度センサ160が、加速度を検出するサンプリングレートは、視差画像データのフレームレートよりも高いことが望ましい。一般に、加速度センサの方が、撮像素子よりも消費電力が少ないため、加速度センサのサンプリングレートの方が撮像素子と比較して高くしやすい。
第2の変形例の基準信号発生部120は、加速度が大きいほど、垂直同期信号VSYNVCの周波数を大きくする。これにより、主画像データ等の画像データのフレームレートが高くなる。また、第2の変形例の露光制御部140は、加速度が大きいほど露光時間を短くする。
このように、本技術の第1の実施の形態の第2の変形例によれば、眼鏡型ウェアラブル端末100は、その加速度が大きいほど高いフレームレートで画像データを撮像するため、ユーザが頭部を動かしても物体を正確に検出することができる。
[第3の変形例]
上述の第1の実施の形態では、眼鏡型ウェアラブル端末100は、主画像データと、一対の視差画像データ(右側画像データおよび左側画像データ)とを同一のフレームレートで撮像していた。しかし、この構成では、視差画像データを用いて測距および物体検出を行う間隔と異なる間隔で主画像データの撮像を行うことができない。第1の実施の形態の第3の変形例の眼鏡型ウェアラブル端末100は、測距および物体検出の間隔と異なる間隔で撮像を行う点において第1の実施の形態と異なる。
図16は、第1の実施の形態の第3の変形例における眼鏡型ウェアラブル端末100の一構成例を示すブロック図である。第1の実施の形態の第3の変形例の眼鏡型ウェアラブル端末100は、基準信号発生部120の代わりに基準信号発生部121を備え、記録部165をさらに備える点において第1の実施の形態と異なる。
記録部165は、主画像データを記録するものである。また、基準信号発生部121は、互いに周波数の異なる垂直同期信号VSYNC1およびVSYNC2を生成する。基準信号発生部121は、それらの垂直同期信号を信号線128および129を介してカメラ部110に供給する。
ここで、VSYNC1の周波数と、VSYNC2の周波数とは比は整数比であることが望ましい。整数比とすれば、奥行きの算出のタイミングと、物体検出のタイミングとを揃えることができる。また、VSYNC1およびVSYNC2の周波数が整数比でないと、主画像データと視差画像データとの一方を補間する必要が生じるためである。
図17は、第1の実施の形態の第3の変形例におけるカメラ部110の一例を示すブロック図である。垂直同期信号VSYNC1は、主カメラ111に供給され、垂直同期信号VSYNC2は、右側カメラ115および左側カメラ116に供給される。これにより、主画像データと視差画像データとのそれぞれが、互いに異なるフレームレートで撮像される。
また、第3の変形例の物体検出部240は、主カメラ111に対応するVSYNC1でなく、右側カメラ115および左側カメラ116に対応するVSYNC2に同期して物体を検出する。
図18は、第1の実施の形態の第3の変形例における垂直同期信号の一例を示すタイミングチャートである。同図におけるaは、垂直同期信号VSYNC1の周波数を垂直同期信号VSYNC2の3倍に設定した場合のタイミングチャートである。これにより、主画像データは、視差画像データの3倍のフレームレートで撮像される。測距と物体の検出とは、タイミングT1やT2など、周波数の低い方の垂直同期信号VSYNC2に同期して実行される。
図18におけるbは、垂直同期信号VSYNC1の周波数を垂直同期信号VSYNC2の1/3に設定した場合のタイミングチャートである。これにより、主画像データは、視差画像データの1/3のフレームレートで撮像される。測距と物体の検出とは、タイミングT1やT2など、周波数の低い方の垂直同期信号VSYNC1に同期して実行される。
図18に例示したように、主画像データと視差画像データとのそれぞれのフレームレートの比を整数比とすることにより、物体検出のタイミングと測距のタイミングとを容易に合わせることができる。また、主画像データと視差画像データとのそれぞれのフレームレートを異なる値にすることにより、画像データの撮像間隔と、測距および物体検出の間隔とを別々に調整することができる。
このように、本技術の第1の実施の形態の第3の変形例によれば、眼鏡型ウェアラブル端末100が主画像データと視差画像データとを互いに異なるフレームレートで撮像するため、測距および物体検出の間隔と異なる間隔で撮像を行うことができる。
[第4の変形例]
上述の第1の実施の形態では、主カメラ111、右側カメラ115および左側カメラ116の3つのカメラを用いて、物体の検出を行っていた。しかし、このように3つのカメラを用いることを前提とする構成では、2つしかカメラが設けられていない眼鏡型ウェアラブル端末では物体の検出を行うことができない。第1の実施の形態の第4の変形例の眼鏡型ウェアラブル端末100は、2つのカメラしか設けられていない眼鏡型ウェアラブル端末において物体の検出を行う点において第1の実施の形態と異なる。
図19は、第1の実施の形態の第4の変形例におけるカメラ部110および信号処理部130の一構成例を示すブロック図である。第1の実施の形態の第4の変形例のカメラ部110は、主カメラ111を備えない点において第1の実施の形態と異なる。また、第1の実施の形態の第4の変形例の信号処理部130は、信号処理回路131を備えない点において第1の実施の形態と異なる。
また、第4の変形例の物体検出部240には、右側画像データおよび左側画像データの少なくとも一方が主画像データとして入力される。あるいは、右側画像データおよび左側画像データが物体検出部240に入力され、物体検出部240は、それらを合成した画像を主画像データとして生成する。物体検出部240は、その主画像データにおいて、第1の実施の形態と同様に物体を検出する。第4の変形例の奥行き取得部250には、第1の実施の形態と同様に右側画像データおよび左側画像データが入力される。
このように、本技術の第1の実施の形態の第4の変形例によれば、眼鏡型ウェアラブル端末100が右側カメラ115および左側カメラ116により物体の検出を行うため、主カメラ111および信号処理回路131を設ける必要がなくなる。これにより、部品点数や消費電力を削減することができる。
<2.第2の実施の形態>
上述の第1の実施に形態では、眼鏡型ウェアラブル端末100は、デプスマップを生成していたが、視差画像データの解像度やフレームレートが高くなるほどデプスマップを生成する処理の処理量が多くなってしまう。この第2の実施の形態の眼鏡型ウェアラブル端末100は、物体検出の結果を用いてデプスマップ生成の処理量を低減する点において第1の実施の形態と異なる。
図20は、第2の実施の形態における画像処理部200の一構成例を示すブロック図である。第2の実施の形態の画像処理部200は、物体検出部240および奥行き取得部250の代わりに、物体検出部241および奥行き取得部251を備える点において第1の実施の形態と異なる。
また、第2の実施の形態では、補正設定モードおよび物体検出モードに加えて、ユーザの操作により測距モードがさらに設定される。この測距モードは、特定の物体までの距離を測定して、その距離を表示部150に表示させるためのモードである。
測距モードが設定されると、物体検出部241は、主画像データのうち視差画像に対応する領域全体に対して物体検出処理を実行し、その結果を奥行き取得部251に供給する。そして、奥行き取得部251は、その検出結果に基づいて、特定の物体が検出された領域のみにおいて奥行きを取得して、デプスマップを生成して表示部150に供給する。表示部150は、デプスマップの示す距離を表示する。
一方、補正設定モードまたは物体検出モードが設定された場合に物体検出部241および奥行き取得部251は、第1の実施の形態と同様の処理を行う。
図21は、第2の実施の形態における眼鏡型ウェアラブル端末100の動作の一例を示すフローチャートである。第2の実施の形態における眼鏡型ウェアラブル端末100の動作は、ステップS903およびS950をさらに実行する点において第1の実施の形態と異なる。
物体検出モードでない場合(ステップS901:No)、眼鏡型ウェアラブル端末100は、測距モードであるか否かを判断する(ステップS903)。測距モードである場合(ステップS903:Yes)、眼鏡型ウェアラブル端末100は、特定の物体が検出された領域のみにおいて奥行き(すなわち、距離)を取得する測距処理を実行する(ステップS950)。一方、補正設定モードである場合(ステップS903:No)、眼鏡型ウェアラブル端末100は、補正設定処理を実行する(ステップS910)。ステップS910、S920またはS950の後、眼鏡型ウェアラブル端末100は、ステップS902を実行する。
図22は、第2の実施の形態における測距処理を示すフローチャートである。眼鏡型ウェアラブル端末100は、主画像データを撮像し(ステップS951)、また、一対の視差画像を撮像する(ステップS952)。眼鏡型ウェアラブル端末100は、各画像データの座標ズレを補正し(ステップS953)、主画像データにおいて特定の物体を検出する(ステップS954)。そして、眼鏡型ウェアラブル端末100は、一対の視差画像を用いて、物体が検出された領域のみにおいてデプスマップを生成し(ステップS955)、そのデプスマップに基づいて距離を表示する(ステップS956)。ステップS956の後、眼鏡型ウェアラブル端末100は、測距処理を終了する。
図23は、第2の実施の形態における主画像データおよび表示データの一例を示す図である。同図におけるaは、主画像データ520の一例を示し、同図におけるbは、表示データ530の一例を示す。
主画像データ520には、人物521および522などの被写体が写っている。ただし、人物522は全体が写っていないため、物体検出処理では人物として検出されない。測距モードが設定されると、眼鏡型ウェアラブル端末100は、主画像データ520において人物521を検出する。そして眼鏡型ウェアラブル端末100は、検出した人物521の領域のみにおいて、デプスマップを生成する。
表示データ530は、人物の検出結果531と、距離情報532とを含む。この距離情報532は、検出された人物521までの距離を示す。
このように、本技術の第2の実施の形態によれば、眼鏡型ウェアラブル端末100は、主画像データのうち特定の物体が検出された領域のみで奥行きを取得するため、奥行きを取得する処理の処理量を低減することができる。
<3.第3の実施の形態>
上述の第1の実施の形態では、眼鏡型ウェアラブル端末100は、主カメラ111、右側カメラ115および左側カメラ116の3つからの画像データを用いて物体を検出していた。しかし、主画像データに複数の物体が写っている場合、それらの物体の数が多いほど、物体検出の処理量が多くなってしまう。この第3の実施の形態の眼鏡型ウェアラブル端末100は、複数の物体が写っている際に物体検出の処理量を削減する点において第1の実施の形態と異なる。
図24は、第3の実施の形態における眼鏡型ウェアラブル端末100の斜視図の一例である。第3の実施の形態の眼鏡型ウェアラブル端末100は、右側赤外線カメラ117、左側赤外線カメラ118、右側赤外線投光器181および左側赤外線投光器182をさらに備える点において第1の実施の形態と異なる。右側赤外線カメラ117および右側赤外線投光器181は、ユーザの顔の向いた方を前方として、リム101の後方の面に取り付けられる。また、左側赤外線カメラ118および左側赤外線投光器182は、リム102の後方の面に取り付けられる。
右側赤外線投光器181は、ユーザの右目が存在すると推定される位置に赤外光を照射するものである。左側赤外線投光器182は、ユーザの左目が存在すると推定される位置に赤外光を照射するものである。
右側赤外線カメラ117は、赤外光を電気信号に変換してユーザの右目を撮像するものであり、左側赤外線カメラ118は、赤外光を電気信号に変換してユーザの左目を撮像するものである。
図25は、第3の実施の形態における眼鏡型ウェアラブル端末100の上面図の一例である。主カメラ111、右側カメラ115および左側カメラ116は、リム101および102の前方の面に設けられ、可視光を電気信号に変換する。一方、右側赤外線投光器181および左側赤外線投光器182は、リム101および102の後方の面に設けられ、赤外光をユーザの目に向けて照射する。また、右側赤外線カメラ117および左側赤外線カメラ118は、リム101および102の後方の面に設けられ、ユーザの目で反射した赤外光を電気信号に変換して、その目の画像を撮像する。このように、赤外線投光器からの反射光を受光しやすい位置に赤外線カメラを設けることにより、赤外光の強い太陽光などの外光の影響を最小限にすることができる。
図26は、第3の実施の形態における眼鏡型ウェアラブル端末100の一構成例を示すブロック図である。この第3の実施の形態の眼鏡型ウェアラブル端末100は、発光制御部170、右側赤外線投光器181および左側赤外線投光器182をさらに備える。
第3の実施の形態の基準信号発生部120は、カメラ部110の他、発光制御部170にも垂直同期信号VSYNCを供給する。
発光制御部170は、右側赤外線投光器181および左側赤外線投光器182を制御して発光させるものである。この発光制御部170は、基準信号発生部120から垂直同期信号VSYNCが供給されている期間に亘って、連続して右側赤外線投光器181および左側赤外線投光器182を発光させる。また、発光制御部170は、撮像環境の明るさなどに基づき、必要に応じて、右側赤外線投光器181および左側赤外線投光器182の発光強度を調整する。
図27は、第3の実施の形態におけるカメラ部110および信号処理部130の一構成例を示すブロック図である。第3の実施の形態のカメラ部110は、右側赤外線カメラ117および左側赤外線カメラ118をさらに備える。第3の実施の形態の信号処理部130は、信号処理回路134および135をさらに備える。
右側赤外線カメラ117は、ユーザの右目を撮像して右目画像データを信号処理回路134に供給し、左側赤外線カメラ118は、ユーザの左目を撮像して左目画像データを信号処理回路135に供給する。なお、右側赤外線カメラ117および左側赤外線カメラ118からなるモジュールは、特許請求の範囲に記載の目画像撮像部の一例である。
信号処理回路134は、右目画像データに対して信号処理を行い、信号処理回路135は、左目画像データに対して信号処理を行う。
第3の実施の形態の露光制御部140の右側赤外線カメラ117および左側赤外線カメラ118の露光量をさらに制御する。これらの赤外線カメラについても露光制御することにより、これらの赤外線カメラに急に外光が入射された場合の影響を軽減することができる。例えば、測光量から直射日光下であると推定される場合、露光制御部140が右側赤外線カメラ117および左側赤外線カメラ118の露光量を小さくすることにより、ユーザの顔面で反射する外光の影響を最小化することができる。また、第3の実施の形態の基準信号発生部120は、右側赤外線カメラ117および左側赤外線カメラ118へ、さらに垂直同期信号VSYNCを供給する。
なお、基準信号発生部120は、同一の垂直同期信号を主カメラ111と赤外線カメラ(117および118)とに供給しているが、これらに異なる周波数の垂直同期信号を供給してもよい。この場合も、第1の実施の形態の第3の変形例と同様に、それぞれの垂直同期信号の周波数は、整数比であることが望ましい。
図28は、第3の実施の形態における画像処理部200の一構成例を示すブロック図である。この第3の実施の形態の画像処理部200は、視線方向検出部260をさらに備える。
第3の実施の形態の補正部210は、右目画像データおよび左目画像データをさらに補正し、補正後のそれらの画像データを視線方向検出部260へ供給する。
また、視線方向検出部260は、右目画像データおよび左目画像データからユーザの右目および左目の視線方向を検出するものである。視線方向検出部260は、それらの視線方向を物体検出部242に供給する。
物体検出部242は、視線方向に沿った直線上に位置する被写体までの距離を算出し、その距離を含む一定の範囲内の奥行きの画素からなる領域を検出領域をとして設定する。そして、物体検出部242は、検出領域に対して物体検出処理を行う。例えば、光軸方向における基準位置から、右目および左目のそれぞれの視線方向の交差する注視点までの距離が、視線方向に沿った直線上の被写体までの距離として算出される。
なお、周波数の異なる2つの垂直同期信号により主画像データと、右目画像データおよび左目画像データとが異なるフレームレートで撮像される場合、物体検出部242および視線方向検出部260のそれぞれは、同一のタイミングで処理を行う。例えば、VSYNC1が主カメラ111に供給され、赤外線カメラにVSYNC1より低い周波数のVSYNC2が供給される場合、物体検出部242および視線方向検出部260は、VSYNC2に同期して処理を行う。また、VSYNC1が主カメラ111に供給され、赤外線カメラにVSYNC1より高い周波数のVSYNC2が供給される場合、物体検出部242および視線方向検出部260は、VSYNC1に同期して処理を行う。ただし、VSYNC1およびVSYNC2の周波数の比率は整数比であるものとする。
図29は、第3の実施の形態における補正部210の一構成例を示すブロック図である。この第3の実施の形態の補正部210は、座標変換部214および215をさらに備える。
座標変換部214は、右目画像データの補正前の座標を補正後の座標に変換し、座標変換部215は、左目画像データの補正前の座標を補正後の座標に変換する。また、第3の実施の形態は、座標変換部214および215にも補正データを設定する。
図30は、第3の実施の形態における右目画像データ540および左目画像データ550の一例を示す図である。同図におけるaは、右目画像データ540の一例であり、同図におけるbは、左目画像データ550の一例である。
右目画像データ540には、ユーザの右目の瞳孔541と、角膜で反射した赤外光542とが写っている。また、左目画像データ550には、ユーザの左目の瞳孔551と、角膜で反射した赤外光552とが写っている。視線方向検出部260は、この角膜反射の位置に対する瞳孔の位置に基づいて、右目および左目の視線方向を検出する。このように角膜反射を用いて視線方向を求める方法は、瞳孔角膜反射法と呼ばれる。この瞳孔角膜反射法の詳細は、例えば、「大野健彦、他2名、『眼球形状モデルに基づく視線測定システム−視線入力デバイスの実現に向けて−』、情報処理学会研究報告2001−HI−93」に記載されている。
なお、視線方向検出部260は、瞳孔角膜反射法以外の方法を用いて視線方向を検出してもよい。例えば、可視光を光電変換するカメラを赤外線カメラの代わりに設け、そのカメラで撮像した目の画像において目頭と虹彩との位置関係から視線方向を検出してもよい。この場合には、視線方向の検出精度が低下するものの、赤外線カメラや赤外線投光器が不要となる。
図31は、第3の実施の形態における検出範囲の設定方法を説明するための図である。同図は、ユーザの頭頂部から見た撮像範囲を示す。同図において、太い実線は、主画像の結像面であり、点線は視線を示す。
ここで、撮像範囲には、人物600および601が存在し、ユーザは人物600を注視しているものとする。また、結像面から人物600までの距離はd1であり、主画像の結像面から602までの距離はd2である。この場合、眼鏡型ウェアラブル端末100は、右目および左目のそれぞれの視線方向を検出し、それらの交差する注視点と結像面との間の距離d1を算出する。眼鏡型ウェアラブル端末100は、デプスマップを参照して、算出したd1を含む一定範囲(例えば、d1の前後1メートルの範囲)の奥行きが得られた検出領域に対して、物体検出処理を実行する。d1を含む一定範囲からd2が外れる場合、眼鏡型ウェアラブル端末100は、ユーザが注視した人物600のみを検出することができる。また、眼鏡型ウェアラブル端末100は、人物601の領域に対して物体検出処理を行わなくてよいため、処理量を低減することができる。
なお、眼鏡型ウェアラブル端末100は、右目および左目の両方の視線方向を検出しているが、一方の視線方向のみを検出してもよい。この場合は、検出精度が低下するものの、赤外線カメラ、赤外線投光器、信号処理回路および座標変換部からなる組が1組不要となる。
また、眼鏡型ウェアラブル端末100は、視線方向の検出結果と、デプスマップとを用いて検出範囲を設定しているが、視線方向の検出結果のみを用いて検出範囲を設定してもよい。デプスマップを用いない場合、物体検出部242は、例えば、主画像データにおいて、エッジ検出を行ってエッジにより囲まれた領域のそれぞれを候補領域として求め、それらの候補領域のうち、注視点を含む領域を検出領域に設定する。この場合は、物体検出の精度が低下するものの、右側カメラ115、左側カメラ116と信号処理回路132および133と奥行き取得部250とが不要となる。
図32は、第3の実施の形態における物体検出処理を示すフローチャートである。第3の実施の形態の物体検出処理は、ステップS928、S929およびS930をさらに実行する点において第1の実施の形態と異なる。
眼鏡型ウェアラブル端末100は、主画像データおよび一対の視差画像データを撮像し(ステップS921およびS922)、また、左目および右目の画像データを撮像する(ステップS928)。そして、眼鏡型ウェアラブル端末100は、それらの画像データの座標ズレを補正し(ステップS923)、デプスマップを生成する(ステップS924)。また、眼鏡型ウェアラブル端末100は、視線方向を検出し(ステップS929)、視線方向およびデプスマップを用いて、ユーザが注視している物体を検出する(ステップS930)。眼鏡型ウェアラブル端末100は、物体の検出結果を表示して(ステップS926)、物体検出処理を終了する。
このように、本技術の第3の実施の形態によれば、眼鏡型ウェアラブル端末100は、視線方向に沿った直線上の被写体までの距離を含む一定の範囲内の奥行きの領域に対して物体検出処理を行うため、ユーザが注視した物体のみを検出することができる。このようにユーザが注視した物体のみに検出対象を絞り込むことにより、複数の物体が写っている場合に物体検出の処理量を削減することができる。
[第1の変形例]
上述の第3の実施の形態では、眼鏡型ウェアラブル端末100は、左目および右目の両方の視線方向から注視点を求めていたが、左右の目の動き量は同一とは限らない。一般に、右目および左目の一方は他方より眼球の動きが広範であり、そのような目は利き目と呼ばれる。この利き目の視線は、ユーザの実際の視線とよく一致するが、利き目でない方の目の視線は利き目ほど一致しない。このため、利き目でない方の目の視線方向の影響で、注視点の検出精度が低下するおそれがある。第3の実施の形態の第1の変形例における眼鏡型ウェアラブル端末100は、利き目でない方の視線方向による検出精度の低下を抑制する点において第1の実施の形態と異なる。
図33は、第3の実施の形態の第1の変形例における画像処理部200の一構成例を示すブロック図である。第3の実施の形態の第1の変形例の画像処理部200は、視線方向検出部260の代わりに視線方向検出部261を備え、虹彩パターン検出部270、利き目選択部280および虹彩パターン記憶部290をさらに備える。
虹彩パターン検出部270は、右目画像データおよび左目画像データの少なくとも一方(例えば、右目画像データのみ)において虹彩パターンを検出するものである。この虹彩パターン検出部270は、検出した虹彩パターンを利き目選択部280に供給する。
虹彩パターン記憶部290は、虹彩パターンごとに、両目のうち利き目がどちらかを示す利き目情報を記憶するものである。
利き目選択部280は、右目画像データおよび左目画像データから両目の一方を利き目として選択するものである。この利き目選択部280は、虹彩パターンが検出されると、その虹彩パターンが虹彩パターン記憶部290に登録されているか否かを判断する。虹彩パターンが登録されていれば、利き目選択部280は、検出された虹彩パターンに対応する利き目情報を虹彩パターン記憶部290から読み出し、その利き目情報を視線方向検出部261に供給する。
一方、虹彩パターンが登録されていない場合に利き目選択部280は、右目画像データからなる動画と、左目画像データからなる動画とを解析して、動きの大きな方を利き目として選択する。利き目選択部280は、選択した利き目を示す利き目情報を生成し、検出された虹彩パターンと対応付けて虹彩パターン記憶部290に登録する。また、利き目選択部280は、生成した利き目情報を視線方向検出部261に供給する。このように、利き目選択部280が利き目を自動で選択するため、ユーザが利き目を入力する操作を行う必要がなくなる。
視線方向検出部261は、利き目選択部280により利き目が選択された場合に、利き目を優先して視線方向を検出する。例えば、視線方向検出部261は、両目のうち利き目の視線方向のみを検出する。あるいは、視線方向検出部261は、利き目の方の画像データの枚数を利き目でない方よりも多く取得し、それらの画像データの各々で視線方向の検出を行って、それらの検出結果の統計量を算出する。
一方、利き目選択部280による動画の解析が完了しておらず、利き目が選択されていない場合に視線方向検出部261は、第3の実施の形態と同様に両目の視線方向を検出する。
なお、虹彩パターン検出部270は、虹彩パターンの検出のみを行っているが、検出された虹彩パターンが予め登録された虹彩パターンと一致するか否かを判断する虹彩認証をさらに行ってよい。また、眼鏡型ウェアラブル端末100自体が、両目の画像データから利き目を自動選択しているが、ユーザが利き目を手動で入力する構成としてもよい。この場合には、利き目選択部280が不要となる。
図34は、第3の実施の形態の第1の変形例における虹彩パターン情報ごとの利き目情報の一例を示す図である。虹彩パターン記憶部290は、識別情報ごとに、虹彩パターン情報および利き目情報を記憶する。識別情報は、虹彩パターンを識別するための情報である。例えば、パターンAの人物の利き目として右目が検出された場合に、虹彩パターン記憶部290は、「パターンA」に「右目」を示す利き目情報を対応づけて記憶する。
図35は、第3の実施の形態の第1の変形例における物体検出処理を示すフローチャートである。第3の実施の形態の第1の変形例における物体検出処理は、デプスマップの生成(ステップS924)の後に、視線方向を検出するための視線検出処理(ステップS940)をさらに実行する点において第3の実施の形態と異なる。
図36は、第3の実施の形態の第1の変形例における視線検出処理を示すフローチャートである。眼鏡型ウェアラブル端末100は、虹彩パターンを検出し(ステップS941)、虹彩パターンが登録済みであるか否かを判断する(ステップS942)。虹彩パターンが登録済みである場合に(ステップS942:Yes)、眼鏡型ウェアラブル端末100は、検出された虹彩パターンに対応する利き目情報を読み出す(ステップS943)。一方、虹彩パターンが登録されていない場合に(ステップS942:No)、眼鏡型ウェアラブル端末100は、利き目を選択し(ステップS944)、虹彩パターンおよび利き目情報を対応付けて登録する(ステップS945)。
ステップS943またはS945の後、眼鏡型ウェアラブル端末100は、利き目を優先して視線方向を検出する(ステップS946)。ステップS946の後、眼鏡型ウェアラブル端末100は、視線検出処理を終了する。
このように、本技術の第3の実施の形態の第1の変形例によれば、眼鏡型ウェアラブル端末100は、両目の一方を利き目として選択し、その利き目を優先して視線方向を検出するため、視線方向の検出精度を向上させることができる。
[第2の変形例]
上述の第3の実施の形態では、眼鏡型ウェアラブル端末100が物体の検出結果を平面的に表示していたが、透過型ディスプレイを通して見る現実の物体が立体的に見えるのに対し、検出結果は平面表示されるため、臨場感が不足するおそれがある。第3の実施の形態の第2の変形例の眼鏡型ウェアラブル端末100は、臨場感を向上させる点において第3の実施の形態と異なる。
図37は、第3の実施の形態の第2の変形例における画像処理部200の一構成例を示すブロック図である。第3の実施の形態の第2の変形例における画像処理部200は、立体画像生成部300をさらに備える点において第3の実施の形態と異なる。
第3の実施の形態の物体検出部240は、物体の検出結果を示す表示データと、検出した物体までの奥行きを示す距離情報とを立体画像生成部300に供給する。
立体画像生成部300は、距離情報に応じた視差の右側表示データおよび左側表示データを表示データから生成するものである。立体画像生成部300は、右側表示データを右側透過型ディスプレイ151に供給し、左側表示データを左側透過型ディスプレイ152に供給する。これらのディスプレイにより、光軸方向において、ユーザが注視した物体の位置に、検出結果が立体表示される。
図38は、第3の実施の形態の第2の変形例における立体画像の表示位置の一例を示す図である。右側表示データの基準の水平座標(例えば、中央の水平座標)をUとし、左側表示データの基準の水平座標をUとする。水平座標は、ユーザから見て左側であるほど、値が小さいものとする。この場合において、例えば、UからUを減じた値が視差DIFとして用いられる。
ここで、左目と右目との間の距離をベース距離Bとし、視聴者から表示部150までの距離をDmとし、奥行き方向に立体的に視認される立体画像の表示位置をDpとする。このとき、右目、左目および立体画像の中心のなす三角形と、U、Uおよび立体画像の中心のなす三角形とは相似であるため、次の式4が成立する。
DIF:Dm=B:Dp ・・・式7
上式により、距離情報の示すDpとBおよびDmの設計値とから視差DIFが算出され、その視差DIFを持つ一対の表示データが生成される。
このように、本技術の第3の実施の形態の第2の変形例によれば、眼鏡型ウェアラブル端末100は、物体が検出された奥行きに応じた視差を持つ一対の表示データを生成するため、物体が検出された位置に立体画像を表示させることができる。このように立体画像を表示させることにより、臨場感を向上させることができる。
[第3の変形例]
上述の第3の実施の形態では、眼鏡型ウェアラブル端末100は、右側赤外線投光器181および左側赤外線投光器182を連続して発光させていたが、これらの発光により、眼鏡型ウェアラブル端末100の消費電力が増大する問題がある。第3の実施の形態の第3の変形例における眼鏡型ウェアラブル端末100は、右側赤外線投光器181および左側赤外線投光器182の発光による消費電力を削減する点において第3の実施の形態と異なる。
図39は、第3の実施の形態の第3の変形例における眼鏡型ウェアラブル端末100の一構成例を示すブロック図である。、第3の実施の形態の第3の変形例における眼鏡型ウェアラブル端末100は、発光制御部170の代わりに発光制御部171を備える点において第3の実施の形態と異なる。
発光制御部171は、垂直同期信号VSYNCともに、露光時間を示す露光制御信号をさらに受け取る。そして、発光制御部171は、垂直同期信号VSYNCに同期して、右側赤外線投光器181および左側赤外線投光器182を間欠的に発光させる。
ここで、右側赤外線カメラ117および左側赤外線カメラ118は、画像内の複数のラインを順に露光させるローリングシャッター方式により撮像を行うものとする。この場合、最初のラインの露光が開始したときから、最後のラインの露光が終了したときまでの露光期間を含む一定の発光期間に亘って連続して発光させることが望ましい。その露光期間内においてスイッチング制御により間欠的に赤外線投光器を発光させると、ラインごとの赤外線の受光時間に相違が生じ、正確な右目画像および左目画像が得られないおそれがあるためである。例えば、発光制御部171は、垂直同期信号VSYNCに同期して、露光開始より前のタイミングで発光を開始させ、露光終了より後のタイミングで発光を終了させる。
図40は、第3の実施の形態の第3の変形例における眼鏡型ウェアラブル端末100の動作の一例を示すタイミングチャートである。
基準信号発生部120は、一定間隔のタイミングT1、T2およびT3などのタイミングで垂直同期信号VSYNCを生成する。また、右側赤外線カメラ117および左側赤外線カメラ118は、垂直同期信号VSYNCに同期して露光を開始または終了する。例えば、タイミングT1から一定期間が経過したタイミングT11において右側赤外線カメラ117および左側赤外線カメラ118は、最初のラインの露光を開始する。タイミングT11経過後は、2行目以降のラインの露光が順に開始される。そして、タイミングT2から一定期間が経過したタイミングT21において右側赤外線カメラ117および左側赤外線カメラ118は、最後のラインの露光を終了する。また、これらの赤外線カメラは、タイミングT2から一定期間が経過したタイミングT22において最初のラインの露光を開始し、タイミングT3から一定期間が経過したタイミングT31において最後のラインの露光を終了する。
一方、発光制御部171は、垂直同期信号VSYNCに同期して、最初のラインの露光開始より前のタイミングで発光を開始させ、最後のラインの露光終了より後のタイミングで発光を終了させる。例えば、発光制御部171は、タイミングT11の直前のタイミングから、タイミングT21の直後のタイミングまでの期間に亘って右側赤外線投光器181および左側赤外線投光器182を発光させる。また、発光制御部171は、タイミングT21の直後からタイミングT22の直前までの間は発光を停止させる。そして、発光制御部171は、タイミングT22の直前のタイミングから、タイミングT31の直後のタイミングまでの期間に亘って右側赤外線投光器181および左側赤外線投光器182を発光させる。
このように、本技術の第3の実施の形態の第3の変形例によれば、発光制御部171が露光期間を含む一定期間のみにおいて赤外線投光器を発光させるため、連続して発光させる場合と比較して消費電力を低減することができる。
[第4の変形例]
上述の第3の実施の形態の第3の変形例では、右側赤外線カメラ117および左側赤外線カメラ118は、ローリングシャッター方式により露光を行っていた。しかし、このローリングシャッター方式では、露光開始および露光終了のタイミングがラインごとに異なるため、動体を撮像する際に画像が歪む現象(いわゆる、ローリングシャッター歪み)が生じ、また、蛍光灯を撮像する際にフリッカが生じてしまう。第3の実施の形態の第4の変形例の眼鏡型ウェアラブル端末100は、ローリングシャッター歪みやフリッカを抑制する点において第3の変形例と異なる。
ここで、第3の変形例のローリングシャッター方式では、露光期間内に赤外線投光器を間欠的に発光させると、ラインごとの赤外線の受光時間に相違が生じるため、発光制御部171は、露光期間を含む発光期間に亘って連続して発光させていた。しかし、第4の変形例のグローバルシャッター方式では、露光時間内に赤外線投光器を間欠的に発光させても、ラインごとの赤外線の受光時間に差が生じない。このため、第4の変形例の発光制御部171は、露光時間内に間欠的に赤外光を発光させて、さらに消費電力を低減することができる。
図41は、第3の実施の形態の第4の変形例における眼鏡型ウェアラブル端末100の動作の一例を示すタイミングチャートである。右側赤外線カメラ117および左側赤外線カメラ118は、全ラインの露光を同時に開始させる。例えば、右側赤外線カメラ117および左側赤外線カメラ118は、タイミングT11で全ラインの露光を開始し、タイミングT21で全ラインの露光を終了する。
一方、発光制御部171は、垂直同期信号VSYNCに同期して、全ラインの露光開始のタイミングで一定のデューティ比の間欠発光を開始させ、全ラインの露光終了のタイミングで間欠発光を終了させる。例えば、発光制御部171は、タイミングT11からタイミングT21までの期間に亘って右側赤外線投光器181および左側赤外線投光器182を間欠発光させる。また、発光制御部171は、タイミングT21からタイミングT22までの間は発光を停止させる。そして、発光制御部171は、タイミングT22から、タイミングT31までの期間に亘って右側赤外線投光器181および左側赤外線投光器182を間欠発光させる。
また、発光制御部171は、右側赤外線投光器181および左側赤外線投光器182を発光させる発光制御信号のデューティ比を制御することにより、発光強度を調整することができる。このようにパルス幅(すなわち、デューティ比)を変える制御は、PWM(Pulse Width Modulation)制御と呼ばれる。
なお、発光制御部171は、露光時間においてのみ間欠発光させているが、露光時間を含む撮像期間に亘って間欠発光させてもよい。また、発光制御部171は、第3の変形例と同様に、露光時間より長い一定の発光期間に亘って連続して発光させてもよい。
このように、本技術の第3の実施の形態の第4の変形例によれば、発光制御部171は、全ラインの露光を同時に開始させるグローバルシャッター方式により撮像を行うため、ローリングシャッター歪みやフリッカを抑制することができる。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
なお、本技術は以下のような構成もとることができる。
(1)主画像を結像するレンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、
前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と
を具備する画像処理装置。
(2)前記奥行き取得部は、撮像範囲の少なくとも一部が前記主画像と重複する一対の視差画像の視差から前記奥行きを取得する前記(1)記載の画像処理装置。
(3)前記特定の物体の検出が指示された場合には前記奥行き取得部は前記奥行きを前記主画像内の画素のそれぞれに対応付けて取得し、前記物体検出処理は前記検出領域に対して前記物体検出処理を実行し、
前記奥行きの取得が指示された場合には前記物体検出部は前記主画像全体に対して前記物体検出処理を実行し、前記奥行き取得部は、前記主画像のうち前記特定の物体が検出された領域内の前記画素のそれぞれに対応づけて前記奥行きを取得する
前記(1)または(2)に記載の画像処理装置。
(4)左目および右目の少なくとも一方を撮像した目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を検出する視線検出部をさらに具備し、
前記物体検出部は、前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する前記(1)から(3)のいずれかに記載の画像処理装置。
(5)前記目画像に基づいて前記左目および前記右目の一方を利き目として選択する利き目選択部をさらに具備し、
前記視線検出部は、前記利き目を優先して前記視線方向を検出する
前記(4)記載の画像処理装置。
(6)前記目画像に基づいて前記左目および前記右目の少なくとも一方の虹彩パターンを検出する虹彩パターン検出部と、
前記検出された虹彩パターンごとに当該虹彩パターンの人物について選択された前記利き目を記憶する虹彩パターン記憶部と
をさらに具備し、
前記視線検出部は、前記検出された虹彩パターンに対応する前記利き目を前記虹彩パターン記憶部から読み出す
前記(5)記載の画像処理装置。
(7)前記主画像において前記画素の座標のそれぞれの所定の基準座標からのズレを補正して前記物体検出部に供給する前記補正部をさらに具備する
前記(1)から(6)のいずれかに記載の画像処理装置。
(8)前記補正部は、
前記座標のズレを補正する前の補正前座標と補正した後の補正後座標とを前記画素のうち一部の代表点ごとに対応付けて保持する歪補正テーブルと、
前記代表点に該当しない前記画素の周囲の4つの前記補正前座標のそれぞれに対応する前記補正後座標から補間した座標を前記座標のズレを補正した座標として求める補間部と
を備える前記(7)記載の画像処理装置。
(9)主画像を結像するレンズにより主画像を撮像する主画像撮像部と、
前記光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、
前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と
を具備する撮像装置。
(10)撮像範囲の少なくとも一部が前記主画像と重複する一対の視差画像を撮像する視差画像撮像部をさらに具備し、
前記奥行き取得部は、前記一対の視差画像の視差から前記奥行きを取得する前記(9)記載の撮像装置。
(11)前記主画像撮像部は、第1の周波数の第1の同期信号に同期して前記主画像を撮像し、
前記視差画像撮像部は、第2の周波数の第2の同期信号に同期して前記一対の視差画像を撮像し、
前記第1の周波数と前記第2の周波数との比は整数比である
前記(10)記載の撮像装置。
(12)前記主画像撮像部および前記視差画像撮像部のそれぞれの露光期間を同一の値に制御する露光制御部をさらに具備する
前記(10)または(11)に記載の撮像装置。
(13)左目および右目の少なくとも一方の画像を目画像として撮像する目画像撮像部と、
前記目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を前記目画像に基づいて検出する視線検出部とをさらに具備し、
前記物体検出部は、前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する前記(9)から(12)のいずれかに記載の撮像装置。
(14)赤外光を発光する赤外線投光器と、
前記赤外線投光器を制御して前記赤外光を発光させる発光制御部と
をさらに具備し、
前記目画像撮像部は、前記赤外光を光電変換して前記目画像を撮像する
前記(13)記載の撮像装置。
(15)前記撮像装置の加速度を検出する加速度センサをさらに具備し、
前記主画像撮像部は、前記加速度が大きいほど高い周波数の同期信号に同期して前記主画像を撮像する
前記(9)から(14)のいずれかに記載の撮像装置。
(16)前記特定の物体までの前記奥行きに応じた視差を持つ一対の表示データを生成する立体画像生成部と、
前記一対の表示データを表示する表示部と
をさらに具備する前記(9)から(15)のいずれかに記載の撮像装置。
(17)奥行き取得部が、主画像を結像するレンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得手順と、
物体検出部が、前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出手順と
を具備する画像処理方法。
(18)奥行き取得部が、主画像を結像するレンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得手順と、
物体検出部が、前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出手順と
をコンピュータに実行させるためのプログラム。
(19)主画像に対して特定の物体を検出する物体検出処理を実行する物体検出部と、
前記特定の物体が検出された領域内の画素のそれぞれに対応付けて前記主画像を結像するレンズの光軸方向における奥行きを、撮像範囲の少なくとも一部が前記主画像と重複する一対の視差画像の視差から取得する奥行き取得部と
を具備する画像処理装置。
(20)前記左目および前記右目の少なくとも一方を撮像した目画像に基づいて左目および右目の少なくとも一方の視線方向を検出する視線方向検出部と、
主画像のうち前記視線方向に沿った直線上に位置する被写体が撮像された検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と
を具備する画像処理装置。
100 メガネ型ウェアラブル端末
101、102 リム
110 カメラ部
111 主カメラ
112 撮像レンズ
113 絞り
114 撮像素子
115 右側カメラ
116 左側カメラ
117 右側赤外線カメラ
118 左側赤外線カメラ
120、121 基準信号発生部
130 信号処理部
131、132、133、134、135 信号処理回路
140 露光制御部
150 表示部
151 右側透過型ディスプレイ
152 左側透過型ディスプレイ
160 加速度センサ
165 記録部
170、171 発光制御部
181 右側赤外線投光器
182 左側赤外線投光器
200 画像処理部
210 補正部
211 座標ズレ算出部
212、213、214、215、220 座標変換部
221 補正範囲記憶部
222 リードアドレスカウンタ
223 ライトアドレスカウンタ
224 リードアドレスデコーダ
225 ライトアドレスデコーダ
226 歪補正テーブル
227 歪補正アドレス生成部
228 遅延調整部
229 歪補正アドレスデコーダ
230 ライト制御部
231 リード制御部
232 画像メモリ
233 補間処理部
240、241、242 物体検出部
250、251 奥行き取得部
260、261 視線方向検出部
270 虹彩パターン検出部
280 利き目選択部
290 虹彩パターン記憶部
300 立体画像生成部

Claims (16)

  1. 主画像を結像するレンズの光軸方向における奥行きを取得する奥行き取得部と、
    特定の物体を検出する物体検出処理を実行する物体検出部と
    左目および右目の少なくとも一方を撮像した目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を検出する視線検出部と
    を具備し、
    前記特定の物体の検出を指示する物体検出モードが設定された場合には前記奥行き取得部は前記奥行きを前記主画像内の画素のそれぞれに対応付けて取得し、前記物体検出処理は前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して前記物体検出処理を実行し、
    前記奥行きの取得を指示する測距モードが設定された場合には前記物体検出部は前記主画像全体に対して前記物体検出処理を実行し、前記奥行き取得部は、前記主画像のうち前記特定の物体が検出された領域内の前記画素のそれぞれに対応づけて前記奥行きを取得し、
    前記物体検出部は、前記物体検出モードが設定された場合には前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する
    画像処理装置。
  2. 前記奥行き取得部は、撮像範囲の少なくとも一部が前記主画像と重複する一対の視差画像の視差から前記奥行きを取得する請求項1記載の画像処理装置。
  3. 主画像を結像するレンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、
    前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と
    左目および右目の少なくとも一方を撮像した目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を検出する視線検出部と
    を具備し、
    前記物体検出部は、前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する
    画像処理装置。
  4. 前記目画像に基づいて前記左目および前記右目の一方を利き目として選択する利き目選択部をさらに具備し、
    前記視線検出部は、前記利き目を優先して前記視線方向を検出する
    請求項3記載の画像処理装置。
  5. 前記目画像に基づいて前記左目および前記右目の少なくとも一方の虹彩パターンを検出する虹彩パターン検出部と、
    前記検出された虹彩パターンごとに当該虹彩パターンの人物について選択された前記利き目を記憶する虹彩パターン記憶部と
    をさらに具備し、
    前記視線検出部は、前記検出された虹彩パターンに対応する前記利き目を前記虹彩パターン記憶部から読み出す
    請求項4記載の画像処理装置。
  6. 前記主画像において前記画素の座標のそれぞれの所定の基準座標からのズレを補正して前記物体検出部に供給する補正部をさらに具備する
    請求項3から5のいずれかに記載の画像処理装置。
  7. 前記補正部は、
    前記座標のズレを補正する前の補正前座標と補正した後の補正後座標とを前記画素のうち一部の代表点ごとに対応付けて保持する歪補正テーブルと、
    前記代表点に該当しない前記画素の周囲の4つの前記補正前座標のそれぞれに対応する前記補正後座標から補間した座標を前記座標のズレを補正した座標として求める補間部と
    を備える請求項6記載の画像処理装置。
  8. 主画像を結像するレンズにより主画像を撮像する主画像撮像部と、
    撮像範囲の少なくとも一部が前記主画像と重複する一対の視差画像を撮像する視差画像撮像部と、
    前記レンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、
    前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と
    を具備し、
    前記主画像撮像部は、第1の周波数の第1の同期信号に同期して前記主画像を撮像し、
    前記視差画像撮像部は、第2の周波数の第2の同期信号に同期して前記一対の視差画像を撮像し、
    前記第1の周波数と前記第2の周波数との比は整数比である
    撮像装置。
  9. 記奥行き取得部は、前記一対の視差画像の視差から前記奥行きを取得する請求項8記載の撮像装置。
  10. 前記主画像撮像部および前記視差画像撮像部のそれぞれの露光期間を同一の値に制御する露光制御部をさらに具備する
    請求項9に記載の撮像装置。
  11. 主画像を結像するレンズにより主画像を撮像する主画像撮像部と、
    前記レンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、
    前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と、
    左目および右目の少なくとも一方の画像を目画像として撮像する目画像撮像部と、
    前記目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を前記目画像に基づいて検出する視線検出部と
    を具備し、
    前記物体検出部は、前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する
    撮像装置。
  12. 赤外光を発光する赤外線投光器と、
    前記赤外線投光器を制御して前記赤外光を発光させる発光制御部と
    をさらに具備し、
    前記目画像撮像部は、前記赤外光を光電変換して前記目画像を撮像する
    請求項11記載の撮像装置。
  13. 主画像を結像するレンズにより主画像を撮像する主画像撮像部と、
    前記レンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得部と、
    前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出部と、
    像装置の加速度を検出する加速度センサと
    を具備し、
    前記主画像撮像部は、前記加速度が大きいほど高い周波数の同期信号に同期して前記主画像を撮像する
    撮像装置。
  14. 前記特定の物体までの前記奥行きに応じた視差を持つ一対の表示データを生成する立体画像生成部と、
    前記一対の表示データを表示する表示部と
    をさらに具備する請求項13記載の撮像装置。
  15. 奥行き取得部が、主画像を結像するレンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得手順と、
    物体検出部が、前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出手順と、
    左目および右目の少なくとも一方の画像を目画像として撮像する目画像撮像手順と、
    前記目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を前記目画像に基づいて検出する視線検出手順と
    を具備し、
    前記物体検出手順において、前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する
    画像処理方法。
  16. 奥行き取得部が、主画像を結像するレンズの光軸方向における奥行きを前記主画像内の画素のそれぞれに対応付けて取得する奥行き取得手順と、
    物体検出部が、前記光軸方向における所定範囲内の前記奥行きに対応する前記画素からなる検出領域に対して特定の物体を検出する物体検出処理を実行する物体検出手順と、
    左目および右目の少なくとも一方の画像を目画像として撮像する目画像撮像手順と、
    前記目画像に基づいて前記左目および前記右目の少なくとも一方の視線方向を前記目画像に基づいて検出する視線検出手順と
    をコンピュータに実行させるためのプログラムであって、
    前記物体検出手順において、前記視線方向に沿った直線上に位置する被写体までの距離を含む一定の範囲を前記所定範囲として前記物体検出処理を実行する
    プログラム。
JP2015089983A 2015-04-27 2015-04-27 画像処理装置、撮像装置、画像処理方法およびプログラム Active JP6646361B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2015089983A JP6646361B2 (ja) 2015-04-27 2015-04-27 画像処理装置、撮像装置、画像処理方法およびプログラム
PCT/JP2016/002161 WO2016174858A1 (en) 2015-04-27 2016-04-22 Image processing device and image processing system
US15/554,179 US11089289B2 (en) 2015-04-27 2016-04-22 Image processing device, imaging device, image processing method and program
KR1020177029454A KR102657198B1 (ko) 2015-04-27 2016-04-22 화상 처리 장치 및 화상 처리 시스템
EP16724979.6A EP3289564A1 (en) 2015-04-27 2016-04-22 Image processing device and image processing system
CN201680023673.6A CN107533761B (zh) 2015-04-27 2016-04-22 图像处理装置和图像处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089983A JP6646361B2 (ja) 2015-04-27 2015-04-27 画像処理装置、撮像装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2016208380A JP2016208380A (ja) 2016-12-08
JP2016208380A5 JP2016208380A5 (ja) 2018-05-31
JP6646361B2 true JP6646361B2 (ja) 2020-02-14

Family

ID=56080434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089983A Active JP6646361B2 (ja) 2015-04-27 2015-04-27 画像処理装置、撮像装置、画像処理方法およびプログラム

Country Status (6)

Country Link
US (1) US11089289B2 (ja)
EP (1) EP3289564A1 (ja)
JP (1) JP6646361B2 (ja)
KR (1) KR102657198B1 (ja)
CN (1) CN107533761B (ja)
WO (1) WO2016174858A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6419118B2 (ja) * 2016-08-04 2018-11-07 キヤノン株式会社 画像表示システム
JP6645949B2 (ja) * 2016-11-01 2020-02-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
DE102016224774B3 (de) * 2016-12-13 2018-01-25 Audi Ag Verfahren zur Programmierung eines Messroboters und Programmiersystem
EP3593530A4 (en) * 2017-03-07 2020-12-16 8259402 Canada Inc. PROCESS FOR ORDERING A VIRTUAL IMAGE IN A DISPLAY DEVICE
EP3667622B1 (en) 2017-08-08 2023-08-23 Sony Group Corporation Information processing device, information processing method, and program
US10362296B2 (en) * 2017-08-17 2019-07-23 Microsoft Technology Licensing, Llc Localized depth map generation
US10437065B2 (en) * 2017-10-03 2019-10-08 Microsoft Technology Licensing, Llc IPD correction and reprojection for accurate mixed reality object placement
US20190265473A1 (en) * 2018-02-23 2019-08-29 Oculus Vr, Llc Apparatus, systems, and methods for enabling low-power communications via wearers' bodies
TW201947522A (zh) * 2018-05-08 2019-12-16 揚明光學股份有限公司 頭戴式電子裝置及其使用方法
JP7110738B2 (ja) * 2018-06-05 2022-08-02 大日本印刷株式会社 情報処理装置、プログラム及び情報処理システム
CN108965732B (zh) * 2018-08-22 2020-04-14 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN109040591B (zh) * 2018-08-22 2020-08-04 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
US11726320B2 (en) 2018-08-29 2023-08-15 Sony Corporation Information processing apparatus, information processing method, and program
CN109364478B (zh) 2018-09-07 2022-08-23 深圳市腾讯信息技术有限公司 信息同步方法、装置及存储介质
WO2020110506A1 (ja) 2018-11-28 2020-06-04 ソニーセミコンダクタソリューションズ株式会社 表示装置および表示制御装置
JP7418149B2 (ja) * 2018-11-29 2024-01-19 株式会社リコー 光学装置、網膜投影表示装置、頭部装着型表示装置、及び入力装置
CN109598718B (zh) * 2018-12-06 2020-12-04 安徽省华腾农业科技有限公司经开区分公司 设备更换需求分析机构
KR20210103541A (ko) 2018-12-20 2021-08-23 스냅 인코포레이티드 입체 이미지들을 생성하기 위한 듀얼 카메라들을 갖는 가요성 안경류 디바이스
US10621858B1 (en) 2019-02-06 2020-04-14 Toyota Research Institute, Inc. Systems and methods for improving situational awareness of a user
TWI669536B (zh) * 2019-03-05 2019-08-21 宏碁股份有限公司 頭戴裝置
CN113597534B (zh) * 2019-03-26 2023-07-25 松下知识产权经营株式会社 测距成像系统、测距成像方法和程序
CN110225247B (zh) * 2019-05-29 2021-06-15 联想(北京)有限公司 一种图像处理方法及电子设备
WO2021044732A1 (ja) * 2019-09-06 2021-03-11 ソニー株式会社 情報処理装置、情報処理方法及び記憶媒体
CN110631603B (zh) * 2019-09-29 2022-06-14 阿波罗智联(北京)科技有限公司 车辆导航方法和装置
CN111062911B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 基于路面信息的成像环境评价方法、装置、系统和存储介质
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
JP2021182344A (ja) * 2020-05-20 2021-11-25 京セラ株式会社 視点検出装置および表示装置
CN111556305B (zh) * 2020-05-20 2022-04-15 京东方科技集团股份有限公司 图像处理方法、vr设备、终端、显示系统和计算机可读存储介质
CN111768433B (zh) * 2020-06-30 2024-05-24 杭州海康威视数字技术股份有限公司 一种移动目标追踪的实现方法、装置及电子设备
EP4167019A4 (en) 2020-09-03 2023-12-06 Samsung Electronics Co., Ltd. Method of changing settings of display and electronic device
JP7591375B2 (ja) * 2020-09-18 2024-11-28 株式会社アマダ プレスブレーキ、画像出力装置及び画像出力方法
EP4222945A1 (en) * 2020-09-30 2023-08-09 Snap, Inc. Low power camera pipeline for computer vision mode in augmented reality eyewear
WO2022072097A1 (en) 2020-09-30 2022-04-07 Snap Inc. Multi-purpose cameras for augmented reality and computer vision applications
JP7608141B2 (ja) * 2020-12-14 2025-01-06 京セラ株式会社 立体表示用コントローラ
US20240121370A1 (en) * 2022-09-30 2024-04-11 Samsung Electronics Co., Ltd. System and method for parallax correction for video see-through augmented reality
WO2025069699A1 (ja) * 2023-09-25 2025-04-03 ソニーセミコンダクタソリューションズ株式会社 光検出システム、および、光検出システムの制御方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267331A (en) * 1990-07-26 1993-11-30 Ronald Siwoff Digitally enhanced imager for the visually impaired
US5359675A (en) * 1990-07-26 1994-10-25 Ronald Siwoff Video spectacles
JP3372096B2 (ja) * 1993-12-28 2003-01-27 株式会社東芝 画像情報アクセス装置
US6611618B1 (en) * 1997-11-13 2003-08-26 Schepens Eye Research Institute, Inc. Wide-band image enhancement
US7280704B2 (en) * 1997-11-13 2007-10-09 The Schepens Eye Research Institute, Inc. Wide-band image enhancement
JP3728160B2 (ja) * 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US6591008B1 (en) * 2000-06-26 2003-07-08 Eastman Kodak Company Method and apparatus for displaying pictorial images to individuals who have impaired color and/or spatial vision
US6911995B2 (en) 2001-08-17 2005-06-28 Mitsubishi Electric Research Labs, Inc. Computer vision depth segmentation using virtual surface
US20040136570A1 (en) * 2002-04-30 2004-07-15 Shimon Ullman Method and apparatus for image enhancement for the visually impaired
DE102006001075A1 (de) * 2006-01-09 2007-07-12 Carl Zeiss Ag Elektronische Sehhilfe und elektronisches Sehhilfeverfahren
ES2389401T3 (es) * 2008-06-17 2012-10-25 Huawei Device Co., Ltd. Método, aparato y sistema de comunicación a través de vídeo
CN101610421B (zh) 2008-06-17 2011-12-21 华为终端有限公司 视频通讯方法、装置及系统
TWI392485B (zh) * 2009-12-03 2013-04-11 Univ Nat Yang Ming 一種具立體視覺之頭盔式弱視輔具裝置及系統
US8421851B2 (en) * 2010-01-04 2013-04-16 Sony Corporation Vision correction for high frame rate TVs with shutter glasses
US9063352B2 (en) * 2010-10-11 2015-06-23 The Regents Of The University Of California Telescopic contact lens
JP5348114B2 (ja) 2010-11-18 2013-11-20 日本電気株式会社 情報表示システム、装置、方法及びプログラム
KR20140066258A (ko) * 2011-09-26 2014-05-30 마이크로소프트 코포레이션 투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정
US8937646B1 (en) * 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
JP2013117608A (ja) * 2011-12-02 2013-06-13 Fujifilm Corp 撮像装置及び撮像装置の制御方法
JP5713885B2 (ja) * 2011-12-26 2015-05-07 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP2013162453A (ja) * 2012-02-08 2013-08-19 Nikon Corp 撮像装置
KR101362462B1 (ko) * 2012-07-16 2014-02-12 한양대학교 산학협력단 스테레오 카메라를 이용한 장애물 검출 장치 및 방법
CN104871525A (zh) * 2012-12-26 2015-08-26 索尼公司 图像处理装置、以及图像处理方法及程序
JP6250025B2 (ja) * 2013-02-19 2017-12-20 ミラマ サービス インク 入出力装置、入出力プログラム、および入出力方法
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
US9934451B2 (en) 2013-06-25 2018-04-03 Microsoft Technology Licensing, Llc Stereoscopic object detection leveraging assumed distance
CN103796001B (zh) 2014-01-10 2015-07-29 深圳奥比中光科技有限公司 一种同步获取深度及色彩信息的方法及装置
CN108307675B (zh) 2015-04-19 2020-12-25 快图有限公司 用于vr/ar应用中的深度增强的多基线相机阵列系统架构

Also Published As

Publication number Publication date
CN107533761A (zh) 2018-01-02
CN107533761B (zh) 2021-11-12
KR102657198B1 (ko) 2024-04-16
KR20170139521A (ko) 2017-12-19
US20180035097A1 (en) 2018-02-01
JP2016208380A (ja) 2016-12-08
WO2016174858A1 (en) 2016-11-03
EP3289564A1 (en) 2018-03-07
US11089289B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
JP6646361B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5915981B2 (ja) 注視点検出方法及び注視点検出装置
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
JP6020923B2 (ja) 焦点可変レンズを有するビューア、および映像表示システム
US8704881B2 (en) Stereoscopic image display apparatus
US20120327195A1 (en) Auto Focusing Method and Apparatus
US8902289B2 (en) Method for capturing three dimensional image
WO2016115873A1 (zh) 双目ar头戴显示设备及其信息显示方法
CN103533340A (zh) 移动终端的裸眼3d播放方法和移动终端
US20150304625A1 (en) Image processing device, method, and recording medium
US11503202B1 (en) Optical focus adjustment
US10812764B2 (en) Display apparatus, display system, and method for controlling display apparatus
KR20200035003A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN104869384B (zh) 电子装置及其校正方法
JP2020136857A (ja) 同期制御装置、同期制御方法、及びプログラム
JP6780161B2 (ja) 視線検出装置及び視線検出方法
JP2014089521A (ja) 検出装置、映像表示システムおよび検出方法
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
US20160065941A1 (en) Three-dimensional image capturing apparatus and storage medium storing three-dimensional image capturing program
KR100397066B1 (ko) 촬상 비율 제어 방법 및 촬상 비율 감지장치가 부착된카메라
KR20250075931A (ko) 디스플레이 장치 및 이의 제어방법
JP2023069386A (ja) 画像計測装置、方法およびプログラム
KR20250113193A (ko) Hud 고스트 이미지 측정 방법 및 장치
JP3435221B2 (ja) カーソル表示装置
JP2006050383A (ja) 立体画像表示装置およびその表示制御方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160720

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200110

R150 Certificate of patent or registration of utility model

Ref document number: 6646361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150