[go: up one dir, main page]

JP2017146938A - 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム - Google Patents

書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム Download PDF

Info

Publication number
JP2017146938A
JP2017146938A JP2016030472A JP2016030472A JP2017146938A JP 2017146938 A JP2017146938 A JP 2017146938A JP 2016030472 A JP2016030472 A JP 2016030472A JP 2016030472 A JP2016030472 A JP 2016030472A JP 2017146938 A JP2017146938 A JP 2017146938A
Authority
JP
Japan
Prior art keywords
book
area
region
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016030472A
Other languages
English (en)
Inventor
康 洲鎌
Yasushi Sukama
康 洲鎌
昌史 多田
Masashi Tada
昌史 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016030472A priority Critical patent/JP2017146938A/ja
Priority to US15/431,903 priority patent/US20170243052A1/en
Publication of JP2017146938A publication Critical patent/JP2017146938A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/13Type of disclosure document
    • G06V2201/131Book

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】何れかのページが開かれた状態にある書籍を検出可能な書籍検出装置を提供する。
【解決手段】書籍検出装置は、3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出する候補領域検出部11と、複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合にその二つの面領域を書籍が含まれる書籍領域と判定する書籍領域判定部16とを有する。
【選択図】図3

Description

本発明は、例えば、実空間において書籍を検出する書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラムに関する。
近年、映像を投影するプロジェクタが広く利用されている。プロジェクタから投影される映像を見易くするためには、映像が投影される投影面は平面であることが好ましい。そこで、プロジェクタからの映像を投影するのに適した投影範囲を自動的に検出する技術が提案されている(例えば、特許文献1及び2を参照)。
特許文献1に開示された情報投影表示装置は、投影面上に設置された二つのマーカとあらかじめ指定されたベース角に基づいて、この二つのマーカを対角とする矩形領域を投影領域と決定する。
また、特許文献2に開示された情報提示装置は、格子模様パターン画像を第2のプロジェクタにより作業エリアに向けて投影させる。そして情報提示装置は、投影された格子模様パターン画像を赤外線カメラにより撮像させ、撮像された格子模様パターン画像と、元の格子模様パターン画像とを照合して平面領域を抽出する。さらに、情報提示装置は、抽出された平面領域のうち最大かつ正方形に近い平面領域を検出し、第1のプロジェクタにより提示情報を検出された平面領域に向けて投影させる。
特開2007−36482号公報 特開2006−189712号公報
特許文献1に記載の技術では、投影範囲の探索対象となるエリアに、予め既知のマーカが設置されていることが求められる。しかしながら、プロジェクタが利用される場所によっては、そのようなマーカが常にあるとは限らない。また、特許文献2に記載の技術では、映像を投影するプロジェクタとは別個に、平面領域を検出するための特殊な画像を投影するためのプロジェクタが別途必要となる。
また、投影対象となる領域が、何れかのページが開かれた状態にある書籍であることがある。一般に、書籍では、各ページがその一端で綴じられているために、開かれているページは平面状にならず、曲面状に変形していることがある。そのため、例え、ページに既知のマーカが付されていたとしても、ページの変形に伴ってそのマーカも変形するため、投影装置はマーカを検出できなくなることがある。同様に、平面領域を検出するための特殊な画像を曲面状に変形したページに投影しても、ページ上でその画像が変形するために、投影装置は、その特殊な画像を検出できなくなり、その結果として平面領域を検出できなくなることがある。
一つの側面では、本発明は、何れかのページが開かれた状態にある書籍を検出可能な書籍検出装置を提供することを目的とする。
一実施形態によれば、書籍検出装置が提供される。この書籍検出装置は、3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出する面領域検出部と、複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合にその二つの面領域を書籍が含まれる書籍領域と判定する書籍領域判定部とを有する。
何れかのページが開かれた状態にある書籍を検出できる。
第1の実施形態による書籍検出装置のハードウェア構成図である。 3次元センサ2及びカメラ3の配置の一例を示す図である。 制御部の機能ブロック図である。 (a)〜(d)は、それぞれ、領域拡張法による、平面領域検出の概念図である。 検出された平面領域と、その凸輪郭の一例を示す図である。 候補領域と、主成分分析により求められる各方向の関係を示す図である。 (a)は、平面領域に対して主成分分析を実行することで得られた回転行列及び平行移動ベクトルを用いてモデル領域を移動させた結果を示す図である。(b)は、主成分分析の結果に基づいて移動されたモデル領域に対してICPを適用した場合のモデル領域と平面領域の位置関係を示す図である。(c)は、参考としての、モデル領域と平面領域とをICPにより直接位置合わせした結果の一例を示す図である。 何れかのページが開かれた状態にある書籍の一例を示す図である。 書籍領域判定部による処理の概要を示す図である。 曲面領域の補正の処理の概要についての説明図である。 書籍検出処理の動作フローチャートである。 第2の実施形態による書籍検出装置のハードウェア構成図である。 第2の実施形態による制御部の機能ブロック図である。 第2の実施形態による書籍検出装置により実行される、書籍検出処理を含む投影処理の動作フローチャートである。 変形例による書籍検出装置のハードウェア構成図である。 (a)及び(b)は、それぞれ、視線検出装置の配置の一例を示す図である。
以下、図面を参照しつつ、書籍検出装置について説明する。この書籍検出装置は、書籍の探索対象となるエリア全体の3次元形状を表す3次元計測データを3次元センサで取得し、その3次元計測データに基づいて、書籍の開かれたページの候補となる面状の領域である候補領域を検出する。そしてこの書籍検出装置は、何れかのページが開かれた状態の書籍では、近接した位置に開いている二つのページが存在することに着目し、互いに近接する候補領域のペアについて、開いている二つのページの位置関係に相当する位置条件を満たすか否か判定する。そしてこの書籍検出装置は、そのペアが位置条件を満たす場合に、そのペアを書籍を含む書籍領域として検出する。
図1は、第1の実施形態による書籍検出装置のハードウェア構成図である。書籍検出装置1は、3次元センサ2と、カメラ3と、記憶部4と、制御部5とを有する。図2は、3次元センサ2及びカメラ3の配置の一例を示す図である。書籍検出装置1が有するこれらの各部は、例えば、一つの筐体(図示せず)に収容される。あるいは、3次元センサ2及びカメラ3は、記憶部4及び制御部5が収容される筐体とは別個に設けられてもよい。そして3次元センサ2、カメラ3、及び記憶部4は、それぞれ、制御部5と信号線を介して接続される。また、書籍検出装置1は、書籍検出装置1を他の機器と通信ネットワークを介して接続するための通信インターフェース(図示せず)をさらに有していてもよい。
3次元センサ2は、例えば、図2に示されるように、検出対象となる書籍200が存在すると想定される探索対象エリアの鉛直上方に、鉛直下方を向けて取り付けられる。3次元センサ2は、一定の周期(例えば、50msec〜100msec)ごとに、あるいは、所定のタイミングで、探索対象となるエリア内の3次元計測データを生成する。なお、探索対象エリアは、カメラ3の撮影範囲の少なくとも一部を含む。そして3次元センサ2は、生成した3次元計測データを制御部5へ出力する。そのために、3次元センサ2は、例えば、Time of Flight方式などを採用したデプスカメラ、あるいはステレオカメラとすることができる。3次元計測データは、例えば、所定点(例えば、3次元センサ2のセンサ面の中心)を原点とする3次元の直交座標系における、3次元センサ2の探索対象エリア内の各測定点の実空間の座標を含む。
カメラ3は、撮像部の一例であり、例えば、イメージセンサと、撮影範囲の像をイメージセンサ上に結像する結像光学系を有する。カメラ3は、例えば、図2に示されるように、3次元センサ2と同様に検出対象となる書籍200が存在すると想定される探索対象エリアの鉛直上方に、鉛直下方を向けて取り付けられる。そしてカメラ3は、一定の周期(例えば、50msec〜100msec)ごとに、あるいは、制御部5から受け取った撮影指示信号に従って撮影範囲を撮影し、その撮影範囲を表す画像を生成する。カメラ3は、画像を生成する度に、その画像を制御部5へわたす。
記憶部4は、例えば、揮発性又は不揮発性の半導体メモリ回路を有する。そして記憶部4は、3次元センサ2により得られた3次元計測データ、カメラ3により生成された画像などを記憶する。さらに、記憶部4は、書籍検出処理で利用される様々な情報、例えば、検出対象となる書籍のサイズなどを記憶する。さらに、記憶部4は、書籍検出処理を制御部5い実行させるためのコンピュータプログラムを記憶してもよい。
制御部5は、一つまたは複数のプロセッサ及びその周辺回路を有する。そして制御部5は、書籍検出装置1全体を制御する。
また制御部5は、3次元計測データに基づいて書籍検出処理を実行し、検出された書籍に対応する位置情報に基づいて画像上で書籍が表された領域を特定する。そして制御部5は、特定された領域に表された書籍のページが曲面状に変形している場合に、そのページが仮想的に平面状になるように、画像上の対応領域を補正する。
以下、制御部5により実行される、映像投影処理について説明する。
図3は、制御部5の機能ブロック図である。制御部5は、候補領域検出部11と、方向検出部12と、面形状判定部13と、向き補正部14と、削除判定部15と、書籍領域判定部16と、書籍画像検出部17とを有する。
制御部5が有するこれらの各部は、例えば、制御部5が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。あるいはこれらの各部は、その各部の機能を実現する一つまたは複数の集積回路として、制御部5とは別個に書籍検出装置1に実装されてもよい。
候補領域検出部11は、面領域検出部の一例であり、3次元センサ2により得られた3次元計測データから、探索対象エリア内で、平面状または曲面状の面領域のそれぞれを、書籍における、開かれている個々のページの候補領域として検出する。本実施形態では、候補領域検出部11は、領域拡張(Region Growing)法を使用して、法線方向の差が所定値以下となる測定点の集合を候補領域として検出する。
そこで先ず、候補領域検出部11は、3次元計測データに含まれる各測定点についての法線方向を求める。例えば、候補領域検出部11は、最小二乗法を用いて、着目する測定点及びその周囲の複数の測定点から選択した3点により定められる平面の法線のそれぞれとの誤差が最小となる法線を、着目する測定点についての法線として算出する。あるいは、候補領域検出部11は、着目する測定点を重心とする、着目する測定点周囲の三つの測定点から定められる平面の法線を、着目する測定点の法線としてもよい。
各測定点についての法線が算出されると、候補領域検出部11は、領域拡張法を使用して、法線方向の差が所定値以下となる測定点の集合を求め、その集合を候補領域とする。
図4(a)〜図4(d)は、領域拡張法による、候補領域検出の概念図である。先ず、候補領域検出部11は、3次元計測データ400に含まれる測定点のうち、法線方向が所定の条件を満たす測定点を、種子点401として一つ設定し、種子点401に一意なラベルを付与する。なお、所定の条件は、例えば、法線方向と、カメラ3の光軸方向とのなす角が所定角度(例えば、30°)以下となることとすることができる。また所定角度は、ユーザが書籍を読んでいる状態でのページの向きの想定範囲に応じて設定されればよい。
次に、候補領域検出部11は、図4(b)に示されるように、種子点401に隣接する測定点のうち、種子点401の法線方向と、その測定点の法線方向との差が所定角度以下となる測定点402に、種子点401に付されたラベルと同じラベルを付与する。すなわち、候補領域検出部11は、測定点402と種子点401とを同じ候補領域を表す測定点の集合とする。ただし、候補領域検出部11は、既に他のラベルが付与されている測定点については、種子点401についての領域拡張の対象としなくてもよい(すなわち、種子点401と同じラベルを付与しない)。また、所定角度は、例えば、10°である。
図4(c)に示されるように、候補領域検出部11は、同様のラベル付与の処理を繰り返す。すなわち、候補領域検出部11は、種子点401のラベルと同じラベルが付与された測定点402に隣接する測定点のうち、測定点402の法線方向と、その測定点の法線方向との差が所定角度以下となる測定点403を特定する。そして候補領域検出部11は、その測定点403に、種子点401に付されたラベルと同じラベルを付与する。候補領域検出部11は、種子点401のラベルと同じラベルが付与された測定点402に隣接する何れの測定点についても、測定点402の法線方向と、その測定点の法線方向との差が所定角度より大きくなると、種子点401についての処理を終了する。そして図4(d)に示されるように、候補領域検出部11は、種子点401、及び、種子点401に付与されたラベルと同じラベルが付与された測定点の集合を、一つの候補領域410とする。
なお、候補領域検出部11は、着目する測定点と隣接する測定点とが同じ候補領域に含まれると判定する条件として、その二つの測定点の3次元センサ2からの距離の差が所定値以下であることを追加してもよい。
候補領域検出部11は、法線方向が所定の条件を満たし、かつ、ラベルが付与されていない測定点が無くなるまで、上記の処理を繰り返すことで、複数の候補領域を検出する。
候補領域検出部11は、検出された候補領域のそれぞれについて、凸輪郭を求める。例えば、候補領域検出部11は、着目する候補領域に含まれる測定点のうち、1以上の隣接測定点がその候補領域に含まれない測定点を、着目する候補領域の輪郭を表す輪郭測定点として検出する。そして候補領域検出部11は、輪郭測定点のうち、その輪郭測定点と、着目する候補領域内の何れかの二つの測定点とを結ぶ二つのベクトルの内積が0以上となる輪郭測定点を特定する。特定された輪郭測定点は、90°以下の角度を持つ候補領域の角の点となる。そこで候補領域検出部11は、特定された輪郭測定点を結んで得られる輪郭を、着目する候補領域の凸輪郭とする。
図5は、検出された候補領域と、その凸輪郭の一例を示す図である。この例では、実線で表される候補領域500は、他の物体の存在により、矩形の一部が欠けた形状となっている。しかし、その欠けた部分は、凹状となるため、点線で表される凸輪郭501は、候補領域500の本来の輪郭形状に近い形状となる。
候補領域検出部11は、各候補領域を表す情報、例えば、測定点ごとに付与されたラベルを記憶部4に保存する。また候補領域検出部11は、候補領域ごとに、その候補領域の凸輪郭を表す情報(例えば、輪郭上の各測定点の座標)を記憶部4に保存する。
方向検出部12は、候補領域検出部11で検出された候補領域のそれぞれについて、その候補領域の向きを検出する。本実施形態では、方向検出部12は、候補領域のそれぞれについて、主成分分析を適用して、候補領域の長手方向、短手方向及び法線方向を算出する。具体的に、方向検出部12は、着目する候補領域について、その候補領域に含まれる各測定点の3次元座標を入力として、主成分分析を実行する。
図6は、候補領域と、主成分分析により求められる各方向の関係を示す図である。候補領域600に含まれる各測定点の3次元座標を入力として主成分分析が実行されると、候補領域600の長手方向601が主成分として求められる。そして、主成分である長手方向601と直交する方向のうち、2番目に成分が多い方向がその候補領域の短手方向602として求められる。そして長手方向601及び短手方向602と直交する方向として、その候補領域の法線方向603が求められる。
したがって、候補領域が書籍の一つのページに対応するなら、候補領域の長手方向は、ページの長辺方向に対応し、候補領域の短手方向は、ページの短辺方向に対応する。そして候補領域の法線方向は、ページの法線方向に対応する。
方向検出部12は、各候補領域の長手方向、短辺方向及び法線方向を記憶部4に保存する。
面形状判定部13は、各候補領域について、平面か曲面かを判定する。面形状判定部13は、各候補領域に対して同じ処理を実行すればよいので、以下では、一つの候補領域に対する処理について説明する。
例えば、面形状判定部13は、着目する候補領域内の各測定点について法線方向を算出する。なお、面形状判定部13は、候補領域検出部11による測定点での法線方向の算出と同様の処理を実行して、各測定点での法線方向を算出すればよい。そして面形状判定部13は、着目する候補領域内の各測定点の法線方向の分散値を算出する。
なお、面形状判定部13は、候補領域検出部11により算出された着目する候補領域内の各測定点での法線方向を利用して、各測定点の法線方向の分散値を算出してもよい。
面形状判定部13は、着目する候補領域についての法線方向の分散値を所定の閾値と比較する。一般に、候補領域が平面であれば、各測定点での法線方向も同一となるため、法線方向の分散値は小さくなる。一方、候補領域が曲面であれば、その曲面に応じて測定点ごとに法線の向きは変化するので、法線方向の分散値は比較的大きくなる。そこで、法線方向の分散値が所定の閾値以上であれば、面形状判定部13は、着目する候補領域は曲面であると判定する。一方、法線方向の分散値が所定の閾値未満であれば、面形状判定部13は、着目する候補領域は平面であると判定する。
あるいは、面形状判定部13は、着目する候補領域について、その候補領域について算出された法線方向に沿った測定点間の位置の差の最大値を算出し、その差の最大値が所定の閾値以上であれば、その候補領域は曲面であると判定してもよい。この場合、所定の閾値は、例えば、検出対象となる書籍における、各ページが綴じられた辺と平行な方向の長さに0.1を乗じた値とすることができる。
面形状判定部13は、平面であると判定した候補領域を向き補正部14へ通知し、一方、曲面であると判定した候補領域を削除判定部15へ通知する。
向き補正部14は、平面であると判定された候補領域のそれぞれについて、より正確な向きを求める。例えば、向き補正部14は、平面であると判定された候補領域のそれぞれについてIterative Closest Point(ICP)アルゴリズムを適用することで、その候補領域の向きを修正する。その際、向き補正部14は、得られた候補領域の向きに合わせた、ページのモデルとなる矩形状のモデル領域を初期位置として、そのモデル領域と候補領域の凸輪郭との間でICPアルゴリズムを適用する。なお、以下では、平面であると判定された候補領域を、単に平面領域と呼ぶ。
向き補正部14は、各平面領域について、モデル領域を、その平面領域の長手方向、短手方向及び法線方向から定められる平行移動ベクトル及び回転行列を用いて、その平面領域の位置へ移動させて、ICPの初期位置とする。
向き補正部14は、次式に従って、モデル領域を着目する平面領域の位置へ移動させる。
ここで、pn及びp'nは、それぞれ、移動前及び移動後のモデル領域内の点の3次元座標を表す。またtは、平行移動量を表す平行移動ベクトルであり、例えば、モデル領域の重心から着目する平面領域の重心への移動量を表すベクトルで表される。またRは、回転行列であり、次式で表される。
ここで、(Tx,Ty,Tz)は、それぞれ、着目する平面領域の長手方向の向きを表す単位ベクトルにおける、x軸方向成分、y軸方向成分、z軸方向成分である。また、(Bx,By,Bz)は、それぞれ、着目する平面領域の短手方向の向きを表す単位ベクトルにおける、x軸方向成分、y軸方向成分、z軸方向成分である。そして(Nx,Ny,Nz)は、それぞれ、着目する平面領域の法線方向の向きを表す単位ベクトルにおける、x軸方向成分、y軸方向成分、z軸方向成分である。なお、x軸方向、y軸方向、及びz軸方向は、例えば、3次元センサ2のセンサ面の中心を原点とする直交座標系の各軸の方向を表す。
各平面領域について、モデル領域をその平面領域の位置へ移動させると、向き補正部14は、その移動後の位置をICPの初期位置として、モデル領域とその平面領域の凸輪郭との間でICPを実行する。そして向き補正部14は、各平面領域について、モデル領域の向き及び位置をその平面領域の向き及び位置に合わせるための平行移動量及び回転行列を算出できる。なお、向き補正部14は、モデル領域とその平面領域の凸輪郭との間で、ICP以外の追跡処理を利用して、モデル領域の向き及び位置をその平面領域の向き及び位置に合わせるための平行移動量及び回転行列を算出してもよい。
向き補正部14は、次式に従って、モデル領域の向き及び位置を着目する平面領域の向き及び位置に合わせる。
ここで、p''nは、モデル領域内の点pnに対応する、着目する平面領域への位置合わせ後の点の3次元座標を表す。また、t'及びR'は、それぞれ、ICPにより算出された平行移動量及び回転行列である。
図7(a)は、平面領域に対して主成分分析を実行することで得られた回転行列及び平行移動ベクトルを用いてモデル領域を移動させた結果を示す図である。点線で表されるモデル領域700は、平面領域701に対して主成分分析を実行することで得られた回転行列及び平行移動ベクトルを用いることで、平面領域701の比較的近くに移動される。ただし、主成分分析の結果だけを利用した位置合わせでは、例えば、平面領域701の一部を隠す物体702などの影響による誤差が残り、モデル領域700は、平面領域701に対して完全には一致しない。
図7(b)は、主成分分析の結果に基づいて移動されたモデル領域に対してICPを適用した場合のモデル領域と平面領域の位置関係を示す図である。図7(b)に示されるように、モデル領域700の移動後の位置を初期位置として、モデル領域700と平面領域701の凸輪郭との間でICPを行うことで求められた回転行列などに基づいて、モデル領域700は移動される。移動後のモデル領域700’(点線により図示)は、平面領域701と良好に位置合わせされている。
一方、図7(c)は、参考としての、平面領域に対して主成分分析を適用して得られた回転行列などを利用せず、モデル領域と平面領域とを位置合わせした結果の一例を示す図である。図7(c)に示されるように、ICPを実行する際の初期位置となるモデル領域の位置と、平面領域とが大きく離れている場合、ICPで得られる回転行列などが最適解とならず、ローカルミニマムに相当する解となることがある。そのため、図7(c)に示されているように、ICPを直接用いて位置合わせされたモデル領域710の位置は、実際の平面領域701の位置と正確に一致しないことがある。このように、主成分分析とICPの両方を利用することで、向き補正部14は、モデル領域の位置及び向きを各平面領域の位置及び向きに対して良好に一致させることができる。
向き補正部14は、各平面領域について、その平面領域と位置合わせされたモデル領域の位置及び長手方向、短手方向及び法線方向を、その平面領域についての修正後の長手方向、短手方向及び法線方向とする。そして向き補正部14は、各平面領域について、修正後の長手方向、短手方向及び法線方向を表す情報を記憶部4に保存する。
削除判定部15は、曲面と判定された候補領域のそれぞれについて、その候補領域の曲面の湾曲方向に基づいて、書籍のページに対応する領域であるか否かを判定する。なお、以下では、曲面と判定された候補領域を、単に曲面領域と呼ぶ。
図8は、何れかのページが開かれた状態にある書籍の一例を示す図である。一般に、書籍では、各ページの一つの辺が綴じられているため、その辺と平行な方向に沿ってはページはあまり湾曲せず、綴じられた辺と直交する方向については比較的大きく湾曲することがある。例えば、図8に示されるように、書籍800において、各ページが一方の長辺で綴じられていると、開かれているページ801は、長辺方向についてはあまり湾曲せず、短辺方向に沿って湾曲している。
グラフ802は、ページ801上の短辺方向のある位置における、長辺方向に沿ったページ801の法線方向の高さの変化を表す。またグラフ803は、ページ801上の長辺方向のある位置における、短辺方向に沿ったページ801の法線方向の高さの変化を表す。
グラフ802に示されるように、ページ801上では、長辺方向に沿って位置が変化してもページ801の高さはあまり変化しない。一方、グラフ803に示されるように、ページ801上では、短辺方向に沿った位置変化に応じて、ページ801の高さも変化する。
そこで、削除判定部15は、各曲面領域について、書籍のページが綴じられた方向に対応する曲面領域の方向における、曲面領域の法線方向に沿った位置の変化度合いを算出し、その変化度合いが所定の変動閾値よりも大きい場合、曲面領域を削除する。
例えば、削除判定部15は、測定点ごとに、検出対象となる書籍のページの綴じられた辺に対応する方向について、法線方向の高さの微分値を算出する。なお、以下では、曲面領域の長手方向が、検出対象となる書籍のページの綴じられた辺に対応する方向であるとする。すなわち、削除判定部15は、各測定点について、長手方向についての法線方向の高さの微分値を算出する。なお、微分値の算出を容易にするために、削除判定部15は、各曲面領域について、その曲面領域内の各測定点の座標値を、その曲面領域の短手方向(X軸)、長手方向(Y軸)、及び法線方向(Z軸)をそれぞれ軸とする直交座標系における座標値に変換してもよい。
削除判定部15は、曲面領域ごとに、測定点ごとの長手方向Yについての法線方向に沿った高さD(X,Y)の微分値の統計的代表値dD(X,Y)/dYを、曲面領域の法線方向に沿った位置の変化度合いとして算出する。なお、その統計的代表値dD(X,Y)/dYは、測定点ごとの長手方向についての法線方向の高さの微分値の平均値または中央値とすることができる。
削除判定部15は、曲面領域ごとに、その曲面領域についての長手方向についての高さD(X,Y)の微分値の統計的代表値dD(X,Y)/dYを所定の変動閾値Tnと比較する。そして削除判定部15は、着目する曲面領域についての統計的代表値dD(X,Y)/dYが変動閾値Tn以下である場合、着目する曲面領域を候補領域として残す。一方、着目する曲面領域についての統計的代表値dD(X,Y)/dYが変動閾値Tnより大きい場合、削除判定部15は、着目する曲面領域は、ページの候補領域ではないと判定し、その曲面領域を削除する。
変形例によれば、削除判定部15は、曲面領域のX方向の位置ごとに、法線方向に沿った高さD(X,Y)の最大値と最小値の差ΔD(X)を算出する。そして削除判定部15は、その差ΔD(x)の平均値または最大値を、書籍のページが綴じられた方向に対応する曲面領域の方向における、曲面領域の法線方向に沿った位置の変化度合いとしてもよい。
削除判定部15は、候補領域として残した曲面領域を書籍領域判定部16へ通知する。
書籍領域判定部16は、複数の候補領域のなかから選択した二つの候補領域を含むペアを作成する。そして書籍領域判定部16は、そのペアに含まれる候補領域間の位置関係が、開かれた状態にある書籍の開かれている二つのページの位置関係に相当する位置条件を満たすか否かに応じて、そのペアが、書籍が含まれる書籍領域か否かを判定する。
図9は、書籍領域判定部16による処理の概要を示す図である。図9には、4個の候補領域901〜904が示されている。ここで、候補領域901及び候補領域902は、それぞれ、何れかのページが開かれた状態にある書籍の一つのページに対応し、候補領域903及び候補領域904は、書籍以外を表しているとする。
一般に、書籍では、各ページが一つの辺に沿って綴じられているため、何れかのページが開かれた状態にある書籍では、その開かれた二つのページが互いに近接して存在している。そして各ページのサイズはほぼ等しい。そのため、図9に示されるように、候補領域901と候補領域902間の間隔は比較的狭くなっている。さらに、候補領域901の長手方向及び短手方向のサイズのうち、ページの綴じられた辺に対応する方向のサイズは、それぞれ、候補領域902の対応する方向のサイズとほぼ等しくなっている。これに対して、同じ書籍に対応しない、他の候補領域のペア、例えば、候補領域903と候補領域904については、互いに近接しておらず、かつ、サイズも互いに異なっている。
そこで、書籍領域判定部16は、各候補領域のなかから二つの候補領域を選択して候補領域のペアを作成する。なお、書籍領域判定部16は、作成可能な全てのペアを作成してもよい。あるいは、書籍領域判定部16は、二つの候補領域のそれぞれの重心間の距離が、所定距離以上離れている場合には、その二つの候補領域のペアを作成しなくてもよい。なお、所定距離は、例えば、検出対象となる書籍について、各ページが綴じられている辺と直交する方向(以下、書籍の幅方向と呼ぶ)の書籍のサイズ(以下、書籍の幅と呼ぶ)に設定される。そして書籍領域判定部16は、候補領域のペアごとに、互いに近接する側の辺の両端間の距離d1、d2を算出する。なお、検出対象となる書籍について、各ページがその長辺で綴じられている場合には、書籍領域判定部16は、候補領域のペアに含まれる二つの候補領域の互いに近接する側の長手方向の辺の両端間で距離d1、d2を算出すればよい。一方、検出対象となる書籍について、各ページがその短辺で綴じられている場合には、書籍領域判定部16は、候補領域のペアに含まれる二つの候補領域の互いに近接する側の短手方向の辺の両端間で距離d1、d2を算出すればよい。
さらに、書籍領域判定部16は、候補領域のペアごとに、そのペアに含まれる各候補領域について、検出対象となる書籍において各ページが綴じられている辺に平行な方向(以下、書籍の高さ方向と呼ぶ)に沿った長さH1、H2を算出する。なお、検出対象となる書籍について、各ページがその長辺で綴じられている場合には、書籍領域判定部16は、各候補領域の長手方向の長さをH1、H2とする。一方、検出対象となる書籍について、各ページがその短辺で綴じられている場合には、書籍領域判定部16は、各候補領域の短手方向の長さをH1、H2とする。なお、各候補領域は矩形状の凸輪郭で表されている。そこで書籍領域判定部16は、その凸輪郭における、長手方向の長さまたは短手方向の長さをH1、H2とすればよい。
書籍領域判定部16は、候補領域のペアごとに、そのペアに含まれる二つの候補領域の位置関係が、次式で表される、開かれている二つのページ間の位置関係に相当する位置条件を満たすか否か判定する。そしてその位置関係が、位置条件を満たす場合、書籍領域判定部16は、そのペアに含まれる二つの候補領域の外接矩形領域を書籍領域とする。また書籍領域判定部16は、書籍領域に含まれる各候補領域を、それぞれ、ページ領域とする。
ここで、閾値Dは、例えば、検出対象となる書籍の幅に0.05〜0.1を乗じた値に設定される。また閾値Hは、例えば、その書籍の高さ方向におけるサイズ(以下、書籍の高さと呼ぶ)に0.05〜0.2を乗じた値に設定される。
変形例によれば、書籍領域判定部16は、d1、d2をそれぞれ閾値Dと比較してもよい。そしてd1、d2ともに閾値D未満となることが、位置条件に含まれてもよい。また、書籍領域判定部16は、各候補領域を、最も近い他の候補領域までの重心間の距離が近い方から順にソートしてもよい。そして書籍領域判定部16は、各候補領域について、重心間の距離が近い方から順に、二つの他の候補領域のそれぞれと候補領域のペアを作成してもよい。例えば、図9に示される例では、候補領域902について、候補領域901と候補領域902のペア、及び、候補領域902と候補領域903のペアが作成される。
そして書籍領域判定部16は、着目する候補領域を含む二つのペアのうち、重心間の距離が近い方のペアについて、そのペアに含まれる各候補領域について、d1、d2、H1、H2とともに、書籍の幅方向に沿った長さW1、W2を算出する。すなわち、検出対象となる書籍について、各ページがその長辺で綴じられている場合には、書籍領域判定部16は、各候補領域の短手方向の長さをW1、W2とする。一方、検出対象となる書籍について、各ページがその短辺で綴じられている場合には、書籍領域判定部16は、各候補領域の長手方向の長さをW1、W2とする。同様に、書籍領域判定部16は、重心間の距離が遠い方のペアについても、互いに近接する側の辺の両端間の距離d3、d4、書籍の高さ方向の各候補領域の長さH2、H3、及び、書籍の幅方向の各候補領域の長さW2、W3を算出する。例えば、図9に示される例では、候補領域902について、候補領域902と候補領域903のペアについても、d3、d4、W3、H3が算出される。
書籍領域判定部16は、着目する候補領域を含む二つのペアのそれぞれについて、そのペアに含まれる二つの候補領域の位置関係が、書籍の二つのページ間の位置関係に相当する位置条件を満たすか否か判定する。そして書籍領域判定部16は、重心間の距離が近い方のペアについて、その位置条件が満たされ、かつ、他方のペアについて、その位置条件を満たされない場合、重心間の距離が近い方のペアに含まれる二つの候補領域の外接矩形領域を書籍領域とする。なお、この判定条件は、次式で表される。
ここで、閾値Wは、例えば、書籍の幅に0.05〜0.2を乗じた値に設定される。
この変形例では、書籍領域判定部16は、ペアごとに位置条件を満たすか否かを判定するので、書籍の近くに面上の領域がある場合でも、書籍領域を正確に検出できる。
書籍領域判定部16は、検出した書籍領域を書籍画像検出部17へ通知する。
書籍画像検出部17は、カメラ3により得られた画像上で、書籍領域に対応する領域を書籍画像として検出する。
本実施形態では、3次元センサ2とカメラ3の位置関係は予め分かっている。また、書籍領域は、3次元センサ2を基準とする実空間の座標系で表されている。そこで、書籍画像検出部17は、書籍領域の4個のコーナーのそれぞれの座標を、3次元センサ2を基準とする実空間の座標系から、カメラ3を基準とする実空間の座標系の値に変換する。この変換は、それら二つの座標系間の位置ずれと回転方向のずれを補正するアフィン変換により実行される。
そして、書籍画像検出部17は、カメラ3を基準とする実空間の座標系で表された書籍領域の4個のコーナーのそれぞれの座標に対応する、画像上での座標を算出する。そして書籍画像検出部17は、座標変換後の4個のコーナーで囲まれた領域を書籍画像とする。例えば、上記の座標変換及び画像上での対応座標の算出は、次式で表される。
ここで、(fcx,fcy)は、カメラ3による画像の水平方向及び垂直方向における、カメラ3が有する結像光学系(図示せず)の焦点距離を表す。また(ccx,ccy)は、カメラ3による画像の中心の水平座標及び垂直座標を表す。また回転行列Rdc及び平行移動ベクトルTdcは、3次元センサ2を基準とする3次元座標系からカメラ3を基準とする3次元座標系への座標変換を表す変換パラメータである。(X,Y,Z)は、3次元センサ2を基準とする3次元座標系での着目点(この例では、書籍領域の4個のコーナーの何れか)の3次元座標である。そして(x,y)は、着目点に対応する、画像上での点の2次元座標である。
また、書籍画像に対応する書籍領域に含まれる二つのページ領域の何れかが曲面領域である場合、書籍画像検出部17は、その曲面領域を仮想的に平面に伸ばしたときのページの像を表すように、書籍画像を補正する。
図10は、曲面領域の補正の処理の概要についての説明図である。書籍画像検出部17は、曲面領域1000について、湾曲している方向、すなわち、書籍の幅方向に沿って、その法線方向の高さの差が所定値となるブロック1001ごとに分割する。そして書籍画像検出部17は、ブロック1001ごとに、方向検出部12と同様に主成分分析を実行する。これにより、2番目に成分が多い方向がブロック1001の短手方向として求められる。さらに、3番目に成分が多い方向がブロック1001の法線方向として求められる。そこで、書籍画像検出部17は、ブロック1001ごとに、短手方向に沿ったブロック1001の幅dx1を算出する。
さらに、書籍画像検出部17は、ブロック1001ごとに、ブロック1001の4個のコーナーに対応する画像上での4個の点を、(6)式に従って算出する。これにより、書籍画像検出部17は、画像上でのブロック1001に対応する領域(以下、便宜上、ブロック領域と呼ぶ)1002を求める。
書籍画像検出部17は、ブロック1001ごとに、そのブロックをカメラ3の光軸方向と直交する面に投影するように、対応するブロック領域1002を射影変換することで、補正されたブロック領域1003を得る。例えば、書籍画像検出部17は、他方のページ領域に近い方のブロック1001から順に、画像上で、補正されたブロック領域の幅が、(dx1/Wref)*sizewとなるように、ブロック領域を書籍の幅方向に沿って拡張する。その際、書籍画像検出部17は、線形補間あるいはスプライン補間により、各画素の値を決定してもよい。なお、Wrefは、検出対象となる書籍における、書籍の幅方向における1ページの長さであり、sizewは、そのページの長さWrefに対応する画像上の画素数である。そして書籍画像検出部17は、着目するブロック領域における、直前のブロック領域と接する辺の位置を、直前のブロック領域のその接する辺の補正後の位置として、上記の処理を実行すればよい。なお、着目するブロック領域が最初のブロック領域である場合、書籍画像検出部17は、他方のページ領域に近い方の辺の位置については変更しなくてもよい。そして書籍画像検出部17は、補正されたブロック領域のそれぞれを連結することで、曲面領域が仮想的に平面となるように伸ばされた、補正された書籍画像を得ることができる。
書籍画像検出部17は、書籍画像を記憶部4に保存する。
図11は、書籍検出処理の動作フローチャートである。なお、制御部5は、例えば、3次元センサ2から3次元計測データが得られる度に、下記の動作フローチャートに従って書籍検出処理を実行する。
候補領域検出部11は、3次元センサ2から得られた探索対象エリアの3次元計測データから複数の候補領域を検出する(ステップS101)。そして候補領域検出部11は、検出した候補領域ごとに、その候補領域の凸輪郭を求める(ステップS102)。
方向検出部12は、検出された候補領域のそれぞれについて、主成分分析を適用することで、長手方向、短手方向及び法線方向を検出する(ステップS103)。
面形状判定部13は、各候補領域について、平面か曲面かを判定する(ステップS104)。そして向き補正部14は、平面と判定された候補領域のそれぞれの向きをICPを適用して補正する(ステップS105)。一方、削除判定部15は、検出対象となる書籍について各ページが綴じられた辺と平行な方向についての法線方向の高さの変化に基づいて、曲面と判定された候補領域のうち、ページでないと判定される候補領域を削除する(ステップS106)。
書籍領域判定部16は、候補領域のペアのうち、そのペアに含まれる二つの候補領域の位置関係が開かれた状態にある書籍の開かれた二つのページの位置関係に相当する位置条件を満たすペアを書籍領域と判定する(ステップS107)。そして書籍領域判定部16は、書籍領域に含まれる各候補領域を、それぞれ、ページ領域とする。
書籍画像検出部17は、カメラ3により得られた画像上で、書籍領域に対応する範囲を書籍画像として検出する(ステップS108)。さらに、書籍画像検出部17は、書籍画像に対応する書籍領域に、曲面であるページ領域が含まれている場合、そのページ領域に対応する書籍画像上の領域を、その曲面が仮想的に平面となるように補正する(ステップS109)。そして制御部5は、書籍検出処理を終了する。
以上に説明してきたように、この書籍検出装置は、探索対象エリアの3次元計測データに基づいて複数の平面または曲面の候補領域を検出する。そしてこの書籍検出装置は、候補領域のペアのうち、そのペアに含まれる二つの候補領域の位置関係が開かれた状態にある書籍の二つのページの位置関係に相当する位置条件を満たすペアを書籍領域と判定する。そのため、この書籍検出装置は、開かれた状態にあるページが湾曲していても、書籍を検出できる。
なお、書籍によっては、何れかのページが開かれた状態において、開かれている二つのページのそれぞれが略平面となることがある。このような場合には、二つのページ全体が一つの候補領域として検出されることがある。そこで変形例によれば、書籍領域判定部16は、長手方向のサイズと、検出対象の書籍の幅との差が所定幅以下となり、かつ、短手方向のサイズとその書籍の高さの差が所定高以下となる候補領域を書籍領域と判定してもよい。なお、所定幅は、例えば、検出対象の書籍の幅に0.05〜0.1を乗じた値とすることができる。また、所定高は、例えば、検出対象の書籍の高さに0.05〜0.1を乗じた値とすることができる。
また他の変形例によれば、方向検出部12は、主成分分析以外の方法により、検出された各候補領域の長手方向、短手方向及び法線方向を検出してもよい。例えは、方向検出部12は、着目する凸輪郭上の何れかの二つの測定点を結ぶベクトルのそれぞれごとに、そのベクトルの方向を算出する。方向検出部12は、算出されたベクトルごとの方向に基づいて、所定角度範囲(例えば、10°)ごとに算出されたベクトルの方向の頻度を表すヒストグラムを作成する。そして方向検出部12は、そのヒストグラムを参照して、頻度が最多となる角度範囲の中心方向を、その候補領域の長手方向とする。あるいは、方向検出部12は、頻度が最多となる角度範囲に含まれるベクトルの方向の平均値あるいは中央値を、その候補領域の長手方向としてもよい。そして方向検出部12は、長手方向と直交する方向のうち、次に頻度が高い角度範囲内で、長手方向と直交する方向を、その候補領域の短手方向とすればよい。さらに、方向検出部12は、長手方向及び短手方向と直交する方向を法線方向とすればよい。
この変形例によれば、方向検出部12は、主成分分析を用いるよりも少ない演算量で候補領域の向きを検出できる。
次に、第2の実施形態による書籍検出装置について説明する。第2の実施形態による書籍検出装置は、検出した書籍領域に基づいて、検出対象となる書籍において開かれているページに表示されているコンテンツを認識し、その認識結果に応じた情報をプロジェクタにより投影する。
図12は、第2の実施形態による書籍検出装置のハードウェア構成図である。書籍検出装置50は、3次元センサ2と、カメラ3と、記憶部4と、制御部51と、プロジェクタ6とを有する。書籍検出装置50が有するこれらの各部は、例えば、一つの筐体(図示せず)に収容される。あるいは、3次元センサ2、カメラ3及びプロジェクタ6は、記憶部4及び制御部51が収容される筐体とは別個に設けられてもよい。そして3次元センサ2、カメラ3、プロジェクタ6及び記憶部4は、それぞれ、制御部51と信号線を介して接続される。また、書籍検出装置50は、書籍検出装置50を通信ネットワークを介して他の機器と接続するための通信インターフェース(図示せず)をさらに有していてもよい。
第2の実施形態による書籍検出装置50は、第1の実施形態による書籍検出装置1と比較して、プロジェクタ6を有する点、及び、制御部51の処理の一部が異なる。そこで以下では、その相違点について説明する。
プロジェクタ6は、投影部の一例であり、例えば、液晶プロジェクタであり、制御部5から受け取った映像信号に従って映像をその表示面に表示することで、映像を投影する。本実施形態では、制御部51により求められた映像表示領域に映像を表示することで、その映像表示領域に対応する投影範囲に映像が投影される。また、プロジェクタ6は、例えば、検出対象となる書籍上、あるいは、書籍が載置されたテーブル上に投影範囲を設定可能なように、書籍が存在すると想定される領域の鉛直上方に、鉛直下方を向けて取り付けられる。あるいは、プロジェクタ6は、所定の壁面に投影範囲を設定可能なように、その壁面を向けて設置されてもよい。
図13は、第2の実施形態による制御部51の機能ブロック図である。制御部51は、候補領域検出部11と、方向検出部12と、面形状判定部13と、向き補正部14と、削除判定部15と、書籍領域判定部16と、書籍画像検出部17と、関連情報取得部18と、操作検出部19と、投影処理部20とを有する。
制御部51が有するこれらの各部は、例えば、制御部51が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。あるいはこれらの各部は、その各部の機能を実現する一つまたは複数の集積回路として、制御部51とは別個に書籍検出装置50に実装されてもよい。
第2の実施形態による制御部51は、第1の実施形態による制御部5と比較して、関連情報取得部18、操作検出部19及び投影処理部20を有する点で相違する。そこで以下では、関連情報取得部18、操作検出部19及び投影処理部20及びその関連部分について説明する。
関連情報取得部18は、書籍画像が得られる度に、書籍画像に基づいて、その書籍画像で表されている、検出対象の書籍について開かれているページに記載されているコンテンツを認識する。なお、そのコンテンツは、例えば、画像あるいはテキストである。そして関連情報取得部18は、認識したコンテンツに関連する情報を記憶部4、あるいは他の機器から取得する。
例えば、記憶部4には、予め、検出対象となる書籍のページごとに、そのページに記載されているコンテンツを表すテンプレートが記憶される。そして関連情報取得部18は、検出された書籍領域に対応する書籍画像と各テンプレートとの間でテンプレートマッチングを行って、テンプレートごとに一致度、例えば、正規化相互相関値を算出する。そして関連情報取得部18は、一致度が最大となるテンプレートに対応するコンテンツが記載されたページが、カメラ3によるその画像の生成時において開かれていると判定する。
関連情報取得部18は、例えば、コンテンツとそのコンテンツに関連する情報との対応関係を表す関連情報テーブルを参照して、開かれているページに記載されたコンテンツについての関連情報を特定する。なお、関連情報テーブルは、例えば、予め記憶部4に保存される。また、コンテンツの関連情報は、例えば、コンテンツが画像である場合、その画像に表された被写体(例えば、生物、建物、景色、または人物など)についての詳細情報を表すテキストまたはその被写体の別の画像、ビデオあるいは3次元データとすることができる。また、コンテンツがテキストである場合、コンテンツの関連情報は、例えば、そのテキストに含まれる所定の文字列(例えば、地名、あるいは人名など)で特定される対象物の画像またはビデオとすることができる。
また、一つのコンテンツに対して複数の関連情報が対応付けられていてもよい。
関連情報取得部18は、特定した関連情報を記憶部4から読み込む。あるいは、関連情報取得部18は、特定した関連情報を、通信ネットワークを介して他の機器から取得してもよい。そして関連情報取得部18は、特定した関連情報を投影処理部20へ渡す。
操作検出部19は、検出された書籍領域の位置または向きの時間変化に基づいて、ユーザの操作を検出する。例えば、操作検出部19は、書籍領域が検出される度に、書籍領域の重心及び法線方向及び長手方向を算出する。なお、法線方向は、例えば、書籍領域に含まれる二つのページ領域のそれぞれの法線方向の平均値とすることができる。また長手方向は、何れか一方のページ領域の長手方向とすることができる。そして操作検出部19は、書籍領域の重心または向きの軌跡を求めて、書籍領域が移動した方向及び向きの時間変化を特定する。操作検出部19は、書籍領域の移動方向の範囲または向きの時間変化の方向の範囲と操作の種類との対応関係を表す操作テーブルを参照して、書籍領域が移動した方向または向きが変化した方向に対応する操作を特定する。なお、操作テーブルは、例えば、予め記憶部4に保存される。
例えば、3次元センサ2から見て左方向への書籍領域の移動は、現在投影されている関連情報の次の関連情報を投影する操作に対応し、3次元センサ2から見て右方向への書籍領域の移動は、現在投影されている関連情報の前の関連情報を投影する操作に対応する。
あるいは、書籍領域の法線方向の上方から下方への向き変化は、関連情報の投影を中止する操作に対応してもよい。逆に、書籍領域の法線方向の下方から上方への向き変化は、関連情報の投影を再開する操作に対応してもよい。
さらに、書籍領域の重心を回転中心とする、法線方向に対する書籍領域の時計回りの変化は、3次元データで表される関連情報の投影される向きを時計回りに回転させる操作に対応してもよい。逆に、書籍領域の重心を回転中心とする、法線方向に対する書籍領域の反時計回りの変化は、3次元データで表される関連情報の投影される向きを反時計回りに回転させる操作に対応してもよい。なお、この場合、操作検出部19は、書籍領域の回転速度に応じて、関連情報の投影される向きを変える速度を変更してもよい。
操作検出部19は、特定した操作を表す情報を投影処理部20へ通知する。
投影処理部20は、特定された操作に応じて、プロジェクタ6に特定された関連情報を投影させるための映像を生成する。例えば、投影処理部20は、書籍領域に映像を投影する場合、書籍領域に対応するプロジェクタ6の表示面上の映像表示領域を特定する。
そのために、投影処理部20は、書籍領域の4個のコーナーのそれぞれの3次元座標を、次式に従って、プロジェクタ6の表示面における2次元座標に座標変換する。そして投影処理部20は、座標変換後の4個のコーナーで囲まれた領域を映像表示領域とする。
ここで、(fpx,fpy)は、プロジェクタ6の表示面の水平方向及び垂直方向における、プロジェクタ6が有する投影光学系(図示せず)の焦点距離を表す。また(cpx,cpy)は、プロジェクタ6の表示面の中心の水平座標及び垂直座標を表す。また回転行列Rdp及び平行移動ベクトルTdpは、3次元センサ2を基準とする3次元座標系からプロジェクタ6の表示面を基準とする3次元座標系への座標変換を表す変換パラメータである。(X,Y,Z)は、3次元センサ2を基準とする3次元座標系での着目点(この例では、書籍領域の4個のコーナーの何れか)の3次元座標である。そして(u,v)は、着目点に対応する、プロジェクタ6の表示面上での点の2次元座標である。
投影処理部20は、特定された関連情報についての映像を、プロジェクタ6の表示面上の映像表示領域に表示させる。これにより、書籍領域にその映像が投影される。
なお、投影処理部20は、書籍が載置されたテーブルあるいは壁面などの予め定められた矩形状の投影領域に対して、プロジェクタ6に特定された関連情報の映像を投影させてもよい。その投影領域は、予め設定されているため、その投影領域に対応する映像表示領域も予め設定される。そこで、例えば、映像表示領域の4個のコーナーの座標が記憶部4に保存されていてもよい。この場合、投影処理部20は、記憶部4から映像表示領域の4個のコーナーの座標を読み込むことで映像表示領域を特定してもよい。
図14は、第2の実施形態による書籍検出装置50により実行される、書籍検出処理を含む投影処理の動作フローチャートである。
制御部51は、3次元センサ2により得られた3次元計測データから書籍領域を検出し、かつ、カメラ3により得られた画像から書籍領域に対応する書籍画像を検出する(ステップS201)。例えば、制御部51は、図11に示される動作フローチャートに従って、書籍領域及び書籍画像を検出すればよい。
関連情報取得部18は、書籍画像に基づいて、開かれているページに記載されているコンテンツを認識し、その認識結果に基づいて、そのコンテンツの関連情報を取得する(ステップS202)。
また、操作検出部19は、検出された書籍領域の位置または向きの時間変化に基づいて、ユーザによる操作を検出する(ステップS203)。
投影処理部20は、検出した操作に従って、コンテンツの関連情報をプロジェクタ6に投影させる(ステップS204)。そして制御部51は、投影処理を終了する。
本実施形態によれば、書籍検出装置は、書籍領域を精度良く検出できるため、その書籍領域にある書籍の開かれたページに記載されたコンテンツを正確に認識できるとともに、書籍の動きによるユーザの操作を正確に検出できる。そのため、この書籍検出装置は、開かれているページに記載されているコンテンツの関連情報を適切に投影できる。
なお、変形例によれば、操作検出部19は、書籍に対してユーザが触れた位置を検出し、その位置に応じた操作を特定してもよい。この場合、操作検出部19は、例えば、書籍領域が検出された3次元計測データにおける各測定点の座標を、書籍領域に含まれる何れかのページ領域の短手方向をX軸、長手方向をY軸、法線方向をZ軸とする直交座標系の値に変換する。そして操作検出部19は、各測定点のうち、XY平面における座標が、書籍領域のXY平面における範囲に含まれ、かつ、Z方向の値が、書籍領域よりも3次元センサ2に近い測定点の集合をユーザの手として検出する。操作検出部19は、その集合においてZ方向における、書籍領域に最も近い測定点と書籍領域間の距離が所定の距離閾値以下である場合、ユーザは、書籍に触れていると判定する。そして操作検出部19は、書籍領域に最も近い測定点のXY平面における座標を、ユーザが触れた位置とする。
操作検出部19は、ユーザが触れた位置に応じた操作を特定する。例えば、その操作は、ユーザが触れた位置に記載されているコンテンツの関連情報の表示とすることができる。
また他の変形例によれば、書籍検出装置は、ユーザが触れた位置を検出する代わりに、書籍領域中でユーザが注視している位置を検出し、検出した位置に応じた操作を実行してもよい。
図15は、この変形例による書籍検出装置のハードウェア構成図である。書籍検出装置60は、3次元センサ2と、カメラ3と、記憶部4と、制御部51と、プロジェクタ6と、視線検出装置7とを有する。図16(a)及び図16(b)は、それぞれ、視線検出装置7の配置の一例を示す図である。
この変形例による書籍検出装置60は、第2の実施形態による書籍検出装置50と比較して、視線検出装置7を有する点と、制御部51の処理の一部が相違する。そこで以下では、その相違点について説明する。
視線検出装置7は、例えば、赤外光を発する光源、例えば、赤外発光ダイオードと、赤外光に感度を有する赤外カメラとを有する。そして視線検出装置7は、例えば、図16(a)に示されるように、検出対象となる書籍1600が載置されるテーブル1601上に、ユーザの顔の想定される位置へ向けて設置される。あるいは、図16(b)に示されるように、視線検出装置7は、ユーザの正面に位置する壁面1602に、ユーザの顔の想定される位置へ向けて設置される。
視線検出装置7は、書籍検出処理の実行中、光源を発光させるとともに、所定のフレームレートで、眼を含むユーザの顔の少なくとも一部が写った赤外画像を生成する。したがって、赤外画像には光源で照明されたユーザの眼が表される。そして赤外画像上でユーザの眼が写った領域には、角膜により反射された光源の像(以下、プルキンエ像と呼ぶ)と瞳孔とが表される。後述するように、プルキンエ像と瞳孔重心との位置関係により、ユーザの視線方向が検出される。
視線検出装置7は、赤外画像を生成する度に、その赤外画像を制御部51へ出力する。
制御部51の操作検出部19は、赤外画像に基づいて、ユーザの視線方向及び書籍領域における注視位置を検出する。そして操作検出部19は、注視位置に応じて、ユーザの操作を特定する。
操作検出部19は、赤外画像が得られる度に、赤外画像上でプルキンエ像及び瞳孔を検出し、プルキンエ像と瞳孔の位置関係に基づいて、ユーザの視線方向及び注視位置を検出する。
本実施形態では、操作検出部19は、一方の眼の瞳孔に相当するテンプレートと赤外画像との間でテンプレートマッチングを行い、赤外画像上でテンプレートとの一致度が最も高くなる領域を検出する。なお、テンプレートは、予め記憶部4に記憶されていればよい。そして操作検出部19は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域を、瞳孔が写っている瞳孔領域と判定する。なお、テンプレートは、瞳孔の大きさに応じて複数準備されてもよい。この場合、操作検出部19は、各テンプレートと赤外画像とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、操作検出部19は、一致度の最高値に対応するテンプレートと重なった領域を瞳孔領域と判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで操作検出部19は、赤外画像上で、同心円状に半径の異なる2本のリングを設定する。そして操作検出部19は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。また操作検出部19は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、赤外画像の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
操作検出部19は、瞳孔領域の検出に成功した場合、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心の位置座標として算出する。
また操作検出部19は、瞳孔領域及びその周辺領域内でプルキンエ像を検出する。プルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、プルキンエ像が写っている領域の形状は、光源の発光面の形状と略一致する。そこで操作検出部19は、瞳孔領域及びその周辺領域内で、光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そして操作検出部19は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値を求める。操作検出部19は、その差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域をプルキンエ像とする。なお、差分閾値は、例えば、瞳孔領域及びその周辺領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、瞳孔領域及びその周辺領域内での輝度値の最高値の80%とすることができる。
なお、操作検出部19は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔が写っている領域を検出してもよい。同様に、操作検出部19は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
操作検出部19は、プルキンエ像の検出に成功した場合、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の位置座標として算出する。そしてプルキンエ像の重心及び瞳孔重心が検出されると、操作検出部19は、視線方向及び注視位置を検出する。
角膜の表面は略球形であるため、視線方向によらず、プルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、視線方向に応じて移動する。そのため、操作検出部19は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、視線方向を検出できる。
本実施形態では、操作検出部19は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして操作検出部19は、瞳孔重心の相対的な位置と視線方向との関係を表す参照テーブルを参照することにより、視線方向を決定する。
操作検出部19は、さらに、検出した視線方向に基づいて、ユーザの注視位置を検出する。
本実施形態では、操作検出部19は、視線方向と注視位置との関係を表す注視位置テーブルを参照することにより、注視位置を決定する。なお、視線方向と注視位置との関係は、その注視位置(本実施形態では、書籍領域内の何れか)とユーザとの間の距離に応じて変化する。
そこで、注視位置テーブルでは、ユーザと検出対象となる書籍との間の想定される距離(例えば、30cm〜50cm)に応じて視線方向と注視位置との関係が表される。なお、注視位置は、基準となる視線方向(例えば、瞳孔重心とプルキンエ像が一致するときの視線方向)を基準とする相対的な位置で表される。また注視位置テーブルは、予め用意され、記憶部4に保存されていればよい。
さらに、操作検出部19は、ユーザの眼の実空間での位置を検出する。ここで、赤外画像上の各画素は、視線検出装置7の赤外カメラの光軸方向に対する角度と一対一に対応しているので、操作検出部19は、赤外画像上でのプルキンエ像の位置により、視線検出装置7からユーザの眼へ向かう方向を特定できる。一方、上記のように、3次元センサ2が探索エリアの上方に、鉛直下方へ向けて取り付けられているなら、ユーザの頭に対応する測定点での、3次元センサ2からの距離は比較的小さいと想定される。そこで、操作検出部19は、視線検出装置7からユーザの眼へ向かう線に沿って、3次元センサ2による三次元計測データ内の各測定点について3次元センサ2からの距離の変化を調べる。そして操作検出部19は、その距離が所定の閾値以下となる測定点のうち、視線検出装置7に最も近い測定点の位置を、ユーザの眼の実空間での位置とする。
操作検出部19は、基準となる視線方向に対する相対的な位置で表される注視位置を、ユーザの眼の実空間での位置で補正することにより、ユーザの実際の注視位置を特定できる。そして操作検出部19は、そのユーザの注視位置と、書籍領域とを対応させることで、書籍領域に表された書籍上でのユーザの注視位置を特定できる。そして操作検出部19は、上記の実施形態または変形例と同様に、書籍上でのユーザの注視位置に基づいてユーザの操作を特定すればよい。なお、操作検出部19は、一定期間(例えば、数秒間)にわたってユーザが同じ位置を注視している場合に、注視位置に応じた操作を特定するようにしてもよい。あるいは、操作検出部19は、注視位置の変化の履歴を記録して、注視位置が所定の方向に沿って移動したときに、その移動方向に応じた操作を特定するようにしてもよい。
この変形例によれば、書籍検出装置は、ユーザが書籍に触れなくても、ユーザの操作を特定して、その特定した操作に応じて関連情報を投影できる。
また他の変形例によれば、関連情報取得部18は、開かれているページに記載されているコンテンツを認識しなくてもよい。その代りに、関連情報取得部18は、操作検出部19により検出された、ユーザが触れた位置、またはユーザの注視位置に応じてプロジェクタ6に投影させる映像を切り替えてもよい。この場合、関連情報取得部18は、ユーザが触れた位置、またはユーザの注視位置と映像との対応関係を表す参照テーブルを参照して、投影させる映像を特定すればよい。なお、そのような参照テーブルは、予め記憶部4に保存されればよい。
さらに、操作検出部19は、ユーザが触れた位置またはユーザの注視位置が書籍領域に含まれるか否かを判定してもよい。例えば、操作検出部19は、書籍領域以外の候補領域に対して、上記の接触判定と同様の処理を実行することで、ユーザの指がその候補領域に含まれる面に触れたか否かを判定してもよい。そしてユーザの指がその候補領域に含まれる面に触れた場合、操作検出部19は、ユーザが触れた位置は書籍領域に含まれないと判定すればよい。そして関連情報取得部18は、ユーザが触れた位置、またはユーザの注視位置が書籍領域に含まれるか否かで、プロジェクタ6に投影させる映像を切り替えてもよい。
さらに他の変形例によれば、向き補正部14及び削除判定部15の一方または両方とも省略されてもよい。この場合、書籍領域の検出精度は若干低下する可能性があるが、書籍検出処理に要する演算量が削減される。また、書籍検出装置は、ユーザの操作によらずに、認識されたコンテンツの関連情報をプロジェクタ6に投影させる場合には、操作検出部19は省略されてもよい。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出する面領域検出部と、
前記複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合に当該二つの面領域を前記書籍が含まれる書籍領域と判定する書籍領域判定部と、
を有する書籍検出装置。
(付記2)
前記複数の面領域のそれぞれについて、当該面領域の長手方向及び短手方向を求める方向検出部をさらに有し、
前記書籍領域判定部は、前記二つの面領域間の距離が所定の距離閾値以下であり、かつ、前記二つの面領域のそれぞれの長手方向の長さの差または短手方向の長さの差が所定の長さ閾値以下である場合、前記位置条件が満たされると判定する、付記1に記載の書籍検出装置。
(付記3)
前記書籍領域判定部は、前記複数の面領域のそれぞれの重心位置を算出し、前記複数の面領域の第1の面領域について、当該重心位置が近い方から順に第2の面領域及び第3の面領域を選択し、前記第1の面領域と前記第2の面領域との位置関係が前記位置条件を満たし、かつ、前記第1の面領域と前記第3の面領域の位置関係が前記位置条件を満たさない場合に、前記第1の面領域と前記第2の面領域とを前記書籍領域と判定する、付記1または2に記載の書籍検出装置。
(付記4)
前記複数の面領域のそれぞれについて、当該面領域に含まれる、前記3次元計測データに含まれる複数の測定点のそれぞれにおける法線方向の分散、または、当該面領域全体に対する法線方向に沿った前記複数の測定点のうちの二つの測定点間の位置の差の最大値に応じて、当該面領域が平面か曲面かを判定する面形状判定部をさらに有する、付記1〜3の何れかに記載の書籍検出装置。
(付記5)
前記面形状判定部は、前記法線方向の分散が所定の分散閾値以下である場合、当該面領域を平面と判定し、一方、前記分散が前記分散閾値よりも大きい場合、当該面領域を曲面と判定する、付記4に記載の書籍検出装置。
(付記6)
前記曲面と判定された面領域について、前記書籍のページが綴じられた方向に対応する当該面領域の方向における、当該面領域の法線方向に沿った位置の変化度合いを算出し、当該変化度合いが所定の変動閾値よりも大きい場合、当該面領域を削除する削除判定部をさらに有する、付記4または5に記載の書籍検出装置。
(付記7)
前記探索対象エリアを撮像部により撮影して得られた画像において、前記書籍領域に対応する範囲を検出する書籍画像検出部をさらに有する、付記1〜6の何れかに記載の書籍検出装置。
(付記8)
前記書籍画像検出部は、前記書籍領域に含まれる何れかの前記面領域が曲面である場合、当該面領域を彎曲している方向に沿って複数のブロックに分割し、前記複数のブロックのそれぞれを平面に投影する射影変換により前記範囲を補正する、付記7に記載の書籍検出装置。
(付記9)
前記画像上の前記書籍領域に対応する範囲に基づいて、前記書籍の開いている前記二つのページの何れかに表されたコンテンツを検出し、当該コンテンツと関連する情報を取得する関連情報取得部と、
前記関連する情報を投影部に投影させる投影処理部と、
をさらに有する、付記7または8に記載の書籍検出装置。
(付記10)
前記投影処理部は、前記書籍領域に対応する前記投影部の表示面上の映像表示領域を求め、前記投影部の前記表示面上の前記映像表示領域に前記関連する情報を表示させる、付記9に記載の書籍検出装置。
(付記11)
前記書籍領域の位置または向きの時間変化を検出し、当該検出された位置または向きの時間変化に応じた操作を特定する操作検出部をさらに有し、
前記投影処理部は、特定された前記操作に応じて、前記投影部に投影させる情報を変更する、付記10に記載の書籍検出装置。
(付記12)
前記3次元計測データに基づいて、前記書籍にユーザが触れた位置を検出し、当該検出された位置に応じた操作を特定する操作検出部をさらに有し、
前記投影処理部は、特定された前記操作に応じて、前記投影部に投影させる情報を変更する、付記10に記載の書籍検出装置。
(付記13)
ユーザの眼を撮影するカメラとを有する視線検出装置により得られた前記ユーザの眼の画像に基づいて、前記書籍上でのユーザの注視位置を検出し、当該注視位置に応じた操作を特定する操作検出部をさらに有し、
前記投影処理部は、特定された前記操作に応じて、前記投影部に投影させる情報を変更する、付記10に記載の書籍検出装置。
(付記14)
3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出し、
前記複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合に当該二つの面領域を前記書籍が含まれる書籍領域と判定する、
ことを含む書籍検出方法。
(付記15)
3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出し、
前記複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合に当該二つの面領域を前記書籍が含まれる書籍領域と判定する、
ことをコンピュータに実行させるための書籍検出用コンピュータプログラム。
1、50、60 書籍検出装置
2 3次元センサ
3 カメラ
4 記憶部
5、51 制御部
6 プロジェクタ
7 視線検出装置
11 候補領域検出部
12 方向検出部
13 面形状判定部
14 向き補正部
15 削除判定部
16 書籍領域判定部
17 書籍画像検出部
18 関連情報取得部
19 操作検出部
20 投影処理部

Claims (10)

  1. 3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出する面領域検出部と、
    前記複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合に当該二つの面領域を前記書籍が含まれる書籍領域と判定する書籍領域判定部と、
    を有する書籍検出装置。
  2. 前記複数の面領域のそれぞれについて、当該面領域の長手方向及び短手方向を求める方向検出部をさらに有し、
    前記書籍領域判定部は、前記二つの面領域間の距離が所定の距離閾値以下であり、かつ、前記二つの面領域のそれぞれの長手方向の長さの差または短手方向の長さの差が所定の長さ閾値以下である場合、前記位置条件が満たされると判定する、請求項1に記載の書籍検出装置。
  3. 前記書籍領域判定部は、前記複数の面領域のそれぞれの重心位置を算出し、前記複数の面領域の第1の面領域について、当該重心位置が近い方から順に第2の面領域及び第3の面領域を選択し、前記第1の面領域と前記第2の面領域との位置関係が前記位置条件を満たし、かつ、前記第1の面領域と前記第3の面領域の位置関係が前記位置条件を満たさない場合に、前記第1の面領域と前記第2の面領域とを前記書籍領域と判定する、請求項1または2に記載の書籍検出装置。
  4. 前記複数の面領域のそれぞれについて、当該面領域に含まれる、前記3次元計測データに含まれる複数の測定点のそれぞれにおける法線方向の分散、または、当該面領域全体に対する法線方向に沿った前記複数の測定点のうちの二つの測定点間の位置の差の最大値に応じて、当該面領域が平面か曲面かを判定する面形状判定部をさらに有する、請求項1〜3の何れか一項に記載の書籍検出装置。
  5. 前記曲面と判定された面領域について、前記書籍のページが綴じられた方向に対応する当該面領域の方向における、当該面領域の法線方向に沿った位置の変化度合いを算出し、当該変化度合いが所定の変動閾値よりも大きい場合、当該面領域を削除する削除判定部をさらに有する、請求項4に記載の書籍検出装置。
  6. 前記探索対象エリアを撮像部により撮影して得られた画像において、前記書籍領域に対応する範囲を検出する書籍画像検出部をさらに有する、請求項1〜5の何れか一項に記載の書籍検出装置。
  7. 前記書籍画像検出部は、前記書籍領域に含まれる何れかの前記面領域が曲面である場合、当該面領域を彎曲している方向に沿って複数のブロックに分割し、前記複数のブロックのそれぞれを平面に投影する射影変換により前記範囲を補正する、請求項6に記載の書籍検出装置。
  8. 前記画像上の前記書籍領域に対応する範囲に基づいて、前記書籍の開いている前記二つのページの何れかに表されたコンテンツを検出し、当該コンテンツと関連する情報を取得する関連情報取得部と、
    前記関連する情報を投影部に投影させる投影処理部と、
    をさらに有する、請求項6または7に記載の書籍検出装置。
  9. 3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出し、
    前記複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合に当該二つの面領域を前記書籍が含まれる書籍領域と判定する、
    ことを含む書籍検出方法。
  10. 3次元センサにより得られた探索対象エリア内の3次元計測データに基づいて複数の面領域を検出し、
    前記複数の面領域のうちの二つの面領域の位置関係が、開かれた状態にある書籍の開いている二つのページの位置関係に相当する位置条件を満たす場合に当該二つの面領域を前記書籍が含まれる書籍領域と判定する、
    ことをコンピュータに実行させるための書籍検出用コンピュータプログラム。
JP2016030472A 2016-02-19 2016-02-19 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム Pending JP2017146938A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016030472A JP2017146938A (ja) 2016-02-19 2016-02-19 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム
US15/431,903 US20170243052A1 (en) 2016-02-19 2017-02-14 Book detection apparatus and book detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016030472A JP2017146938A (ja) 2016-02-19 2016-02-19 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2017146938A true JP2017146938A (ja) 2017-08-24

Family

ID=59630017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016030472A Pending JP2017146938A (ja) 2016-02-19 2016-02-19 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム

Country Status (2)

Country Link
US (1) US20170243052A1 (ja)
JP (1) JP2017146938A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017170862A1 (ja) * 2016-04-01 2018-04-05 凸版印刷株式会社 印刷体、印刷体管理装置、情報出力システム、及び印刷体のページ識別方法
JP7615574B2 (ja) 2020-09-01 2025-01-17 富士フイルムビジネスイノベーション株式会社 三次元形状データの処理装置、及び三次元形状データの処理プログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684962B (zh) * 2018-12-14 2023-04-18 苏州梦想人软件科技有限公司 Ar电子书质量检测方法
CN114667431A (zh) * 2019-11-15 2022-06-24 索尼集团公司 信息处理装置和信息处理方法
US20230036969A1 (en) * 2019-11-29 2023-02-02 Nec Corporation Measurement apparatus, information processing apparatus, data specifying method, and non-transitory computer-readable medium
US10860098B1 (en) * 2019-12-30 2020-12-08 Hulu, LLC Gesture-based eye tracking
CN111753168A (zh) * 2020-06-23 2020-10-09 广东小天才科技有限公司 一种搜题的方法、装置、电子设备及存储介质
US10991081B1 (en) 2020-12-31 2021-04-27 VoyagerX, Inc. Book scanning using machine-trained model
US11030488B1 (en) 2020-12-31 2021-06-08 VoyagerX, Inc. Book scanning using machine-trained model
KR20220110967A (ko) * 2021-02-01 2022-08-09 현대자동차주식회사 사용자 단말 및 그 제어 방법
CN113206987B (zh) * 2021-05-06 2023-01-24 北京有竹居网络技术有限公司 投影显示的方法、装置、终端及非暂时性存储介质
US20230082420A1 (en) * 2021-09-13 2023-03-16 Qualcomm Incorporated Display of digital media content on physical surface

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5847884A (en) * 1996-07-10 1998-12-08 Minolta Co., Ltd. Image reading apparatus
EP1843275A3 (en) * 2004-08-10 2007-12-19 Océ-Technologies B.V. Outlier detection during scanning
US7660458B1 (en) * 2004-12-14 2010-02-09 Google Inc. Three-dimensional model construction using unstructured pattern
JP4918167B1 (ja) * 2011-03-31 2012-04-18 パナソニック株式会社 画像処理装置およびこれを備えた原稿読取システム
WO2014015437A1 (en) * 2012-07-26 2014-01-30 Bitlit Media Inc. Method, apparatus and system for electronically establishing ownership of a physical media carrier
JP5981876B2 (ja) * 2013-04-24 2016-08-31 株式会社Pfu 情報処理装置、方法およびプログラム
JP6327931B2 (ja) * 2014-05-02 2018-05-23 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
US20180129278A1 (en) * 2014-07-27 2018-05-10 Alexander Luchinskiy Interactive Book and Method for Interactive Presentation and Receiving of Information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017170862A1 (ja) * 2016-04-01 2018-04-05 凸版印刷株式会社 印刷体、印刷体管理装置、情報出力システム、及び印刷体のページ識別方法
JP7615574B2 (ja) 2020-09-01 2025-01-17 富士フイルムビジネスイノベーション株式会社 三次元形状データの処理装置、及び三次元形状データの処理プログラム

Also Published As

Publication number Publication date
US20170243052A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP2017146938A (ja) 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム
US10380763B2 (en) Hybrid corner and edge-based tracking
JP6237326B2 (ja) 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP6507730B2 (ja) 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
US9495750B2 (en) Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
JP2017182739A (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP5201096B2 (ja) 対話操作装置
CN108022264B (zh) 相机位姿确定方法及设备
JP2017106959A (ja) 投影装置、投影方法及び投影用コンピュータプログラム
US20160048727A1 (en) Method and system for recognizing an object
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
US9727171B2 (en) Input apparatus and fingertip position detection method
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
JP6643825B2 (ja) 装置及び方法
JP2016184362A (ja) 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
JP2012233963A (ja) 投影システム、投影装置、投影方法、および制御プログラム
CN113557492B (zh) 利用二维摄像头来辅助对象控制的方法、系统和非暂时性计算机可读记录介质
CN111199533B (zh) 图像处理装置
JP2014026670A (ja) 情報処理装置、その処理方法及びプログラム
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7640427B2 (ja) 注視位置分析システム及び注視位置分析方法
KR20230171859A (ko) 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법
US20240083038A1 (en) Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium