JP2004302645A - Face registration device, face registration method, recording medium and robot device - Google Patents
Face registration device, face registration method, recording medium and robot device Download PDFInfo
- Publication number
- JP2004302645A JP2004302645A JP2003092352A JP2003092352A JP2004302645A JP 2004302645 A JP2004302645 A JP 2004302645A JP 2003092352 A JP2003092352 A JP 2003092352A JP 2003092352 A JP2003092352 A JP 2003092352A JP 2004302645 A JP2004302645 A JP 2004302645A
- Authority
- JP
- Japan
- Prior art keywords
- face
- registration
- input
- image
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、入力画像から顔画像を検出して登録する顔登録装置、顔登録方法、記録媒体、及びロボット装置に関する。
【0002】
【従来の技術】
従来から提案されている顔識別器に用いられているアルゴリズムの代表的なものとしては、主成分分析(Principal Component Analysis:PCA)、線形判別分析(Linear Discriminant Analysis:LDA)、ニューラル・ネットワーク(Neural Network:NN)等を応用したものがある。これらを含む一般的な顔識別アルゴリズムとしては、入力された顔画像(入力顔画像)に最も類似するものを登録されている顔データ(登録顔画像)の中から選択するものがある。
【0003】
例えば下記特許文献1には、画像を取得する映像取得手段と、取得された画像情報から人の頭部を検出する頭部検出追跡手段と、検出された頭部の部分画像中から正面顔画像を取得する正面顔位置合わせ手段と、正面顔画像を特徴量に変換する顔特徴抽出手段と、識別辞書を用いて特徴量から人物を識別する顔識別手段と、識別辞書を保存する識別辞書記憶手段とからなる人物識別装置が開示されている。そして、この顔識別手段は、線形判別辞書と特徴データから、登録されている人物の類似度を算出し、類似度が最大値のものを選択し、更にこの最大類似度を閾値処理して他人かどうかを判定する。
【0004】
【特許文献1】
特開2000−222576号公報
【0005】
【発明が解決しようとする課題】
しかしながら、このような従来の顔認識システムにおいて顔の登録の開始/終了を指示する際には、被登録者が登録開始/終了操作を行ったり、システムがその旨を通知したりという手続きが必要であり、登録中に、被登録者に対し、非登録者の顔を画像入力装置に対して決められた方向に向けてもらう等の作業が必要になる。また、人間の顔は月日が経つと変化するため、識別率を保ち続けるためには登録データを更新する必要があるが、従来の方法ではこの更新作業の際にも新規登録時と同様の作業を行う必要がある。これらの操作はユーザにとって苦痛であり、自律動作が可能なロボット装置において自然なインターフェイスであるとはいえないという問題点がある。
【0006】
本発明は、このような従来の実情に鑑みて提案されたものであり、任意のタイミングで顔登録処理が可能であり被顔登録者が意識しなくても顔登録が可能な顔登録装置、その方法、記録媒体及びロボット装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係る顔登録装置は、1以上の顔画像を登録可能な登録顔データベースと、入力顔画像をその入力時刻の情報と共に一時的に保存する画像蓄積手段と、上記入力顔画像が上記登録顔データベースに登録された登録顔画像のいずれかと一致するか否かを識別する顔識別手段と、上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示手段と、上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録手段とを有し、上記顔登録指示手段は、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示し、上記顔登録手段は、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像を読出し上記登録顔データベースに登録することを特徴とする。
【0008】
本発明においては、入力顔画像と共にその入力時刻を示す情報が画像蓄積手段に蓄積され、顔登録指示手段が登録時刻を指定し、登録時刻と入力時刻が一致する入力顔画像を登録するため、任意のタイミングで入力顔画像を登録することができる。
【0009】
また、上記顔登録指示手段には、音声及び/又は画像認識結果が供給され、該音声及び/又は画像認識結果に基づき上記登録時刻を指定することができ、音声や画像認識結果により顔識別結果が正しいと確認されタイミングを登録時刻とすることができる。
【0010】
更に、上記顔登録指示手段は、上記入力顔画像が登録顔画像のいずれかと一致した場合、上記入力顔画像が上記一致した登録顔画像の本人であるか否かを判定し、該判定結果に基づき登録指示することができ、例えば、上記入力顔画像が上記一致した登録顔画像の本人であるか否かの判定を開始する時刻を第1の時刻とし、上記判定が終了する時刻を第2の時刻とし、該第1の時刻乃至第2の時刻を上記登録時刻とし、上記顔登録手段は、上記第1の時刻乃至第2の時刻の間に蓄積された入力顔画像を読み出し上記登録顔データベースを更新することができ、複数枚の入力顔画像を登録顔画像とすることができる。
【0011】
更にまた、上記顔登録指示手段は、上記音声及び/又は認識結果が一定時間得られない場合、上記登録を指示しないようにすることができ、登録を止めて次に供給される上記顔識別結果に基づき入力顔画像を登録するよう指示することができ、間違えて関係のない人物の顔画像が入力されても登録することがない。
【0012】
本発明に係る顔登録方法は、入力顔画像をその入力時刻の情報と共に画像蓄積手段に一時的に保存する画像蓄積工程と、1以上の顔画像を登録可能な登録顔データベースに登録された登録顔画像のいずれかと上記入力顔画像とが一致するか否かを識別する顔識別工程と、上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示工程とを有し、上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録工程と、上記顔登録指示工程では、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示され、上記顔登録工程では、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像を読出し上記登録顔データベースに登録されることを特徴とする。
【0013】
また、本発明に係る記録媒体は、上述した顔登録処理をコンピュータに実行させるプログラムが記録されたコンピュータ読み取り可能なものである。
【0014】
本発明に係るロボット装置は、自律的な動作が可能なロボット装置において、撮像手段と、撮像手段により撮像された入力画像から顔画像を入力顔画像として検出する顔検出手段と、上記入力顔画像と共に当該入力顔画像が検出された入力画像の入力時刻の情報が供給される顔登録装置とを備え、上記顔登録装置は、1以上の顔画像を登録可能な登録顔データベースと、上記入力顔画像をその入力時刻の情報と共に一時的に保存する画像蓄積手段と、上記入力顔画像が上記登録顔データベースに登録された登録顔画像のいずれかと一致するか否かを識別する顔識別手段と、上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示手段と、上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録手段とを有し、上記顔登録指示手段は、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示し、上記顔登録手段は、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像を読出し上記登録顔データベースに登録することを特徴とする。
【0015】
本発明においては、入力顔画像と共にその入力時刻の情報を蓄積しておき、任意のタイミングを登録時刻として指定し、この登録時刻に一致する入力時刻の顔画像により顔登録処理を行う顔登録装置を備えるため、過去に入力された入力顔画像を使用してこれを登録することができ、被登録者に顔登録の開始及び終了を指示することなく、例えば被登録者とのインタラクションの最中に極めて自然に顔登録することができる。
【0016】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、例えばエンターテーメント用の人間型のロボット装置等に搭載されるのに好適な顔認識装置に適用したものである。この顔認識装置は、入力された顔画像を蓄積するバッファを有し、顔学習のタイミングを指示することにより、過去に入力された顔画像を時刻指定して、任意のタイミングで顔の登録・更新等の学習が可能になり、被登録者が登録されていることを意識せずに自律的な顔画像の登録を行えるもので、自律動作が可能なロボット装置に搭載されるのに好適であるが、ここでは先ず、顔登録装置について説明し、その後、自律型のロボット装置の構成について説明する。
【0017】
(1)顔登録装置
図1は、本発明の実施の形態における顔登録装置を示すブロック図である、図1に示すように、顔登録装置10には、音声入力装置及び各種センサ入力装置22から入力される音声及び各種センサ情報から音声及び各種センサ認識器11を介して各種認識結果と、画像入力装置21から入力される画像から画像認識器12を介して画像認識結果とが供給される。ここで、画像・音声及びその他のセンサデータには、必ずそれらの情報を獲得した入力時刻の情報が例えばフレームナンバーとして付加されている。
【0018】
この顔登録装置10は、各種認識結果から顔登録指令を出力する顔登録指令部13と、入力画像から顔領域を検出して抽出する顔検出部14と、顔検出部14から供給される顔画像(入力顔画像)と、登録顔データベース15に登録された登録顔画像との類似性の評価により入力顔画像を識別し、識別結果を顔登録指令部(顔登録指示手段)13に出力する顔識別部16と、顔検出部14から検出された入力顔画像がその入力時刻の情報と共に供給され蓄積される顔画像蓄積部17と、顔登録指令部13の登録指令に従って顔画像蓄積部17に蓄積されている入力顔画像を登録する顔登録部18とを有し、顔登録指令部13は、例えば、入力顔画像が登録顔画像のいずれかと一致した識別結果が得られ、登録顔画像の本人の確認が得られた場合、確認前後の時刻を登録時刻とし、顔登録部18は、この登録時刻の間に入力された入力顔画像を画像蓄積部17から読み出し登録顔画像として登録するものである。
【0019】
顔検出部14は、画像入力装置21から入力画像及びその入力時刻の情報であるフレームナンバーが供給され、入力画像の中から顔が含まれている領域を検出して切り出し(抽出し)、切り出された画像を顔識別部12及び顔画像蓄積部13に送るモジュールである。このような顔検出のアルゴリズムには、例えばPCAやサポートベクタマシン(support vector machine:SVM)、Boostingアルゴリズム等を使用することができ、このようなアルゴリズムを用いた公知の方法により顔検出処理を行うことができる。切り出された顔画像は、それが切り出された入力画像の時刻情報を示すフレームナンバーと共に顔画像蓄積部13に蓄積される。また、この顔画像は顔識別部16にも供給される。
【0020】
顔識別部16は、顔検出部11から送られてくる入力顔画像に対して、登録顔データベース14に登録されている複数の登録顔データを参照して登録されている顔データ(登録顔画像)から最も類似している登録顔画像を識別するモジュールである。即ち、登録顔データベース15に登録されている登録顔画像を読み込み、登録顔画像と入力顔画像との類似性を評価し、登録顔画像のいずれかと入力顔画像とが一致するか否かを識別することで入力顔画像が誰であるかを推定する。顔識別部16は、この識別結果として、例えば登録顔画像を識別する識別情報等を出力し、顔登録指令部13に供給する。
【0021】
顔登録指令部13は、顔識別部16からの顔識別結果が供給されるとこれに基づき顔登録部13に顔登録を実行するよう指示する。即ち、顔識別部16から識別結果が入力され、この識別結果と、音声・画像及びその他のセンサ情報の認識結果から登録すべき顔情報の存在を推定し、顔登録指示のために、そのフレームナンバー及び顔識別情報FaceIDを顔登録部18に送るモジュールである。
【0022】
顔識別部16が出力する識別結果としては、入力顔画像が登録顔データベース15にはない未登録顔である場合と、入力顔画像が登録顔データベース15に登録済みである既登録顔である場合とがあり、既登録顔である場合は登録顔画像の識別情報が出力される。顔登録指令部13は、登録顔画像の識別情報が供給された場合、各種センサ情報等から登録時刻を決定し、この登録時刻を示すフレームナンバーと一致するフレームナンバーの入力顔画像を登録するよう指示する。登録時刻は、例えば、後述するように音声等にて登録顔画像の本人であるか否かを確認し、確認前乃至確認終了までの時間を登録時刻とすることができる。また、入力顔画像が未登録である場合には、登録対象となる人物の名前等の情報を入力させ、未登録の入力顔画像が誰であるかの情報が得られるまでの時間を登録時刻とすることができる。
【0023】
顔登録部15は、顔登録指令部16から入力される登録フレームナンバー及び顔ID情報により、指定されたフレームナンバーの入力顔画像を顔画像蓄積部13から取得し、指定された顔IDの顔データとして登録顔データベース14に登録するモジュールである。顔識別・顔登録部に用いられるアルゴリズムには、PCAやLDAやNN等が用いられることが多い。
【0024】
登録顔データベース15は、顔登録部18により登録された登録顔画像を図2に示すようなフォーマットで保存しているデータベースである。即ち、登録顔データベース15には、各登録顔画像を識別するための識別情報(FaceID)、その登録顔画像データ及び登録顔画像の名前等の付加情報が保存されている。図2に示す登録顔データベース15には、父、母、兄、弟、妹の5人分の登録顔画像が登録されており、これらの登録顔画像に対して夫々顔識別情報FaceID及び名前(Name)が対応付けられて保存されている。なお、付加情報としては、名前以外のその他の個人を示す情報等を保存しておいてもよく、それら付加情報を顔識別処理の際や後述する識別顔の確認の際に使用してもよい。
【0025】
顔画像蓄積部17は、顔検出部11から入力された入力顔画像及びこれを切り出した入力画像のフレームナンバーを対にして一定時間分を蓄積しておくバッファである。バッファ容量を超えて顔画像データが入力される場合には、最も古い時刻情報の顔画像データから消去される。また、顔登録部17からフレームナンバーが入力されると、このフレームナンバーに対応する入力顔画像を顔登録部18に出力する。このように顔画像蓄積部17において、入力時刻の情報と共に顔画像が蓄積されるため、顔登録指令部13により指示された登録時刻と入力時刻とが一致すればよく、過去に入力された入力顔画像を登録に使用することができ、これにより、登録顔画像を更新したり、新規に登録顔画像として登録したりすることができる。
【0026】
次に、本実施の形態の顔登録方法について説明する。上述の顔登録指令部13における顔登録指示のアルゴリズムには様々なものが考えられるが、一例として顔識別部16と音声認識器11をベースにしたアルゴリズムが考えられる。図3は、顔登録指示部13における登録指示処理方法を示すフローチャートである。
【0027】
顔登録装置10は、先ず、画像入力装置21からの入力画像から顔検出部14が顔領域を検出し、入力顔画像を抽出する。この際、顔検出部14には、入力画像と共にその時刻情報(フレームナンバー)も供給され、顔検出部14は、顔が検出されるとその顔画像(入力顔画像)とそれに対応するフレームナンバーを顔識別部16及び顔画像蓄積部17へ送る。顔識別部16は、登録顔データベース15に記憶されている登録顔画像を読み出し、入力顔画像との類似性を評価して入力顔画像が誰であるか否かを識別する。
【0028】
顔識別部16は、その識別結果を出力するが、ここで、入力顔画像が登録顔データベース15に登録されている顔(既登録顔)である場合と、登録されていない顔(未登録顔)である場合とで処理が異なる。先ず、図3に示すように、入力された顔画像(入力顔画像)が既登録顔の場合には、顔登録指令部13へ顔識別部16からその入力顔画像と一致した登録顔画像の識別情報FaceIDが識別結果として出力される。登録指令部13は、後述する音声出力装置253等を使用し、音声合成して「○○さんですか?」と確認を促す発話を行う(ステップS2)。その際、この時点での画像入力装置21から入力される入力画像のフレームナンバーF1を記憶しておく(ステップS3)。音声認識器11等により、認識対象の相手が「はい。そうです」という肯定的な返答を行ったと認識できた場合(ステップS4、Yes)には、その時点のフレームナンバーF2を保存し(ステップS5)、フレームナンバーF1からF2までの間で顔検出部14が顔を検出しているフレームナンバー群を認識結果とおりの顔識別情報FaceIDと共に登録するよう顔登録部18に指令して追加登録が行われる(ステップS6)。この追加登録は、既登録顔を今回新たに識別できた新しい入力顔画像に置き換えたり、既登録顔を入力顔画像を使用して更新したりする処理である。
【0029】
顔登録部18は、入力顔画像のフレームナンバーF1〜F2及びFaceIDにより、入力顔画像を登録するよう指示されると、このフレームナンバーF1〜F2を画像蓄積部17に供給し、画像蓄積部17はこのフレームナンバーF1〜F2に対応する顔画像(入力顔画像)を顔登部18に出力する。顔登録部18はこの入力顔画像を顔識別情報FaceIDと共に登録顔データベース15に送り登録を完了する。ここで、顔登録部18は、入力顔画像及び顔識別情報FaceIDだけでなく、入力顔画像の名前等の個人情報も一緒に登録顔データベース15に送り、記憶するよう指示する。
【0030】
一方、ステップS4にて、音声確認の結果、入力顔画像の識別が失敗であったことが確認できた場合、即ち、識別結果に基づき合成された「〇〇さんですか?」という質問の答えが「違います」等の否定の返事だった場合、例えば、音声出力装置253から「お名前は何ですか?」等の音声を出力し、入力顔画像の人物に対して質問する(ステップS7)。
【0031】
また、顔識別部16にて入力された顔画像(入力顔画像)が未登録顔であると判断された場合(ステップS1、No)、顔登録指令部13は、入力顔画像が誰だかわからないことを示す結果を識別結果D1として受け取る。この場合においても、ステップS7に進み同様に音声出力装置253にて音声合成され、「お名前は何ですか?」。
【0032】
そして、その際のフレームナンバーF3を記憶し、その後、一定時間内に登録対象となる相手の名前を示す音声認識結果が得られたか否かが判断され(ステップS9)、登録対象となる相手が名前を名乗り、それが音声認識器11により認識された場合、その時点のフレームナンバーF4を保存し(ステップS10)、そのフレームナンバーと共に音声認識した相手の名前、新規に発行した顔識別情報FaceIDを顔登録部15に供給すると共に、顔登録するよう指示する(ステップS11)。
【0033】
一方、ステップS9にて一定時間経過しても音声入力がないような場合、登録処理を中断する。そうして、新たな入力顔画像が検出され、顔識別結果が得られた場合、ステップS1からの処理を繰り返す。
【0034】
また、ステップS11にて、フレームナンバーF3〜F4、新規登録顔画像の顔識別情報FaceID、名前等の情報が供給され登録処理が指示された顔登録部18は、フレームナンバーF3〜F4において、顔検出部14が顔検出している登録顔画像群を顔登録部18に出力する。顔登録部18は、例えばこれらの複数の登録顔画像全部、又はこれら複数の登録顔画像から得られる平均顔等を新規登録顔画像とし、顔登録指令部13から送られてきた相手の名前、新規に発行した顔識別情報FaceIDを登録顔データベース15に登録する。
【0035】
このようなアルゴリズムを用いることにより、相手の人間に顔の登録操作を意識的に行わせる必要がなく、自然な対話中に顔の新規登録処理又は追加登録処理が完了する。また、従来の顔登録システムでは登録中に被登録者が検出できなくなってしまうとシステムが正常に動作しないものが多いが、本システムでは対話の途中に相手がいなくなって顔検出に失敗してもシステムはまだ登録処理を開始していないためシステムは破綻せず終了することができる。
【0036】
即ち、対話等の自然なインタラクションを行っている間に、顔の新規登録を行うことが可能なであるため、被顔登録者に苦痛を与えず、対話の途中に被登録者がいなくなっても登録システムが破綻せずに正常に登録処理を中断することが可能なシステムを構築することができる。
【0037】
また、登録処理は、顔識別結果に拘わらず、即ち、入力顔画像が未登録顔でも既登録顔でも、識別結果が得られた時点の開始時刻情報を記憶し、誰であるかが確認された時点の終了時刻情報を記憶し、その後、登録処理が開始されるため、例えば、周囲を歩いているような人物の顔を偶々検出してしまったような場合において、間違って新規顔として顔登録するようなことがなく、常に確実に新規顔登録又は既登録顔更新処理を行うことができる。
【0038】
(2)ロボット装置の構成
次に、このような顔識別装置を搭載した本実施の形態におけるロボット装置について説明する。本ロボット装置は、上述したように、顔識別装置を搭載すると共に、センサ入力等の外部環境及び自身の内部状態に応じて自立的に動作が可能な人間型のロボット装置である。この人間型のロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて自律的に行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボットである。
【0039】
図4は、本実施の形態におけるロボット装置の概観を示す斜視図である。図4に示すように、ロボット装置4は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
【0040】
このロボット装置1が具備する関節自由度構成を図5に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
【0041】
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール輪113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0042】
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
【0043】
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0044】
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0045】
上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うこと等の要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0046】
なお、以下では、説明の便宜上、足部121の説明において、足部121の裏面の路面(床面)に当接する部分を含んで構成される面をX−Y平面とし、該X−Y平面内において、ロボット装置の前後方向をX軸とし、ロボット装置の左右方向をY軸とし、これらに直交する方向をZ軸として説明する。
【0047】
このようなロボット装置は、ロボット装置全体の動作を制御する制御システムを例えば体幹部ユニット2等に備える。図6は、ロボット装置1の制御システム構成を示す模式図である。図6に示すように、制御システムは、ユーザ入力等に動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動等ロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
【0048】
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213及び外部記憶装置(ハード・ディスク・ドライブ等)214等で構成され、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。
【0049】
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データ等、外界からの刺激等に従って、上述の顔登録処理等、識別結果に基づく各処理を行い、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを複数備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。
【0050】
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
【0051】
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313及び外部記憶装置(ハード・ディスク・ドライブ等)314等で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。また、外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。
【0052】
この運動制御モジュール300には、図5に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352、353、足部121の足底121に設けられる後述する本実施の形態における荷重センサ、バッテリ等の電源を管理する電源制御装置354等の各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチ等で構成される。
【0053】
思考制御モジュール200と運動制御モジュール300は、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
【0054】
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は、内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さ等を設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
【0055】
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚のいずれの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。更に、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
【0056】
また、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
【0057】
(3)ロボット装置の制御システムの構成
以上のようなロボット装置1は、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動し得るようになされている。次に、このようなロボット装置の制御プログラムのソフトウェア構成について詳細に説明する。図7は、本実施の形態におけるロボット装置のソフトウェア構成を示すブロック図である。図7において、デバイス・ドライバ・レイヤ40は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット41から構成されている。この場合、各デバイス・ドライバは、CCDカメラ等の画像入力装置251(図3)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
【0058】
また、ロボティック・サーバ・オブジェクト42は、デバイス・ドライバ・レイヤ40の最下位層に位置し、例えば上述の各種センサやアクチュエータ等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるバーチャル・ロボット43と、電源の切換えなどを管理するソフトウェア群でなるパワーマネージャ44と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ45と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット46とから構成されている。
【0059】
マネージャ・オブジェクト47は、オブジェクト・マネージャ48及びサービス・マネージャ49から構成されている。オブジェクト・マネージャ48は、ロボティック・サーバ・オブジェクト42、ミドル・ウェア・レイヤ50、及びアプリケーション・レイヤ51に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ49は、例えばメモリカードに格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
【0060】
ミドル・ウェア・レイヤ50は、ロボティック・サーバ・オブジェクト42の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ51は、ミドル・ウェア・レイヤ50の上位層に位置し、当該ミドル・ウェア・レイヤ50を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
【0061】
なお、ミドル・ウェア・レイヤ50及びアプリケーション・レイヤ51の具体なソフトウェア構成をそれぞれ図8に示す。
【0062】
ミドル・ウェア・レイヤ50は、図8に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、接触検出用、操作入力検出用、動き検出用及び色認識用の各信号処理モジュール60〜69並びに入力セマンティクスコンバータモジュール70などを有する認識系71と、出力セマンティクスコンバータモジュール79並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール72〜78などを有する出力系80とから構成されている。
【0063】
認識系71の各信号処理モジュール60〜69は、ロボティック・サーバ・オブジェクト42のバーチャル・ロボット43によりDRAMから読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール70に与える。ここで、例えば、バーチャル・ロボット43は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
【0064】
入力セマンティクスコンバータモジュール70は、これら各信号処理モジュール60〜69から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ドミソの音階が聞こえた」、「障害物を検出した」、「転倒を検出した」、「叱られた」、「誉められた」、「動く物体を検出した」又は「ボールを検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ51(図7)に出力する。
【0065】
アプリケーション・レイヤ5lは、図9に示すように、行動モデルライブラリ90、行動切換モジュール91、学習モジュール92、感情モデル93及び本能モデル94の5つのモジュールから構成されている。
【0066】
行動モデルライブラリ90には、図10に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデル901〜90nが設けられている。
【0067】
そして、これら行動モデル901〜90nは、それぞれ入力セマンティクスコンバータモジュール70から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述する感情モデル93に保持されている対応する情動のパラメータ値や、本能モデル94に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール91に出力する。
【0068】
なお、この具体例の場合、各行動モデル901〜90nは、次の行動を決定する手法として、図11に示すような1つのノード(状態)NODE0〜NODEnから他のどのノードNODE0〜NODEnに遷移するかを各ノードNODE0〜NODEn間を接続するアークARC1〜ARCnに対してそれぞれ設定された遷移確率P1〜Pnに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。
【0069】
具体的に、各行動モデル901〜90nは、それぞれ自己の行動モデル901〜90nを形成するノードNODE0〜NODEnにそれぞれ対応させて、これらノードNODE0〜NODEnごとに図12に示すような状態遷移表270を有している。
【0070】
この状態遷移表270では、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。
【0071】
したがって、図12の状態遷移表270で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
【0072】
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデル901〜90nが周期的に参照する感情モデル93及び本能モデル94にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル93に保持された「喜び(JOY)」、「驚き(SURPRISE)」若しくは「悲しみ(SUDNESS)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
【0073】
また、状態遷移表100では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE0〜NODEnから遷移できるノード名が列記されていると共に、「入力イベント名」、「データ値」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できる他の各ノードNODE0〜NODEnへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE0〜NODEnに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
【0074】
したがって、図12の状態遷移表100で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
【0075】
各行動モデル901〜90nは、それぞれこのような状態遷移表270として記述されたノードNODE0〜NODEnがいくつも繋がるようにして構成されており、入力セマンティクスコンバータモジュール70から認識結果が与えられたときなどに、対応するノードNODE0〜NODEnの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール91に出力するようになされている。
【0076】
図10に示す行動切換モジュール91は、行動モデルライブラリ90の各行動モデル901〜90nからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデル901〜90nから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ50の出力セマンティクスコンバータモジュール79に送出する。なお、この実施の形態においては、図10において下側に表記された行動モデル901〜90nほど優先順位が高く設定されている。
【0077】
また、行動切換モジュール91は、行動完了後に出力セマンティクスコンバータモジュール79から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール92、感情モデル93及び本能モデル94に通知する。
【0078】
一方、学習モジュール92は、入力セマンティクスコンバータモジュール70から与えられる認識結果のうち、「叱られた」や「誉められた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。そして、学習モジュール92は、この認識結果及び行動切換モジュール91からの通知に基づいて、「叱られた」ときにはその行動の発現確率を低下させ、「誉められた」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ90における対応する行動モデル901〜90nの対応する遷移確率を変更する。
【0079】
他方、感情モデル93は、「喜び(JOY)」、「悲しみ(SADNESS)」、「怒り(ANGER)」、「驚き(SURPRISE)」、「嫌悪(DISGUST)」及び「恐れ(FEAR)」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして、感情モデル93は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール70から与えられる「叱られた」及び「誉められた」などの特定の認識結果と、経過時間及び行動切換モジュール91からの通知などに基づいて周期的に更新する。
【0080】
具体的には、感情モデル93は、入力セマンティクスコンバータモジュール70から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間などに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkeとして、下記の式(1)によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。
【0081】
【数1】
【0082】
なお、各認識結果や出力セマンティクスコンバータモジュール79からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。
【0083】
ここで、出力セマンティクスコンバータモジュール79からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル93は、このような情報によっても感情を変化させる。これは、例えば、目の色等により「怒る」といった感情を表出する行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール79からの通知は、上述した学習モジュール92にも入力されており、学習モジュール92は、その通知に基づいて行動モデル901〜90nの対応する遷移確率を変更する。
【0084】
なお、行動結果のフィードバックは、行動切換モジュール91の出力(感情が付加された行動)によりなされるものであってもよい。
【0085】
一方、本能モデル94は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして、本能モデル94は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール70から与えられる認識結果や、経過時間及び行動切換モジュール91からの通知などに基づいて周期的に更新する。
【0086】
具体的には、本能モデル94は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール79からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kiとして、所定周期で下記の式(2)を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル94は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
【0087】
【数2】
【0088】
なお、認識結果及び出力セマンティクスコンバータモジュール79からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール79からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。
【0089】
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求毎に個別に設定されている。
【0090】
一方、図8に示すように、ミドル・ウェア・レイヤ50の出力セマンティクスコンバータモジュール79は、上述のようにしてアプリケーション・レイヤ51の行動切換モジュール91から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系80の対応する信号処理モジュール72〜78に与える。
【0091】
そしてこれら信号処理モジュール72〜78は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータに与えるべきサーボ指令値や、スピーカから出力する音の音声データ及び/又は発光部のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト42のバーチャル・ロボット43を順次介して対応するアクチュエータ、スピーカ又は発光部等に順次送出する。
【0092】
このようにしてロボット装置1においては、制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動を行うことができるようになされている。
【0093】
【発明の効果】
以上詳細に説明したように本発明に係る本発明に係る顔登録装置は、1以上の顔画像を登録可能な登録顔データベースと、入力顔画像をその入力時刻の情報と共に一時的に保存する画像蓄積手段と、上記入力顔画像が上記登録顔データベースに登録された登録顔画像のいずれかと一致するか否かを識別する顔識別手段と、上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示手段と、上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録手段とを有し、上記顔登録指示手段は、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示し、上記顔登録手段は、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像を読出し上記登録顔データベースに登録するから、入力顔画像及びその入力時刻を示す情報を蓄積し、登録する顔画像の入力時刻を指定することで、過去に入力されている入力顔画像を顔登録に使用することができ、顔登録のために改めて入力顔を供給する必要がなく、登録時刻の顔画像を読み込むのみで顔登録を行うことができる。
【0094】
また、本発明に係るロボット装置は、自律的な動作が可能なロボット装置において、撮像手段と、撮像手段により撮像された入力画像から顔画像を検出する顔検出手段と、上記顔画像と共に当該顔画像が検出された入力画像の入力時刻の情報が供給される顔登録装置とを備え、上記顔登録装置は、1以上の顔画像を登録可能な登録顔データベースと、上記顔画像をその入力時刻の情報と共に一時的に保存する画像蓄積手段と、上記入力顔画像が上記登録顔データベースに登録された登録顔画像のいずれかと一致するか否かを識別する顔識別手段と、上記顔識別結果に基づき顔画像の登録を指示する顔登録指示手段と、上記登録指示に従って顔画像を上記登録顔データベースに登録する顔登録手段とを有し、上記顔登録指示手段は、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する顔画像を登録するよう指示し、上記顔登録手段は、上記画像蓄積手段に蓄積された顔画像のうち上記登録時刻と一致する入力時刻の顔画像を読出し上記登録顔データベースに登録するから、顔画像と共にその入力時刻の情報を蓄積しておき、任意のタイミングを登録時刻として指定し、この登録時刻に一致する入力時刻の顔画像により顔登録処理を行う顔登録装置を備えるため、被顔登録者は顔登録時に登録処理を意識しなくてもよく、ロボット装置は、被登録者とのインタラクションの最中に極めて自然に新規顔の登録、及び登録済みの顔画像の更新をすることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態における顔登録装置を示すブロック図である。
【図2】登録顔データベースの登録の一例を示す模式図である。
【図3】本発明の実施の形態における顔登録方法の一例を示すフローチャートである。
【図4】本発明の実施の形態におけるロボット装置の外観構成を示す斜視図である。
【図5】同ロボット装置の自由度構成モデルを模式的に示す図である。
【図6】同ロボット装置の制御システム構成を模式的に示す図である。
【図7】同ロボット装置のソフトウェア構成を示すブロック図である。
【図8】同ロボット装置のソフトウェア構成におけるミドル・ウェア・レイヤの構成を示すブロック図である。
【図9】同ロボット装置のソフトウェア構成におけるアプリケーション・レイヤの構成を示すブロック図である。
【図10】本発明の実施の形態におけるアプリケーション・レイヤの行動モデルライブラリの構成を示すブロック図である。
【図11】本発明の実施の形態におけるロボット装置の行動決定のための情報となる有限確率オートマトンを説明する図である。
【図12】有限確率オートマトンの各ノードに用意された状態遷移表を示す図である。
【符号の説明】
1 ロボット装置、10 顔登録装置、11 認識器、12 画像認識器、13 顔登録指令部、14 顔検出部、15 登録顔データベース、16 顔識別部、17 顔画像蓄積部、18 顔登録部、21,251 画像入力装置、22,252 音声入力装置、42 ロボティック・サーバ・オブジェクト、43 バーチャル・ロボット、50 ミドル・ウェア・レイヤ、51 アプリケーション・レイヤ、68 動き検出用信号処理モジュール、70 入力セマンティクスコンバータモジュール、71 認識系、73 トラッキング用信号処理モジュール、79 出力セマンティクスコンバータモジュール、80 出力系、83 感情モデル、84 本能モデル、90 行動モデルライブラリ、91 行動切換モジュール、110 差分画像生成モジュール、111 重心計算モジュール、200 思考制御モジュール、253 音声出力装置、300 運動制御モジュール、350 アクチュエータ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a face registration device that detects and registers a face image from an input image, a face registration method, a recording medium, and a robot device.
[0002]
[Prior art]
Representative algorithms used in the conventionally proposed face classifier include principal component analysis (PCA), linear discriminant analysis (LDA), and neural network (Neural). Network: NN). As a general face identification algorithm including these, there is an algorithm for selecting the most similar to the input face image (input face image) from registered face data (registered face images).
[0003]
For example, in Japanese Patent Application Laid-Open No. H11-157, there is disclosed a video acquisition unit for acquiring an image, a head detection tracking unit for detecting a human head from the acquired image information, and a frontal face image from a partial image of the detected head. , A face feature extraction unit that converts a front face image into a feature, a face identification unit that identifies a person from a feature using an identification dictionary, and an identification dictionary storage that stores the identification dictionary A person identification device comprising means is disclosed. Then, the face identification means calculates the similarity of the registered person from the linear discrimination dictionary and the feature data, selects the one having the maximum similarity, and further thresholds the maximum similarity to perform another person's threshold. Is determined.
[0004]
[Patent Document 1]
JP 2000-222576 A
[0005]
[Problems to be solved by the invention]
However, when instructing start / end of face registration in such a conventional face recognition system, it is necessary to perform procedures for the registrant to perform registration start / end operations, and to notify the system of the operation. During the registration, it is necessary to have the registered person face the non-registered person's face in a predetermined direction with respect to the image input device. In addition, since the human face changes over time, it is necessary to update the registration data in order to maintain the identification rate, but in the conventional method, this update work is similar to that at the time of new registration. Work needs to be done. These operations are painful for the user, and there is a problem that it cannot be said that this is a natural interface in a robot device capable of autonomous operation.
[0006]
The present invention has been proposed in view of such a conventional situation, and a face registration device capable of performing face registration processing at an arbitrary timing and performing face registration without the registrant of the face being conscious, An object of the present invention is to provide a method, a recording medium, and a robot device.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, a face registration apparatus according to the present invention includes a registered face database capable of registering one or more face images, and an image storage means for temporarily storing an input face image together with information on the input time. A face identification unit for identifying whether the input face image matches any of the registered face images registered in the registered face database, and a face registration for instructing registration of the input face image based on the face identification result Instruction means, and face registration means for registering the input face image in the registered face database in accordance with the registration instruction, wherein the face registration instruction means determines a registration time based on the face identification result, and Instructing to register an input face image whose input time coincides with the input face image, wherein the face registering means input face image of the input time coincident with the registration time among the input face images stored in the image storing means And registers the read the registered face database.
[0008]
In the present invention, information indicating the input time is stored in the image storage means together with the input face image, and the face registration instruction means specifies the registration time, and registers the input face image whose registration time matches the input time. An input face image can be registered at an arbitrary timing.
[0009]
The face registration instructing means is supplied with a voice and / or image recognition result, and can designate the registration time based on the voice and / or image recognition result. Is confirmed to be correct, and the timing can be set as the registration time.
[0010]
Further, when the input face image matches any of the registered face images, the face registration instructing means determines whether or not the input face image is the identity of the matched registered face image. For example, the time at which the determination as to whether or not the input face image is the identity of the matched registered face image is set as a first time, and the time at which the determination ends is defined as a second time. The first or second time is set as the registration time, and the face registration means reads the input face image accumulated between the first and second times and reads the registered face image. The database can be updated, and a plurality of input face images can be used as registered face images.
[0011]
Still further, the face registration instructing means may be configured not to instruct the registration when the voice and / or the recognition result is not obtained for a certain period of time. The user can be instructed to register an input face image based on the information, and even if a face image of an unrelated person is erroneously input, no registration is made.
[0012]
A face registration method according to the present invention includes an image storage step of temporarily storing an input face image together with information on the input time in an image storage unit, and a registration step registered in a registered face database capable of registering one or more face images. A face identification step of identifying whether or not any of the face images matches the input face image; and a face registration instruction step of instructing registration of the input face image based on the face identification result. In the face registration step of registering an input face image in the registered face database according to the following, and in the face registration instruction step, a registration time is determined based on the face identification result, and the input face image in which the registration time matches the input time In the face registration step, the input face image of the input time coincident with the registration time among the input face images stored in the image storage means is read out and registered in the registered face database. Is the fact characterized.
[0013]
Further, a recording medium according to the present invention is a computer-readable medium in which a program for causing a computer to execute the above-described face registration process is recorded.
[0014]
A robot apparatus according to the present invention is a robot apparatus capable of autonomous operation, comprising: an imaging unit; a face detection unit configured to detect a face image as an input face image from an input image captured by the imaging unit; A face registration device to which information on the input time of the input image at which the input face image is detected is supplied, wherein the face registration device includes a registered face database capable of registering one or more face images, Image storage means for temporarily storing an image together with information on its input time, face identification means for identifying whether or not the input face image matches any of the registered face images registered in the registered face database, Face registration instructing means for instructing registration of the input face image based on the face identification result; and face registration means for registering the input face image in the registered face database in accordance with the registration instruction. The face registration instructing means determines a registration time based on the face identification result, and instructs to register an input face image in which the registration time matches the input time. The face registration means instructs the image storage means. An input face image at an input time coinciding with the registration time is read out of the accumulated input face images and registered in the registered face database.
[0015]
According to the present invention, a face registration apparatus that stores input time information together with an input face image, specifies an arbitrary timing as a registration time, and performs face registration processing using a face image at an input time that matches the registration time It is possible to register this using an input face image input in the past, without instructing the registrant to start and end face registration, for example, during the interaction with the registrant The face can be registered very naturally.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In this embodiment, the present invention is applied to a face recognition device suitable for being mounted on, for example, a humanoid robot device for entertainment. This face recognition device has a buffer for storing input face images, designates the timing of face learning, designates the time of a previously input face image, and registers / registers a face at an arbitrary timing. Learning such as updating is possible, and it is possible to register autonomous face images without being aware that the registrant is registered, and it is suitable to be mounted on a robot device capable of autonomous operation However, here, the face registration device will be described first, and then the configuration of the autonomous robot device will be described.
[0017]
(1) Face registration device
FIG. 1 is a block diagram illustrating a face registration device according to an embodiment of the present invention. As shown in FIG. 1, the
[0018]
The
[0019]
The
[0020]
The face identifying unit 16 refers to the registered face data (registered face image) for the input face image sent from the
[0021]
When the face identification result is supplied from the face identification unit 16, the face
[0022]
The identification results output by the face identification unit 16 include a case where the input face image is an unregistered face that is not in the registered
[0023]
The
[0024]
The registered
[0025]
The face image accumulating unit 17 is a buffer that accumulates for a certain period of time a pair of the input face image input from the
[0026]
Next, a face registration method according to the present embodiment will be described. Various algorithms can be considered for the face registration instruction in the face
[0027]
In the
[0028]
The face identification unit 16 outputs the identification result. Here, when the input face image is a face registered in the registered face database 15 (a registered face), a face that is not registered (an unregistered face) ), The processing is different. First, as shown in FIG. 3, when the input face image (input face image) is a registered face, the face identification unit 16 sends a registered face image matching the input face image to the face
[0029]
When the
[0030]
On the other hand, in step S4, as a result of the voice confirmation, it can be confirmed that the identification of the input face image has failed, that is, the answer to the question “Is it Mr. 〇〇?” Synthesized based on the identification result. Is negative, such as "No", for example, a voice such as "What is your name?" Is output from the
[0031]
When the face image input by the face identification unit 16 (input face image) is determined to be an unregistered face (step S1, No), the face
[0032]
Then, the frame number F3 at that time is stored, and thereafter, it is determined whether or not the voice recognition result indicating the name of the registration target is obtained within a predetermined time (step S9), and the registration target is determined. Give yourself a name, and if it is recognized by the
[0033]
On the other hand, if there is no voice input even after a certain time has elapsed in step S9, the registration process is interrupted. Then, when a new input face image is detected and a face identification result is obtained, the processing from step S1 is repeated.
[0034]
In step S11, the
[0035]
By using such an algorithm, there is no need to make the other person consciously perform the face registration operation, and the new face registration processing or the additional face registration processing is completed during a natural conversation. Also, in the conventional face registration system, if the registered person cannot be detected during registration in many cases, the system will not operate properly, but in this system even if the other person disappears during the dialog and face detection fails Since the system has not yet started the registration process, the system can be terminated without failure.
[0036]
That is, it is possible to newly register a face while performing a natural interaction such as a dialogue, so that the registered person does not suffer any pain and even if the registered person disappears during the dialogue. It is possible to construct a system capable of normally interrupting the registration process without causing the registration system to fail.
[0037]
In addition, the registration process stores start time information at the time when the identification result is obtained regardless of the face identification result, that is, whether the input face image is an unregistered face or a registered face, and it is confirmed who the input face image is. Since the registration process is started after that, for example, when a face of a person walking around is accidentally detected, the face is mistakenly detected as a new face. Without registration, new face registration or registered face update processing can always be performed reliably.
[0038]
(2) Configuration of robot device
Next, a robot device according to the present embodiment equipped with such a face identification device will be described. As described above, the present robot device is a humanoid robot device equipped with a face identification device and capable of operating autonomously according to the external environment such as sensor input and the internal state of the robot. This humanoid robot device is a practical robot that supports human activities in various situations in the living environment and other everyday life, and acts autonomously according to the internal state (anger, sadness, joy, enjoyment, etc.). It is an entertainment robot that can express basic actions performed by humans in addition to being able to do it.
[0039]
FIG. 4 is a perspective view illustrating an overview of the robot device according to the present embodiment. As shown in FIG. 4, the
[0040]
FIG. 5 schematically shows a configuration of the degrees of freedom of the joints included in the
[0041]
Each
[0042]
The
[0043]
Each of the
[0044]
Summarizing the above, the
[0045]
Each degree of freedom of the
[0046]
In the following, for convenience of description, in the description of the
[0047]
Such a robot device includes a control system for controlling the operation of the entire robot device, for example, in the
[0048]
The
[0049]
The
[0050]
In addition, the
[0051]
One
[0052]
The
[0053]
The
[0054]
The
[0055]
The CPU 311 detects the posture and inclination of the
[0056]
In addition, the
[0057]
(3) Configuration of robot system control system
The
[0058]
The
[0059]
The
[0060]
The
[0061]
FIG. 8 shows specific software configurations of the
[0062]
As shown in FIG. 8, the
[0063]
Each of the
[0064]
The input
[0065]
As shown in FIG. 9, the
[0066]
As shown in FIG. 10, the
[0067]
And these
[0068]
In this specific example, each
[0069]
Specifically, each
[0070]
In this state transition table 270, the node NODE 0 ~ NODE n , Input events (recognition results) as transition conditions are listed in order of priority in the column of “input event name”, and further conditions for the transition condition are described in corresponding rows in the columns of “data name” and “data range”. Have been.
[0071]
Therefore, in the node NODE100 represented by the state transition table 270 of FIG. 12, when the recognition result of “detection of the ball (BALL)” is given, the “size” of the ball given together with the recognition result is given. Is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTABLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. Is in the range of “0 to 100”, which is a condition for transition to another node.
[0072]
Further, in the node NODE100, even when there is no input of the recognition result, the
[0073]
In the state transition table 100, the node NODE is set in the row of “transition destination node” in the column of “transition probability to another node”. 0 ~ NODE n The node names that can be transitioned from are listed, and other nodes NODE that can transition when all the conditions described in the columns of “input event name”, “data value”, and “data range” are met 0 ~ NODE n To the corresponding node in the column “Transition probability to another node”, and the node NODE 0 ~ NODE n The action to be output when transitioning to is described in the row of “output action” in the column of “transition probability to another node”. Note that the sum of the probabilities of each row in the column of “transition probability to another node” is 100 [%].
[0074]
Therefore, in the node NODE100 represented by the state transition table 100 in FIG. 12, for example, "ball is detected (BALL)", and the recognition that the "SIZE" of the ball is in the range of "0 to 1000". When the result is given, it is possible to transit to “node NODE120 (node120)” with a probability of “30 [%]”, and at that time, the action of “ACTION1” is output.
[0075]
Each
[0076]
The
[0077]
Further, the
[0078]
On the other hand, the
[0079]
On the other hand, the
[0080]
Specifically, the
[0081]
(Equation 1)
[0082]
The degree to which each recognition result and the notification from the output semantics converter module 79 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance, for example, “hit”. The recognition result has a great influence on the variation ΔE [t] of the parameter value of the emotion of “anger”, and the recognition result such as “stroke” indicates the variation ΔE [t] of the parameter value of the emotion of “joy”. Has become a major influence.
[0083]
Here, the notification from the output semantics converter module 79 is so-called action feedback information (action completion information), information on the appearance result of the action, and the
[0084]
The feedback of the action result may be made by the output of the action switching module 91 (the action to which the emotion is added).
[0085]
On the other hand, the instinct model 94 provides four independent desires of “exercise”, “affection”, “appetite”, and “curiosity” for each of these desires. It holds a parameter indicating the strength of the desire. Then, the instinct model 94 periodically updates these desire parameter values based on the recognition result given from the input
[0086]
More specifically, the instinct model 94 calculates a predetermined arithmetic expression based on a recognition result, an elapsed time, a notification from the output semantics converter module 79, and the like for “exercise desire”, “love desire”, and “curiosity”. The following equation (2) is obtained at a predetermined cycle, where ΔI [k] is the variation amount of the desire at that time, I [k] is the current parameter value of the desire, and ki is a coefficient representing the sensitivity of the desire. Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and update the parameter value of the desire by replacing this calculation result with the current parameter value I [k] of the desire. Similarly, the instinct model 94 updates the parameter values of each desire except “appetite”.
[0087]
(Equation 2)
[0088]
Note that the degree to which the recognition result and the notification from the output semantics converter module 79 affect the amount of change ΔI [k] of the parameter value of each desire is determined in advance. Has a large effect on the variation ΔI [k] of the parameter value of “fatigue”.
[0089]
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated to fluctuate in a range from 0 to 100, and the values of the coefficients ke and ki are also adjusted for each emotion and each instinct. It is set individually for each desire.
[0090]
On the other hand, as shown in FIG. 8, the output semantics converter module 79 of the
[0091]
When the action command is given, the
[0092]
In this way, the
[0093]
【The invention's effect】
As described in detail above, the face registration apparatus according to the present invention according to the present invention includes a registered face database capable of registering one or more face images, and an image for temporarily storing an input face image together with information on the input time. Storage means, face identification means for determining whether or not the input face image matches any of the registered face images registered in the registered face database, and instructing registration of the input face image based on the face identification result A face registration instructing means for registering an input face image in the registered face database in accordance with the registration instruction; the face registration instructing means determining a registration time based on the face identification result; An instruction is issued to register an input face image whose time coincides with the input time, and the face registration unit inputs the input time that matches the registration time among the input face images stored in the image storage unit. Since the image is read and registered in the registered face database, information indicating the input face image and the input time thereof is accumulated, and by specifying the input time of the face image to be registered, the input face image that has been input in the past can be changed to the face. It can be used for registration, and it is not necessary to supply an input face again for face registration, and face registration can be performed only by reading the face image at the registration time.
[0094]
Further, the robot apparatus according to the present invention is a robot apparatus capable of autonomous operation, comprising: an image pickup unit; a face detection unit that detects a face image from an input image picked up by the image pickup unit; A face registration device to which information on the input time of the input image from which the image is detected is supplied, the face registration device stores a registered face database capable of registering one or more face images, Image storing means for temporarily storing the input face image together with information of the registered face image, and face identifying means for identifying whether or not the input face image matches any of the registered face images registered in the registered face database. A face registration instruction unit for instructing registration of a face image based on the face identification instruction unit; and a face registration unit for registering the face image in the registered face database in accordance with the registration instruction. The registration time is determined on the basis of the result, and an instruction is made to register a face image whose registration time matches the input time. The face registration means, among the face images stored in the image storage means, stores the registration time. Since the face image of the input time that matches the input time is read and registered in the registered face database, information of the input time is stored together with the face image, an arbitrary timing is designated as the registration time, and the input that matches the registration time is specified. Since the face registration device that performs the face registration process based on the face image at the time is provided, the registered person does not need to be conscious of the registration process at the time of registering the face. It is possible to naturally register a new face and update a registered face image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a face registration device according to an embodiment of the present invention.
FIG. 2 is a schematic diagram showing an example of registration of a registered face database.
FIG. 3 is a flowchart illustrating an example of a face registration method according to an embodiment of the present invention.
FIG. 4 is a perspective view illustrating an external configuration of the robot device according to the embodiment of the present invention.
FIG. 5 is a diagram schematically showing a degree of freedom configuration model of the robot apparatus.
FIG. 6 is a diagram schematically showing a control system configuration of the robot device.
FIG. 7 is a block diagram showing a software configuration of the robot device.
FIG. 8 is a block diagram showing a configuration of a middleware layer in a software configuration of the robot apparatus.
FIG. 9 is a block diagram showing a configuration of an application layer in the software configuration of the robot device.
FIG. 10 is a block diagram illustrating a configuration of a behavior model library of an application layer according to the embodiment of the present invention.
FIG. 11 is a diagram illustrating a finite probability automaton serving as information for determining an action of the robot device according to the embodiment of the present invention.
FIG. 12 is a diagram showing a state transition table prepared for each node of the finite probability automaton.
[Explanation of symbols]
1 robot device, 10 face registration device, 11 recognizer, 12 image recognizer, 13 face registration command section, 14 face detection section, 15 registered face database, 16 face identification section, 17 face image storage section, 18 face registration section, 21, 251 image input device, 22, 252 voice input device, 42 robotic server object, 43 virtual robot, 50 middleware layer, 51 application layer, 68 signal processing module for motion detection, 70 input semantics Converter module, 71 recognition system, 73 tracking signal processing module, 79 output semantics converter module, 80 output system, 83 emotion model, 84 instinct model, 90 behavior model library, 91 behavior switching module, 110 difference image generation module, 111 center of gravity Calculation Module, 200 thought control module, 253 voice output device, 300 motion control module, 350 actuator
Claims (27)
入力顔画像をその入力時刻の情報と共に一時的に保存する画像蓄積手段と、
上記入力顔画像が上記登録顔データベースに登録された登録顔画像のいずれかと一致するか否かを識別する顔識別手段と、
上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示手段と、
上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録手段とを有し、
上記顔登録指示手段は、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示し、
上記顔登録手段は、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像を読出し上記顔登録顔データベースに登録する
ことを特徴とする顔登録装置。A registered face database capable of registering one or more face images,
Image storage means for temporarily storing an input face image together with information on the input time,
Face identification means for identifying whether the input face image matches any of the registered face images registered in the registered face database,
Face registration instructing means for instructing registration of an input face image based on the face identification result,
Face registration means for registering the input face image in the registered face database according to the registration instruction,
The face registration instructing means determines a registration time based on the face identification result, and instructs to register an input face image whose registration time matches the input time;
The face registration device, wherein the face registration means reads out an input face image at an input time coinciding with the registration time from the input face images stored in the image storage means and registers the input face image in the face registration face database.
ことを特徴とする請求項1記載の顔登録装置。2. The face registration apparatus according to claim 1, wherein the face registration instruction unit specifies the registration time based on a voice and / or image recognition result.
ことを特徴とする請求項1記載の顔登録装置。2. The method according to claim 1, wherein when the input face image matches any of the registered face images, the face registration unit updates the matched registered face image with the input face image according to the registration instruction. Face registration device.
ことを特徴とする請求項3記載の顔登録装置。When the input face image matches one of the registered face images, the face registration instructing means determines whether the input face image is the identity of the matched registered face image, and registers based on the determination result. 4. The face registration apparatus according to claim 3, wherein the face registration is performed.
上記顔登録手段は、上記第1の時刻乃至第2の時刻の間に蓄積された入力顔画像を読み出し上記登録顔データベースを更新する
ことを特徴とする請求項4記載の顔登録装置。The face registration instructing means sets a time when the determination as to whether or not the input face image is the identity of the matched registered face image as a first time, and a time when the determination ends as a second time. Then, the first time or the second time is set as the registration time,
5. The face registration apparatus according to claim 4, wherein said face registration means reads out the input face images accumulated between said first time and said second time and updates said registered face database.
上記顔登録指示手段は、音声により上記入力顔画像が上記一致した登録顔画像の本人であるか否かを判定する
ことを特徴とする請求項4記載の顔登録装置。Having audio output means,
5. The face registration apparatus according to claim 4, wherein said face registration instructing means determines whether or not said input face image is the identity of said matched registered face image by voice.
ことを特徴とする請求項4記載の顔登録装置。5. The face registration apparatus according to claim 4, wherein the face registration instructing means instructs to register the input face image as a new registered face image when it is determined that the user is not the principal.
ことを特徴とする請求項7記載の顔登録装置。8. The face registration instructing means, when it is determined that the person is not the principal, inputs a name of a person to be registered, and instructs to register the input face image based on the input result. Described face registration device.
ことを特徴とする請求項1記載の顔登録装置。When the input face image does not match any of the registered face images, the face registration instructing means inputs a name of a person to be registered, and instructs to register the input face image based on the input result. The face registration device according to claim 1, wherein
ことを特徴とする請求項2記載の顔登録装置。3. The face registration apparatus according to claim 2, wherein the face registration instructing unit does not instruct the registration when the voice and / or image recognition result is not obtained for a predetermined time.
1以上の顔画像を登録可能な登録顔データベースに登録された登録顔画像のいずれかと上記入力顔画像とが一致するか否かを識別する顔識別工程と、
上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示工程と、
上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録工程とを有し、
上記顔登録指示工程では、上記顔識別結果に基づき登録時刻が決定され、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示され、
上記顔登録工程では、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像が読出され上記登録顔データベースに登録される
ことを特徴とする顔登録方法。An image storage step of temporarily storing the input face image in the image storage means together with information on the input time,
A face identification step of identifying whether any of the registered face images registered in the registered face database capable of registering one or more face images matches the input face image;
A face registration instruction step of instructing registration of an input face image based on the face identification result;
A face registration step of registering the input face image in the registered face database according to the registration instruction,
In the face registration instruction step, a registration time is determined based on the face identification result, and an instruction is issued to register an input face image whose registration time matches the input time,
In the face registration step, an input face image at an input time coinciding with the registration time is read out of the input face images stored in the image storage means and registered in the registered face database. .
ことを特徴とする請求項11記載の顔登録方法。12. The face registration method according to claim 11, wherein in the face registration instruction step, the registration time is specified based on a voice and / or image recognition result.
ことを特徴とする請求項11記載の顔登録方法。The method according to claim 11, wherein when the input face image matches one of the registered face images, the matched registered face image is updated by the input face image in the face registration step in accordance with the registration instruction. Face registration method.
ことを特徴とする請求項13記載の顔登録方法。In the face registration instruction step, if the input face image matches any of the registered face images, it is determined whether the input face image is the identity of the registered face image that matches, and the registration is performed based on the determination result. 14. The face registration method according to claim 13, wherein an instruction is given.
上記顔登録工程では、上記第1の時刻乃至第2の時刻の間に蓄積された入力顔画像を読み出し上記登録顔データベースが更新される
ことを特徴とする請求項14記載の顔登録方法。In the face registration instruction step, the time at which the determination as to whether or not the input face image is the identity of the matched registered face image is set as a first time, and the time at which the determination ends is defined as a second time. Then, the first time or the second time is set as the registration time,
15. The face registration method according to claim 14, wherein in the face registration step, the input face image stored between the first time and the second time is read and the registered face database is updated.
ことを特徴とする請求項14記載の顔登録方法。15. The face registration method according to claim 14, wherein in the face registration step, it is determined whether or not the input face image is the identity of the matched registered face image by voice.
ことを特徴とする請求項14記載の顔登録方法。15. The face registration method according to claim 14, wherein in the face registration instruction step, when it is determined that the user is not the principal, the user is instructed to register the input face image as a new registered face image.
ことを特徴とする請求項17記載の顔登録方法。The said face registration instruction | indication process WHEREIN: When it is determined that it is not the said person, it is made to input the name of the person to be registered, and it is instruct | indicated to register the said input face image based on this input result. 17. The face registration method according to item 17.
ことを特徴とする請求項11記載の顔登録方法。If the input face image does not match any of the registered face images, in the face registration instruction step, the name of a person to be registered is input, and an instruction is made to register the input face image based on the input result. The face registration method according to claim 11, wherein:
ことを特徴とする請求項11記載の顔登録方法。12. The face registration method according to claim 11, wherein, in the face registration instruction step, if the voice and / or image recognition result is not obtained for a predetermined time, the registration is not instructed.
入力顔画像をその入力時刻の情報と共に画像蓄積手段に一時的に保存する画像蓄積工程と、
1以上の顔画像を登録可能な登録顔データベースに登録された登録顔画像のいずれかと上記入力顔画像とが一致するか否かを識別する顔識別工程と、
上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示工程と、
上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録工程とを有し、
上記顔登録指示工程では、上記顔識別結果に基づき登録時刻を決定され、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示され、
上記顔登録工程では、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像が読出され上記登録顔データベースに登録されることを特徴とするプログラムが記録された記録媒体。A computer-readable recording medium recorded with a program for causing a computer to execute a predetermined operation,
An image storage step of temporarily storing the input face image in the image storage means together with information on the input time,
A face identification step of identifying whether any of the registered face images registered in the registered face database capable of registering one or more face images matches the input face image;
A face registration instruction step of instructing registration of an input face image based on the face identification result;
A face registration step of registering the input face image in the registered face database according to the registration instruction,
In the face registration instruction step, a registration time is determined based on the face identification result, and an instruction is issued to register an input face image in which the registration time matches the input time.
In the face registration step, a program is characterized in that an input face image at an input time coinciding with the registration time is read out of the input face images stored in the image storage means and registered in the registered face database. Recording media.
撮像手段と、
撮像手段により撮像された入力画像から顔画像を入力顔画像として検出する顔検出手段と、
上記入力顔画像と共に当該入力顔画像が検出された入力画像の入力時刻の情報が供給される顔登録装置とを備え、
上記顔登録装置は、
1以上の顔画像を登録可能な登録顔データベースと、
上記入力顔画像をその入力時刻の情報と共に一時的に保存する画像蓄積手段と、
上記入力顔画像が上記登録顔データベースに登録された登録顔画像のいすれかと一致するか否かを識別する顔識別手段と、
上記顔識別結果に基づき入力顔画像の登録を指示する顔登録指示手段と、
上記登録指示に従って入力顔画像を上記登録顔データベースに登録する顔登録手段とを有し、
上記顔登録指示手段は、上記顔識別結果に基づき登録時刻を決定し、該登録時刻と上記入力時刻とが一致する入力顔画像を登録するよう指示し、
上記顔登録手段は、上記画像蓄積手段に蓄積された入力顔画像のうち上記登録時刻と一致する入力時刻の入力顔画像を読出し上記登録顔データベースに登録する
ことを特徴とするロボット装置。In a robot device that can operate autonomously,
Imaging means;
Face detection means for detecting a face image as an input face image from the input image captured by the imaging means,
A face registration device to which information of an input time of the input image in which the input face image is detected is supplied together with the input face image,
The face registration device,
A registered face database capable of registering one or more face images,
Image storage means for temporarily storing the input face image together with information on the input time,
Face identification means for identifying whether the input face image matches any of the registered face images registered in the registered face database,
Face registration instructing means for instructing registration of an input face image based on the face identification result,
Face registration means for registering the input face image in the registered face database according to the registration instruction,
The face registration instructing means determines a registration time based on the face identification result, and instructs to register an input face image whose registration time matches the input time;
The robot device, wherein the face registration means reads out an input face image at an input time coinciding with the registration time from the input face images stored in the image storage means and registers the input face image in the registered face database.
ことを特徴とする請求項22記載のロボット装置。23. The robot apparatus according to claim 22, wherein the face registration instruction means specifies the registration time based on a voice and / or image recognition result.
ことを特徴とする請求項22記載のロボット装置。23. The method according to claim 22, wherein when the input face image matches any of the registered face images, the face registration unit updates the matched registered face image with the input face image according to the registration instruction. Robot device.
ことを特徴とする請求項24記載のロボット装置。When the input face image matches any of the registered face images, the face registration instructing means determines whether or not the registered face image matches the input face image, and based on the determination result, the registration instruction is performed. The robot device according to claim 24, wherein
上記顔登録手段は、上記第1の時刻乃至第2の時刻の間に蓄積された入力顔画像を読み出し上記登録顔データベースを更新する
ことを特徴とする請求項25記載のロボット装置。The face registration instructing means sets a time when the determination as to whether or not the input face image is the identity of the matched registered face image as a first time, and a time when the determination ends as a second time. Then, the first time or the second time is set as the registration time,
26. The robot apparatus according to claim 25, wherein the face registration unit reads the input face image accumulated between the first time and the second time and updates the registered face database.
音声を認識する音声認識手段とを有し、
上記顔登録指示手段には、音声及び/又は画像認識結果に基づき上記登録時刻を指定する
ことを特徴とする請求項22記載のロボット装置。Image recognition means for recognizing external situations;
Voice recognition means for recognizing voice,
23. The robot apparatus according to claim 22, wherein the registration time is designated to the face registration instruction means based on a voice and / or image recognition result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003092352A JP2004302645A (en) | 2003-03-28 | 2003-03-28 | Face registration device, face registration method, recording medium and robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003092352A JP2004302645A (en) | 2003-03-28 | 2003-03-28 | Face registration device, face registration method, recording medium and robot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004302645A true JP2004302645A (en) | 2004-10-28 |
Family
ID=33405475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003092352A Withdrawn JP2004302645A (en) | 2003-03-28 | 2003-03-28 | Face registration device, face registration method, recording medium and robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004302645A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008012635A (en) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | Person identification system |
JP2009159478A (en) * | 2007-12-27 | 2009-07-16 | Toshiba Corp | Video processing circuit |
WO2012011229A1 (en) * | 2010-07-19 | 2012-01-26 | ビーエルデーオリエンタル株式会社 | Verification device and verification system |
JP2013167986A (en) * | 2012-02-15 | 2013-08-29 | Hitachi Ltd | Image recognition system and image recognition method |
JP2013182325A (en) * | 2012-02-29 | 2013-09-12 | Toshiba Corp | Face registration device, program and face registration method |
EP2639740A2 (en) | 2012-03-15 | 2013-09-18 | Omron Corporation | Registration determination device, control method and control program therefor, and electronic apparatus |
WO2017217314A1 (en) * | 2016-06-13 | 2017-12-21 | 日本電気株式会社 | Response device, response system, response method, and recording medium |
JP2018501586A (en) * | 2015-01-12 | 2018-01-18 | ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド | Image identification system and method |
JPWO2020246368A1 (en) * | 2019-06-05 | 2020-12-10 |
-
2003
- 2003-03-28 JP JP2003092352A patent/JP2004302645A/en not_active Withdrawn
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008012635A (en) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | Person identification system |
JP2009159478A (en) * | 2007-12-27 | 2009-07-16 | Toshiba Corp | Video processing circuit |
US9047454B2 (en) | 2010-07-19 | 2015-06-02 | Bld Oriental Co., Ltd. | Authentication device and authentication system |
JPWO2012011229A1 (en) * | 2010-07-19 | 2013-09-09 | ビーエルデーオリエンタル株式会社 | Authentication device and authentication system |
WO2012011229A1 (en) * | 2010-07-19 | 2012-01-26 | ビーエルデーオリエンタル株式会社 | Verification device and verification system |
JP2013167986A (en) * | 2012-02-15 | 2013-08-29 | Hitachi Ltd | Image recognition system and image recognition method |
JP2013182325A (en) * | 2012-02-29 | 2013-09-12 | Toshiba Corp | Face registration device, program and face registration method |
EP2639740A2 (en) | 2012-03-15 | 2013-09-18 | Omron Corporation | Registration determination device, control method and control program therefor, and electronic apparatus |
US8958647B2 (en) | 2012-03-15 | 2015-02-17 | Omron Corporation | Registration determination device, control method and control program therefor, and electronic apparatus |
JP2018501586A (en) * | 2015-01-12 | 2018-01-18 | ユウトウ・テクノロジー(ハンジョウ)・カンパニー・リミテッド | Image identification system and method |
US11514663B2 (en) | 2016-06-13 | 2022-11-29 | Nec Corporation | Reception apparatus, reception system, reception method, and storage medium |
US11430207B2 (en) | 2016-06-13 | 2022-08-30 | Nec Corporation | Reception apparatus, reception system, reception method and storage medium |
WO2017217314A1 (en) * | 2016-06-13 | 2017-12-21 | 日本電気株式会社 | Response device, response system, response method, and recording medium |
US11850728B2 (en) | 2016-06-13 | 2023-12-26 | Nec Corporation | Reception apparatus, reception system, reception method, and storage medium |
JPWO2020246368A1 (en) * | 2019-06-05 | 2020-12-10 | ||
WO2020246368A1 (en) * | 2019-06-05 | 2020-12-10 | Necソリューションイノベータ株式会社 | Facial recognition device, facial recognition method, and computer-readable storage medium |
US20220309829A1 (en) * | 2019-06-05 | 2022-09-29 | Nec Solution Innovators, Ltd. | Face authentication apparatus, face authentication method, and computer-readable recording medium |
JP7226853B2 (en) | 2019-06-05 | 2023-02-21 | Necソリューションイノベータ株式会社 | Face authentication device, face authentication method, and program |
US12361753B2 (en) * | 2019-06-05 | 2025-07-15 | Nec Solution Innovators, Ltd. | Face authentication apparatus, face authentication method, and computer-readable recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4086024B2 (en) | Robot apparatus and behavior control method thereof | |
JP4239635B2 (en) | Robot device, operation control method thereof, and program | |
JP4396273B2 (en) | Robot apparatus and control method thereof | |
JP3855812B2 (en) | Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus | |
JP4609584B2 (en) | Robot device, face recognition method, and face recognition device | |
US6539283B2 (en) | Robot and action deciding method for robot | |
JP3714268B2 (en) | Robot device | |
JP2004302644A (en) | Face identification device, face identification method, recording medium and robot device | |
CN113056315B (en) | Information processing device, information processing method, and program | |
JP2004302645A (en) | Face registration device, face registration method, recording medium and robot device | |
JP4296736B2 (en) | Robot device | |
JP2003271958A (en) | Image processing method, device thereof, program thereof, recording medium thereof, and robot device mounted with image processing device | |
JP4449372B2 (en) | Robot apparatus and behavior control method thereof | |
JP2004130427A (en) | Robot device and method for controling operation of robot device | |
JP4281286B2 (en) | Robot apparatus and control method thereof | |
JP7635721B2 (en) | Information processing device, information processing method, and information processing program | |
JP4193098B2 (en) | TRACKING DEVICE, TRACKING DEVICE TRACKING METHOD, AND ROBOT DEVICE | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP2001157980A (en) | Robot device, and control method thereof | |
JP2002331481A (en) | Robot device, operation preparation device and method, control program and recording medium | |
JP2004298976A (en) | Robot device and recognition control method for robot device | |
JP2003266352A (en) | Robot device and control method therefor | |
JP2003266364A (en) | Robot device | |
JP2003266350A (en) | Robot device and internal condition expressing device | |
JP4411503B2 (en) | Robot apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060606 |