[go: up one dir, main page]

JP2013140574A - 電子機器、情報処理方法およびプログラム - Google Patents

電子機器、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2013140574A
JP2013140574A JP2012267626A JP2012267626A JP2013140574A JP 2013140574 A JP2013140574 A JP 2013140574A JP 2012267626 A JP2012267626 A JP 2012267626A JP 2012267626 A JP2012267626 A JP 2012267626A JP 2013140574 A JP2013140574 A JP 2013140574A
Authority
JP
Japan
Prior art keywords
user
cpu
clothes
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012267626A
Other languages
English (en)
Inventor
Kengo Mizui
研吾 水井
Hisashi Tai
寿 田井
Takafumi Toyoda
隆文 豊田
Mayuko Ito
繭子 伊藤
Arinori Kinouchi
有紀 木ノ内
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012267626A priority Critical patent/JP2013140574A/ja
Publication of JP2013140574A publication Critical patent/JP2013140574A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】使い勝手の良い電子機器を提供する。
【解決手段】ユーザを撮像可能な撮像部と、前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出部と、を備え、この時、撮像した画像中に顔が含まれている場合には、顔認識を行い、顔の下の領域と予め登録されている服装データとを、パターンマッチングすることにより、ユーザの服装の種別を分類して、身なり情報とする。
【選択図】図1

Description

本発明は、電子機器、情報処理方法およびプログラムに関する。
従来より、衣服を着た人を撮像して、色及び生地等を判別したり、襟及び袖等の形状を判別したりして、この衣服の種類を分類するシステムが提案されている(例えば、特許文献1)。
[先行技術文献]
[特許文献]
[特許文献1]特開2010−262425号公報
しかしながら、従来のシステムでは、ユーザの衣服を撮像し分類するための設備を準備したり、カメラマンを必要としたりしなければならなく、使い勝手が悪かった。
本発明の第1の態様においては、ユーザを撮像可能な撮像部と、前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出部と、を備える電子機器を提供する。
本発明の第2の態様においては、ユーザを撮像可能な撮像部によりユーザを撮像する撮像ステップと、前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出ステップと、を備える情報処理方法を提供する。
本発明の第3の態様においては、ユーザを撮像可能な撮像部によりユーザを撮像する撮像ステップと、前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出ステップと、をコンピュータに実行させるためのプログラムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る携帯端末10の外観構成を示す。 本実施形態に係る携帯端末10の機能構成を示す。 本実施形態に係る携帯端末10の制御フローを示す。 図3に続く制御フローを示す。 本実施形態の変形例に係る携帯端末10の外観構成を示す。 変形例に係る携帯端末10の機能構成を示す。 ユーザが保有する服装の画像データおよびログを記述したテーブルの一例を示す。 変形例に係る携帯端末10の制御フローを示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る携帯端末10の外観構成を示す。携帯端末10は、ユーザにより携帯して用いられる情報機器である。携帯端末10は、電話機能、インターネット等に接続するための通信機能、および、プログラムを実行するためのデータ処理機能等を有する。携帯端末10は、一例として、長方形の主面を有する薄板状であり、片手の手のひらで把持することができる程度の大きさである。
携帯端末10は、ディスプレイ12と、タッチパネル14と、内蔵カメラ16と、マイク18と、生体センサ20とを備える。ディスプレイ12は、当該携帯端末10の本体の主面側に設けられる。ディスプレイ12は、例えば当該主面の大半の領域(例えば90%)を占める大きさを有する。ディスプレイ12は、画像、各種情報およびボタン等の操作入力用画像を表示する。ディスプレイ12は、一例として、例えば液晶表示素子を用いたデバイスである。
タッチパネル14は、ユーザが触れたことに応じて情報を入力する。タッチパネル14は、ディスプレイ12上またはディスプレイ12内に組み込まれて設けられる。従って、タッチパネル14は、ユーザがディスプレイ12の表面をタッチすることにより、種々の情報を入力する。
内蔵カメラ16は、撮像レンズおよび撮像素子を有し、被写体を撮像する。撮像素子は、一例として、CCDおよびCMOSデバイスである。また、撮像素子は、一例として、RGB3原色がベイヤ配列されたカラーフィルタを含み、各色のそれぞれに対応した色信号を出力する。
内蔵カメラ16は、当該携帯端末10の本体におけるディスプレイ12が設けられる面(すなわち、主面)に設けられる。従って、内蔵カメラ16は、当該携帯端末10のタッチパネル14に対して操作しているユーザの顔および服装を撮像することができる。また、内蔵カメラ16は、撮像レンズとして広角レンズを有する場合には、操作しているユーザに加えて、ユーザの近傍にいる他のユーザ(例えばユーザの隣にいる人)の顔および服装を撮像することができる。
また、携帯端末10は、内蔵カメラ16に加えて、主面とは反対側に他のカメラを更に備えてもよい。これにより、携帯端末10は、ユーザとは反対側に位置する被写体を撮像することができる。
マイク18は、当該携帯端末10の周囲の音声を入力する。マイク18は、一例として、当該携帯端末10の本体における主面の下方側に設けられる。これにより、マイク18は、ユーザの口と対向する位置に配置されて、ユーザが話す音声を入力しやすくなる。
生体センサ20は、当該携帯端末10を保持するユーザの状態を取得する。生体センサ20は、一例として、ユーザの体温、血圧、脈拍および発汗量等を取得する。また、生体センサ20は、一例として、ユーザが当該生体センサ20を保持している力(例えば握力)を取得する。
生体センサ20は、一例として、特開2005−270543号公報に開示されているように、発光ダイオードによりユーザに向けて光を照射し、この光に応じてユーザから反射した光を受光することにより、脈拍を検出する。また、生体センサ20は、一例として、特開2005−270543号公報に開示されているような腕時計型の生体センサにより検出された情報を取得してもよい。
また、生体センサ20は、携帯端末10の本体の長辺側の側部の2箇所に設けられた圧力センサを含んでもよい。このように配置された圧力センサは、ユーザが当該携帯端末10を保持したことおよび当該携帯端末10を保持する力を検出することができる。
また、生体センサ20は、このような圧力センサによりユーザが当該携帯端末10を保持したことを検出してから、他の生体情報の取得を開始してもよい。また、携帯端末10は、電源がオンとなっている状態において、このような圧力センサによりユーザが当該携帯端末10を保持したことを検出してから、他の機能をオンとしてもよい。
図2は、本実施形態に係る携帯端末10の機能構成を示す。携帯端末10は、図1に示した構成に加えて、CPU(Central Processing Unit)22と、GPS(Global Positioning System)モジュール24と、温度計26と、カレンダー部28と、不揮発性メモリ30と、音声解析部32と、画像分析部34と、通信部36とを備える。
CPU22は、携帯端末10の全体を制御する。本実施の形態においては、CPU22は、ユーザの服装、ユーザのいる場所、ユーザが一緒にいる人およびユーザの言葉遣い等に応じてユーザに情報を提供するための制御を行う。
GPSモジュール24は、当該携帯端末10の位置(例えば緯度および経度)を検出する。CPU22は、GPSモジュール24により検出されたユーザのいる位置の履歴を取得して、不揮発性メモリ30に記憶させる。これにより、CPU22は、ユーザの行動範囲を検出することができる。例えば、CPU22は、GPSモジュール24により検出された位置に基づき、平日の午前9時から午後6時までのユーザの行動範囲をビジネスでの行動範囲(ビジネス領域)として登録し、平日の午前9時から午後6時までのビジネス時間帯以外の時間帯における行動範囲をプライベートの行動範囲として登録する。
温度計26は、携帯端末10の周囲の温度を検出する。なお、温度計26は、生体センサ20によるユーザの体温を検出する機能と兼用される構成であってもよい。
カレンダー部28は、年、月、日、時刻といった時間情報を取得して、CPU22に出力する。さらに、カレンダー部28は、計時機能を有する。
不揮発性メモリ30は、フラッシュメモリ等の半導体メモリである。不揮発性メモリ30は、CPU22によって実行される当該携帯端末10を制御するためのプログラム、および、当該携帯端末10を制御するための各種パラメータ等を記憶する。さらに、不揮発性メモリ30は、ユーザのスケジュール、各種センサが検出した各種データ、ユーザが登録した顔データ、顔表情データ、および、服装に関するデータ等を記憶する。
このうち、顔表情データには、笑顔、泣き顔、怒り顔、驚き顔、眉間に皺を寄せている表情等を表すデータが含まれる。また、服装データには、各服装(スーツ、ジャケット、和服、ネクタイ、ポケットチーフ、コート等)を識別するための画像データが含まれる。また、服装データは、フォーマルな服装(例えばスーツ、ジャケット、和服、ネクタイ、ポケットチーフ、コート)と、カジュアルな服装(例えばポロシャツ、Tシャツ、ダウンジャケット)とを識別するための画像データであってもよい。また、それぞれの服装の特徴的な形状(例えば、襟部分の形状)を不揮発性メモリ30に記憶させておいてもよい。
また、不揮発性メモリ30は、敬語の使い方および挨拶の表現等の言葉の表現例を記憶してもよい。本実施の形態においては、CPU22は、例えば、敬語を使わなければならない状況において、不揮発性メモリ30に記憶された敬語の表現を読み出してディスプレイ12に表示する。また、CPU22は、斎場等にいる状況においては、CPU22は、不揮発性メモリ30に記憶されたお悔やみの言葉の表現を読み出して、ディスプレイ12に表示する。
音声解析部32は、マイク18から取り込まれる音声の特徴を解析する。音声解析部32は、一例として、音声認識辞書を有し、識別した音声をテキストデータに変換してディスプレイ12に表示する。また、携帯端末10に音声認識プログラムがインストールされている場合には、音声解析部32は、CPU22によりこのような音声認識プログラムを実行した結果を取得して、音声認識をしてもよい。
また、音声解析部32は、入力した音声に含まれる言葉の内容が、丁寧な言葉(例えば、敬語、丁寧語および謙譲語等)であるか、日常語(平語)であるか、または、それ以外の砕けた言葉であるかを分類する。本実施の形態においては、音声解析部32は、丁寧な言葉(敬語、丁寧語および謙譲語)を第1の分類、日常語を第2の分類、それ以外の言葉を第3の分類とする。音声解析部32は、第3の分類に属する言葉遣いを検出した場合には、ユーザがリラックスしている状態であったり、親密度が高い人と会話している状態であったりすることを認識できる。
また、音声解析部32は、一例として、言葉遣いの分類を、会話の語尾の内容に応じて判断する。音声解析部32は、一例として、"おはようございます"というように、語尾が"ございます(です、ます)"であれば第1の分類とする。また、音声解析部32は、一例として、"おはよう"というように、語尾が"です、ます"ではなく、音声認識辞書に登録されている言葉であれば第2の分類とする。また、音声解析部32は、"おはー"というように、音声認識辞書に登録されていない言葉であれば、第3の分類とする。
画像分析部34は、内蔵カメラ16が撮像した画像を分析する。画像分析部34は、内蔵カメラ16が撮像した画像に加えて、タッチパネル14と反対面側に設けられたカメラが撮像した画像を分析してもよい。
画像分析部34は、一例として、顔認識部42、表情検出部44、および服装検出部46を有する。顔認識部42は、内蔵カメラ16が撮像した画像に、顔が含まれているか否かを検出する。さらに、顔認識部42は、画像に顔を検出した場合には、検出した顔の部分の画像データと、不揮発性メモリ30に記憶されているユーザの顔の画像データとを比較(例えばパターンマッチング)して、内蔵カメラ16が撮像した人を認識する。内蔵カメラ16は、ディスプレイ12と同じ側の面に設けられているので(言い換えると、タッチパネル14と同じ側の面に設けられているので)、ユーザおよびユーザの隣にいる人の顔を撮像することができる。従って、顔認識部42は、ユーザおよびユーザの隣にいる人の顔を認識することができる。
表情検出部44は、顔認識部42により認識された顔の画像データと、不揮発性メモリ30に記憶されている顔表情データと比較して、内蔵カメラ16が撮像した人(例えばユーザおよびユーザの隣にいる人)の表情を検出する。なお、表情検出部44は、笑顔、泣き顔、怒り顔、驚き顔、眉間に皺を寄せている顔、緊張している顔、および、リラックスしている顔等の表情を検出する。不揮発性メモリ30は、これらの複数の表情データを記憶する。笑顔検出の方法は、一例として、米国公開特許2008−037841号に開示されている。また、眉間の皺の検出の方法は、一例として、米国公開特許2008−292148号に開示されている。
服装検出部46は、内蔵カメラ16により撮像されたユーザの服装が、どのような服装であるかを検出する。服装検出部46は、撮像された画像に含まれている服装の箇所の画像データと、不揮発性メモリ30に予め登録されている服装の画像データとをパターンマッチングして服装を検出してもよい。さらに、服装検出部46は、ユーザの服装の種別を判断する。本実施の形態においては、服装検出部46は、ユーザの服装が、フォーマルな服装か、カジュアル(インフォーマル)な服装かを判断する。
顔認識部42により顔が含まれていると判断された画像は、認識した顔の下方部分に服装を含む。従って、服装検出部46は、一例として、顔認識部42により認識された顔の下方部分の予め定められた範囲の画像と、不揮発性メモリ30に記憶されている服装データ(画像データ)とをパターンマッチングすることにより、ユーザの服装を検出することができる。
また、服装検出部46は、携帯端末10を操作しているユーザの服装を検出および服装の種別を判断する。これに加えて、画像内に他のユーザが含まれている場合には、服装検出部46は、ユーザ以外の人の服装の種別を判断してもよい。例えば、服装検出部46は、画像内に複数の人が含まれている場合には、これら複数人のグループが、フォーマルな服装のグループかカジュアルな服装のグループかを判別してもよい。また、服装検出部46は、内蔵カメラ16の撮像素子から検出された色信号に基づいて、服装の種別を分類してもよい。服装検出部46は、黒、紺、グレー、ベージュといったような落ち着いた感じの色合いが多い服装の場合には、フォーマルな服装であると判断し、赤、青、黄色といったような鮮やかな色合いが多い場合にはカジュアルな服装であると判断する。
通信部36は、ネットワーク上のサーバおよび他の携帯端末と通信する。通信部36は、一例として、インターネット等の広域ネットワークにアクセスする無線通信ユニット、Bluetooth(登録商標)による通信を実現するBluetooth(登録商標)ユニット、及び、Felica(登録商標)チップ等を有し、サーバおよび他の携帯端末と通信する。
図3は、本実施形態に係る携帯端末10の制御フローを示す。図4は、図3に続く制御フローを示す。
携帯端末10は、ユーザにより操作が開始されると、図3および図4に示す処理を実行する。携帯端末10は、一例として、ユーザが当該携帯端末10を保持したことを生体センサ20が検出したこと、および、ユーザがタッチパネル14に触れたこと等を条件として、ユーザにより操作が開始されたと判断する。
まず、CPU22は、カレンダー部28から、操作が開始された年月日および時刻を取得する(ステップS11)。本例においては、CPU22は、10月の平日の午前11時30分であることを取得したとする。
続いて、CPU22は、各種センサから周辺情報を取得する(ステップS12)。CPU22は、一例として、GPSモジュール24から位置情報を取得するとともに、温度計26から温度情報を取得する。また、CPU22は、一例として、温度情報に加えて不図示の湿度計により湿度情報を取得してもよい。本例においては、CPU22は、GPSモジュール24から位置情報を取得し、温度計26から20度の温度情報を取得したとする。
続いて、CPU22は、ユーザの生体情報を取得する(ステップS13)。CPU22は、一例として、生体センサ20からユーザの体温、脈拍および血圧等を取得する。本例においては、CPU22は、生体センサ20から、通常時よりも高い脈拍および血圧を取得し、手から発汗があることを取得したとする。なお、ステップS11、S12およびS13の処理順序は適宜入れ替えてもよい。
続いて、CPU22は、取得した年月日および時刻、周辺情報および生体情報に基づき、撮像タイミングであるか否かを判断する(ステップS14)。CPU22は、一例として、年月日および時刻、周辺情報および生体情報が予め設定された条件に一致している場合に、撮像タイミングであると判断する。例えば、CPU22は、ビジネス領域の時間帯であり、且つ、ユーザが緊張していると判断される生体情報が検出された場合、撮像タイミングであると判断してもよい。また、CPU22は、GPSモジュール24の出力に基づいて、ユーザが初めて訪れる場所にいたり、久しぶりに訪れる場所(最後に訪れてから一定期間以上経過した場所)にいたりする場合に撮像タイミングを判断してもよい。
CPU22は、撮像タイミングであれば(ステップS14のYes)、処理をステップS15に進める。また、CPU22は、撮像タイミングでなければ(ステップS14のNo)、処理をステップS11に戻して、例えば一定時間後にステップS11から処理を繰り返す。また、CPU22は、撮像タイミングでなければ(ステップS14のNo)、本フローを抜けて処理を終了してもよい。
続いて、CPU22は、撮像タイミングと判断した場合、内蔵カメラ16によりユーザおよびユーザの近傍を撮像する(ステップS15)。これとともに、CPU22は、マイク18によりユーザの周囲の音声を取得する。
続いて、画像分析部34は、内蔵カメラ16により撮像した画像を分析して、撮像した画像に含まれる顔を認識する(ステップS16)。画像分析部34は、一例として、撮像した画像に含まれる顔の画像データと、不揮発性メモリ30に記憶されている顔データとを比較して、当該携帯端末10を操作しているユーザを認識する。さらに、画像分析部34は、撮像した画像の中に、ユーザ以外の他の人の顔が含まれている場合には、更に、その他の人の顔を認識する。本例においては、画像分析部34は、男性のユーザの顔を認識したとする。さらに、本例においては、画像分析部34は、ユーザの隣に顔があることは検出したが、ユーザの隣の人の顔の認識はできなかったとする。
続いて、画像分析部34は、ユーザの身なりを解析する(ステップS17)。画像分析部34は、一例として、ユーザの服装を検出して、ユーザの服装の種別を分類する。画像分析部34は、一例として、ユーザの服装が、フォーマルな服装か、カジュアルな服装かを判断する。この場合、画像分析部34は、一例として、撮像した画像における顔と認識された箇所の下の領域と、予め登録されている服装データとをパターンマッチングすることにより、ユーザの服装の種別を分類する。画像分析部34は、一例として、撮像した画像における顔と認識された箇所の下の領域の色合いを検出して、ユーザの服装の種別を分類する。また、画像分析部34は、不揮発性メモリ30に記憶された服装の特徴的な形状とのパターンマッチングにより、ユーザの服装の種別を分類してもよく、上述の分類方法を組み合わせてもよい。
続いて、CPU22は、ユーザの状況を分析する(ステップS18)。CPU22は、ユーザの身なりに応じて、ユーザの状況を判断する。CPU22は、一例として、ユーザの服装がフォーマルな服装であればビジネスの状況であると判断し、ユーザの服装がカジュアルな服装であればプライベートの状況と判断する。
更に、CPU22は、一例として、年月日および時刻からユーザの状況を判断してもよい。CPU22は、一例として、平日の午前9時から午後6時までの間であればビジネスの状況と判断し、それ以外の時間帯であればプライベートの状況と判断する。
また、更に、CPU22は、一例として、ユーザの位置に応じて状況を分析してもよい。CPU22は、一例として、会社の近傍にいる場合にはビジネスの状況と判断し、ユーザが自宅近傍にいる場合にはプライベートの状況と判断する。
また、更に、CPU22は、一例として、生体情報からユーザの状況を分析してもよい。CPU22は、一例として、血圧、脈拍および手の汗が平常時より高い場合には緊張した状況であると判断する。
また、更に、CPU22は、一例として、認識されたユーザの顔の表情からユーザの状況を分析してもよい。CPU22は、一例として、ユーザが緊張した表情をしている顔の場合には緊張した状況であると判断し、リラックスした表情をしている場合にはリラックスした状況であると判断する。
また、更に、CPU22は、一例として、マイク18により取得した音声から解析されたユーザまたはユーザの近くにいる人の言葉遣いに基づきユーザの状況を分析してもよい。CPU22は、一例として、ユーザの話した言葉の語尾が第1の分類であればビジネスの状況と判断し、第2の分類であれば友人と会っている状況であると判断し、第3の分類であれば更に親密な友人と会っている状況と判断する。本例においては、CPU22は、ユーザが"お好きな食べ物は何ですか"という言葉を発したことを検出し、語尾に"です"があるので第1の分類と判断したとする。
また、CPU22は、以上の判断結果を総合して更に詳細にユーザの状況を判断してもよい。本例においては、CPU22は、ユーザが平日の午前中(ビジネスタイム)にフォーマルな服装でビジネス領域にいて、緊張した状態であまり面識のない人(親密度が高くない人)に対して丁寧な言葉遣いをしている状況である、との分析結果を取得したとする。
ユーザの状況の判断が終了すると、続いて、CPU22は、ユーザの操作が、通信部36を用いてネットワークから情報を検索して取得するための検索操作か否かを判断する(ステップS19)。CPU22は、ユーザの操作が検索操作の場合(ステップS19のYes)、処理をステップS20に進め、ユーザの操作が検索操作では無い場合(ステップS19のNo)、処理をステップS21に進める。
CPU22は、ユーザの操作が検索操作の場合(ステップS19のYes)、ユーザが検索のために入力した検索キーワードに、ユーザの状況に対応するキーワードを追加して検索を実行する(ステップS20)。これにより、CPU22は、ネットワークから、ユーザの状況に適した情報をユーザに対して提供することができる。
本例の場合においては、CPU22は、ユーザが入力した"ランチ"という検索キーワードに、服装から判断されるユーザの状況を表す"フォーマル"というキーワードを追加して、検索を実行する。これにより、CPU22は、ネットワークから、フォーマルな状況に適したランチを食べるためのお店等の情報を取得することができる。
また、CPU22は、ユーザの服装により判断される状況に代えて、ユーザの言葉遣いの違いにより判断された状況に応じてキーワードを追加してもよい。CPU22は、一例として、ユーザがフォーマルな格好をしている場合であっても、ユーザの語尾が第2の分類または第3の分類である場合には、例えば"ファーストフード"または"ファミリー向け"といったキーワードを追加して検索を実行する。
また、音声解析部32がユーザの言葉の中から"食事"という用語を特定した場合において、ユーザがタッチパネル14により検索メニューを操作したことに応じて、CPU22は、ディスプレイ12に"ランチの検索をしますか?"というような、特定した用語に応じたメッセージを表示してもよい。また、CPU22は、生体センサ20が検出した生体情報からユーザが焦っている状態(交感神経が活発となり血圧および心拍数が上昇したり、発汗したりする状態)と判断した場合は、ソフトウェアによる処理によりタッチパネル14の感度を敏感にしたり、ディスプレイ12に表示する文字を大きくしてもよい。
一方、CPU22は、ユーザの操作が検索操作ではない場合(ステップS19のNo)、ユーザに対してアドバイスを表示するタイミングか否かを判断する(ステップS21)。CPU22は、一例として、ユーザがタッチパネル14を操作中であって入力量(操作量)が予め設定された量よりも多い場合、アドバイスを表示するタイミングではないと判断する。また、CPU22は、一例として、生体センサ20の検出結果に基づき、ユーザの感情および心情の変化が少ない状態の場合に、アドバイスを表示するタイミングであると判断する。また、反対に、CPU22は、一例として、ユーザの感情および心情の変化が大きい場合に、アドバイスを表示するタイミングであると判断する。
CPU22は、アドバイスを表示するタイミングであると判断した場合(ステップS21のYes)、処理をステップS22に進める。また、CPU22は、アドバイスを表示するタイミングではないと判断した場合(ステップS21のNo)、ステップS22をスキップして、処理をステップS23に進める。なお、ステップS21においてアドバイスを表示するタイミングではないと判断した場合、CPU22は、アドバイスを表示するタイミングとなるまで、当該ステップS21で処理を一定時間繰り返してもよい。
続いて、CPU22は、ステップS18で判断したユーザの状況に応じた内容のアドバイスをディスプレイ12に表示する(ステップS22)。CPU22は、一例として、ユーザの状況に応じて、会話の参考となる話題に関する情報を表示する。これにより、CPU22は、例えばユーザがあまり面識の無い人と緊張した状態でランチを取っている場合等において、適切な話題の情報をユーザに提供することができる。より具体的には、CPU22は、フォーマルな服装でビジネスの状況でランチを取っている場合には、政治、経済、事件等のニュースを表示する。さらに、CPU22は、ユーザの会話の中から特定したキーワードに基づき情報を提供してもよい。この場合、例えばユーザの会話中から"為替"というキーワードが特定された場合には、CPU22は、最新の為替レート等を表示する。
また、ユーザがカジュアルな服装をしていてもあまり面識のない人と一緒になり、会話が弾まない場合がある。このような場合、CPU22は、一例として、カレンダー部28から取得した日時から時節の話題に関する情報を表示したり、GPSモジュール24からの位置情報に基づき近隣の話題に関する情報を表示したりしてもよい。
また、更に、CPU22は、服装検出部46が検出した服装に応じた話題の情報を表示してもよい。例えば、ユーザが白いネクタイを着用しており、GPSモジュール24から検出された位置情報および地図情報に基づきユーザが結婚式場の近くにいると判断した場合には、CPU22は、通信部36を用いて外部サーバから結婚に関する情報を取得してこれらの情報を表示したり、不揮発性メモリ30に記憶されているお祝いの言葉、スピーチ例、マナーに関する情報等を表示したりする。また、例えば、ユーザが黒いネクタイをしており、GPSモジュール24からの位置情報および地図情報に基づきユーザが斎場の近くにいると判断した場合に、CPU22は、不揮発性メモリ30に記憶されているお悔やみの言葉および気をつける事項の情報(使わない方がよい用語およびマナー等の情報)を表示する。
なお、CPU22は、当該携帯端末10に対して予め定められたアクションをした場合(例えば、例えば当該携帯端末10を予め定められた力以上で握った場合)、情報の表示タイミングであると判断して、情報を表示してもよい。また、CPU22は、検索結果を取得したことに応じて、不図示のバイブレータ機能により、ユーザに情報検索ができたことを報知するようにしてもよい。
続いて、CPU22は、ユーザが携帯端末10の操作を続けているかどうかを判断する(ステップS23)。CPU22は、一例として、内蔵カメラ16がユーザを撮像し続けている場合、ユーザが操作を続けていると判断してもよい。ユーザが携帯端末10の操作を続けている場合には、CPU22は、ステップS11に戻り処理を繰り返す。そして、CPU22は、ユーザが操作を終了した場合には、ユーザによる携帯端末10の操作時間、ステップS18で分析されたユーザの状況、検索結果、アドバイス情報等を不揮発性メモリ30に記録して(ステップS24)、本フローを抜けて処理を終了する。
なお、CPU22は、ステップS24において、認識された顔データのうちの不揮発性メモリ30に顔データが未だ登録されていない人について、不揮発性メモリ30に顔データを記録してもよい。これにより、CPU22は、ユーザが次にその人に会った場合において、その人の顔認識に活用することができる。
また、CPU22は、ステップS24において、ユーザの言葉遣いの分類を、相手の人と対応付けて記録してもよい。そして、CPU22は、同一の人との会話において、過去に使っていた言葉の言葉遣いの分類と、今回使った言葉の言葉遣いの分類とが異なる場合、ユーザに報知をしてもよい。例えば、CPU22は、同一の人との会話において、ユーザの言葉遣いが第1の分類から第2の分類に変化した場合、ユーザに報知をしてもよい。これにより、CPU22は、そのユーザと何回か会ううちに打ち解けてきたことをユーザに知らせることができる。また、CPU22は、その相手の言葉遣いも記録してもよい。この場合において、CPU22は、ユーザ自身の言葉遣いの分類と、相手の言葉遣いの分類とに相違がある場合、バランスが取れていない旨を報知してもよい。
また、CPU22は、図3および図4に示すフローチャートの処理を、ユーザが1人でいる場合に実行してもよい。例えば、CPU22は、ユーザが1人でいる場合にユーザの服装に応じた情報を表示してもよい。より具体的には、CPU22は、一例として、ユーザが自宅におり室温が15度を下回っているのに半袖の服装でいる場合には、"薄着である旨"をディスプレイ12に表示する。また、CPU22は、一例として、気温が30度を超えるような場合に、"水分補給をする旨"をディスプレイ12に表示する。
図5は、変形例に係る携帯端末10の外観構成を示す。なお、本変形例に係る携帯端末10は、図1から図4を参照して説明した携帯端末10と略同一の構成および機能を採るので、同一の構成要素には同一符号を付けて以下相違点を除き説明を省略する。
本変形例に係る携帯端末10は、図1に示した構成に加えて、ミラーフィルム50を更に備える。ミラーフィルム50は、ディスプレイ12の表面に、例えば接着により貼り付けられている。ミラーフィルム50は、反射性を有する透過性フィルムであり、裏面(ディスプレイ12)側から照射された光を表面側に透過するが、裏面(ディスプレイ12)側から光が照射されていない場合には反射面として機能する。
従って、このようなミラーフィルム50を備える携帯端末10は、ディスプレイ12から光が発光されていない状態においては(例えば、当該携帯端末10の電源がオフの場合)、化粧をするための小型の鏡として機能する。なお、携帯端末10は、ミラーフィルム50に代えて、ディスプレイ12と同一面であって、ディスプレイ12とは異なる場所に設けられた鏡を備えてもよい。
図6は、本変形例に係る携帯端末10の機能構成を示す。本変形例に係る携帯端末10は、図2に示した構成に加えて、バックライト52を更に備える。また、本変形例において、画像分析部34は、図2に示した構成に加えて、顔分析部54を更に有する。
バックライト52は、光源を有し、液晶表示部等であるディスプレイ12に対して画面裏側から光を照射する。バックライト52は、CPU22により光源のオンおよびオフの切り換えおよび光量の制御がされる。より具体的には、CPU22は、ユーザがタッチパネル14を操作している場合、および、ディスプレイ12に情報を表示する場合、バックライト52をオンにして、ディスプレイ12の視認性を向上させる。また、CPU22は、ユーザがタッチパネル14を操作していない場合、バックライト52をオフにする。また、CPU22は、バックライト52をオフする操作をした場合、バックライト52をオフにする。
顔分析部54は、内蔵カメラ16の撮像結果および内蔵カメラ16の撮像素子からの色信号の変化から、ユーザの顔に関する変化を分析する。顔分析部54は、一例として、化粧崩れがあるかを分析する。より具体的には、顔分析部54は、顔にテカリがあるかどうか、および、口紅の色落ちがあるかどうか等を分析する。なお、顔のテカリ検出方法は、例えば、特許第4396387号明細書に開示されている。
また、顔分析部54は、自宅を出る前(例えば通勤の前)に撮像したユーザのカラーの顔画像を基準として、この顔画像から唇部分に色変化が生じているか否かを判断して、口紅の色落ちを検出する。また、顔分析部54は、ユーザの日々の顔画像のデータおよび口紅の状態を不揮発性メモリ30に記憶させておき、この不揮発性メモリ30のデータとの撮像されたユーザの顔画像とを比較して、口紅の色落ちを検出してもよい。
図7は、ユーザが保有する服装の画像データおよびログを記述したテーブルの一例を示す。本変形例において、不揮発性メモリ30には、ユーザが保有している複数の服装の画像データが記憶されている。例えば、不揮発性メモリ30には、ユーザが保有している、スカート、ブラウスおよびコート等の画像データが記憶されている。これらの画像データは、内蔵カメラ16により撮像したデータを用いてもよい。
CPU22は、不揮発性メモリ30に、新たな服装の画像データを適宜追加する。CPU22は、一例として、ユーザがネットワーク等を介してオンラインショップで服を購入した場合に、その服の画像および名称等を不揮発性メモリ30に登録する。また、CPU22は、ユーザが新たな服を撮像した場合、その撮像した服の画像および名称等を不揮発性メモリ30に登録する。また、服装には、服のみならず、アクセサリ、帽子、靴およびカバン等を含んでいてもよい。
また、不揮発性メモリ30には、それぞれの服装に対応して、第1のログおよび第2のログが登録されている。第1のログには、当該服装の着用頻度が含まれる。第1のログには、一例として、月毎の着用頻度および季節毎の着用頻度が含まれる。また、第2のログには、当該服装のユーザのお気に入り度が含まれる。第2のログには、一例として、1から9までの数値でお気に入り度が表されている。なお、第1のログおよび第2のログの更新については、次のフローの説明において行う。なお、特定の服を着る頻度が高ければその旨を報知する。例えば、第1のログからユーザが特定の曜日に特定の服を着ていることがわかれば、CPU22は、ディスプレイ12にその旨の警告表示を行うようにしてもよい。
図8は、本実施形態に係る携帯端末10の制御フローを示す。携帯端末10は、ユーザによる操作またはユーザによる当該携帯端末10の保持が検出されると、図8に示す処理を実行する。
CPU22は、カレンダー部28から、操作が開始された年月日および時刻を取得する(ステップS31)。続いて、CPU22は、各種センサから周辺情報を取得する(ステップS32)。続いて、CPU22は、ユーザの生体情報を取得する(ステップS33)。なお、ステップS31、S32およびS33の処理は、図3および図4に示したフローチャートのステップS11、S12およびS13の処理と同様である。
続いて、CPU22は、取得した年月日および時刻、周辺情報および生体情報に基づき、撮像タイミングであるか否かを判断する(ステップS34)。CPU22は、一例として、年月日および時刻、周辺情報および生体情報が予め設定された条件に一致している場合に、撮像タイミングであると判断する。
例えば、CPU22は、自宅を出る前(例えば通勤の前)の時間帯であってユーザが自宅にいる場合、または、ユーザが会社に出勤してから一定時間経過後の時間帯であってユーザが会社内にいる場合等において、撮像タイミングであると判断してもよい。CPU22は、撮像タイミングであれば(ステップS34のYes)、処理をステップS35に進める。また、CPU22は、撮像タイミングでなければ(ステップS34のNo)、処理をステップS31に戻して、例えば一定時間後にステップS31から処理を繰り返す。また、CPU22は、撮像タイミングでなければ(ステップS34のNo)、本フローを抜けて処理を終了してもよい。
続いて、CPU22は、撮像タイミングと判断した場合、内蔵カメラ16によりユーザを撮像する(ステップS35)。この場合において、CPU22は、ユーザの顔と、ユーザの服装を認識できるような画角等で撮像する。
続いて、CPU22は、バックライト52がオンとなっているか、バックライト52がオフとなっているかを判断する(ステップS36)。バックライト52がオンとなっている場合には、ユーザは、当該携帯端末10を操作していたり、当該携帯端末10により表示される情報を見ていたりする状態である。反対に、バックライト52がオフとなっている場合には、ユーザは、当該携帯端末10を鏡として使用している状態である可能性が高い。
バックライト52がオンとなっている場合、即ち、ユーザが携帯端末10を操作していたり、表示されている情報を見ていたりする状態の場合(ステップS36のYes)、CPU22は、処理をステップS37に進める。また、バックライト52がオフとなっている場合、即ち、ユーザが携帯端末10を鏡として使用している場合(ステップS36のNo)、CPU22は、処理をステップS40に進める。
バックライト52がオンとなっている場合の処理において、画像分析部34は、ユーザを撮像した画像における服装部分の画像データと、不揮発性メモリ30に記憶されているユーザの服装の画像データとパターンマッチング等をして、ユーザが身につけている服等が、ユーザが保有している服装のうちの何れなのかを特定する(ステップS37)。さらに、画像分析部34は、特定した服装の組み合わせを更に判別してもよい。
続いて、CPU22は、特定した服装に対応する第1のログを更新する(ステップS38)。より具体的には、CPU22は、特定した服装に対応する頻度(当月の頻度および当該季節の頻度)の値を、1つカウントアップする。さらに、CPU22は、服装の組み合わせを特定した場合には、特定した組み合わせの情報を不揮発性メモリ30に記憶させる。
また、CPU22は、ステップS37〜S38の処理を1日1回のみ行うようにしてもよい。これにより、CPU22は、ユーザが保有しているそれぞれの服をユーザがどの程度の頻度で着ているかを、日毎に更新することができる。なお、CPU22は、撮像された画像が不鮮明でユーザの服装が検出できない場合には、ステップS37〜S38の処理をスキップする。
続いて、画像分析部34は、ユーザの顔を分析する(ステップS39)。より具体的には、画像分析部34は、ユーザの顔画像から、口紅の色落ちおよび顔のテカリ等が生じて、化粧崩れが生じたかを分析する。また、ユーザが男性の場合には、画像分析部34は、ひげが伸びてきたかどうかを分析してもよい。画像分析部34は、一例として、自宅を出る前(例えば通勤の前)に撮像したユーザの顔画像と、ステップS35で撮像した顔画像とを比較して、化粧崩れが生じているかまたはひげが伸びできたかを分析する。CPU22は、ステップS39の処理を終えると、処理をステップS43に進める。
一方、バックライト52がオフとなっている場合において、CPU22は、ユーザの感情を解析する(ステップS40)。CPU22は、一例として、生体センサ20の検出結果および顔画像から解析された表情等から、ユーザが、機嫌が良いのか、普通の気分なのか、又は機嫌が悪いのか等を解析する。
続いて、画像分析部34は、ユーザを撮像した画像における服装部分の画像データと、不揮発性メモリ30に記憶されているユーザの服装の画像データとパターンマッチング等をして、ユーザが身につけている服装が、ユーザが保有している服装のうちの何れなのかを特定する(ステップS41)。
続いて、CPU22は、特定した服装に対応する第2のログを、ステップS40で解析したユーザの感情に応じて更新する。より具体的には、CPU22は、ユーザの機嫌が良ければ、特定した服装に対応するお気に入り度を上げる。また、CPU22は、ユーザの機嫌が普通であれば、特定した服装に対応するお気に入り度を変更しない。また、CPU22は、ユーザの機嫌が悪ければ、特定した服装に対応するお気に入り度を下げる。
バックライト52がオフとなっている場合であって、ユーザが当該携帯端末10を保持している場合、ユーザは、当該携帯端末10を鏡として使用している状態である可能性が高い。このような場合、ユーザは、身に着けている服装が気に入っていれば機嫌の良い気分となり、身に着けている服装が気に入ってなければ機嫌の悪い気分となる可能性が高い。そこで、このような状態におけるユーザの感情を、身に付けている服装に対応して長期間記録していれば、ユーザがその服装を気に入っているか気に入っていないかの指標とすることができる。
なお、CPU22は、ステップS40〜42の処理をユーザが自宅を出る前(例えば通勤の前)であることを条件として実行してもよい。また、CPU22は、ステップS40〜43の処理を1日1回のみ行うようにしてもよい。また、CPU22は、撮像された画像が不鮮明でユーザの服装が検出できない場合には、ステップS40〜S42の処理をスキップする。CPU22は、ステップS42の処理を終えると、処理をステップS43に進める。
続いて、ステップS43において、CPU22は、ユーザにアドバイスを表示するタイミングか否かを判断する。CPU22は、ユーザにアドバイスを表示するタイミングであれば(ステップS43のYes)、ステップS44においてユーザに対してアドバイスを表示する。CPU22は、ユーザにアドバイスを表示するタイミングでなければ(ステップS43のNo)、ステップS43においてアドバイスを表示するタイミングとなるまで処理を待機する。なお、CPU22は、ユーザにアドバイスを表示するタイミングでなければ、一定時間ステップS43で処理を待機したのちに、本フローを抜けて処理を終了してもよい。
ステップS44においては、CPU22は、一例として、ネットワークを介してオンラインショップ等で服等を購入するタイミングにおいて、第2のログに示される内容を表示する。CPU22は、一例として、服等を購入するタイミングにおいて、お気に入り度の高い服装の画像データ、または、お気に入り度の低い服装の画像データを表示する。これにより、ユーザは、新たな服等の購入時等に、自分の好みを確認することができる。
また、CPU22は、ネットワークを介してオンラインショップ等で服等を購入している場合において、購入しようと選択した服とデザインが似通っている服等を既にユーザが保有していれば、注意を促すアドバイスを表示してもよい。これにより、ユーザは、似通っている服を重複して購入してしまうことを回避することができる。また、不揮発性メモリ30に記憶されている服やアクセサリと、購入しようとしている服やアクセサリとのコーディネート画像をディスプレイ12に表示するようにすれば、ユーザが所持している服と、購入予定の服との着合わせを確認することができる。
また、CPU22は、第1のログを参照して、頻繁に着用している服等およびあまり着用していない服等をユーザに表示する。これにより、ユーザは、着用している服等の偏りを知って、着用する服等の選択に役立てることができる。
また、CPU22は、ユーザが会社に出勤してから一定時間経過後の時間帯であってユーザが会社内にいる場合であって、ステップS39で化粧崩れ(顔のテカリおよび口紅の色落ち)を検出した場合、または、ひげが伸びてきたことを検出した場合には、その旨を表示してもよい。これにより、ユーザは、化粧直しおよびひげを剃るべきタイミングであることを知ることができる。
そして、CPU22は、ステップS44の処理を完了すると、本フローを抜けて処理を終了する。なお、CPU22は、アドバイス表示を行なった後、データ量が足りなかったり取得したデータがまだ変化していたりすることにより、ユーザの顔の撮像を続ける必要がある場合には、ステップS35に処理を戻して、再度の撮像処理から処理を繰り返してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 携帯端末、12 ディスプレイ、14 タッチパネル、16 内蔵カメラ、18 マイク、20 生体センサ、22 CPU、24 GPSモジュール、26 温度計、28 カレンダー部、30 不揮発性メモリ、32 音声解析部、34 画像分析部、36 通信部、42 顔認識部、44 表情検出部、46 服装検出部、50 ミラーフィルム、52 バックライト、54 顔分析部

Claims (14)

  1. ユーザを撮像可能な撮像部と、
    前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出部と、
    を備える電子機器。
  2. 前記撮像部が顔を含む画像を撮像した場合に顔認識を行う顔認識部を備えたことを特徴とする請求項1記載の電子機器。
  3. 前記顔認識部が認識した顔の認識結果と、前記第1検出部が検出した身なりに関する情報とを記憶する第1記憶部を備える
    請求項2に記載の電子機器。
  4. 前記第1記憶部は、前記ユーザの身なりに関する情報として、前記ユーザの服装に関する情報を記憶する請求項3に記載の電子機器。
  5. 前記第1記憶部は、前記服装の色と形状との少なくとも一方に関する情報を記憶する請求項4に記載の電子機器。
  6. 前記第1検出部が検出した前記ユーザの身なりに関する情報を表示する表示部を備える
    請求項1から5のいずれか一項に記載の電子機器。
  7. 前記表示部は、前記ユーザの服装に関する情報を表示する請求項6に記載の電子機器。
  8. 前記表示部は、前記ユーザの顔に関する情報を表示する請求項6または7に記載の電子機器。
  9. 前記撮像部が撮像を行っているときの状況を検出する第2検出部を備える
    請求項1から8のいずれか一項に記載の電子機器。
  10. 前記第2検出部は、位置情報を検出する請求項9に記載の電子機器。
  11. 前記第2検出部は、前記ユーザの生体情報を検出する請求項9または10に記載の電子機器。
  12. 前記ユーザの購買に関する履歴を記憶する第2記憶部を備える
    請求項1から11のいずれか一項に記載の電子機器。
  13. ユーザを撮像可能な撮像部によりユーザを撮像する撮像ステップと、
    前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出ステップと、
    を備える情報処理方法。
  14. ユーザを撮像可能な撮像部によりユーザを撮像する撮像ステップと、
    前記撮像部が撮像した画像に前記ユーザの身なりに関する画像が含まれている場合に前記身なりに関する情報を検出する第1検出ステップと、
    をコンピュータに実行させるためのプログラム。
JP2012267626A 2011-12-07 2012-12-06 電子機器、情報処理方法およびプログラム Pending JP2013140574A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012267626A JP2013140574A (ja) 2011-12-07 2012-12-06 電子機器、情報処理方法およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011267664 2011-12-07
JP2011267664 2011-12-07
JP2012267626A JP2013140574A (ja) 2011-12-07 2012-12-06 電子機器、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2013140574A true JP2013140574A (ja) 2013-07-18

Family

ID=49037921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012267626A Pending JP2013140574A (ja) 2011-12-07 2012-12-06 電子機器、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2013140574A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015199235A1 (ja) * 2014-06-27 2017-04-27 京セラドキュメントソリューションズ株式会社 画像形成装置、画像形成システム及び画像形成方法
JP7407882B1 (ja) 2022-08-23 2024-01-04 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151271A (ja) * 2003-11-18 2005-06-09 Sony Ericsson Mobilecommunications Japan Inc 携帯型情報装置
JP2007156577A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 生活支援ロボットによる色情報獲得方法
JP2007257578A (ja) * 2006-03-27 2007-10-04 Japan Tobacco Inc 顧客情報管理システム、顧客管理装置および顧客情報管理方法、ならびに通信端末
JP2007272896A (ja) * 2006-03-31 2007-10-18 Fujifilm Corp 適応型文脈支援による人間分類を行うためのデジタル画像処理方法および装置
JP2008022154A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 化粧支援装置及び方法
JP2008140319A (ja) * 2006-12-05 2008-06-19 Mitsubishi Electric Corp 個人認証装置および個人認証システム
JP2009271577A (ja) * 2008-04-30 2009-11-19 Panasonic Corp 類似画像検索の結果表示装置及び類似画像検索の結果表示方法
JP2010086289A (ja) * 2008-09-30 2010-04-15 Sharp Corp サービス情報提供装置、携帯端末装置、マルチメディア装置およびサービス提供システム
JP2010262425A (ja) * 2009-05-01 2010-11-18 Palo Alto Research Center Inc 衣服を認識および分類するためのコンピュータ実行方法
JP2011030116A (ja) * 2009-07-29 2011-02-10 Nec Access Technica Ltd 省電力化装置および省電力化方法ならびに制御装置および防犯装置
JP2011081756A (ja) * 2009-10-08 2011-04-21 Inspire Corp 静脈認証システム・・私の指パスの一日

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151271A (ja) * 2003-11-18 2005-06-09 Sony Ericsson Mobilecommunications Japan Inc 携帯型情報装置
JP2007156577A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 生活支援ロボットによる色情報獲得方法
JP2007257578A (ja) * 2006-03-27 2007-10-04 Japan Tobacco Inc 顧客情報管理システム、顧客管理装置および顧客情報管理方法、ならびに通信端末
JP2007272896A (ja) * 2006-03-31 2007-10-18 Fujifilm Corp 適応型文脈支援による人間分類を行うためのデジタル画像処理方法および装置
JP2008022154A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 化粧支援装置及び方法
JP2008140319A (ja) * 2006-12-05 2008-06-19 Mitsubishi Electric Corp 個人認証装置および個人認証システム
JP2009271577A (ja) * 2008-04-30 2009-11-19 Panasonic Corp 類似画像検索の結果表示装置及び類似画像検索の結果表示方法
JP2010086289A (ja) * 2008-09-30 2010-04-15 Sharp Corp サービス情報提供装置、携帯端末装置、マルチメディア装置およびサービス提供システム
JP2010262425A (ja) * 2009-05-01 2010-11-18 Palo Alto Research Center Inc 衣服を認識および分類するためのコンピュータ実行方法
JP2011030116A (ja) * 2009-07-29 2011-02-10 Nec Access Technica Ltd 省電力化装置および省電力化方法ならびに制御装置および防犯装置
JP2011081756A (ja) * 2009-10-08 2011-04-21 Inspire Corp 静脈認証システム・・私の指パスの一日

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郷原 邦男、外2名: ""人物追跡画像に基づく服装の実時間分類"", 情報処理学会研究報告, vol. 2001, no. 87, JPN6016039649, 14 September 2001 (2001-09-14), JP, pages 101 - 108, ISSN: 0003419688 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015199235A1 (ja) * 2014-06-27 2017-04-27 京セラドキュメントソリューションズ株式会社 画像形成装置、画像形成システム及び画像形成方法
EP3162584A4 (en) * 2014-06-27 2018-01-17 Kyocera Document Solutions Inc. Image-forming apparatus, image-forming system and image-forming method
JP7407882B1 (ja) 2022-08-23 2024-01-04 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム
JP2024029937A (ja) * 2022-08-23 2024-03-07 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム

Similar Documents

Publication Publication Date Title
JP5929145B2 (ja) 電子機器、情報処理方法およびプログラム
WO2013084395A1 (ja) 電子機器、情報処理方法およびプログラム
KR102354428B1 (ko) 이미지를 분석하기 위한 웨어러블기기 및 방법
KR102606689B1 (ko) 전자 장치에서 생체 정보 제공 방법 및 장치
KR102530264B1 (ko) 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치
WO2019134560A1 (zh) 搭配模型构建方法、服饰推荐方法、装置、介质及终端
WO2013128715A1 (ja) 電子機器
EP3321787B1 (en) Method for providing application, and electronic device therefor
US20180285641A1 (en) Electronic device and operation method thereof
WO2013145387A1 (ja) 電子機器
US11157988B2 (en) System and method for fashion recommendations
US20120236105A1 (en) Method and apparatus for morphing a user during a video call
US10943119B2 (en) Apparatus and method for performing viewer gaze analysis
JPWO2020059263A1 (ja) 画像提案装置、画像提案方法及び画像提案プログラム
JP2013205969A (ja) 電子機器
US20150145763A1 (en) Electronic device
JP2013120473A (ja) 電子機器、情報処理方法およびプログラム
CN112204539A (zh) 使用社交图信息的自适应搜索
JP2013140574A (ja) 電子機器、情報処理方法およびプログラム
JP2013207407A (ja) 電子機器
JP2013182422A (ja) 電子機器
JP2006155545A (ja) 画像評価装置及びカメラ付き携帯端末
JP2013207406A (ja) 電子機器
CN106557753A (zh) 输出提示的方法及装置
JP2013183289A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170606